• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

人工智能 RT-Thread 2872次浏览 0个评论

上期回顾:

RT-Thread智能车目标识别系统连载教程——手写体识别模型 (1)
RT-Thread智能车目标识别系统连载教程——训练卷积神经网络模型(2)
RT-Thread智能车目标识别系统连载教程——运行卷积神经网络模型(3)

 

前言

这篇文档会介绍如何用 darknet 训练一个 YOLOv2 目标检测模型,看完这篇文档会发现:模型训练和预测都非常简单,最花时间的精力的往往是训练集的数据预处理。

 

下面先简单介绍一下以下两个问题:

 

  • 目标分类 (Classification) 和 目标检测 (Detection) 的区别是什么?
  • YOLODarknet分别是什么?

 

下面这张图很清晰地说明了目标分类:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

一张图片作为输入,然后模型就会告诉我这张图片里有猫的概率是多少,有狗的概率是多少,但是并不会告诉我有几只猫,几只狗,也不会告诉我猫和狗在图片里的具体位置。

 

而目标检测则不一样:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

目标检测的模型输出会告诉我图片中猫和狗分别在什么位置,以及是猫和狗的概率分别是多少,所以目标检测模型提供的信息更加丰富,但是因此对模型的要求也更高了。

 

这里非常推荐一篇文章,本文章对目标检测的解释非常直观详细:

http://machinethink.net/blog/object-detection/

 

现在目标检测算法也有很多,这篇文章用到的就是非常有名的 YOLO (You only look once),就和字面意思一样, YOLO 可以一步 (one-stage) 得到结果所以非常快 (R-CNN 就需要两步 two-stage),而 Darknet 就是论文作者对自己算法的开源实现,既然是作者本人的实现,自然会有很多人愿意看一看。

 

Darknet 是用 C 语言实现的,在 Github 上也能找到开源的 源码,用 Darknet 既可以训练新的模型,也可以用现有的模型做预测。

 

接下来就会介绍如何用 Darknet 训练一个小黄人目标检测模型。

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

目标检测模型演示

 

参考文献:

1、Darknet

2、目标检测

 

1 准备训练集

1.1 拍摄照片

首先当然是要拍照了,照片用什么摄像头都是可以的,不过如果采集数据用的摄像头和最后实时预测用的是一样的,效果当然会更好了,不过我这里拍照用的是 K210 上面的摄像头,上面的动画里预测是用的 USB 摄像头,效果也还可以

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

其实拍照就是拍一些里面包含你想要识别的物体的照片就好了,从各个角度、各个距离拍,这很重要!!!比如如果你想识别只有一半的小黄人,那拍的照片里就得有这样的例子才行,下面就是我拍的 300 张照片:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

通常做机器学习的图像识别,训练集很多时候都是 10GB+,但是我是用的 K210 摄像头拍的,每张照片就 320×240 差不多 3KB 大小,最后 300 张照片加在一起还没有 3MB,不过最后的训练结果却还挺不错的

 

如果碰巧你也有 K210 可以参照下面的 Micropython 代码每隔 1-2s 自动拍一张照片保存到 SD 卡,用手机摄像头当然也是完全没有问题的

 # Untitled - By: RT-Thread - 周五 7月 19 2019
 
 import sensor, image, time, lcd
 from fpioa_manager import *
 from Maix import GPIO
 import os
 
 def getMax():
     maxnum = 0;
    files = os.listdir('/sd')
    for file in files:
        name = file.split(".")
        if(len(name)>1 and name[1] == "jpg"):
            if(int(name[0])>maxnum):
                maxnum = int(name[0])
    return maxnum

fm.register(board_info.LED_R, fm.fpioa.GPIO0)
led_r=GPIO(GPIO.GPIO0,GPIO.OUT)

lcd.init(freq=15000000)

sensor.reset()
sensor.set_pixformat(sensor.RGB565) # Set pixel format to RGB565 (or GRAYSCALE)
sensor.set_framesize(sensor.QVGA)   # Set frame size to QVGA (320x240)
sensor.skip_frames(time = 2000)     # Wait for settings take effect.
sensor.set_hmirror(0)
sensor.set_windowing((224,224))
clock = time.clock()                # Create a clock object to track the FPS.

i = getMax() + 1

def capture():
    global i
    img = sensor.snapshot()
    filename = '/sd/' + str(i) + '.jpg'
    print(filename)
    img.save(filename)
    img.draw_string(2,2, ("%2.1f" %(i)), color=(0,128,0), scale=2)
    lcd.display(img)
    i = i + 1;

print("Start from %d" % i)

while True:
    led_r.value(0)
    time.sleep(1)
    led_r.value(1)
    capture()

 

这里千万不要把图片保存为中文名,建议像图中那样用数字按顺序标注,到这里我们应该有几百张包含我们要检测的物体的图片了。

 

1.2 标注图片

这一步应当是最累的了,上面只是拍好了 300 张照片,这一步就要为这些图片一一的做标注了,看起来就是这样:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

这里推荐用软件 LabelImg (链接:https://github.com/tzutalin/labelImg)来标注:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

软件用起来还是非常简单的,打开拍摄的图片文件夹,选择要保存的文件夹,然后一张一张地标注就可以了,最后可以看到每一张图片都生成了对应的 txt 文件:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

如果我们打开一个 txt 文件就可以看到类似下面的内容:

 

0     0.671875    0.575893   0.352679    0.848214

其中每个数字代表的含义是:

 

物体类别   物体中心位置 x    物体中心位置 y   物体宽度 x   物体高度y

 

因为我们只有一个类别,所以第一个数字始终是 0,代表是第一个类别。

 

到这里我们应该每一张拍摄的图片都有一个对应的 txt 文件,里面包含上面提到的内容。

 

1.3 划分训练集和测试集

在开始训练之前,我们还需要把上面拍到的图片分为训练集和测试集,这样我们才知道模型训练效果怎么样。

 

这里有个 python 脚本可以自动生成训练集和测试集,其实最终的目的就是生成两个文件,train.txt 和 test.txt,里面分别包含了训练图像,和测试图像的名字。

 

import glob, os
 
 # Current directory
 current_dir = os.path.dirname(os.path.abspath(__file__))
 
 # Directory where the data will reside, relative to 'darknet.exe'
 # 修改为你自己的目录
 path_data = './train/'

# Percentage of images to be used for the test set
percentage_test = 10;

# Create and/or truncate train.txt and test.txt
file_train = open('train.txt', 'w')
file_test = open('test.txt', 'w')

# Populate train.txt and test.txt
counter = 1
index_test = round(100 / percentage_test)
for pathAndFilename in glob.iglob(os.path.join(current_dir, "*.jpg")):
    title, ext = os.path.splitext(os.path.basename(pathAndFilename))

    if counter == index_test:
        counter = 1
        file_test.write(path_data + title + '.jpg' + "\n")
    else:
        file_train.write(path_data + title + '.jpg' + "\n")
        counter = counter + 1

 

最后 train.txt 和 test.txt 看起来是这样的:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

到这里应该有拍好的照片,每张照片对应一个 txt 标明了小黄人的位置,大小,另外还有一个 train.txt 和 test.txt 汇总了当前训练集和测试集的文件名。

 

1.4 参考文献

1、荔枝丹 Dan Dock (K210)

2、训练自己的 Darknet Yolov2 模型

 

2 训练模型

2.1 开发环境

训练的过程就非常简单了,建议使用 GPU,请务必使用 GPU,而且请使用 Linux 开发环境,Ubuntu 自然是科研领域用的最多的 Linux 发行版了,而且在开始训练之前请安装好显卡驱动、CUDA 工具链、cuDNN 库

 

我用 i5 训练了整整 2天,才迭代了 200 步,用 NVIDIA GP104 训练一上午就迭代了 20000 步。

 

都安装好之后,输入 nvidia-smi 应当是可以看到 CUDA 版本的:

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

2.2 编译 Darknet

如果到这里开发环境安装没有问题,我们就可以开始训练了,其实训练过程非常简单,首先下载源码:

 

git clone https://github.com/pjreddie/darknet

 

为了使用 GPU 训练,我们需要修改一下 Makefile:

 

GPU=1
CUDNN=1
OPENCV=0
OPENMP=0
DEBUG=0

 

然后编译:

 

make

 

编译好 Darknet 后就可以在源码根目录看到一个 Darknet 可执行文件了。

 

2.3 配置文件

下面我们在 cfg 目录下添加一个 obj.names 文件,里面定义了我们的物体类别:

 

minions

 

当然,我们只有一个类别,接下来还需要在 cfg 目录下添加一个 obj.data 文件,里面第一行定义了我们的物体类别数,我们只有一个类别,已经我们前面生成的 train.txt,test.txt,obj.names 这 3 个文件在哪里,最后的 backup 是指训练的模型保存的位置。

 

classes= 1
train  = /home/wuhan/darknet/data/train.txt
valid  = /home/wuhan/darknet/data/test.txt
names = /home/wuhan/darknet/cfg/obj.names
backup = backup/

最后因为我们训练的模型只有 1 类,但是 yolo 模型默认并不是只有 1 类,所以我们需要修改 cfg/yolov2.cfg,需要修改的部分我都标注出来了,我把这个配置文件保存成了 minionsv2.cfg:

 

 [net]
  # Testing
  batch=16
  subdivisions=1
  # Training
  # batch=64
  # subdivisions=2
  width=214     # 修改图像宽度
  height=214    # 修改图像高度
 channels=3
 momentum=0.9
 decay=0.0005
 angle=0
 saturation = 1.5
 exposure = 1.5
 hue=.1
 
 learning_rate=0.001
 burn_in=1000
 max_batches = 500200
 policy=steps
 steps=400000,450000
 scales=.1,.1
 
 [convolutional]
 batch_normalize=1
 filters=16
 size=3
 stride=1
 pad=1
 activation=leaky
 
 [maxpool]
 size=2
 stride=2
 
 [convolutional]
 batch_normalize=1
 filters=32
 size=3
 stride=1
 pad=1
 activation=leaky
 
 [maxpool]
 size=2
 stride=2
 
 [convolutional]
 batch_normalize=1
 filters=64
 size=3
 stride=1
 pad=1
 activation=leaky
 
 [maxpool]
 size=2
 stride=2
 
 [convolutional]
 batch_normalize=1
 filters=128
 size=3
 stride=1
 pad=1
 activation=leaky
 
[maxpool]
 size=2
 stride=2
 
 [convolutional]
 batch_normalize=1
 filters=256
 size=3
 stride=1
 pad=1
 activation=leaky
 
 [maxpool]
 size=2
 stride=2
 
 [convolutional]
 batch_normalize=1
 filters=512
 size=3
 stride=1
 pad=1
 activation=leaky
 
 [maxpool]
 size=2
 stride=1
 
 [convolutional]
 batch_normalize=1
 filters=1024
size=3
stride=1
pad=1
activation=leaky

###########

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=512
activation=leaky

[convolutional]
size=1
stride=1
pad=1
filters=30         # filters = (classes + 5) * 5
activation=linear

[region]
anchors =  0.57273, 0.677385, 1.87446, 2.06253, 3.33843, 5.47434, 7.88282, 3.52778, 9.77052, 9.16828
bias_match=1
classes=1         # 只有 1 类
coords=4
num=5
softmax=1
jitter=.2
rescore=0

object_scale=5
noobject_scale=1
class_scale=1
coord_scale=1

absolute=1
thresh = .6
random=1

 

2.4 开始训练

终于可以开始训练了:

 

./darknet detector train cfg/obj.data cfg/minionsv2.cfg darknet19_448.conv.23 

 

记得把上面的配置文件改成自己的配置文件,上面命令里提前训练好的模型可以从这里下载 darknet19_448.conv.23 (78MB):https://wuhanshare-1252843818.cos.ap-guangzhou.myqcloud.com/darknet19_448.conv.23,可以加快训练速度。

 

前面提到,训练好的模型可以在 backup 目录找到,这是我训练了 20000 步之后自动保存的模型文件:

 

minionsv2_10000.weights
 minionsv2_100.weights
 minionsv2_20000.weights
 minionsv2_200.weights
 minionsv2_300.weights
 minionsv2_400.weights
 minionsv2_500.weights
 minionsv2_600.weights
 minionsv2_700.weights
minionsv2_800.weights
minionsv2_900.weights
minionsv2.backup

 

3 实时预测

如果我们想从摄像头实时看到检测结果,需要先重新编译 Darknet,因为访问摄像头需要 OpenCV 库支持,修改 Makefile:

 

GPU=1
CUDNN=1
OPENCV=1
OPENMP=0
DEBUG=0

 

重新 make 得到 darknet 可执行文件,输入下面的命令就可以看到试试检测结果了。

 

./darknet detector demo cfg/obj.data cfg/minionsv2.cfg /home/wuhan/darknet/backup/minionsv2_10000.weights

 

记得把上面的文件路径改为自己的实际文件路径。

 

RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)

 

4 总结

这里总结一下,用 Darknet 训练目标检测模型其实就这几步:

 

1、拍摄照片

2、用 labelimg 在照片上标注出自己想识别的物体的位置

3、把拍摄的照片划分为测试集和训练集,生成 train.txt 和 test.txt

4、编译 Darknet,配置好 CUDA,cuDNN

5、添加配置文件 cfg/obj.names 和 cfg/obj.data

6、修改 yolov2 模型为单类别 cfg/yolov2.cfg,并下载 darknet19_448.conv.23

7、用 GPU 开始训练,模型会自动保存


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明RT-Thread智能车目标识别系统连载教程——Darknet 训练目标检测模型(4)
喜欢 (0)

您必须 登录 才能发表评论!

加载中……