在目标跟踪时,摄像头提供实时的图片信息,我们需要识别出图片目标,且输出目标在图片中的位置,为后续的控制提供条件。在demo中,我是借助darknet_ros实现这一目标。当然,这一模块可以替换成性能更优秀的识别算法。 darknet_ros为yolov3在ros下的一个工具包(https://github.com/leggedrobotics/darknet_ros)。需要对yolov3的使用有所了解(https://pjreddie.com/darknet/yolo/)。例程我就不介绍了,可以在网上搜索。在此主要基于demo测试介绍我个人的使用情况,主要包括摄像头驱动、数据集制作、模型训练、模型部署。 本文主要介绍用于yolo训练的数据集的制作。 1、数据包录制 当摄像头能正常工作时,我们就可以录制视频数据。ros下采集数据十分方便,鉴于我们只需要图片数据,由上文说明,图片数据的topic为/usb_cam/image_raw,则利用rosbag record指令:
rosbag record /usb_cam/image_raw -O 001
结果我们在当前路径获得录制好的视频数据包001.bag。我们可以依次录制002、003等等的数据包。 2、视频数据包提取图片 安装图片处理依赖包:
sudo apt-get install mjepgtools
sudo apt-get install ffmpeg
依旧借助image_view(http://wiki.ros.org/image_view)工具:
rosrun image_view extract_images _sec_per_frame:=0.01 image:=<IMAGETOPICINBAGFILE>
其中,IMAGETOICINBAGFILE为图片topic。图像数据保存在当前目录下。以001.bag为例,需要依次新建三个终端执行:
roscore
rosrun image_view extrac_images _sec_per_frame:=0.01 image:=/usb_cam/image_view
rosbag play 001.bag
3、批量修改文件名 借助rename指令:
rename -v ‘s/frame/1_’ *.jpg
结果将使得提取出来的文件夹中的图片文件名由frame0000.jpg、frame0001.jpg修改为1_0000.jpg,1_0001.jpg。 4、图片标注 图片标注的工具非常多,在此我只介绍一下我所使用的labelImg(https://github.com/tzutalin/labelImg)。按照教程步骤安装即可,然后python labelImg.py。 在使用时报错:
ImportError: No module named PyQt4.QtCore
很容易在网上找到原因及解决方法: pyqt5没有string这个类,找到解决方法:在labelImg文件夹下编辑 libs/ustr.py这个文件,修改插入如下代码:
try:
from PyQt4.QtCore import QString
except ImportError:
# we are using Python3 so QString is not defined
QString = str
5、制作满足yolo训练需求格式的数据集 在此我大致列出制作训练demo使用的模型所需的数据集的步骤。在此说明一下,我一共录制了6个数据包,因此得到6个存放图片数据的文件夹。1号文件夹内的图片名为1_0000.jpg,1_0001.jpg,…;2号文件夹内的图片名为2_0000.jpg,2_0001.jpg,…;以此类推。 ①在/darknet_ros/darknet路径下新建数据集存放文件夹cabin_data/data; ②在data路径下新建文件夹1存放1号文件夹图片数据; ③在文件夹1内新建文件夹JPEGImages,将1号文件夹图片复制至此路径; ④在文件夹1内新建文件夹Annotations,用于存放labelImg标注数据。 ⑤使用labelImg标注图片数据,标注格式为Pascal VOC,存储路径为Annotations文件夹,路径下将得到标注的xml数据,当然labelImg支持yolo标注格式,但我觉得后面使用脚本转换更方便; ⑥在文件夹1内新建labels文件夹,运行xml_to_txt_label.py,将VOC标注数据转成yolo标注数据,路径下将得到转换后的txt数据;
#xml_to_txt_label.py
import os
import os.path
import xml.etree.ElementTree as ET
import glob
class_names = ['sea_cucumber']
xmlpath='/home/pcl-02/darknet_ws/src/darknet_ros/darknet/cabin_data/data/1/Annotations'
txtpath='/home/pcl-02/darknet_ws/src/darknet_ros/darknet/cabin_data/data/1/labels'
def xml_to_txt(xmlpath,txtpath):
os.chdir(xmlpath)
annotations = os.listdir('.')
annotations = glob.glob(str(annotations)+'*.xml')
#file_save = 'train' + '.txt'
#file_txt = os.path.join(txtpath, file_save)
#f_w = open(file_txt, 'w')
for i,file in enumerate(annotations):
in_file = open(file)
filename_prefix = file[:-4]
tree=ET.parse(in_file)
root = tree.getroot()
file_save = filename_prefix + '.txt'
file_txt = os.path.join(txtpath, file_save)
f_w = open(file_txt, 'w')
filename = root.find('filename').text
for obj in root.iter('object'):
current = list()
name = obj.find('name').text
class_num = class_names.index(name)
xmlbox = obj.find('bndbox')
x1 = xmlbox.find('xmin').text
x2 = xmlbox.find('xmax').text
y1 = xmlbox.find('ymin').text
y2 = xmlbox.find('ymax').text
x = (float(x1) + float(x2)) / 2.0 / 800.0
y = (float(y1) + float(y2)) / 2.0 / 600.0
width = (float(x2) - float(x1)) / 800.0
height = (float(y2) - float(y1)) / 600.0
#print x,y,width,height
#f_w.write(str(class_num)+','+'x1+','+y1+','+x2+','+y2+','+'\n')
f_w.write(str(class_num)+' '+str(x)+ ' '+str(y)+' '+str(width)+' '+str(height))
xml_to_txt(xmlpath,txtpath)
⑦在文件夹1内新建ImageSets/Main文件夹,运行train_val_test.py,划分训练集,验证集及测试集,在路径下得到test.txt,train.txt,trainval.txt,val.txt,最后得到cabin_data/data/1路径下情况将如下所示
#train_val_test.py
import os
import random
test_percent = 0.2
val_percent = 0.2
xmlfilepath = 'Annotations'
txtsavepath = 'ImageSets\Main'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
print num
list = range(num)
test_num = int(num * test_percent)
print test_num
val_num = int(num * val_percent)
print val_num
test_val_num = test_num + val_num
test_vel_f = random.sample(list, test_val_num)
vel_f = random.sample(test_vel_f, val_num)
ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('ImageSets/Main/test.txt', 'w')
ftrain = open('ImageSets/Main/train.txt', 'w')
fval = open('ImageSets/Main/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in test_vel_f:
if i in vel_f:
ftrainval.write(name)
fval.write(name)
else:
ftest.write(name)
else:
ftrainval.write(name)
ftrain.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
⑧在data路径下新建文件夹ImageSets/Main,将文件夹1内ImageSets/Main下的test.txt、train.txt、val.txt复制至此路径下,且修改文件名为1_test.txt,1_train.txt,1_val.txt,剩余几个数据文件夹同理; ⑨运行combine_datasets.py,将各分数据集合并成总数据集,在data/ImageSets/Main下得到train.txt,val.txt用于训练,在此提一下我只将5个数据包用于制作数据集训练,第六个数据包用于测试模型性能,最后得到cabin_data/data路径下情况如图所示
data/ImageSets/Main路径下:
#combine_datasets.py
import os
from os import listdir, getcwd
from os.path import join
sets=[('1', 'train'), ('1', 'val'), ('1', 'test'), ('2', 'train'), ('2', 'val'), ('2', 'test'),('3', 'train'), ('3', 'val'), ('3', 'test'), ('4', 'train'), ('4', 'val'), ('4', 'test'),('5', 'train'), ('5', 'val'), ('5', 'test')]
wd = getcwd()
for year, image_set in sets:
if not os.path.exists('ImageSets/Main'):
os.makedirs('ImageSets/Main')
image_ids = open('%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()
list_file = open('ImageSets/Main/%s_%s.txt'%(year, image_set), 'w')
for image_id in image_ids:
list_file.write('%s/%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))
list_file.close()
os.system("cat ImageSets/Main/1_train.txt ImageSets/Main/1_test.txt ImageSets/Main/2_train.txt ImageSets/Main/2_test.txt ImageSets/Main/3_train.txt ImageSets/Main/3_test.txt ImageSets/Main/4_train.txt ImageSets/Main/4_test.txt ImageSets/Main/5_train.txt ImageSets/Main/5_test.txt> ImageSets/Main/train.txt")
os.system("cat ImageSets/Main/1_val.txt ImageSets/Main/2_val.txt ImageSets/Main/3_val.txt ImageSets/Main/4_val.txt ImageSets/Main/5_val.txt> ImageSets/Main/val.txt")