• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

Tensorflow学习——利用Object Detection api训练自己的数据集

人工智能 white_Learner 1926次浏览 0个评论

文件目录结构

├─Annotation
│  └─XML文件
├─data
│  ├─csv文件
│  └─Record文件
├─images
│  └─图片
├─eval
│  └─测试集结果
├─training
│  ├─pbtxt文件
│  ├─config文件
│  └─model.ckpt文件
├─model
│  └─输出模型

 

一、准备图片

利用labelImg截取图片中的对象并添加标签,生成XML文件保存在Annotation目录下,注意文件命名与图片对应同时命名遵从以一定规律。

 

labelImg下载地址:https://github.com/tzutalin/labelImg/releases

 

批量命名可参考下面命令,用法cd到当前目录并运行:

 

@echo off&setlocal EnableDelayedExpansion 
set a=1 
for /f "delims=" %%i in ('dir /b *.jpg') do ( 
if not "%%~ni"=="%~n0" ( 
ren "%%i" "20180609(data)!a!.jpg"
set/a a+=1 
) 
)

 

二、xml转换到csv

      因在制作用于训练的.record格式文件时用到的是csv格式文件,所以需要将xml转换到csv,转换可以通过下面的python程序处理,其中程序中的xml_df = xml_to_csv(image_path) image_path为xml目录路径,生成的csv文件默认保存在程序目录下。

 


import os

import glob

import pandas as pd

import xml.etree.ElementTree as ET

 

 

def xml_to_csv(path):

    xml_list = []

    for xml_file in glob.glob(path + '/*.xml'):

        tree = ET.parse(xml_file)

        root = tree.getroot()

        for member in root.findall('object'):

            value = (root.find('filename').text,

                     int(root.find('size')[0].text),

                     int(root.find('size')[1].text),

                     member[0].text,

                     int(member[4][0].text),

                     int(member[4][1].text),

                     int(member[4][2].text),

                     int(member[4][3].text)

                     )

            xml_list.append(value)

    column_name = ['filename', 'width', 'height', 'class', 'xmin', 'ymin', 'xmax', 'ymax']

    xml_df = pd.DataFrame(xml_list, columns=column_name)

    return xml_df

 

 

def main():

    image_path = os.path.join(os.getcwd(), 'annotations')

    xml_df = xml_to_csv(image_path)

    xml_df.to_csv('raccoon_labels.csv', index=None)

    print('Successfully converted xml to csv.')

 

 

main()

 

三、数据集整理

Tensorflow学习——利用Object Detection api训练自己的数据集

 

在使用数据集进行训练前需将数据集分为训练集和测试集。训练集的作用在于训练模型,测试集的作用在于测试训练后模型,对数据集分离的目的在于避免产生过拟合使得训练出来的模型难以泛化到新的数据,两者的比例一般为9:1,可根据实际进行调整。

 

  • 训练集:用于训练模型的子集。
  • 测试集:用于测试训练后模型的子集。

 

四、生成tfrecord格式文件

官方在教程中提供了生成自己的tfrecord格式文件,参考其方法及国外论坛的资料,编写generate_tfrecord.py用于生成自己的tfrecord格式文件,其中#TO-DO replace this with label map下的内容需要根据自己的数据集进行修改,修改为自己数据集的标签。

 


"""

Usage:

  # From tensorflow/models/

  # Create train data:

  python generate_tfrecord.py --csv_input=data/train_labels.csv  --output_path=train.record



  # Create test data:

  python generate_tfrecord.py --csv_input=data/test_labels.csv  --output_path=test.record

"""

from __future__ import division

from __future__ import print_function

from __future__ import absolute_import

 

import os

import io

import pandas as pd

import tensorflow as tf

 

from PIL import Image

from object_detection.utils import dataset_util

from collections import namedtuple, OrderedDict

 

flags = tf.app.flags

flags.DEFINE_string('csv_input', '', 'Path to the CSV input')

flags.DEFINE_string('output_path', '', 'Path to output TFRecord')

FLAGS = flags.FLAGS

 

 

# TO-DO replace this with label map

def class_text_to_int(row_label):

    if row_label == 'cola':

        return 1

    elif row_label == 'milk':

	    return 2

    else:

        None

 

 

def split(df, group):

    data = namedtuple('data', ['filename', 'object'])

    gb = df.groupby(group)

    return [data(filename, gb.get_group(x)) for filename, x in zip(gb.groups.keys(), gb.groups)]

 

 

def create_tf_example(group, path):

    with tf.gfile.GFile(os.path.join(path, '{}'.format(group.filename)), 'rb') as fid:

        encoded_jpg = fid.read()

    encoded_jpg_io = io.BytesIO(encoded_jpg)

    image = Image.open(encoded_jpg_io)

    width, height = image.size

 

    filename = group.filename.encode('utf8')

    image_format = b'jpg'

    xmins = []

    xmaxs = []

    ymins = []

    ymaxs = []

    classes_text = []

    classes = []

 

    for index, row in group.object.iterrows():

        xmins.append(row['xmin'] / width)

        xmaxs.append(row['xmax'] / width)

        ymins.append(row['ymin'] / height)

        ymaxs.append(row['ymax'] / height)

        classes_text.append(row['class'].encode('utf8'))

        classes.append(class_text_to_int(row['class']))

 

    tf_example = tf.train.Example(features=tf.train.Features(feature={

        'image/height': dataset_util.int64_feature(height),

        'image/width': dataset_util.int64_feature(width),

        'image/filename': dataset_util.bytes_feature(filename),

        'image/source_id': dataset_util.bytes_feature(filename),

        'image/encoded': dataset_util.bytes_feature(encoded_jpg),

        'image/format': dataset_util.bytes_feature(image_format),

        'image/object/bbox/xmin': dataset_util.float_list_feature(xmins),

        'image/object/bbox/xmax': dataset_util.float_list_feature(xmaxs),

        'image/object/bbox/ymin': dataset_util.float_list_feature(ymins),

        'image/object/bbox/ymax': dataset_util.float_list_feature(ymaxs),

        'image/object/class/text': dataset_util.bytes_list_feature(classes_text),

        'image/object/class/label': dataset_util.int64_list_feature(classes),

    }))

    return tf_example

 

 

def main(_):

    writer = tf.python_io.TFRecordWriter(FLAGS.output_path)

    path = os.path.join(os.getcwd(), 'images')

    examples = pd.read_csv(FLAGS.csv_input)

    grouped = split(examples, 'filename')

    for group in grouped:

        tf_example = create_tf_example(group, path)

        writer.write(tf_example.SerializeToString())

 

    writer.close()

    output_path = os.path.join(os.getcwd(), FLAGS.output_path)

    print('Successfully created the TFRecords: {}'.format(output_path))

 

 

if __name__ == '__main__':

    tf.app.run()

 

运行格式如下,默认图片在当前文件夹images文件下。

 

python generate_tfrecord.py --csv_input=csv文件路径
                            --output_path=输出record文件名字(**.record)

 

五、准备训练文件

1、.pbtxt文件,文件内容根据标签确定。

item {
  id: 1
  name: 'cola'
}

item {
  id: 2
  name: 'milk'
}

 

2、model.ckpt文件为训练模型,一般采用预训练模型,可降低训练所需时间,根据实际需求选择适合自己的模型,下载完成后解压,将名字带有model.ckpt的三个文件移动到training目录下。

 

各种模型下载链接:

https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/detection_model_zoo.md

 

Tensorflow学习——利用Object Detection api训练自己的数据集

 

3、.config文件在目录models-master\research\object_detection\samples\configs下选择,根据选择的预训练模型选择对应.config文件,同时修改文件中路径为对应目录

 

fine_tune_checkpoint: "../training/model.ckpt"

train_input_reader: {
  tf_record_input_reader {
    input_path: "../data/train.record"
  }
  label_map_path: "../training/*.pbtxt"
}

eval_input_reader: {
  tf_record_input_reader {
    input_path: "../data/eval.record"
  }
  label_map_path: "../training/*.pbtxt"

 

同时根据硬件条件选定合适的批次(batch_size)和初始学习速率(initial_learning_rate)。

 

批次(batch)是每一次迭代中模型训练使用的样本集,批次规模(batch_size)为一个批次中的样本数量。一般情况下对于小数据集批次规模越大越好,这样可以提高计算的速度和效率,同时降低训练震荡,若数据集足够小,可采用全数据集的形式进行训练,但这种情况容易造成计算量增长过大导致溢出,因此批次规模的大小需根据实际情况进行设置。

 

学习速率(learning rate)是在训练模型过程中用于梯度下降的一个变量,在训练过程中,每次迭代梯度下降法都会将学习速率与梯度相乘,因此其值是随着训练进行不断变化。而初始学习速率(initial_learning rate)是模型开始训练前设置的最开始的学习速率,在训练过程中,模型会根据学习率变化策略以初始学习速率为起点设置学习速率,初始学习速率一般情况下应设置为一个较小的值,然后在之后训练过程中逐步调大。

 


train_config: {

  batch_size: 6

  optimizer {

    rms_prop_optimizer: {

      learning_rate: {

        exponential_decay_learning_rate {

          initial_learning_rate: 0.004

          decay_steps: 800720

          decay_factor: 0.95

        }

      }

      momentum_optimizer_value: 0.9

      decay: 0.9

      epsilon: 1.0

    }

  }

  batch_size: 6

  optimizer {

    rms_prop_optimizer: {

      learning_rate: {

        exponential_decay_learning_rate {

          initial_learning_rate: 0.004

          decay_steps: 800720

          decay_factor: 0.95

        }

      }

      momentum_optimizer_value: 0.9

      decay: 0.9

      epsilon: 1.0

    }

  }

 

六、训练模型

建议:windows环境下建议采用git base

 

训练所用python文件都在..\models-master\research\object_detection目录下,可复制到数据集文件夹中,运行时需cd到python文件路径下。

 

模型训练命令,训练结果保存于training目录下。

 

python train.py \
--logtostderr \
--pipeline_config_path=${定义的Config} \
--train_dir=${训练结果要存放的目录}

 

监视训练状况命令,建议cd 到training目录上一级然后运行,运行后将窗口中显示的链接复制到浏览器地址栏。

 

tensorboard --logdir=training

 

模型验证命令,输出结果保存于eval目录下。

 

python eval.py \
--logtostderr \
--pipeline_config_path=${定义的Config} \
--checkpoint_dir=${训练结果存放的目录}
--eval_dir=${输出结果目录}

 

模型验证可视化命令,建议cd 到eval目录上一级然后运行

 

tensorboard --logdir=eval

 

七、模型导出

模型导出命令,model.ckpt需选定training目录下其中一个model.ckpt,因为在训练过程中,程序会定期进行保存,路径建议采用绝对路径。

 

python export_inference_graph.py \
--input_type image_tensor
--pipeline_config_path config文件path \
--trained_checkpoint_prefix model.ckpt-*文件path \
--output_directory 输出结果路径

 

在output_directory路径下会生成三个文件:

 

frozen_inference_graph.pb、model.ckpt.data-00000-of-00001、model.ckpt.meta、model.ckpt.data

 

参考

https://developers.google.com/machine-learning/crash-course/prereqs-and-prework


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明Tensorflow学习——利用Object Detection api训练自己的数据集
喜欢 (0)

您必须 登录 才能发表评论!

加载中……