PyTorch 版 CenterNet 训练自己的数据集

技术讨论 黑人 ⋅ 于 2个月前 ⋅ 最后回复由 Admin 2个月前 ⋅ 1001 阅读
文章来源: pprp GiantPandaCV@微信公众号

来自专辑

Anchor-Free目标检测

这篇文章是基于非官方的CenterNet实现, https://github.com/zzzxxxttt/pytorch_simple_CenterNet_45 ,这个版本的实现更加简单,基于官方版本 (https://github.com/xingyizhou/CenterNet) 进行修改,要比官方代码更适合阅读和理解,dataloader、hourglass、训练流程等原版中比较复杂的部分都进行了重写,最终要比官方的速度更快。

这篇博文主要讲解如何用这个版本的CenterNet训练自己的VOC数据集,环境的配置。

  • 1. 环境配置

  • 2. 配置自己的数据集

  • 2.1 VOC类别修改

  • 2.2 annotations

  • 2.3 其他

  • 3. 训练和测试

  • 3.1 训练命令

  • 3.2 测试命令

  • 4. 结果

  • COCO:

  • PascalVOC:

  • 5. 参考

1. 环境配置

环境要求:

  • python>=3.5

  • pytorch==0.4.1or 1.1.0 or 1.0.0(笔者用的1.0.0也可以)

  • tensorboardX(可选)



配置:

  1. 将cudnn的batch norm关闭。打开torch/nn/functional.py文件,找到torch.batch_norm这一行,将torch.backends.cudnn.enabled选项更改为False。

  2. 克隆项目
    file
  3. 安装cocoAPI
    file
  4. 编译可变形卷积DCN
  • 如果使用的是pytorch0.4.1, 将$CenterNet_ROOT/lib/DCNv2_old 重命名为 $CenterNet_ROOT/lib/DCNv2

  • 如果使用的是pytorch1.1.0 or 1.0.0, 将$CenterNet_ROOT/lib/DCNv2_new 重命名为 $CenterNet_ROOT/lib/DCNv2.

  • 然后开始编译

    cd $CenterNet_ROOT/lib/DCNv2./make.sh

  1. 编译NMS

    cd $CenterNet_ROOT/lib/nmsmake

  2. 对于COCO格式的数据集,下载链接在:http://cocodataset.org/#download。将annotations, train2017, val2017, test2017放在$CenterNet_ROOT/data/coco

  3. 对于Pascal VOC格式的数据集,下载VOC转为COCO以后的数据集:

网盘链接:https://pan.baidu.com/share/init?surl=z6BtsKPHh2MnbfT25Y4wYw 

密码:4iu2

下载以后将annotations, images, VOCdevkit放在$CenterNet_ROOT/data/voc

PS:以上两者是官方数据集,如果制作自己的数据集的话可以往下看。

  1. 如果选择Hourglass-104作为骨干网络,下载CornerNet提供的Hourglass预训练模型:

网盘链接:https://pan.baidu.com/s/1tp9-5CAGwsX3VUSdV276Fg 

密码:y1z4

将下载的权重checkpoint.t7放到$CenterNet_ROOT/ckpt/pretrain中。


2. 配置自己的数据集

这个版本提供的代码是针对官方COCO或者官方VOC数据集进行配置的,所以有一些细节需要修改。

由于笔者习惯VOC格式数据集,所以以Pascal VOC格式为例,修改自己的数据集。

笔者只有一个类,‘dim target’,所以按照一个类来修改,其他的类别也很容易修改。

2.1 VOC类别修改

  • 将datasets/pascal.py中16行内容:
    file

  • 将datasets/pascal.py中第33行内容:

num_classes=20修改为自己对应的类别个数num_classes=1

  • 将datasets/pascal.py中的第35行内容:

self.valid_ids = np.arange(1, 21, dtype=np.int32)中的21修改为类别数目+1

2.2 annotations

VOC格式数据集中没有annotations中所需要的json文件,这部分需要重新构建。

下面是一个VOC转COCO格式的脚本,需要改xml path和json file的名称。

import xml.etree.ElementTree as ETimport osimport jsoncoco = dict()coco['images'] = []coco['type'] = 'instances'coco['annotations'] = []coco['categories'] = []category_set = dict()image_set = set()category_item_id = 0image_id = 20200000000annotation_id = 0def addCatItem(name):    global category_item_id    category_item = dict()    category_item['supercategory'] = 'none'    category_item_id += 1    category_item['id'] = category_item_id    category_item['name'] = name    coco['categories'].append(category_item)    category_set[name] = category_item_id    return category_item_iddef addImgItem(file_name, size):    global image_id    if file_name is None:        raise Exception('Could not find filename tag in xml file.')    if size['width'] is None:        raise Exception('Could not find width tag in xml file.')    if size['height'] is None:        raise Exception('Could not find height tag in xml file.')    image_id += 1    image_item = dict()    image_item['id'] = image_id    image_item['file_name'] = file_name    image_item['width'] = size['width']    image_item['height'] = size['height']    coco['images'].append(image_item)    image_set.add(file_name)    return image_iddef addAnnoItem(object_name, image_id, category_id, bbox):    global annotation_id    annotation_item = dict()    annotation_item['segmentation'] = []    seg = []    #bbox[] is x,y,w,h    #left_top    seg.append(bbox[0])    seg.append(bbox[1])    #left_bottom    seg.append(bbox[0])    seg.append(bbox[1] + bbox[3])    #right_bottom    seg.append(bbox[0] + bbox[2])    seg.append(bbox[1] + bbox[3])    #right_top    seg.append(bbox[0] + bbox[2])    seg.append(bbox[1])    annotation_item['segmentation'].append(seg)    annotation_item['area'] = bbox[2] * bbox[3]    annotation_item['iscrowd'] = 0    annotation_item['ignore'] = 0    annotation_item['image_id'] = image_id    annotation_item['bbox'] = bbox    annotation_item['category_id'] = category_id    annotation_id += 1    annotation_item['id'] = annotation_id    coco['annotations'].append(annotation_item)def parseXmlFiles(xml_path):    for f in os.listdir(xml_path):        if not f.endswith('.xml'):            continue        real_file_name = f.split(".")[0] + ".jpg"        bndbox = dict()        size = dict()        current_image_id = None        current_category_id = None        file_name = None        size['width'] = None        size['height'] = None        size['depth'] = None        xml_file = os.path.join(xml_path, f)        print(xml_file)        tree = ET.parse(xml_file)        root = tree.getroot()        if root.tag != 'annotation':            raise Exception(                'pascal voc xml root element should be annotation, rather than {}'                .format(root.tag))        #elem is <folder>, <filename>, <size>, <object>        for elem in root:            current_parent = elem.tag            current_sub = None            object_name = None            if elem.tag == 'folder':                continue            if elem.tag == 'filename':                file_name = real_file_name  #elem.text                if file_name in category_set:                    raise Exception('file_name duplicated')            #add img item only after parse <size> tag            elif current_image_id is None and file_name is not None and size[                    'width'] is not None:                # print(file_name, "===", image_set)                if file_name not in image_set:                    current_image_id = addImgItem(file_name, size)                    print('add image with {} and {}'.format(file_name, size))                else:                    pass                    # raise Exception('duplicated image: {}'.format(file_name))            #subelem is <width>, <height>, <depth>, <name>, <bndbox>            for subelem in elem:                bndbox['xmin'] = None                bndbox['xmax'] = None                bndbox['ymin'] = None                bndbox['ymax'] = None                current_sub = subelem.tag                if current_parent == 'object' and subelem.tag == 'name':                    object_name = subelem.text                    if object_name not in category_set:                        current_category_id = addCatItem(object_name)                    else:                        current_category_id = category_set[object_name]                elif current_parent == 'size':                    if size[subelem.tag] is not None:                        raise Exception('xml structure broken at size tag.')                    size[subelem.tag] = int(subelem.text)                #option is <xmin>, <ymin>, <xmax>, <ymax>, when subelem is <bndbox>                for option in subelem:                    if current_sub == 'bndbox':                        if bndbox[option.tag] is not None:                            raise Exception(                                'xml structure corrupted at bndbox tag.')                        bndbox[option.tag] = int(option.text)                #only after parse the <object> tag                if bndbox['xmin'] is not None:                    if object_name is None:                        raise Exception('xml structure broken at bndbox tag')                    if current_image_id is None:                        raise Exception('xml structure broken at bndbox tag')                    if current_category_id is None:                        raise Exception('xml structure broken at bndbox tag')                    bbox = []                    #x                    bbox.append(bndbox['xmin'])                    #y                    bbox.append(bndbox['ymin'])                    #w                    bbox.append(bndbox['xmax'] - bndbox['xmin'])                    #h                    bbox.append(bndbox['ymax'] - bndbox['ymin'])                    print('add annotation with {},{},{},{}'.format(                        object_name, current_image_id, current_category_id,                        bbox))                    addAnnoItem(object_name, current_image_id,                                current_category_id, bbox)if __name__ == '__main__':    xml_path = './annotations/test'    json_file = './pascal_test2020.json'    #'./pascal_trainval0712.json'    parseXmlFiles(xml_path)    json.dump(coco, open(json_file, 'w'))

展开如下:
file
file
file
file
file
file
file

注意这里json文件的命名要通过datasets/pascal.py中第44到48行的内容确定的。

self.data_dir = os.path.join(data_dir, 'voc')self.img_dir = os.path.join(self.data_dir, 'images')_ann_name = {'train': 'trainval0712', 'val': 'test2007'}self.annot_path = os.path.join(self.data_dir, 'annotations', 'pascal_%s.json' % _ann_name[split])

展开如下:
file
这里笔者为了方便命名对这些字段进行了修改:
file

2.3 其他

在datasets/pascal.py中21-22行,标准差和方差最好替换为自己的数据集的标准差和方差。

VOC_MEAN = [0.485, 0.456, 0.406]VOC_STD = [0.229, 0.224, 0.225]



3. 训练和测试

3.1 训练命令

训练命令比较多,可以写一个shell脚本来完成。
file
log name代表记录的日志的名称。

dataset设置pascal代表使用的是pascal voc格式。

arch代表选择的backbone的类型,有以下几种:

  • large_hourglass

  • small_hourglass

  • resdcn_18

  • resdcn_34

  • resdcn_50

  • resdcn_101

  • resdcn_152

img size控制图片长和宽。

lr和lr_step控制学习率大小及变化。

batch size是一个批次处理的图片个数。

num epochs代表学习数据集的总次数。

num workers代表开启多少个线程加载数据集。

3.2 测试命令

测试命令很简单,需要注意的是img size要和训练的时候设置的一致。
file


4. 结果

以下是作者在COCO和VOC数据集上以不同的图片分辨率和TTA方法得到的结果。

file

笔者在自己的数据集上进行了训练,训练log如下:
file
每隔5个epoch将进行一次eval,在自己的数据集上最终可以得到90%左右的mAP。

笔者将已经改好的单类的CenterNet放在Github上:https://github.com/pprp/SimpleCVReproduction/tree/master/Simple\_CenterNet


5. 参考

https://github.com/pprp/SimpleCVReproduction/tree/master/Simple\_CenterNet

https://github.com/zzzxxxttt/pytorch\_simple\_CenterNet\_45



相关推荐:

全网第一 SoTA 成绩却朴实无华的 pytorch 版 efficientdet
pytorch 实用工具总结
PyTorch trick 集锦

黑人

成为第一个点赞的人吧 :bowtie:
回复数量: 2
您需要登陆以后才能留下评论!