CN113158993B - 一种多场景反光背心穿戴识别模型创建方法及相关组件 - Google Patents

一种多场景反光背心穿戴识别模型创建方法及相关组件 Download PDF

Info

Publication number
CN113158993B
CN113158993B CN202110557801.8A CN202110557801A CN113158993B CN 113158993 B CN113158993 B CN 113158993B CN 202110557801 A CN202110557801 A CN 202110557801A CN 113158993 B CN113158993 B CN 113158993B
Authority
CN
China
Prior art keywords
scene
network
pedestrian
target
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110557801.8A
Other languages
English (en)
Other versions
CN113158993A (zh
Inventor
王旭
潘自兴
包汉彬
谢会斌
李聪廷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Boguan Intelligent Technology Co Ltd
Original Assignee
Jinan Boguan Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Boguan Intelligent Technology Co Ltd filed Critical Jinan Boguan Intelligent Technology Co Ltd
Priority to CN202110557801.8A priority Critical patent/CN113158993B/zh
Publication of CN113158993A publication Critical patent/CN113158993A/zh
Application granted granted Critical
Publication of CN113158993B publication Critical patent/CN113158993B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种多场景反光背心穿戴识别模型创建方法及相关组件。该方法包括:基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;基于以卷积神经网络为基础的目标分类模块和无监督领域自适应模块构建第二待训练网络;获取包含行人的场景图像以生成第一训练集,并利用第一训练集训练第一待训练网络以得到适用于多场景的行人检测网络;获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用第二训练集训练第二待训练网络以得到分类网络;连接行人检测网络和分类网络,以得到多场景反光背心穿戴识别模型。通过无监督领域自适应模块实现迁移学习,增强了模型的多场景泛化能力。

Description

一种多场景反光背心穿戴识别模型创建方法及相关组件
技术领域
本发明涉及计算机技术领域,特别涉及一种多场景反光背心穿戴识别模型创建方法、装置、设备及存储介质。
背景技术
当前,在道路施工、工厂监管、车站和机场客流引导等多种工作场景下,为避免事故发生,通常要求工作人员穿着色彩醒目的反光背心,以使设备操作人员能够直观观察场地其他工作人员并及时处理突发状况。但工作环境空间开阔,工作时间有大量人员涌入或滞留,依靠人眼观察并判断工作人员是否穿戴反光背心费时费力,且随光线、角度等环境变化依靠人眼易造成工作人员反光背心穿戴误识别。随深度学习发展,依靠融合深度卷积神经网络的视频监控设备,能够在一定程度识别人员反光背心穿戴情况,减轻人力负担。
现有技术中,基于深度学习的反光背心识别方法多采用传统目标检测模型或目标检测与分类组合模型的方法对反光背心穿戴状态做检测或分类判断,即通过行人检测模型检测出画面中的行人区域图像,再通过分类模型对行人区域图像做分类。但上述方法对数据集统计概率分布要求高,训练集和测试集需近似独立同分布,且为拟合多种不同场景需在各个场景下取不同图像做手动标注并训练,训练所得模型受相机高度、角度、光线、分辨率等环境因素制约强,降低了模型精度,更换场景之后需要重新人工标注训练,费时费力泛化性差。因此,如何构建一种具有良好泛化性,能够简单便捷应用于多场景的反光背心穿戴识别模型是目前亟需解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种多场景反光背心穿戴识别模型创建方法、装置、设备及介质,能够在目标应用场景下无需人工标注即可实现反光衣穿戴识别,提升了复杂场景下反光衣穿戴识别的精确度。其具体方案如下:
第一方面,本申请公开了一种多场景反光背心穿戴识别模型创建方法,包括:
基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;
基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;
获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;
获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;
连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
可选的,所述获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络,包括:
获取第一目标场景下包含行人的场景图像作为源域场景图像并对所述源域场景图像添加相应的行人信息标注;所述行人信息标注包括行人标签和目标行人边界框坐标;
获取除所述第一目标场景以外任意场景下包含行人的场景图像作为目标域场景图像,按照第一预设比例从所述目标域场景图像中筛选出部分场景图像作为测试场景图像,并对所述测试场景图像添加相应的行人信息标注以得到第一测试集;
基于所述源域场景图像和筛选后目标域场景图像生成包含多个训练组的第一训练集;其中,每个所述训练组中包括一张所述源域场景图像和一张所述目标域场景图像;
利用所述第一训练集按照单次输入一个训练组的训练方式对所述第一待训练网络进行迭代训练,并利用所述第一测试集对训练后网络进行测试以得到适用于多场景的所述行人检测网络。
可选的,所述获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络,包括:
获取第二目标场景下穿戴反光衣的行人图像和未穿戴反光衣的行人图像,以及类似行人的非行人图像作为源域行人图像,并对所述源域行人图像添加相应的穿戴标签或非行人标签;所述穿戴标签包括穿戴反光背心标签、未穿戴反光背心标签;
获取除所述第二目标场景以外任意场景下的行人图像作为目标域行人图像,按照第二预设比例从所述目标域行人图像中筛选出部分图像作为测试行人图像,并对所述测试行人图像添加相应的穿戴标签以得到第二测试集;
基于所述源域行人图像和筛选后目标域行人图像生成包含多个训练组的第二训练集;其中,每个所述训练组中包括一张所述源域行人图像和一张所述目标域行人图像;
利用所述第二训练集按照单次输入一个训练组的训练方式对所述第二待训练网络进行迭代训练,并利用所述第二测试集对训练后网络进行测试以得到所述分类网络。
可选的,所述分类网络的训练过程中,还包括:
采用Am-Softmax损失函数或Arcface-Softmax损失函数或A-Softmax损失函数作为所述分类网络中所述目标分类模块的损失函数,以加大穿戴反光背心的行人图像和未穿戴反光背心的行人图像的样本间距离。
可选的,所述目标检测模块为YOLOv5模型。
可选的,所述无监督领域自适应模块的构建过程,包括:
按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元;
通过一致性正则化模块连接所述第一单元的特征域分类器和所述第二单元的特征域分类器,以得到所述无监督领域自适应模块;
其中,所述第一单元的输入为实例特征;所述实例特征为所述目标检测模块输出的行人目标特征或所述目标分类模块输出的类别特征;其中,所述第二单元的输入为图像特征;所述图像特征为所述目标检测模块中卷积神经网络输出的特征图,或所述目标分类模块中卷积神经网络输出的特征图;其中,所述特征域分类器用于区分输入特征的特征类型;所述特征类型包括源域特征和目标域特征。
可选的,所述特征域分类器为贝叶斯分类器,并且所述特征域分类器的训练过程通过所述梯度反向层进行源域损失和目标域损失的梯度取反,以实现源域和目标域的对抗训练。
第二方面,本申请公开了一种多场景反光背心穿戴识别模型创建装置,包括:
第一待训练网络构建模块,用于基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;
第二待训练网络构建模块,用于基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;
第一训练模块,用于获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;
第二训练模块,用于获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;
模型确定模块,用于连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的多场景反光背心穿戴识别模型创建方法。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中计算机程序被处理器执行时实现前述的多场景反光背心穿戴识别模型创建方法。
本申请中,基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
无监督即指模型训练样本中包含有标记的源域数据和无标签的目标域数据,领域自适应方法指让模型从源域数据分布中学习目标域数据的分布,可见,利用含有无监督领域自适应模块的行人检测网络,实现对不同场景下的行人检测进行迁移学习,以便根据源域带标签图像特征统计概率分布去拟合目标域无标签图像特征统计概率分布,由此在更换目标域应用场景后,只需获取该场景图像,无需再通过对目标域应用场景内的行人目标做人工标注和筛选进行重新的模型训练,可以节省人力物力,更方便多场景应用。同时,利用构建含有无监督领域自适应模块的分类网络检测是否穿戴反光衣,只需通过少量标注的简单训练数据拟合多应用场景并有效避免误检的反光背心穿戴识别方法,在复杂场景下可由未标注的图像经训练实现行人反光背心穿戴识别,增强了模型的多场景泛化能力,得到的多场景反光背心穿戴识别模型在目标应用场景下无需人工标注即可实现反光衣穿戴识别,提升了复杂场景下反光衣穿戴识别的精确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种多场景反光背心穿戴识别模型创建方法流程图;
图2为本申请提供的同一款反光背心在不同光照条件下的亮度及颜色变化示意图;
图3为本申请提供的同一目标在不同光照条件下反光背心颜色发生的变化示意图;
图4为本申请提供的同一目标不同角度下反光背心的状态示意图;
图5为本申请提供的一种具体的多场景反光背心穿戴识别模型创建方法流程图;
图6为本申请提供的一种具体的行人检测网络结构示意图;
图7为本申请提供的一种具体的分类网络结构示意图;
图8为本申请提供的一种多场景反光背心穿戴识别模型创建装置结构示意图;
图9为本申请提供的一种电子设备结构图。
具体实施方式
现有技术中,基于深度学习的反光背心识别方法多采用传统目标检测模型或目标检测与分类组合模型的方法对反光背心穿戴状态做检测或分类判断,训练所得模型受相机高度、角度、光线、分辨率等环境因素制约强,且更换场景之后需要重新人工标注训练,费时费力且泛化性差。为克服上述技术问题,本申请提出一种基于无监督领域自适应的多场景下反光背心穿戴识别模型创建方法,能够在目标应用场景下无需人工标注即可实现反光衣穿戴识别,提升了复杂场景下反光衣穿戴识别的精确度。
本申请实施例公开了一种多场景反光背心穿戴识别模型创建方法,参见图1所示,该方法可以包括以下步骤:
步骤S11:基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络。
本实施例中,构建包含目标检测模块和无监督领域自适应模块的第一待训练网络,其中上述目标检测模块是以卷积神经网络为基础构建的用于检测行人的网络模块。其中,领域自适应是与机器学习和迁移学习相关的领域,目标是从源域数据分布中学习在不同但相关的目标域数据分布;其中,源域(source domain)即为与测试样本不同的领域,是指迁移学习中已有的知识,目标域(target domain)即为测试样本所在的领域,是指需要去学习的知识。可以理解的是,目标检测阶段利用目标检测模块实现图像中行人的实时目标检测,同时利用无监督领域自适应模块进行迁移学习,建立源域简单场景到目标域复杂场景的映射,以消减源域和目标域样本之间的域偏差,使目标检测模块克服场景依赖,使模型更换场景之后只需经过图像训练,而无需进行图像标注,就能实现在不同的复杂场景下的行人检测,有更好的多场景鲁棒性。
步骤S12:基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络。
本实施例中,构建包含目标分类模块和无监督领域自适应模块的第二待训练网络,其中上述目标分类模块是以卷积神经网络为基础构建的,用于对上述目标检测得到的检测结果进行分类的网络模块。可以理解的是,同样利用无监督领域自适应机制,提升分类网络的多场景泛化能力,避免分类阶段的人工标注,在目标域应用场景中模型从检测到分类阶段均无需人为手动标注,可以节省大量人力物力,使网络整体在多种目标域应用场景实现无人工运行。
步骤S13:获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络。
本实施例中,所述获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络,可以包括:获取第一目标场景下包含行人的场景图像作为源域场景图像并对所述源域场景图像添加相应的行人信息标注;所述行人信息标注包括行人标签和目标行人边界框坐标;获取除所述第一目标场景以外任意场景下包含行人的场景图像作为目标域场景图像,按照第一预设比例从所述目标域场景图像中筛选出部分场景图像作为测试场景图像,并对所述测试场景图像添加相应的行人信息标注以得到第一测试集;基于所述源域场景图像和筛选后目标域场景图像生成包含多个训练组的第一训练集;其中,每个所述训练组中包括一张所述源域场景图像和一张所述目标域场景图像;利用所述第一训练集按照单次输入一个训练组的训练方式对所述第一待训练网络进行迭代训练,并利用所述第一测试集对训练后网络进行测试以得到适用于多场景的所述行人检测网络。
具体的,可以选取易获取场景下含有行人的场景图像作为源域场景图像进行人工标注,确定行人标签和图像中行人目标边界框坐标;然后获取与源域场景图像不同的多个复杂场景下包含行人的场景图像作为目标域场景图像,随机筛选其中1/10图像人工标注作为测试集;训练阶段向网络同时输入一张已标注的源域场景图像和一张未标注的目标域场景图像,对网络进行迭代训练,然后利用上述测试集测试模型指标,选取最优模型得到上述行人检测网络。其中,上述易获取场景可以包括但不限于白天的马路、街道、商场、车站等易获取场景,即选取一个或几个易获取场景作为上述第一目标场景,并将该场景下获取的场景图像作为源域场景图像,可以理解的是,第一目标场景可以为任意场景,但选取易获取场景可以提高源域场景图像获取的便捷性。由此通过无监督领域自适应方法,学习多场景下的行人样本,在更换场景后,无需对训练数据进行额外人工标注,省时省力,相比传统方法更适合多场景应用。
步骤S14:获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络。
本实施例中,所述获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络,可以包括:获取第二目标场景下穿戴反光衣的行人图像和未穿戴反光衣的行人图像,以及类似行人的非行人图像作为源域行人图像,并对所述源域行人图像添加相应的穿戴标签或非行人标签;所述穿戴标签包括穿戴反光背心标签、未穿戴反光背心标签;获取除所述第二目标场景以外任意场景下的行人图像作为目标域行人图像,按照第二预设比例从所述目标域行人图像中筛选出部分图像作为测试行人图像,并对所述测试行人图像添加相应的穿戴标签以得到第二测试集;基于所述源域行人图像和筛选后目标域行人图像生成包含多个训练组的第二训练集;其中,每个所述训练组中包括一张所述源域行人图像和一张所述目标域行人图像;利用所述第二训练集按照单次输入一个训练组的训练方式对所述第二待训练网络进行迭代训练,并利用所述第二测试集对训练后的网络进行测试以得到所述分类网络。其中,上述第一目标场景和第二目标场景可以为不同场景,也可以为相同场景,
具体的,可以选取易获取场景下行人图像作为源域行人图像并进行人工标注,即筛选出穿戴反光背心类别、未穿反光背心类别图像,并通过手动抠图获取易被误检的类似行人的非人目标图像;然后获取与源域行人图像不同的多个复杂场景筛选目标域行人图像,随机筛选其中1/10图像并人工标注得到第二测试集;训练时向网络同时输入一张已标注源域行人图像和一张未标注目标域行人图像进行迭代训练;最后利用上述第二测试集测试模型指标,以对模型在目标域的分类精度进行评判,然后选取最优模型以得到上述分类网络。
本实施例中,所述分类网络的训练过程中,还可以包括:采用Am-Softmax损失函数或Arcface-Softmax损失函数或A-Softmax损失函数作为所述分类网络中所述目标分类模块的损失函数,以加大穿戴反光背心的行人图像和未穿戴反光背心的行人图像的样本间距离。
可以理解的是,如图2所示同一款反光背心在不同光照条件下的亮度及颜色变化,可见由于反光背心在不同光照条件下反射光线会发生亮度上的变化,颜色也会随之发生改变。如图3所示同一目标不同光照条件下发光背心颜色发生的变化,可见在光照充足的条件下反光背心反射光线呈现较浅的接近白色的颜色,当工作人员穿浅色衣服穿戴反光背心时,从视觉上同未穿反光背心的情况极为相似,因此存在大量将穿浅色衣物搭配反光背心的工作人员误报为未穿反光背心的情况。另外,如图4所示随穿戴反光背心工作人员的移动,拍摄角度发生变化也可能会对目标分类造成误判。由此针对这类因光线、角度等问题导致的误分类情况,通过采用如Am-Softmax、Arcface-Softmax作为分类网络中前端神经网络的损失函数,来加大穿着反光背心和未穿反光背心样本类间距离的方式,使分类网络更好地区分有无穿着反光背心,提升模型的泛化能力,提升识别穿戴和未穿反光背心两种样本之间的精度,对不同光线、角度变化下的目标分类鲁棒性更优,工程落地能力强,适用于包括公路、工厂、车站、机场等环境和目标复杂多变场景在内的各类环境。
步骤S15:连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
本实施例中,通过连接行人检测网络和分类网络,将上述行人检测网络的输出作为上述分类网络的输入,以得到多场景反光背心穿戴识别模型,以便利用上述多场景反光背心穿戴识别模型在针对新场景下反光背心穿戴识别检测时,不需进行人工标注即可实现高效率高准确性的反光背心穿戴识别。
由上可见,本实施例中利用含有无监督领域自适应模块的行人检测网络,实现对不同场景下的行人检测进行迁移学习,以便使源域带标签图像特征统计概率分布去拟合目标域无标签图像特征统计概率分布,由此在更换目标域应用场景后,只需获取该场景图像,无需再通过对目标域应用场景内的行人目标做人工标注和筛选进行重新的模型训练,可以节省人力物力,更方便多场景应用。同时,利用构建含有无监督领域自适应模块的分类网络检测是否穿戴反光衣,只需通过少量标注的简单训练数据拟合多应用场景并有效避免误检的反光背心穿戴识别方法,在复杂场景下可由未标注的图像经训练实现行人反光背心穿戴识别,增强了任务的多场景泛化能力,得到的多场景反光背心穿戴识别模型在目标应用场景下无需人工标注即可实现反光衣穿戴识别,提升了复杂场景下反光衣穿戴识别的精确度。
本申请实施例公开了一种具体的多场景反光背心穿戴识别模型创建方法,参见图5所示,该方法可以包括以下步骤:
步骤S21:按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元。
本实施例中,如图6和图7右侧所示的领域自适应模块,首先按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元。
步骤S22:通过一致性正则化模块连接所述第一单元的特征域分类器和所述第二单元的特征域分类器,以得到无监督领域自适应模块。
本实施例中,第一单元和第二单元构建完成后,通过一致性正则化模块连接第一单元的特征域分类器和第二单元的特征域分类器,以得到无监督领域自适应模块。
其中,上述第一单元的输入为实例特征;实例特征为上述目标检测模块输出的行人目标特征或上述目标分类模块输出的类别特征;其中,上述第二单元的输入为图像特征;图像特征为目标检测模块中卷积神经网络输出的特征图,或目标分类模块中卷积神经网络输出的特征图;其中,特征域分类器用于区分输入特征的特征类型;特征类型包括源域特征和目标域特征。即第一单元的特征域分类器用于区分输入的实例特征的特征类型,第二单元的特征域分类器用于区分输入的图像特征的特征类型。
本实施例中,所述特征域分类器可以为贝叶斯分类器,并且所述特征域分类器的训练过程通过所述梯度反向层进行源域损失和目标域损失的梯度取反,以实现源域和目标域的对抗训练。
步骤S23:基于以卷积神经网络为基础的目标检测模块和所述无监督领域自适应模块构建第一待训练网络。
本实施例中,上述目标检测模块可以为YOLOv5模型,例如图6所示的第一待训练网络的网络结构。
可以理解的是,现有技术中传统的目标检测方案可以视为通过训练集人工标注的标签信息获取目标类别、边界框坐标,在训练阶段由卷积神经网络获取特征图像,经迭代训练拟合数据统计概率分布,最终预测测试集特征图像中目标类别和边界框坐标的过程。假设目标类别表示为c,边界框坐标表示为b,图像特征表示为x,在概率统计上目标检测过程可表示为由训练集联合概率分布Ptrain(c,b,x)预测测试集上后验概率分布Ptrain(c,b,x)的贝叶斯学习过程,如下示公式所示:
Figure BDA0003077818730000111
因此传统目标检测模型要求测试数据和训练数据独立同分布,才能保证在测试集上对目标做分类和回归后所得的后验概率分布是准确的。而一旦场景发生变化,受图像光线、拍摄高度、角度等影响,图像统计概率分布也会发生相应变化,即在特定场景下训练得到的目标检测模型在其他应用场景下出现精度骤降的问题。通常的解决方案是对不同应用场景取得的图像做手动标注,并添加到训练集训练,但这种方法依赖人工干预,对大量数据做人工标注费时费力,并且每更换一个应用场景就需重新标注一批数据,复杂且低效。
本实施例中,在YOLO v5目标检测网络的三个预测层后分别引入无监督领域自适应模块,借助迁移学习,通过手动标注的特定场景源域图像和未标注的复杂多场景目标域图像进行联合训练。在不依赖目标域提供任何标注目标的条件下,通过无监督领域自适应方法减小域偏差,使源域统计概率分布Ps(x)同目标域统计概率分布Pt(x)逐步接近,实现检测模型在目标域的应用,能够节省不同应用场景下手动标注的人力物力,提升模型的泛化能力。
如图6所示第一待训练网络的网络结构,左侧为目标检测模块即YOLO v5模型,右侧为无监督领域自适应模块,输入图像为一张来自源域带标签的场景图像,一张来自目标域不带标签的场景图像。实例特征即为经YOLO v5预测层确定边界框坐标并完成分类的行人目标特征,图像特征为输入图像经CNN(Convolutional Neural Networks,卷积神经网络)后提取到的包含多种目标信息的特征图,域分类器用来区分特征来自源域还是目标域。
以符号d表示域分类器的分类标签,源域特征域标签表示为d=0,目标域特征域标签表示为d=1,上述第一单元中的域分类器为图像特征域分类器,其分类任务在概率统计上可以视为在已知图像特征边缘概率分布P(x)的条件下估计条件概率分布P(d|x)的问题。实例特征域分类器的分类任务在概率统计上可以视为在已知目标特征及其边界框坐标b的条件下估计条件概率P(d|(x,b))的问题。由贝叶斯学习,目标检测网络边界框坐标预测和实例特征域分类器的分类操作如下所示:
Figure BDA0003077818730000121
进而推得
Figure BDA0003077818730000122
则由目标检测网络加两个域分类器以预测目标边界坐标的操作,在统计学上可表示为如下述公式的求取后验概率分布的问题:
Figure BDA0003077818730000123
由于来自目标域的图像无标签,缺少边界坐标,其相应坐标需由图像和实例特征及域标签共同获取。由目标检测网络获取图像边界框坐标,由实例和图像域分类器获取图像域标签,最终共同实现目标域无标签图像中目标的边界坐标获取。
其中,图像域分类器和实例域分类器的训练依靠梯度反向层实现源域损失和目标域损失的梯度取反,构造源域和目标域的对抗损失实现。以h(x)表示域分类器,errs(h(x))表示源域分类误差,errt(h(x))表示目标域分类误差,由H散度表示源域、目标域域偏差:
Figure BDA0003077818730000124
为缩减源域和目标域域偏差,根据梯度反向层GRL构造下述公式所示的对抗损失:
Figure BDA0003077818730000131
/>
然后进行一致性正则化操作:
Figure BDA0003077818730000132
其中,I表示图像特征,|I|表示该特征图的总激活值,i表示第i张特征图,φ(u,v)(xi)表示特征xi在像素点(u,v)处的激活值,
Figure BDA0003077818730000133
表示图像特征域分类器的输出,pi,j表示第j个实例特征经实例域分类器得到的输出。通过一致性正则化能够稳定从源域到目标域的损失,逐步消减源域和目标域特征在统计分布上的差异,降低网络对源域图像和目标域图像在特征统计分布上的区分度。
步骤S24:基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络。
为准确判别由行人检测网络得到的行人目标是否为穿戴反光背心的类别,本实施例基于深度卷积神经网络和无监督领域自适应机制构建得到领域自适应分类网络,在源域由人工分类的穿戴和未穿反光背心的行人图像和目标域未经人工挑选的行人图像联合训练得到可分类穿戴和未穿反光背心样本的领域自适应分类模型,依靠得到的分类模型对检测网络根据行人边界框坐标截取获得的行人目标做分类,以提升反光背心识别阶段的多场景分类精度。
可以理解的是,传统图像分类任务可以视为通过训练集人工标注的图像类别和卷积神经网络提取的图像特征,预测测试集特征图类别的过程,在概率统计上仍是一个由联合概率分布和边缘概率分布学习后验概率分布的过程,假定类别为c,网络提取特征为x,根据贝叶斯学习可将分类任务通过如下公式表示:
Figure BDA0003077818730000134
如图7所示第二待训练网络的网络结构,输入图像为一张有标签源域行人图像,一张无标签目标域行人图像,实例特征为经过分类网络全连接层获取的已知图像类别的特征,图像特征为输入图像经CNN提取的特征图。其中,实例特征域分类器的任务可表示为在已知目标类别c、实例特征x,获取域标签后验概率分布P(d|(x,c))的过程,图像特征域分类器的任务可表示为已知图像特征x,获取域标签后验概率分布P(d|x)的过程,整个领域自适应分类网络可以视为通过域标签和特征,预测图像类别的贝叶斯学习过程。
实例特征域分类器和图像特征域分类器的贝叶斯学习过程如下公式所示:
Figure BDA0003077818730000141
领域自适应分类网络获取目标域类别的贝叶斯学习过程如下公式所示:
Figure BDA0003077818730000142
进而推导得到
Figure BDA0003077818730000143
/>
即由目标分类模块,实例特征域分类器和图像特征域分类器三者共同作用获取目标域标签,在无监督领域自适应分类网络中域分类器的训练同目标检测模块相同,根据梯度反向层构造源域和目标域的对抗损失,并通过一致性正则化操作稳定从源域到目标域的损失。
步骤S25:获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络。
步骤S26:获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络。
步骤S27:连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
其中,关于上述步骤S24-步骤S27的具体过程可以参考前述实施例公开的相应内容,在此不再进行赘述。
由上可见,本实施例中按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元,然后通过一致性正则化模块连接所述第一单元的特征域分类器和所述第二单元的特征域分类器,以得到无监督领域自适应模块。然后通过构建及训练得到可实现迁移学习的行人检测网络和分类网络,并结合行人检测网络和分类网络得到多场景反光背心穿戴识别模型,使模型在目标应用场景下无需人工标注即可实现反光衣穿戴识别,增强了多场景泛化能力。
相应的,本申请实施例还公开了一种多场景反光背心穿戴识别模型创建装置,参见图。所示,该装置包括:
第一待训练网络构建模块11,用于基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;
第二待训练网络构建模块12,用于基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;
第一训练模块13,用于获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;
第二训练模块14,用于获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;
模型确定模块15,用于连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型。
由上可见,本实施例中利用含有无监督领域自适应模块的行人检测网络,实现对不同场景下的行人检测进行迁移学习,以便使源域带标签图像特征统计概率分布去拟合目标域无标签图像特征统计概率分布,由此在更换目标域应用场景后,只需获取该场景图像,无需再通过对目标域应用场景内的行人目标做人工标注和筛选进行重新的模型训练,可以节省人力物力,更方便多场景应用。同时,利用构建含有无监督领域自适应模块的分类网络检测是否穿戴反光衣,只需通过少量标注的简单训练数据拟合多应用场景并有效避免误检的反光背心穿戴识别方法,在复杂场景下可由未标注的图像经训练实现行人反光背心穿戴识别,增强了任务的多场景泛化能力,得到的多场景反光背心穿戴识别模型在目标应用场景下无需人工标注即可实现反光衣穿戴识别,提升了复杂场景下反光衣穿戴识别的精确度。
在一些具体实施例中,所述第一训练模块13具体可以包括:
源域场景图像获取单元,用于获取第一目标场景下包含行人的场景图像作为源域场景图像并对所述源域场景图像添加相应的行人信息标注;所述行人信息标注包括行人标签和目标行人边界框坐标;
目标域场景图像获取单元,用于获取除所述第一目标场景以外任意场景下包含行人的场景图像作为目标域场景图像,按照第一预设比例从所述目标域场景图像中筛选出部分场景图像作为测试场景图像,并对所述测试场景图像添加相应的行人信息标注以得到第一测试集;
第一训练集确定单元,用于基于所述源域场景图像和筛选后目标域场景图像生成包含多个训练组的第一训练集;其中,每个所述训练组中包括一张所述源域场景图像和一张所述目标域场景图像;
第一训练单元,用于利用所述第一训练集按照单次输入一个训练组的训练方式对所述第一待训练网络进行迭代训练,并利用所述第一测试集对训练后网络进行测试以得到适用于多场景的所述行人检测网络。
在一些具体实施例中,所述第二训练模块14具体可以包括:
源域行人图像获取单元,用于获取第二目标场景下穿戴反光衣的行人图像和未穿戴反光衣的行人图像,以及类似行人的非行人图像作为源域行人图像,并对所述源域行人图像添加相应的穿戴标签或非行人标签;所述穿戴标签包括穿戴反光背心标签、未穿戴反光背心标签;
目标域行人图像获取单元,用于获取除所述第二目标场景以外任意场景下的行人图像作为目标域行人图像,按照第二预设比例从所述目标域行人图像中筛选出部分图像作为测试行人图像,并对所述测试行人图像添加相应的穿戴标签以得到第二测试集;
第二训练集确定单元,用于基于所述源域行人图像和筛选后目标域行人图像生成包含多个训练组的第二训练集;其中,每个所述训练组中包括一张所述源域行人图像和一张所述目标域行人图像;
第二训练单元,用于利用所述第二训练集按照单次输入一个训练组的训练方式对所述第二待训练网络进行迭代训练,并利用所述第二测试集对训练后网络进行测试以得到所述分类网络。
在一些具体实施例中,所述第二训练模块14具体可以包括:
损失计算单元,用于采用Am-Softmax损失函数或Arcface-Softmax损失函数或A-Softmax损失函数作为所述分类网络中所述目标分类模块的损失函数,以加大穿戴反光背心的行人图像和未穿戴反光背心的行人图像的样本间距离。
在一些具体实施例中,所述目标检测模块可以为YOLOv5模型。
在一些具体实施例中,所述多场景反光背心穿戴识别模型创建装置具体可以包括:
子单元构建单元,用于按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元;
链接单元,用于通过一致性正则化模块连接所述第一单元的特征域分类器和所述第二单元的特征域分类器,以得到所述无监督领域自适应模块;
其中,所述第一单元的输入为实例特征;所述实例特征为所述目标检测模块输出的行人目标特征或所述目标分类模块输出的类别特征;其中,所述第二单元的输入为图像特征;所述图像特征为所述目标检测模块中卷积神经网络输出的特征图,或所述目标分类模块中卷积神经网络输出的特征图;其中,所述特征域分类器用于区分输入特征的特征类型;所述特征类型包括源域特征和目标域特征。
在一些具体实施例中,所述特征域分类器可以为贝叶斯分类器,并且所述特征域分类器的训练过程通过所述梯度反向层进行源域损失和目标域损失的梯度取反,以实现源域和目标域的对抗训练。
进一步的,本申请实施例还公开了一种电子设备,参见图9所示,图中的内容不能被认为是对本申请的使用范围的任何限制。
图9为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的多场景反光背心穿戴识别模型创建方法中的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及包括场景图像和行人图像在内的数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的多场景反光背心穿戴识别模型创建方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请实施例还公开了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述任一实施例公开的多场景反光背心穿戴识别模型创建方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种多场景反光背心穿戴识别模型创建方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种多场景反光背心穿戴识别模型创建方法,其特征在于,包括:
基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;
基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;
获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;
获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;
连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型;
所述获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络,包括:
获取第一目标场景下包含行人的场景图像作为源域场景图像并对所述源域场景图像添加相应的行人信息标注;所述行人信息标注包括行人标签和目标行人边界框坐标;
获取除所述第一目标场景以外任意场景下包含行人的场景图像作为目标域场景图像,按照第一预设比例从所述目标域场景图像中筛选出部分场景图像作为测试场景图像,并对所述测试场景图像添加相应的行人信息标注以得到第一测试集;
基于所述源域场景图像和筛选后目标域场景图像生成包含多个训练组的第一训练集;其中,每个所述训练组中包括一张所述源域场景图像和一张所述目标域场景图像;
利用所述第一训练集按照单次输入一个训练组的训练方式对所述第一待训练网络进行迭代训练,并利用所述第一测试集对训练后网络进行测试以得到适用于多场景的所述行人检测网络。
2.根据权利要求1所述的多场景反光背心穿戴识别模型创建方法,其特征在于,所述获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络,包括:
获取第二目标场景下穿戴反光衣的行人图像和未穿戴反光衣的行人图像,以及类似行人的非行人图像作为源域行人图像,并对所述源域行人图像添加相应的穿戴标签或非行人标签;所述穿戴标签包括穿戴反光背心标签、未穿戴反光背心标签;
获取除所述第二目标场景以外任意场景下的行人图像作为目标域行人图像,按照第二预设比例从所述目标域行人图像中筛选出部分图像作为测试行人图像,并对所述测试行人图像添加相应的穿戴标签以得到第二测试集;
基于所述源域行人图像和筛选后目标域行人图像生成包含多个训练组的第二训练集;其中,每个所述训练组中包括一张所述源域行人图像和一张所述目标域行人图像;
利用所述第二训练集按照单次输入一个训练组的训练方式对所述第二待训练网络进行迭代训练,并利用所述第二测试集对训练后网络进行测试以得到所述分类网络。
3.根据权利要求2所述的多场景反光背心穿戴识别模型创建方法,其特征在于,所述分类网络的训练过程中,还包括:
采用Am-Softmax损失函数或Arcface-Softmax损失函数或A-Softmax损失函数作为所述分类网络中所述目标分类模块的损失函数,以加大穿戴反光背心的行人图像和未穿戴反光背心的行人图像的样本间距离。
4.根据权利要求1所述的多场景反光背心穿戴识别模型创建方法,其特征在于,所述目标检测模块为YOLOv5模型。
5.根据权利要求1至4任一项所述的多场景反光背心穿戴识别模型创建方法,其特征在于,所述无监督领域自适应模块的构建过程,包括:
按照梯度反向层、全连接层和特征域分类器的顺序构建第一单元,并按照梯度反向层、卷积神经网络和特征域分类器的顺序构建第二单元;
通过一致性正则化模块连接所述第一单元的特征域分类器和所述第二单元的特征域分类器,以得到所述无监督领域自适应模块;
其中,所述第一单元的输入为实例特征;所述实例特征为所述目标检测模块输出的行人目标特征或所述目标分类模块输出的类别特征;其中,所述第二单元的输入为图像特征;所述图像特征为所述目标检测模块中卷积神经网络输出的特征图,或所述目标分类模块中卷积神经网络输出的特征图;其中,所述特征域分类器用于区分输入特征的特征类型;所述特征类型包括源域特征和目标域特征。
6.根据权利要求5所述的多场景反光背心穿戴识别模型创建方法,其特征在于,所述特征域分类器为贝叶斯分类器,并且所述特征域分类器的训练过程通过所述梯度反向层进行源域损失和目标域损失的梯度取反,以实现源域和目标域的对抗训练。
7.一种多场景反光背心穿戴识别模型创建装置,其特征在于,包括:
第一待训练网络构建模块,用于基于以卷积神经网络为基础的目标检测模块和预先创建的无监督领域自适应模块构建第一待训练网络;
第二待训练网络构建模块,用于基于以卷积神经网络为基础的目标分类模块和所述无监督领域自适应模块构建第二待训练网络;
第一训练模块,用于获取包含行人的场景图像以生成第一训练集,并利用所述第一训练集训练所述第一待训练网络以得到适用于多场景的行人检测网络;
第二训练模块,用于获取穿戴反光衣的行人图像和未穿戴反光衣的行人图像以生成第二训练集,并利用所述第二训练集训练所述第二待训练网络以得到分类网络;
模型确定模块,用于连接所述行人检测网络和所述分类网络,以得到多场景反光背心穿戴识别模型;
所述第一训练模块具体可以包括:
源域场景图像获取单元,用于获取第一目标场景下包含行人的场景图像作为源域场景图像并对所述源域场景图像添加相应的行人信息标注;所述行人信息标注包括行人标签和目标行人边界框坐标;
目标域场景图像获取单元,用于获取除所述第一目标场景以外任意场景下包含行人的场景图像作为目标域场景图像,按照第一预设比例从所述目标域场景图像中筛选出部分场景图像作为测试场景图像,并对所述测试场景图像添加相应的行人信息标注以得到第一测试集;
第一训练集确定单元,用于基于所述源域场景图像和筛选后目标域场景图像生成包含多个训练组的第一训练集;其中,每个所述训练组中包括一张所述源域场景图像和一张所述目标域场景图像;
第一训练单元,用于利用所述第一训练集按照单次输入一个训练组的训练方式对所述第一待训练网络进行迭代训练,并利用所述第一测试集对训练后网络进行测试以得到适用于多场景的所述行人检测网络。
8.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至6任一项所述的多场景反光背心穿戴识别模型创建方法。
9.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中计算机程序被处理器执行时实现如权利要求1至6任一项所述的多场景反光背心穿戴识别模型创建方法。
CN202110557801.8A 2021-05-21 2021-05-21 一种多场景反光背心穿戴识别模型创建方法及相关组件 Active CN113158993B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110557801.8A CN113158993B (zh) 2021-05-21 2021-05-21 一种多场景反光背心穿戴识别模型创建方法及相关组件

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110557801.8A CN113158993B (zh) 2021-05-21 2021-05-21 一种多场景反光背心穿戴识别模型创建方法及相关组件

Publications (2)

Publication Number Publication Date
CN113158993A CN113158993A (zh) 2021-07-23
CN113158993B true CN113158993B (zh) 2023-06-09

Family

ID=76876996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110557801.8A Active CN113158993B (zh) 2021-05-21 2021-05-21 一种多场景反光背心穿戴识别模型创建方法及相关组件

Country Status (1)

Country Link
CN (1) CN113158993B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114550215B (zh) * 2022-02-25 2022-10-18 北京拙河科技有限公司 一种基于迁移学习的目标检测方法及系统
WO2023226049A1 (zh) * 2022-05-27 2023-11-30 西门子股份公司 保护人工智能模型的方法、装置、计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401281A (zh) * 2020-03-23 2020-07-10 山东师范大学 基于深度聚类和样例学习的无监督行人重识别方法及系统
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583342B (zh) * 2018-11-21 2022-11-04 重庆邮电大学 基于迁移学习的人脸活体检测方法
CN110263686A (zh) * 2019-06-06 2019-09-20 温州大学 一种基于深度学习的施工工地图像安全帽检测方法
CN111126386B (zh) * 2019-12-20 2023-06-30 复旦大学 场景文本识别中基于对抗学习的序列领域适应方法
CN111091110B (zh) * 2019-12-24 2023-11-17 山东仁功智能科技有限公司 一种基于人工智能的反光背心穿戴识别方法
CN111753705B (zh) * 2020-06-19 2023-11-03 神思电子技术股份有限公司 一种基于视频分析的智慧工地安全作业的检测方法
CN112149514B (zh) * 2020-08-28 2023-04-07 中国地质大学(武汉) 一种施工作业人员的安全着装检测方法及系统
CN112183456B (zh) * 2020-10-19 2021-07-02 北京深睿博联科技有限责任公司 基于样本生成和域适应的多场景运动目标检测方法及装置
CN112434586B (zh) * 2020-11-16 2023-11-14 中山大学 一种基于域自适应学习的多复杂场景目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401281A (zh) * 2020-03-23 2020-07-10 山东师范大学 基于深度聚类和样例学习的无监督行人重识别方法及系统
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和系统

Also Published As

Publication number Publication date
CN113158993A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN112380952B (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
US10650278B1 (en) Semantic labeling of point clouds using images
US11756324B2 (en) Fish biomass, shape, size, or health determination
KR102177880B1 (ko) 자율주행용 클래스 레이블링 장치
CN107133569B (zh) 基于泛化多标记学习的监控视频多粒度标注方法
US20190065907A1 (en) Systems and methods for automatic estimation of object characteristics from digital images
CN111598164B (zh) 识别目标对象的属性的方法、装置、电子设备和存储介质
CN113158993B (zh) 一种多场景反光背心穿戴识别模型创建方法及相关组件
Liu et al. Super-pixel cloud detection using hierarchical fusion CNN
KR101917354B1 (ko) 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법
CN113706523B (zh) 基于人工智能技术的皮带跑偏及异常运行状态的监测方法
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
CN111767831B (zh) 用于处理图像的方法、装置、设备及存储介质
CN107025442A (zh) 一种基于颜色和深度信息的多模态融合手势识别方法
Guerin et al. Evaluation of runtime monitoring for UAV emergency landing
CN111931573A (zh) 基于yolo进化深度学习模型的安全帽检测与预警方法
Xiong et al. Pixel-Level patch detection from full-scale asphalt pavement images based on deep learning
US20210312227A1 (en) System and method for detecting annotation errors
CN108491832A (zh) 一种嵌入式人脸识别追踪装置及方法
CN117611988A (zh) 一种面向新增耕地管护属性自动识别监测方法及系统
Keshinro Image Detection and Classification: A Machine Learning Approach
US20190266403A1 (en) Server, method and wearable device for supporting maintenance of military apparatus based on binary search tree in augmented reality-, virtual reality- or mixed reality-based general object recognition
CA3012927A1 (en) Counting objects in images based on approximate locations
Kalist et al. A Novel Lanemark Identification System using Kalman Filtration Logic and Image Processing Principles
Bajkowski et al. Evaluating visuospatial features for tracking hazards in overhead uas imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant