CN110705573A - 一种目标检测模型的自动建模方法及装置 - Google Patents
一种目标检测模型的自动建模方法及装置 Download PDFInfo
- Publication number
- CN110705573A CN110705573A CN201910912868.1A CN201910912868A CN110705573A CN 110705573 A CN110705573 A CN 110705573A CN 201910912868 A CN201910912868 A CN 201910912868A CN 110705573 A CN110705573 A CN 110705573A
- Authority
- CN
- China
- Prior art keywords
- target detection
- detection model
- model
- parameters
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 198
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000011156 evaluation Methods 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 30
- 238000012795 verification Methods 0.000 claims abstract description 14
- 238000012360 testing method Methods 0.000 claims description 15
- 230000000306 recurrent effect Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 7
- 238000010200 validation analysis Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标检测模型的自动建模方法,该方法包括:S1、根据预定的第一神经网络搜索NAS网络模型;S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;S3、计算所述当前的第一目标检测模型对应的reward;S4、根据所述reward调整搜索所述NAS网络模型所用的参数;重复步骤S1‑S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。本发明还公开了自动建模装置。本发明提供的方法和装置能够能够根据不同任务搜索出不同模型,提高了目标检测效果。
Description
技术领域
本发明涉及目标检测领域,尤其涉及目标检测领域中一种自动建模方法及装置。
背景技术
目标检测作为图像处理和计算机视觉领域中的经典课题,在交通监控、图像检索、人机交互等方面有着广泛的应用。它旨在一个静态图像(或动态视频)中检测出人们感兴趣的目标对象。目前比较流行的算法有Yolo、SSD、R-CNN系算法等。但是,现有目标检测算法采用固定网络结构提取图像特征,不能根据不同任务和数据特点采用不同网络结构提取最合适的图像特征,使得人工设计的目标检测模型只能针对特定任务实现较高精度,缺乏灵活性。
发明内容
本发明要解决的技术问题是提供一种目标检测模型的自动建模方法,能够根据不同任务搜索出不同模型,提高了目标检测效果。
为了解决上述技术问题,本发明实施例提供了一种一种目标检测模型的自动建模方法,包括:
S1、根据预定的第一神经网络搜索NAS网络模型;
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward;
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
一种示例性的实施例中,上述方法还具有下面特点:
所述第一神经网络为循环神经网络RNN;
步骤S1包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
一种示例性的实施例中,上述方法还具有下面特点:
所述NAS网络模型为没有全连接层的NAS网络;
所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
一种示例性的实施例中,上述方法还具有下面特点:
根据所述评估结果确定最优的第一目标检测模型后,包括:
利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
一种示例性的实施例中,上述方法还具有下面特点:
所述第二目标检测模型包括Yolo。
一种示例性的实施例中,上述方法还具有下面特点:
利用验证集对当前的第一目标检测模型进行评估,包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
根据所述评估结果确定最优的第一目标检测模型,包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
一种示例性的实施例中,上述方法还具有下面特点:
计算所述当前的第一目标检测模型对应的目标检测任务奖励reward,包括:
其中,Lcla为分类loss,Lreg为回归loss,所述baseline为预设的数值或公式。
一种示例性的实施例中,上述方法还具有下面特点:
根据所述reward调整搜索所述NAS网络模型所用的参数,包括:
将所述reward反馈到所述RNN控制器,通过 更新所述RNN控制器的可训练参数;其中,θ表示所述RNN控制器的可训练参数,表示所述可训练参数的反向传播梯度,γ表示预设参数,logπθ(st,at)为第t次执行步骤S1时搜索到的NAS网络模型对应的交叉熵loss,Rt表示第t次执行步骤S1时搜索到的NAS网络模型对应的reward值。
为了解决上述问题,本发明还提供了一种目标检测模型的自动建模装置,包括:存储器和处理器;
所述存储器,用于保存用于目标检测模型的自动建模的程序;
所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
S1、根据预定的第一神经网络搜索NAS网络模型;
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward;
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
一种示例性的实施例中,上述装置还具有下面特点:
所述第一神经网络为循环神经网络RNN;
步骤S1包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
一种示例性的实施例中,上述装置还具有下面特点:
所述NAS网络模型为没有全连接层的NAS网络;
所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
一种示例性的实施例中,上述装置还具有下面特点:
所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
根据所述评估结果确定最优的第一目标检测模型后,利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
一种示例性的实施例中,上述装置还具有下面特点:
所述第二目标检测模型包括Yolo。
一种示例性的实施例中,上述装置还具有下面特点:
利用验证集对当前的第一目标检测模型进行评估,包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
根据所述评估结果确定最优的第一目标检测模型,包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
一种示例性的实施例中,上述装置还具有下面特点:
计算所述当前的第一目标检测模型对应的目标检测任务奖励reward,包括:
其中,Lcla为分类loss,Lreg为回归loss,所述baseline为预设的数值或公式。
一种示例性的实施例中,上述装置还具有下面特点:
根据所述reward调整搜索所述NAS网络模型所用的参数,包括:
将所述reward反馈到所述RNN控制器,通过 更新所述RNN控制器的可训练参数;其中,θ表示所述RNN控制器的可训练参数,表示所述可训练参数的反向传播梯度,γ表示预设参数,logπθ(st,at)为第t次执行步骤S1时搜索到的NAS网络模型对应的交叉熵loss,Rt表示第t次执行步骤S1时搜索到的NAS网络模型对应的reward值。
综上,本发明实施例提供一种目标检测模型的自动建模方法及装置,通过将根据不同任务搜索出的用于特征提取模型与现有技术中的目标检测模型融合形成新的目标检测模型,提高了目标检测效果。
附图说明
图1为根据本发明实施例的一种目标检测模型的自动建模方法的示意图。
图2为根据本发明实施例的目标检测模型的自动建模的流程图。
图3为根据本发明实施例的Yolo3的原理图。
图4为根据本发明实施例的Yolo3-NAS模型的自动建模示意图。
图5为根据本发明实施例的目标检测模型的自动建模装置的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
实施例一
图1为本发明实施例的一种目标检测模型的自动建模方法的示意图,如图1所示,本实施例的自动建模方法包括:
S1、根据预定的第一神经网络搜索NAS网络模型。
一种示例性的实施例中,所述第一神经网络可以为循环神经网络RNN;NAS网络模型指神经网络结构搜索(Neural Architecture Search)网络模型
步骤S1可以包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
一种示例性的实施例中,所述NAS网络模型为没有全连接层的NAS网络;
一种示例性的实施例中,所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
一种示例性的实施例中,利用验证集对当前的第一目标检测模型进行评估,可以包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
其中,所述第二目标检测模型可以包括Yolo。Yolo(You Only Live Once)是基于深度神经网络的对象识别和定位算法。其属于一步走(one-stage)算法,即直接对输入图像应用算法并输出类别和相应的定位。
一种示例性的实施例中,根据所述评估结果确定最优的第一目标检测模型,可以包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward。
一种示例性的实施例中,计算所述当前的第一目标检测模型对应的目标检测任务奖励reward,包括:
其中,Lcla为分类loss,Lreg为回归loss,所述baseline为预设的数值或公式。
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
一种示例性的实施例中,根据所述reward调整搜索所述NAS网络模型所用的参数,包括:
将所述reward反馈到所述RNN控制器,通过 更新所述RNN控制器的可训练参数;其中,θ表示所述RNN控制器的可训练参数,表示所述可训练参数的反向传播梯度,γ表示预设参数,logπθ(st,at)为第t次执行步骤S1时搜索到的NAS网络模型对应的交叉熵loss,Rt表示第t次执行步骤S1时搜索到的NAS网络模型对应的reward值。
其中,NAS网络模型所用的参数可以包括RNN控制器的可训练参数。
S5、重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
一种示例性的实施例中,根据所述评估结果确定最优的第一目标检测模型,可以包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
一种示例性的实施例中,根据所述评估结果确定最优的第一目标检测模型后,可以包括:
利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
实施例2
图2为本发明实施例的一种目标检测模型的自动建模方法的示意图。如图2所示,包括步骤如下:
步骤201:初始化输入。
初始化输入包括超参数配置和数据库读入数据集。其中,超参数可包括子网络超参数和控制器超参数。其中,子网络超参数主要包括子网络的层数、cell分支数目、模型学习率相关参数、输出通道数目等。子网络的层数就是cell的个数,子网络学习率相关的参数指,如指数衰减中的衰减率、衰减步骤等。上述数据集可以包括训练集、验证集和测试集。
步骤202:采用RNN网络作为控制器,采样输出子网络结构编码。
步骤203:通过解码器输出NAS网络模型,并融合Yolo3的输出部分,形成Yolo3-NAS模型。
如图3所示,当前Yolo3采用Darknet-53的网络结构提取图像特征,在检测部分,参考了FPN(feature pyramid networks)的思想。
如图4所示,本发明将Yolo3中特征提取网络Darknet-53替换为自动搜索生成的NAS网络(normal cell和reduce cell叠加),通过去掉NAS网络模型的全连接层,并在NAS网络模型的多个输出端添加1*1卷积来与Yolo的检测输出部分融合,形成Yolo3-NAS模型。需要说明的是,本实施例以Yolo3为基础进行说明,但在实际应用中不仅局限于Yolo3,其它目标检测模型也可以此方式改进。
步骤204:在训练集上训练Yolo3-NAS模型,达到预设的训练次数后,通过验证集验证Yolo3-NAS模型,并输出评估结果。
其中,评估结果可以用均值平均精度MAP评估。其中MAP评估为现有技术,在此不再赘述。
步骤205:计算Yolo3-NAS模型对应的目标检测任务奖励reward。
其中,奖励(reward)的计算公式为:
其中,Lcla为分类loss,Lreg为回归loss,baseline为预设的数值或公式。目标检测有分类和回归两部分,分类就是目标检测中目标类别是否分类正确,回归就是目标的位置是否正确。分类和回归对应的loss就是分类loss和回归loss。同时本发明通过函数扩大激励效果(由(-1,1)扩大至(-∞,∞)),使得控制器参数更新更快,即更快的搜索到最佳模型结构。
步骤206:将reward反馈到控制器,更新该控制器的可训练参数。
其中,更新控制器参数公式为其中,θ表示所述RNN控制器的可训练参数,表示所述可训练参数的反向传播梯度,γ表示预设参数,logπθ(st,at)可理解为第t次结构(第t次执行步骤S1时搜索到的NAS网络模型)对应的交叉熵loss。为了确保这个结构真的是“正确的”,我们的loss在原本基础上乘以Rt(第t次结构(第t次执行步骤S1时搜索到的NAS网络模型)对应的reward值),用reward来反馈这个交叉熵算出来的梯度是不是一个值得信任的梯度。如果reward小,或者是负的,说明这个梯度下降是一个错误的方向,我们应该向着另一个方向更新参数,如果reward是正的,或很大,说明这个梯度下降是一个正确的方向,并朝着这个方向更新参数。
步骤207:重复上述步骤202-206预设次数,该预设次数的评估结果最大的作为搜索到的最佳子网络模型(也即所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型),重新训练并在测试集上测试其最终效果。
本发明通过将目标检测改为自动搜索最佳模型方式,可根据不同任务搜索出不同模型,从而有针对性地提高检测效果。
图5为本发明实施例的一种目标检测模型的自动建模装置的示意图,如图5所示,本实施例的自动建模装置包括:存储器和处理器;
所述存储器,用于保存用于目标检测模型的自动建模的程序;
所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
S1、根据预定的第一神经网络搜索神经网络结构搜索NAS网络模型;
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward;
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
可选地,所述第一神经网络为循环神经网络RNN;
可选地,步骤S1包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
可选地,所述NAS网络模型为没有全连接层的NAS网络;
可选地,所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
可选地,所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
根据所述评估结果确定最优的第一目标检测模型后,利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
可选地,所述第二目标检测模型包括Yolo。
可选地,利用验证集对当前的第一目标检测模型进行评估,包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
可选地,根据所述评估结果确定最优的第一目标检测模型,包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
可选地,计算所述当前的第一目标检测模型对应的目标检测任务奖励reward,包括:
其中,Lcla为分类loss,Lreg为回归loss,所述baseline为预设的数值或公式。
可选地,根据所述reward调整搜索所述NAS网络模型所用的参数,包括:
将所述reward反馈到所述RNN控制器,通过 更新所述RNN控制器的可训练参数;其中,θ表示所述RNN控制器的可训练参数,表示所述可训练参数的反向传播梯度,γ表示预设参数,logπθ(st,at)为第t次执行步骤S1时搜索到的NAS网络模型对应的交叉熵loss,Rt表示第t次执行步骤S1时搜索到的NAS网络模型对应的reward值。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
以上仅为本发明的优选实施例,当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (16)
1.一种目标检测模型的自动建模方法,其特征在于,包括:
S1、根据预定的第一神经网络搜索神经网络结构搜索NAS网络模型;
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward;
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
2.如权利要求1所述的方法,其特征在于,
所述第一神经网络为循环神经网络RNN;
步骤S1包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
3.如权利要求2所述的方法,其特征在于,
所述NAS网络模型为没有全连接层的NAS网络;
所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
4.如权利要求1所述的方法,其特征在于,根据所述评估结果确定最优的第一目标检测模型后,包括:
利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
5.如权利要求1所述的方法,其特征在于,
所述第二目标检测模型包括Yolo。
6.如权利要求1所述的方法,其特征在于,
利用验证集对当前的第一目标检测模型进行评估,包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
根据所述评估结果确定最优的第一目标检测模型,包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
9.一种目标检测模型的自动建模装置,包括:存储器和处理器;其特征在于:
所述存储器,用于保存用于目标检测模型的自动建模的程序;
所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
S1、根据预定的第一神经网络搜索神经网络结构搜索NAS网络模型;
S2、利用训练集训练第一目标检测模型;当训练次数达到第一预设次数后,利用验证集对当前的第一目标检测模型进行评估;并输出评估结果;其中,所述第一目标检测模型是所述NAS网络模型和第二目标检测模型的检测部分融合得到的模型;
S3、计算所述当前的第一目标检测模型对应的目标检测任务奖励reward;
S4、根据所述目标检测任务奖励reward调整搜索所述NAS网络模型所用的参数;
重复步骤S1-S4第二预设次数,根据所述评估结果确定最优的第一目标检测模型。
10.如权利要求9所述的装置,其特征在于,
所述第一神经网络为循环神经网络RNN;
步骤S1包括:
步骤S11、根据预先配置的超参数通过循环神经网络RNN控制器采样,获取子网络结构编码;其中,所述超参数包括子网络超参数、控制器的超参数;子网络超参数包括子网络的层数、cell分支数目、与子网络学习率相关的参数、输出通道数目;控制器的超参数包括与控制器学习率相关的参数、优化器配置参数;
步骤S12、通过解码器对所述子网络结构编码进行解码,输出NAS网络模型。
11.如权利要求10所述的装置,其特征在于,
所述NAS网络模型为没有全连接层的NAS网络;
所述NAS网络和所述第一目标检测模型的检测部分融合是指:
所述NAS网络模型的多个不同尺度的输出端各自连接一个1*1卷积层,将所述1*1卷积层的输出作为所述第二目标检测模型的检测部分的输入。
12.如权利要求9所述的装置,其特征在于,所述处理器,用于读取执行所述用于目标检测模型的自动建模的程序,执行如下操作:
根据所述评估结果确定最优的第一目标检测模型后,利用训练集对评估结果最优的第一目标检测模型进行训练,并对所述训练后的评估结果最优的第一目标检测模型在测试集上进行测试。
13.如权利要求9所述的装置,其特征在于,
所述第二目标检测模型包括Yolo。
14.如权利要求9所述的装置,其特征在于,
利用验证集对当前的第一目标检测模型进行评估,包括:
利用验证集对当前的第一目标检测模型进行均值平均精度MAP评估;
根据所述评估结果确定最优的第一目标检测模型,包括:
将第二预设次数内最大的MAP对应的第一目标检测模型确定为最优的第一目标检测模型。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910912868.1A CN110705573A (zh) | 2019-09-25 | 2019-09-25 | 一种目标检测模型的自动建模方法及装置 |
US17/642,816 US20220383627A1 (en) | 2019-09-25 | 2019-12-30 | Automatic modeling method and device for object detection model |
KR1020227009936A KR20220051383A (ko) | 2019-09-25 | 2019-12-30 | 표적 검출 모델의 자동 모델링 방법 및 장치 |
PCT/CN2019/130024 WO2021056914A1 (zh) | 2019-09-25 | 2019-12-30 | 一种目标检测模型的自动建模方法及装置 |
JP2022517307A JP7335430B2 (ja) | 2019-09-25 | 2019-12-30 | 目標検出モデルの自動モデリング方法及び装置 |
EP19946971.9A EP4036796A4 (en) | 2019-09-25 | 2019-12-30 | AUTOMATIC MODELING METHOD AND APPARATUS FOR OBJECT DETECTION MODEL |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910912868.1A CN110705573A (zh) | 2019-09-25 | 2019-09-25 | 一种目标检测模型的自动建模方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110705573A true CN110705573A (zh) | 2020-01-17 |
Family
ID=69196577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910912868.1A Withdrawn CN110705573A (zh) | 2019-09-25 | 2019-09-25 | 一种目标检测模型的自动建模方法及装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220383627A1 (zh) |
EP (1) | EP4036796A4 (zh) |
JP (1) | JP7335430B2 (zh) |
KR (1) | KR20220051383A (zh) |
CN (1) | CN110705573A (zh) |
WO (1) | WO2021056914A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738098A (zh) * | 2020-05-29 | 2020-10-02 | 浪潮(北京)电子信息产业有限公司 | 一种车辆识别方法、装置、设备及存储介质 |
CN111930795A (zh) * | 2020-07-02 | 2020-11-13 | 苏州浪潮智能科技有限公司 | 一种分布式模型搜索方法及系统 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
WO2022001918A1 (zh) * | 2020-06-30 | 2022-01-06 | 华为技术有限公司 | 构建预测模型的方法、装置、计算设备和存储介质 |
CN117036869A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 一种基于多样性和随机策略的模型训练方法及装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116821513B (zh) * | 2023-08-25 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 一种推荐场景下的参数搜索方法、装置、设备和介质 |
CN117291845B (zh) * | 2023-11-27 | 2024-03-19 | 成都理工大学 | 一种点云地面滤波方法、系统、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120051208A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치 |
JP7023613B2 (ja) | 2017-05-11 | 2022-02-22 | キヤノン株式会社 | 画像認識装置および学習装置 |
EP3583553A1 (en) | 2017-07-21 | 2019-12-25 | Google LLC | Neural architecture search for convolutional neural networks |
JP7043596B2 (ja) | 2017-10-27 | 2022-03-29 | グーグル エルエルシー | ニューラルアーキテクチャ検索 |
CN107886117A (zh) | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
CN109063759A (zh) * | 2018-07-20 | 2018-12-21 | 浙江大学 | 一种应用于图片多属性预测的神经网络结构搜索方法 |
CN109325454B (zh) * | 2018-09-28 | 2020-05-22 | 合肥工业大学 | 一种基于YOLOv3的静态手势实时识别方法 |
CN109788222A (zh) * | 2019-02-02 | 2019-05-21 | 视联动力信息技术股份有限公司 | 一种视联网视频的处理方法及装置 |
-
2019
- 2019-09-25 CN CN201910912868.1A patent/CN110705573A/zh not_active Withdrawn
- 2019-12-30 WO PCT/CN2019/130024 patent/WO2021056914A1/zh unknown
- 2019-12-30 EP EP19946971.9A patent/EP4036796A4/en active Pending
- 2019-12-30 KR KR1020227009936A patent/KR20220051383A/ko unknown
- 2019-12-30 US US17/642,816 patent/US20220383627A1/en active Pending
- 2019-12-30 JP JP2022517307A patent/JP7335430B2/ja active Active
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738098A (zh) * | 2020-05-29 | 2020-10-02 | 浪潮(北京)电子信息产业有限公司 | 一种车辆识别方法、装置、设备及存储介质 |
WO2021238262A1 (zh) * | 2020-05-29 | 2021-12-02 | 浪潮(北京)电子信息产业有限公司 | 一种车辆识别方法、装置、设备及存储介质 |
CN111738098B (zh) * | 2020-05-29 | 2022-06-17 | 浪潮(北京)电子信息产业有限公司 | 一种车辆识别方法、装置、设备及存储介质 |
WO2022001918A1 (zh) * | 2020-06-30 | 2022-01-06 | 华为技术有限公司 | 构建预测模型的方法、装置、计算设备和存储介质 |
CN111930795A (zh) * | 2020-07-02 | 2020-11-13 | 苏州浪潮智能科技有限公司 | 一种分布式模型搜索方法及系统 |
CN111930795B (zh) * | 2020-07-02 | 2022-11-29 | 苏州浪潮智能科技有限公司 | 一种分布式模型搜索方法及系统 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
CN117036869A (zh) * | 2023-10-08 | 2023-11-10 | 之江实验室 | 一种基于多样性和随机策略的模型训练方法及装置 |
CN117036869B (zh) * | 2023-10-08 | 2024-01-09 | 之江实验室 | 一种基于多样性和随机策略的模型训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20220051383A (ko) | 2022-04-26 |
EP4036796A1 (en) | 2022-08-03 |
JP2022548293A (ja) | 2022-11-17 |
WO2021056914A1 (zh) | 2021-04-01 |
US20220383627A1 (en) | 2022-12-01 |
JP7335430B2 (ja) | 2023-08-29 |
EP4036796A4 (en) | 2023-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705573A (zh) | 一种目标检测模型的自动建模方法及装置 | |
CN112559784B (zh) | 基于增量学习的图像分类方法及系统 | |
CN111523621A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN109034086B (zh) | 车辆重识别方法、装置及系统 | |
CN111008640A (zh) | 图像识别模型训练及图像识别方法、装置、终端及介质 | |
CN112036249B (zh) | 端对端行人检测及属性识别的方法、系统、介质及终端 | |
CN111783997B (zh) | 一种数据处理方法、装置及设备 | |
CN113313053B (zh) | 图像处理方法、装置、设备、介质及程序产品 | |
CN113095370A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN113065525A (zh) | 年龄识别模型训练方法、人脸年龄识别方法及相关装置 | |
CN111242176B (zh) | 计算机视觉任务的处理方法、装置及电子系统 | |
CN110490058B (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN114140663A (zh) | 一种基于多尺度注意力学习网络的害虫识别方法及系统 | |
CN110334262B (zh) | 一种模型训练方法、装置及电子设备 | |
CN117173568A (zh) | 目标检测模型训练方法和目标检测方法 | |
KR102413588B1 (ko) | 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램 | |
CN113792132B (zh) | 一种目标答案确定方法、装置、设备及介质 | |
CN113593546B (zh) | 终端设备唤醒方法和装置、存储介质及电子装置 | |
CN110705695B (zh) | 搜索模型结构的方法、装置、设备和存储介质 | |
CN110852394B (zh) | 数据处理方法及装置、计算机系统以及可读存储介质 | |
CN113610080A (zh) | 基于跨模态感知的敏感图像识别方法、装置、设备及介质 | |
CN112861474A (zh) | 一种信息标注方法、装置、设备及计算机可读存储介质 | |
CN113392867A (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN113536859A (zh) | 行为识别模型训练方法、识别方法、装置及存储介质 | |
CN112686278B (zh) | 模型获取方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200117 |