CN112215269A - 一种面向目标检测的模型构建方法、设备和神经网络架构 - Google Patents

一种面向目标检测的模型构建方法、设备和神经网络架构 Download PDF

Info

Publication number
CN112215269A
CN112215269A CN202011031130.3A CN202011031130A CN112215269A CN 112215269 A CN112215269 A CN 112215269A CN 202011031130 A CN202011031130 A CN 202011031130A CN 112215269 A CN112215269 A CN 112215269A
Authority
CN
China
Prior art keywords
sub
neural network
networks
network architecture
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011031130.3A
Other languages
English (en)
Inventor
周镇镇
李峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202011031130.3A priority Critical patent/CN112215269A/zh
Publication of CN112215269A publication Critical patent/CN112215269A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种面向目标检测的模型构建的方法、设备和神经网络架构,该方法包括以下步骤:通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;使用特定评价函数对训练后的子网络的相关参数进行计算;使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;根据训练后的子网络在验证集上的表现调整神经网络架构搜索的参数后重复上述步骤直到模型收敛。通过使用本发明的方案,能够为目标检测领域提供架构搜索的一种可行方案,解决了目前面向目标检测神经网络架构搜索算法网络搜索效率低,最终模型精度低的问题。

Description

一种面向目标检测的模型构建方法、设备和神经网络架构
技术领域
本领域涉及计算机领域,并且更具体地涉及一种面向目标检测的模型构建的方法、设备和神经网络架构。
背景技术
随着人工智能技术的发展,计算机视觉的应用领域越来越广泛,其最大推动力是机器学习或深度学习技术,目前主流的方法是人工设计神经网络,一种更为先进的方法是通过神经网络结构搜索(Neural Architecture Search,NAS)可以自动设计神经网络,用于目标检测、目标跟踪、图像分类、图像分割等任务。现有的目标检测神经网络搜索主要使用平均精度(mAP)或者损失函数(loss)作为评价指标,存在着目标检测网络搜索效率低,搜索结果达到的精度低的缺点。
现有的目标检测算法关注特定的物体目标,要求同时获得这一目标的类别信息和位置信息。比较流行的算法可以分为两类,主要分为two-stage和one-stage两类:前者主要包括基于Region Proposal的R-CNN系算法(R-CNN,Fast R-CNN,Faster R-CNN);后者主要包括Yolo和SSD这算法,后者在实时性上优于前者,但是精度却没有two-stage检测器那么高。
人工设计神经网络架构的方法耗时费力,且对设计者的技术要求较高,目前相关研究人员逐渐聚焦神经网络架构搜索算法,自动建立神经网络,快速应用于实践。现有的神经网络架构算法采用强化学习、进化算法等搜索方法进行架构搜索,通过性能评估方法对采样得到的网络架构进行评估,再通过优化评估指标获取最佳模型结构。
目前神经网络架构搜索主要应用于分类领域,且非常耗费时间,从搜索空间采样出模型结构,接着从头训练其权重,缺点是对于大型数据集来讲计算量过大。而少量的基于目标检测神经网络搜索则主要使用平均精度(mAP)或者损失函数(loss)作为评价指标,存在着目标检测网络搜索效率低、搜索结果达到的精度低的缺点。
发明内容
有鉴于此,本发明实施例的目的在于提出一种面向目标检测的模型构建的方法、设备和神经网络架构,通过使用本发明的方法,能够为目标检测领域提供架构搜索的一种可行方案,解决了目前面向目标检测神经网络架构搜索算法网络搜索效率低,最终模型精度低的问题。
基于上述目的,本发明的实施例的一个方面提供了一种面向目标检测的模型构建的方法,包括以下步骤:
通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;
使用特定评价函数对训练后的子网络的相关参数进行计算;
使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
根据训练后的子网络在验证集上的表现调整神经网络架构搜索的参数后重复上述步骤直到模型收敛。
根据本发明的一个实施例,相关参数包括分类存疑度、定位稳定性和定位紧密度。
根据本发明的一个实施例,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算分类存疑度,计算公式如下:
UB(B)=1-Pmax(B)
其中,Pmax(B)代表针对该目标框的不同类别预测结果中可能性最高的结果。
根据本发明的一个实施例,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算定位紧密度,计算公式如下:
Figure BDA0002703661640000031
其中,
Figure BDA0002703661640000032
表示第j个预测目标框
Figure BDA0002703661640000033
的定位紧密度,
Figure BDA0002703661640000034
表示输入最终分类器产生
Figure BDA0002703661640000035
的预测目标框。
根据本发明的一个实施例,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对于给定目标框B计算定位稳定性,计算公式如下:
Figure BDA0002703661640000036
其中,
Figure BDA0002703661640000037
表示目标框
Figure BDA0002703661640000038
的定位稳定性,N表示图片的噪声级别;
对于给定图像Ii计算定位稳定性,计算公式如下:
Figure BDA0002703661640000039
其中,M表示参考目标框的个数,每个参考目标框的权重为其得分最高类别的可能性,以此来使筛选较高可能性的目标框。
根据本发明的一个实施例,使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现包括:
使用分类存疑度、定位稳定性和定位紧密度计算结果的加权和得到综合评估的评分。
根据本发明的一个实施例,通过神经网络架构搜索对超网络中的子网络进行多轮采样包括:
使用神经网络架构的控制器按照均匀采样的方式对超网络中的子网络进行采样。
根据本发明的一个实施例,控制器包括多层控制结构,每个控制结构的每个输入包括滤波器的高、滤波器的宽、横向步长、纵向步长和滤波器的数量。
本发明的实施例的另一个方面,还提供了一种面向目标检测的模型构建的设备,设备包括:
采样模块,采样模块配置为通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;
计算模块,计算模块配置为使用特定评价函数对训练后的子网络的相关参数进行计算;
评估模块,评估模块配置为使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
调整模块,调整模块配置为根据训练后的子网络在验证集上的表现调整神经网络架构的参数直到模型收敛。
本发明的实施例的另一个方面,还提供了一种神经网络架构,神经网络架构包括使用上述的方法构建的模型。
本发明具有以下有益技术效果:本发明实施例提供的面向目标检测的模型构建的方法,通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;使用特定评价函数对训练后的子网络的相关参数进行计算;使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;根据训练后的子网络在验证集上的表现调整神经网络架构搜索的参数后重复上述步骤直到模型收敛的技术方案,能够为目标检测领域提供架构搜索的一种可行方案,解决了目前面向目标检测神经网络架构搜索算法网络搜索效率低,最终模型精度低的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为根据本发明一个实施例的面向目标检测的模型构建的方法的示意性流程图;
图2为根据本发明一个实施例的面向目标检测的模型构建的设备的示意图;
图3为根据本发明的一个实施例的单层控制器的示意图;
图4为根据本发明的一个实施例的多层控制器的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
基于上述目的,本发明的实施例的第一个方面,提出了一种面向目标检测的模型构建的方法的一个实施例。图1示出的是该方法的示意性流程图。
如图1中所示,该方法可以包括以下步骤:
S1通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练,可以通过神经网络架构搜索中的控制器以概率p随机采样一个超网络结构中的子网络;
S2使用特定评价函数对训练后的子网络的相关参数进行计算;
S3使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
S4根据训练后的子网络在验证集上的表现调整神经网络架构搜索的参数后重复上述步骤直到模型收敛,根据子网络的不同表现确定优化子网络的方向,然后根据优化方向更新神经网络架构搜索中控制器的参数,重复上述步骤直到模型收敛后得到需要构建的模型。
通过本发明的技术方案,能够为目标检测领域提供架构搜索的一种可行方案,解决了目前面向目标检测神经网络架构搜索算法网络搜索效率低,最终模型精度低的问题。
本发明的技术方案将单路径超网络和RetinaNet(目标检测模型)结合起来,特征提取网络ResNet替换为神经网络架构搜索结果(normal cell和reduce cell叠加)的特征提取网络,融合RetinaNet目标检测FPN部分,形成新的目标检测模型NAS-RetinaNet,并采用RNN网络(一种神经网络)作为控制器,通过reward(反馈)更新控制器参数实现NAS-RetinaNet模型的自动建模过程。
为了使神经网络架构搜索的特征提取网络与原生RetinaNet结合,并且保留图像特征信息,需要对特征提取网络添加1*1卷积改变NAS网络输出维度,使之与原生RetinaNet检测部分匹配。
需要注意的是,本发明的技术方案以RetinaNet框架为基础进行说明,但在实际应用中不仅局限于RetinaNet,其它目标检测模型均可以此方式进行改进。
通过NAS的特征提取网络提取图像特征信息后,FPN网络会将各层次图像特征信息进行融合,综合考虑了低分辨率但语义信息丰富的高层特征和语义信息不足但分辨率高的低层特征,提升了one-stage检测器的精度。其P3-P7层对应32*32-512*512不同尺寸的anchor,比例设置为{1:2,1:1,2:1},每一层都含有9个anchor,不同层能覆盖的size范围为32-813。对每一次anchor,都对应一个K维的one-hot向量(K是类别数)和4位的位置回归向量。
同时分类子网对A个anchor,每个anchor中的K个类别,都预测一个存在概率。对于FPN的每一层输出,对分类子网来说,加上四层3x3x256卷积的FCN网络,最后一层的卷积稍有不同,用3x3xKA,最后一层维度变为KA表示,对于每个anchor,都是一个K维向量,表示每一类的概率,然后因为one-hot属性,选取概率得分最高的设为1,其余k-1为归0。与分类子网并行,对每一层FPN输出接上一个位置回归子网,该子网本质也是FCN网络,预测的是anchor和它对应的一个GT位置的偏移量。首先也是4层256维卷积,最后一层是4A维度,即对每一个anchor,回归一个(x,y,w,h)四维向量。注意,此时的位置回归是类别无关的。分类和回归子网虽然是相似的结构,但是参数是不共享的。
在本发明的一个优选实施例中,相关参数包括分类存疑度、定位稳定性和定位紧密度。
在本发明的一个优选实施例中,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算分类存疑度,计算公式如下:
UB(B)=1-Pmax(B)
其中,Pmax(B)代表针对该目标框的不同类别预测结果中可能性最高的结果。当某一类别的可能性接近于1.0时,其他类别可能性必然较低,说明子网络检测器确定该类别的可能性较高,与之对比,当多个类别含有近似的可能性的时候,因为各个类别可能性总和为1,每个类别的可能性必然较低。基于此,针对特定第i张图片Ii,其分类准确度为UC(Ii),可由所有目标框中最大的分类存疑度计算而得。
在本发明的一个优选实施例中,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算定位紧密度,计算公式如下:
Figure BDA0002703661640000071
其中,
Figure BDA0002703661640000072
表示第j个预测目标框
Figure BDA0002703661640000073
的定位紧密度,
Figure BDA0002703661640000074
表示输入最终分类器产生
Figure BDA0002703661640000075
的预测目标框。预测目标框指的是通过选择神经网络架构搜索得到的子网络对验证集图像进行推理得到的目标框。由于目标检测不止对图片目标进行分类,更对其进行目标定位,网络训练过程会不断调整目标框的位置和尺度,使用定位稳定性来衡量其优劣。
在本发明的一个优选实施例中,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对于给定目标框B计算定位稳定性,计算公式如下:
Figure BDA0002703661640000081
其中,
Figure BDA0002703661640000082
表示目标框
Figure BDA0002703661640000083
的定位稳定性,N表示图片的噪声级别;
对于给定图像Ii计算定位稳定性,计算公式如下:
Figure BDA0002703661640000084
其中,M表示参考目标框的个数,每个参考目标框的权重为其得分最高类别的可能性,以此来使筛选较高可能性的目标框。
在本发明的一个优选实施例中,使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现包括:
使用分类存疑度、定位稳定性和定位紧密度计算结果的加权和得到综合评估的评分。根据上面各个参数的计算结果,综合得分的计算公式如下:
F(Ii)=αUC(Ii)+βTI(Ii)-γSI(Ii)
其中,在一个实施例中权重α、β、γ可以均取1,也可以根据需求设定其他权重的值。
不同于以往使用loss或者mAP作为评价标准的方法,本发明的技术方案提出一种新的评价函数用于子网络的优选和优化,使用NAS-RetinaNet的输出F(Ii)作为reward,也就是通过分类存疑度、定位稳定性和定位紧密度来综合评估NAS-RetinaNet在验证集上的表现,使用Fval代表综合得分。NAS-RetinaNet结构搜索优化过程可以表示为:
Figure BDA0002703661640000085
其中,A表示搜索空间,a∈A记为N(a,w),w为权重,为了使上式Wa最接近于wa,需要使Fval(N(a,Wa))达到最优。
在本发明的一个优选实施例中,通过神经网络架构搜索对超网络中的子网络进行多轮采样包括:
使用神经网络架构的控制器按照均匀采样的方式对超网络中的子网络进行采样。
在本发明的一个优选实施例中,控制器包括多层控制结构,每个控制结构的每个输入包括滤波器的高、滤波器的宽、横向步长、纵向步长和滤波器的数量。本专利使用N层控制器,控制器的每一层包含若干个输出,每个输入表示超网络的一个超参数,包括Filter(滤波器)的高,Filter的宽,横向步长,纵向步长及Filter的数量,如图3所示。通过控制器产生多个卷积子网络,每生成一个网络对其进行训练,验证在验证集上的综合得分,使用该综合得分作为强化学习的奖励信号。
本发明的技术方案对以上控制器添加了注意力机制(Attention mechanism),在控制器层与层之间产生跳层连接(skip connection),如图4所示,在第N层控制器,添加N-1个锚点来确定是否在该层和前面各层跳跃连接,如果一个层和其之前的所有层都没有跳跃连接,那么这层将作为输入层;如果一个层和其之后的所有层都没有跳跃连接,那么这层将作为输出层,并和所有输出层拼接之后作为分类器的输入;如果输入层拼接了多个尺寸的输入,则通过将小尺寸输入加值为0的padding的方式进行尺寸统一。同时,BN、Dropout等策略也可以通过相同的方式添加到控制器中。
子网络优选方式使用综合得分对子网络在验证集上的表现取平均水平,对子网络综合得分进行排序,得分较低的子网络表现较好。按照子网络综合得分计算子网络reward,输入控制器,更新子网络编码。
通过本发明的技术方案,能够为目标检测领域提供架构搜索的一种可行方案,解决了目前面向目标检测神经网络架构搜索算法网络搜索效率低,最终模型精度低的问题。
需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,上述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中存储介质可为磁碟、光盘、只读存储器(Read-Only Memory,ROM)或随机存取存储器(Random AccessMemory,RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
基于上述目的,本发明的实施例的第二个方面,提出了一种面向目标检测的模型构建的设备,如图2所示,设备200包括:
采样模块201,采样模块201配置为通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;
计算模块202,所述计算模块202配置为使用特定评价函数对训练后的子网络的相关参数进行计算;
评估模块203,所述评估模块203配置为使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
调整模块204,所述调整模块204配置为根据所述训练后的子网络在验证集上的表现调整所述神经网络架构的参数直到所述模型收敛。
基于上述目的,本发明的实施例的第三个方面,提出了一种神经网络架构,其特征在于,所述神经网络架构包括使用上述的方法构建的模型。
上述实施例,特别是任何“优选”实施例是实现的可能示例,并且仅为了清楚地理解本发明的原理而提出。可以在不脱离本文所描述的技术的精神和原理的情况下对上述实施例进行许多变化和修改。所有修改旨在被包括在本公开的范围内并且由所附权利要求保护。

Claims (10)

1.一种面向目标检测的模型构建的方法,其特征在于,包括以下步骤:
通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;
使用特定评价函数对训练后的子网络的相关参数进行计算;
使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
根据所述训练后的子网络在验证集上的表现调整所述神经网络架构搜索的参数后重复上述步骤直到所述模型收敛。
2.根据权利要求1所述的方法,其特征在于,所述相关参数包括分类存疑度、定位稳定性和定位紧密度。
3.根据权利要求2所述的方法,其特征在于,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算所述分类存疑度,计算公式如下:
UB(B)=1-Pmax(B)
其中,Pmax(B)代表针对该目标框的不同类别预测结果中可能性最高的结果。
4.根据权利要求2所述的方法,其特征在于,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对给定目标框B计算所述定位紧密度,计算公式如下:
Figure FDA0002703661630000011
其中,
Figure FDA0002703661630000012
表示第j个预测目标框
Figure FDA0002703661630000013
的定位紧密度,
Figure FDA0002703661630000014
表示输入最终分类器产生
Figure FDA0002703661630000015
的预测目标框。
5.根据权利要求2所述的方法,其特征在于,使用特定评价函数对训练后的子网络的相关参数进行计算包括:
对于给定目标框B计算所述定位稳定性,计算公式如下:
Figure FDA0002703661630000021
其中,
Figure FDA0002703661630000022
表示目标框
Figure FDA0002703661630000023
的定位稳定性,N表示图片的噪声级别;
对于给定图像Ii计算所述定位稳定性,计算公式如下:
Figure FDA0002703661630000024
其中,M表示参考目标框的个数,每个参考目标框的权重为其得分最高类别的可能性,以此来使筛选较高可能性的目标框。
6.根据权利要求2所述的方法,其特征在于,使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现包括:
使用分类存疑度、定位稳定性和定位紧密度计算结果的加权和得到综合评估的评分。
7.根据权利要求1所述的方法,其特征在于,通过神经网络架构搜索对超网络中的子网络进行多轮采样包括:
使用神经网络架构的控制器按照均匀采样的方式对超网络中的子网络进行采样。
8.根据权利要求7所述的方法,其特征在于,所述控制器包括多层控制结构,每个控制结构的每个输入包括滤波器的高、滤波器的宽、横向步长、纵向步长和滤波器的数量。
9.一种面向目标检测的模型构建的设备,其特征在于,所述设备包括:
采样模块,所述采样模块配置为通过神经网络架构搜索对超网络中的子网络进行多轮采样并对采样的子网络进行训练;
计算模块,所述计算模块配置为使用特定评价函数对训练后的子网络的相关参数进行计算;
评估模块,所述评估模块配置为使用计算得到的相关参数综合评估训练后的子网络在验证集上的表现;
调整模块,所述调整模块配置为根据所述训练后的子网络在验证集上的表现调整所述神经网络架构的参数直到所述模型收敛。
10.一种神经网络架构,其特征在于,所述神经网络架构包括使用权利要求1-8所述的方法构建的模型。
CN202011031130.3A 2020-09-27 2020-09-27 一种面向目标检测的模型构建方法、设备和神经网络架构 Withdrawn CN112215269A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011031130.3A CN112215269A (zh) 2020-09-27 2020-09-27 一种面向目标检测的模型构建方法、设备和神经网络架构

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011031130.3A CN112215269A (zh) 2020-09-27 2020-09-27 一种面向目标检测的模型构建方法、设备和神经网络架构

Publications (1)

Publication Number Publication Date
CN112215269A true CN112215269A (zh) 2021-01-12

Family

ID=74051268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011031130.3A Withdrawn CN112215269A (zh) 2020-09-27 2020-09-27 一种面向目标检测的模型构建方法、设备和神经网络架构

Country Status (1)

Country Link
CN (1) CN112215269A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963167A (zh) * 2021-10-29 2022-01-21 北京百度网讯科技有限公司 应用于目标检测的方法、装置及计算机程序产品
CN114419389A (zh) * 2021-12-14 2022-04-29 上海悠络客电子科技股份有限公司 一种基于神经网络架构搜索的目标检测模型构建方法
CN114492625A (zh) * 2022-01-23 2022-05-13 北京工业大学 基于迁移的目标检测网络搜索模型在智能车标志物检测问题的解决方案
WO2022222020A1 (zh) * 2021-04-20 2022-10-27 中国科学院深圳先进技术研究院 一种用于流量分类的神经网络架构自动搜索方法及装置
CN117173551A (zh) * 2023-11-02 2023-12-05 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统
CN114419389B (zh) * 2021-12-14 2024-11-05 上海悠络客电子科技股份有限公司 一种基于神经网络架构搜索的目标检测模型构建方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022222020A1 (zh) * 2021-04-20 2022-10-27 中国科学院深圳先进技术研究院 一种用于流量分类的神经网络架构自动搜索方法及装置
CN113963167A (zh) * 2021-10-29 2022-01-21 北京百度网讯科技有限公司 应用于目标检测的方法、装置及计算机程序产品
CN114419389A (zh) * 2021-12-14 2022-04-29 上海悠络客电子科技股份有限公司 一种基于神经网络架构搜索的目标检测模型构建方法
CN114419389B (zh) * 2021-12-14 2024-11-05 上海悠络客电子科技股份有限公司 一种基于神经网络架构搜索的目标检测模型构建方法
CN114492625A (zh) * 2022-01-23 2022-05-13 北京工业大学 基于迁移的目标检测网络搜索模型在智能车标志物检测问题的解决方案
CN117173551A (zh) * 2023-11-02 2023-12-05 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统
CN117173551B (zh) * 2023-11-02 2024-02-09 佛山科学技术学院 一种场景自适应的无监督水下弱小目标检测方法及系统

Similar Documents

Publication Publication Date Title
CN110782015B (zh) 神经网络的网络结构优化器的训练方法、装置及存储介质
CN112215269A (zh) 一种面向目标检测的模型构建方法、设备和神经网络架构
CN111819580A (zh) 用于密集图像预测任务的神经架构搜索
CN112101430B (zh) 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN113570029A (zh) 获取神经网络模型的方法、图像处理方法及装置
KR20180044295A (ko) 트레이닝된 머신 학습 모델의 성능을 개선시키는 방법
CN113283426B (zh) 基于多目标神经网络搜索的嵌入式目标检测模型生成方法
CN110751267B (zh) 神经网络的结构搜索方法、训练方法、装置及存储介质
CN110428413B (zh) 一种用于灯诱设备下的草地贪夜蛾成虫图像检测方法
CN112287166A (zh) 一种基于改进深度信念网络的电影推荐方法及系统
JP2022078310A (ja) 画像分類モデル生成方法、装置、電子機器、記憶媒体、コンピュータプログラム、路側装置およびクラウド制御プラットフォーム
CN114170531B (zh) 基于困难样本迁移学习的红外图像目标检测方法和装置
CN111242176B (zh) 计算机视觉任务的处理方法、装置及电子系统
Cai et al. On-device image classification with proxyless neural architecture search and quantization-aware fine-tuning
CN112464981B (zh) 基于空间注意力机制的自适应知识蒸馏方法
Ghosh et al. Adafocal: Calibration-aware adaptive focal loss
WO2023125628A1 (zh) 神经网络模型优化方法、装置及计算设备
CN112508178A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN116668327A (zh) 基于动态再训练的小样本恶意流量分类增量学习方法及系统
CN118194091A (zh) 文旅数据分类编目方法、系统及设备
KR20080097753A (ko) 다중 클래스 svm을 이용한 영역 기반 이미지 검색 방법
CN117494866A (zh) 基于循环神经网络的交通事故严重程度预测方法
Zhang et al. Vulcan: Automatic Query Planning for Live {ML} Analytics
CN116340763A (zh) 一种基于决策树的模型的训练及分类方法
CN112115914B (zh) 目标检测方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210112

WW01 Invention patent application withdrawn after publication