CN112464960A - 一种基于快速神经架构搜索的目标检测方法 - Google Patents
一种基于快速神经架构搜索的目标检测方法 Download PDFInfo
- Publication number
- CN112464960A CN112464960A CN202011469675.2A CN202011469675A CN112464960A CN 112464960 A CN112464960 A CN 112464960A CN 202011469675 A CN202011469675 A CN 202011469675A CN 112464960 A CN112464960 A CN 112464960A
- Authority
- CN
- China
- Prior art keywords
- search
- detection
- module
- feature fusion
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 74
- 230000001537 neural effect Effects 0.000 title claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000010845 search algorithm Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims description 17
- 230000002787 reinforcement Effects 0.000 claims description 12
- 230000000750 progressive effect Effects 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000013508 migration Methods 0.000 claims description 6
- 230000005012 migration Effects 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013461 design Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于快速神经架构搜索的目标检测方法,首先定义搜索空间,搜索空间由多层特征融合模块和检测头模块组成;再构建搜索算法;将搜索算法应用在搜索空间,对原始图像进行搜索,检测得到原始图像中目标的类别及位置信息。使用本发明搜索方法,可以在有限的时间和计算资源下,针对目标检测任务定制不同计算场景下的客制化网络模型,兼顾效率与检测精度的平衡。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种目标检测方法。
背景技术
目标检测任务一直是计算机视觉领域的前沿研究热点。其主要目的是识别并用方框标注图像或视频内容中的目标物体。近年来,随着目标检测技术的不断发展,其已被广泛应用于自动驾驶、道路监控、刑事侦查等各个领域。目前大多数的目标检测方法都使用了特征金字塔结构,该结构为分层结构,可以使神经网络模型在训练时更容易对模型提取得到的特征进行解码,同时针对不同类型的图像进行分级处理,从而有助于提升网络的分类和检测能力。但是,类似特征金字塔结构的手工设计,在面对不同数据集与应用场景时,性能尚无法达到最优,且调整过程会消耗研究人员大量的精力,极大影响了目标检测任务的发展。
与此同时,神经架构搜索技术也在近年来得到迅速发展,其旨在通过自动化搜索的方式,搜索针对各类视觉、语音或自然语言处理任务所需的网络结构,达到解放人力,节省时间与计算资源的目的。
相比于传统的人工结构设计,基于神经架构搜索技术的目标检测网络设计更具挑战。它不仅需要研究人员设计一个良好的网络搜索空间和一组基本的候选操作,如何对网络结构进行编码并作为强化学习的输入,设计强化学习的奖励函数,使得强化学习朝着检测性能提升的方向迭代网络,也是需要解决的难题。
发明内容
为了克服现有技术的不足,本发明提供了一种基于快速神经架构搜索的目标检测方法,首先定义搜索空间,搜索空间由多层特征融合模块和检测头模块组成;再构建搜索算法;将搜索算法应用在搜索空间,对原始图像进行搜索,检测得到原始图像中目标的类别及位置信息。使用本发明搜索方法,可以在有限的时间和计算资源下,针对目标检测任务定制不同计算场景下的客制化网络模型,兼顾效率与检测精度的平衡。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:定义目标检测搜索空间;
步骤1-1:将原始图像输入骨干特征提取网络,输出c1、c2、c3、c4、c5 5个不同尺度的图像,其中c1为原图像;
步骤1-2:将c1、c2、c3、c4、c5输入多层特征融合模块,多层特征融合模块将c1、c2、c3、c4、c5进行融合,多层特征融合模块的输出表示为P3、P4、P5、P6、P7,并且P3、P4、P5、P6、P7的尺度与c1、c2、c3、c4、c5的5个尺度相同;
步骤1-3:将P3、P4、P5、P6、P7分别输入5个检测头模块,经过检测头模块的分类与回归,输出对原始图像中目标检测结果,包括类别及位置信息;
步骤2:构建目标检测搜索算法;
基于假设:搜索得到的结构在不同数据集上应具备迁移能力,使用VOC数据集进行代理搜索;
使用验证集的平均损失之和作为驱动强化学习迭代训练的奖励指标;
使用渐进式搜索解耦大搜索空间:首先固定检测头模块,对多层特征融合模块进行搜索,得到第一个最佳模块;然后固定多层特征融合模块,对检测头模块进行搜索,得到第二个最佳模块;在最终模型中将两次搜索得到的最佳模块进行组合;
步骤3:将步骤2的搜索算法应用在步骤1的搜索空间,对原始图像进行搜索,检测得到原始图像中目标的类别及位置信息。
优选地,所述多层特征融合模块中设计了基本单元块,基本单元块被表征为五元组:x1,x2,x3,x4,x5,支持两个输入与一个输出;其中x1和x2分别代表候选输入,实现跨层级的输入选择;x3和x4为候选变换操作,分别对x1和x2进行变换,增强特征的非线性表征能力;x5对变换后的两路特征进行加权或通道级别的融合。
优选地,所述检测头模块使用线性串联模式,添加权重共享起始点index,在index前的操作拥有独立权重,而index后的操作在不同特征级别间共享权重;借助index起始点,将检测头部分解耦成独立与共享两部分:独立的检测头是多层特征融合模块的延伸,共享的检测头则继续实现分类与回归的功能。
优选地,所述搜索算法使用Adam优化器进行训练。
本发明的有益效果如下:
1、搜索效率相比现有方法有了显著提升。对比同期基于强化学习算法驱动的搜索工作,本框架需要的计算资源更少,搜索时间更短。针对目标检测任务的搜索,仅需很短的时间即可完成,这将为网络模型的快速迭代设计提供较好的支持。
2、搜索模型在多个数据集与特征提取器之间展现出良好的可迁移性。搜索过程中针对目标检测任务使用VOC数据集进行搜索,但完整训练仍需要在COCO数据集上进行,搜索出的结构能够保证在多个数据集之间迁移的性能;对同一个搜索结构而言,选用不同级别的特征提取器,经过完整训练后得到的训练指标均超过了对应级别的基准指标,说明结构在对特征的融合上具备一定的通用迁移能力。
附图说明
图1为本发明方法搜索空间示意图。
图2为本发明中不同模型评价指标的搜索趋势图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明创新地使用循环神经网络对检测网络的主体部分进行编码设计,用检测网络的损失函数作为强化学习的奖励,同时设计了一个良好的搜索空间,且采取了诸多措施加速搜索效率,最终通过神经架构搜索技术,可以在短时间内得到在目标检测领域主流数据集上性能达到最优的主干网络。
本发明方法主要包括两部分:搜索空间和搜索算法。搜索空间定义了被表征的结构信息。一个合理的搜索空间对于整个搜索过程和模型的表现起着重要的作用。搜索策略定义了如何使用算法快速、准确找到最优的网络结构参数配置。这本身是一个探索-开发权衡问题。因为一方面需要快速找到表现良好的结构,而另一方面,则希望避免过早收敛到次优结构的区域。本发明从上述两部分入手,在目标检测任务上扩展了常见的搜索空间,同时从多角度出发优化搜索算法,大幅提高搜索效率与模型检测精度。
一种基于快速神经架构搜索的目标检测方法,包括如下步骤:
步骤1:定义目标检测搜索空间;
步骤1-1:将原始图像输入骨干特征提取网络,输出c1、c2、c3、c4、c5 5个不同尺度的图像,其中c1为原图像;
步骤1-2:将c1、c2、c3、c4、c5输入多层特征融合模块,多层特征融合模块将c1、c2、c3、c4、c5进行融合,多层特征融合模块的输出表示为P3、P4、P5、P6、P7,并且P3、P4、P5、P6、P7的尺度与c1、c2、c3、c4、c5的5个尺度相同;
步骤1-3:将P3、P4、P5、P6、P7分别输入5个检测头模块,经过检测头模块的分类与回归,输出对原始图像中目标检测结果,包括类别及位置信息;
步骤2:构建目标检测搜索算法;
基于假设:搜索得到的结构在不同数据集上应具备迁移能力,使用VOC数据集进行代理搜索;
使用验证集的平均损失之和作为驱动强化学习迭代训练的奖励指标;
使用渐进式搜索解耦大搜索空间:首先固定检测头模块,对多层特征融合模块进行搜索,得到第一个最佳模块;然后固定多层特征融合模块,对检测头模块进行搜索,得到第二个最佳模块;在最终模型中将两次搜索得到的最佳模块进行组合;
步骤3:将步骤2的搜索算法应用在步骤1的搜索空间,对原始图像进行搜索,检测得到原始图像中目标的类别及位置信息。
优选地,所述多层特征融合模块中设计了基本单元块,基本单元块被表征为五元组:x1,x2,x3,x4,x5,支持两个输入与一个输出;其中x1和x2分别代表候选输入,实现跨层级的输入选择;x3和x4为候选变换操作,分别对x1和x2进行变换,增强特征的非线性表征能力;x5对变换后的两路特征进行加权或通道级别的融合。
优选地,所述检测头模块使用线性串联模式,添加权重共享起始点index,在index前的操作拥有独立权重,而index后的操作在不同特征级别间共享权重;借助index起始点,将检测头部分解耦成独立与共享两部分:独立的检测头是多层特征融合模块的延伸,共享的检测头则继续实现分类与回归的功能。
优选地,所述搜索算法使用Adam优化器进行训练。
具体实施例:
1、定义搜索空间
利用神经网络提取的图片特征随着提取层数的增加往往呈现出细粒度纹理信息减少、高维度语义信息增加的特性。如图1所示,多层特征融合模块(图1中的FPN)旨在将浅层特征与深层特征进行融合,使得纹理和语义信息能够同时被保留。而检测头分支模块(图1中的Head)则借助融合后的特征进行检测框的分类与回归任务。二者相互协作,构成了通用目标检测框架的完整后端。现有人工设计的融合模块倾向于采用规整的平行逐层连接方式,不具备特征的跨层级结合及残差连接能力。为支持任意级别特征的自由组合,充分释放融合能力,在FPN模块设计了基本单元块。该单元块被表征为五元组(x1,x2,x3,x4,x5),支持两个输入与一个输出。其中x1和x2分别代表候选的输入下标,二者均由控制器独立采样,从而实现跨层级的输入选择。x3和x4为候选变换操作,由控制器在操作列表中进行采样,分别对x1和x2进行变换,增强特征的非线性表征能力。x5则对变换后的两路特征进行加权或通道级别的融合。基本单元块实现了一定的特征融合,将FPN的搜索空间松弛为若干基本单元块的堆叠,并允许B单元块的输入来自于A单元块的输出,从而实现最大的设计自由度。通过细致分析,本发明提出的搜索空间能够涵盖现有人工设计的特征融合模块,使得搜索结果更具有可比较性。
在检测头模块中,沿袭人工设计的连接方法,使用线性串联模式。搜索的重点被放在操作的选择上。拓展了候选操作的范围,加入更为节省参数的1x1卷积。经由搜索发现可变形卷积加1x1卷积的组合能比叠加两个3x3卷积在精度和效率上取得更好的平衡。为支持更为灵活的搜索空间表示,并借助自动搜索分析权重共享在模型设计中的作用,在检测头部分添加权重共享起始点index。在index前的操作拥有独立权重,而index后的操作在不同特征级别间共享权重。借助该index起始点,将检测头部分解耦成独立与共享两部分。独立的检测头可以看作多层特征融合模块的延伸,而共享的检测头则继续实现分类与回归的功能。由此可以进一步探索在多特征融合与检测头之间算力分配的比例,有助于设计更高效的模型结构。
2、构建搜索算法
基于计算资源与耗费时间的考虑,搜索阶段的每个结构无法对数据集进行完整训练,在目标检测的标准COCO数据集上进行单次训练往往需要十几个小时,若对上千结构逐一进行完整训练,将耗费大量时间与计算资源。在框架中着重提出了三项优化措施,能够在有限计算资源下充分提高搜索效率。
(1)使用代理任务:为加速搜索过程,选用远小于COCO数据集规模的VOC数据集(11,000vs 5000)进行代理搜索。代理搜索基于“搜索出来的结构在不同数据集上应具备一定迁移能力”的假设,并能有效规避COCO数据集数据量大,目标框小,难以在少量迭代中得到有效指标的缺点;
(2)使用新的模型评价指标:模型评价指标定义了模型的可靠性,并提供搜索空间的方向。完整训练单个网络获得指标的时间较长。对于诸多搜索策略,特别是基于强化学习的搜索策略,并不关心评价指标在数值上的大小,而更侧重于不同结构在评价指标上的排列次序。因此更实际的做法是,通过对结构进行有限轮的训练,获得近似的评价指标。已有的研究工作中,往往选择平均精准度作为驱动强化学习的奖励指标,在实验中发现,在搜索的早期使用验证集上的平均损失驱动搜索策略能够取得更快的搜索效率,具体表现在更好的奖励上升趋势,如图2所示,mAP表示平均精准度指标,validation loss表示验证集的平均损失。
(3)使用渐进式搜索解耦大搜索空间:在框架中拓展了搜索空间,同时容纳多层特征融合与检测头空间,使得整个空间达到了1023级别。在基于强化学习的搜索过程中,即便使用若干加速技巧,也仅能采样几千个结构。为同时兼顾搜索空间与搜索效率,在框架中引入渐进式搜索策略,首先固定检测头模块,对多特征融合模块进行搜索,随后交换搜索的模块,在最终模型中组合两次搜索中得到的最佳模块。
3、将整个方法流程分为三部分,网络搜索阶段、重训练阶段、测试阶段。框架整体基于一阶段目标检测框架FCOS改进而来。
4、网络搜索阶段:
本发明在搜索阶段设计了一个代理任务,用于简单测试搜索得到模型的性能。使用PASCAL VOC数据集,该数据集包含了5715张训练图片,有20个类别。网络的搜索阶段使用不同于重新训练阶段(即以下的第二阶段)的数据集,有利于训练模型的迁移能力。进一步,我们将VOC数据集分为包含4000张图片在内的搜索训练集和1715张图片在内的搜索验证集,在搜索训练集上训练搜索得到的网络,在搜索验证集上计算强化学习需要的奖励。输入图片的尺寸被裁剪到384x 384,网络通道数也被压缩,同时使用了学习率为8e-4以及batchsize为200的Adam优化器。为了进一步加速搜索速度,使用了Polyak训练技巧,同时固定了目标检测网络的骨干网络,将该部分提取到的特征进行缓存处理,方便搜索阶段只进行后面主干网络的搜索与训练。
一阶段的主干网络一般包括了Neck与Head两部分,本实施例中可以同时对两者进行搜索。采取了渐进式搜索的方法,首先固定Head网络,搜索得到更好的Neck网络,之后在此搜索基础上,加入Neck部分的搜索,这样可以极大压缩搜索空间,加快搜索速度,同时可以取得不亚于两部分联合搜索的网络结构。在渐进式搜索过程中,在两部分网络之间使用了1x1卷积以便解决两部分通道数可能不匹配的问题。
控制器模型在搜索了接近3000个Neck网络结构时几乎收敛,而Head部分只需要约600轮迭代即可收敛。之后挑选搜索阶段性能最好的前20个网络进行第二阶段的重训练过程,只使用了4天就完成了整个搜索过程。
5、重训练阶段:
在重新训练阶段,使用了比VOC更大的标准数据集,MS COCO数据集。调整输入图片为短边800。为了与传统方法进行公平比较,重训练的参数设置与FCOS等框架基本保持一致。
6、测试阶段:
测试阶段用于最终验证搜索得到结构的有效性,这部分的参数设置与FCOS等框架仍旧保持一致。
Claims (4)
1.一种基于快速神经架构搜索的目标检测方法,其特征在于,包括以下步骤:
步骤1:定义目标检测搜索空间;
步骤1-1:将原始图像输入骨干特征提取网络,输出c1、c2、c3、c4、c5 5个不同尺度的图像,其中c1为原图像;
步骤1-2:将c1、c2、c3、c4、c5输入多层特征融合模块,多层特征融合模块将c1、c2、c3、c4、c5进行融合,多层特征融合模块的输出表示为P3、P4、P5、P6、P7,并且P3、P4、P5、P6、P7的尺度与c1、c2、c3、c4、c5的5个尺度相同;
步骤1-3:将P3、P4、P5、P6、P7分别输入5个检测头模块,经过检测头模块的分类与回归,输出对原始图像中目标检测结果,包括类别及位置信息;
步骤2:构建目标检测搜索算法;
基于假设:搜索得到的结构在不同数据集上应具备迁移能力,使用VOC数据集进行代理搜索;
使用验证集的平均损失之和作为驱动强化学习迭代训练的奖励指标;
使用渐进式搜索解耦大搜索空间:首先固定检测头模块,对多层特征融合模块进行搜索,得到第一个最佳模块;然后固定多层特征融合模块,对检测头模块进行搜索,得到第二个最佳模块;在最终模型中将两次搜索得到的最佳模块进行组合;
步骤3:将步骤2的搜索算法应用在步骤1的搜索空间,对原始图像进行搜索,检测得到原始图像中目标的类别及位置信息。
2.根据权利要求1所述的一种基于快速神经架构搜索的目标检测方法,其特征在于,所述多层特征融合模块中设计了基本单元块,基本单元块被表征为五元组:x1,x2,x3,x4,x5,支持两个输入与一个输出;其中x1和x2分别代表候选输入,实现跨层级的输入选择;x3和x4为候选变换操作,分别对x1和x2进行变换,增强特征的非线性表征能力;x5对变换后的两路特征进行加权或通道级别的融合。
3.根据权利要求1所述的一种基于快速神经架构搜索的目标检测方法,其特征在于,所述检测头模块使用线性串联模式,添加权重共享起始点index,在index前的操作拥有独立权重,而index后的操作在不同特征级别间共享权重;借助index起始点,将检测头部分解耦成独立与共享两部分:独立的检测头是多层特征融合模块的延伸,共享的检测头则继续实现分类与回归的功能。
4.根据权利要求1所述的一种基于快速神经架构搜索的目标检测方法,其特征在于,所述搜索算法使用Adam优化器进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011469675.2A CN112464960A (zh) | 2020-12-14 | 2020-12-14 | 一种基于快速神经架构搜索的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011469675.2A CN112464960A (zh) | 2020-12-14 | 2020-12-14 | 一种基于快速神经架构搜索的目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112464960A true CN112464960A (zh) | 2021-03-09 |
Family
ID=74804181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011469675.2A Pending CN112464960A (zh) | 2020-12-14 | 2020-12-14 | 一种基于快速神经架构搜索的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464960A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869395A (zh) * | 2021-09-26 | 2021-12-31 | 大连理工大学 | 基于特征融合及神经网络搜索的轻量型水下目标检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
CN111291739A (zh) * | 2020-05-09 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 面部检测、图像检测神经网络训练方法、装置和设备 |
CN111814966A (zh) * | 2020-08-24 | 2020-10-23 | 国网浙江省电力有限公司 | 神经网络架构搜索方法、神经网络应用方法、设备及存储介质 |
-
2020
- 2020-12-14 CN CN202011469675.2A patent/CN112464960A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160174902A1 (en) * | 2013-10-17 | 2016-06-23 | Siemens Aktiengesellschaft | Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks |
CN111291739A (zh) * | 2020-05-09 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 面部检测、图像检测神经网络训练方法、装置和设备 |
CN111814966A (zh) * | 2020-08-24 | 2020-10-23 | 国网浙江省电力有限公司 | 神经网络架构搜索方法、神经网络应用方法、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
NING WANG ET AL.: "NAS-FCOS: Fast Neural Architecture Search for Object Detection", ARXIV, pages 1 - 5 * |
卞伟伟;邱旭阳;申研;: "基于神经网络结构搜索的目标识别方法", 空军工程大学学报(自然科学版), no. 04 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869395A (zh) * | 2021-09-26 | 2021-12-31 | 大连理工大学 | 基于特征融合及神经网络搜索的轻量型水下目标检测方法 |
CN113869395B (zh) * | 2021-09-26 | 2024-05-24 | 大连理工大学 | 基于特征融合及神经网络搜索的轻量型水下目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Liteeval: A coarse-to-fine framework for resource efficient video recognition | |
Singh et al. | Leveraging filter correlations for deep model compression | |
CN111047563B (zh) | 一种应用于医学超声图像的神经网络构建方法 | |
CN111046821B (zh) | 一种视频行为识别方法、系统及电子设备 | |
CN113537244B (zh) | 一种基于轻量化YOLOv4的家畜图像目标检测方法及装置 | |
US20210056357A1 (en) | Systems and methods for implementing flexible, input-adaptive deep learning neural networks | |
CN114511710A (zh) | 一种基于卷积神经网络的图像目标检测方法 | |
CN114647752A (zh) | 基于双向可切分深度自注意力网络的轻量化视觉问答方法 | |
CN115063650A (zh) | 一种轻量型实时目标检测方法 | |
CN113313250B (zh) | 采用混合精度量化与知识蒸馏的神经网络训练方法及系统 | |
CN112464960A (zh) | 一种基于快速神经架构搜索的目标检测方法 | |
CN114898171A (zh) | 一种适用于嵌入式平台的实时目标检测方法 | |
CN116416468B (zh) | 一种基于神经架构搜索的sar目标检测方法 | |
CN116777842A (zh) | 基于深度学习的轻量化纹理表面缺陷检测方法和系统 | |
CN116758610A (zh) | 基于注意力机制和特征融合的轻量化人耳识别方法及系统 | |
Hao et al. | Architecture self-attention mechanism: Nonlinear optimization for neural architecture search | |
CN111428224B (zh) | 基于人脸识别的电脑账户登录的方法 | |
CN114742199A (zh) | 一种基于注意力机制的神经网络宏架构搜索方法及系统 | |
Wang et al. | Exploring quantization in few-shot learning | |
CN116453111B (zh) | 一种基于轻量级YOLOv4的菠萝成熟度分析方法 | |
CN117809289B (zh) | 一种面向交通场景的行人检测方法 | |
Nguyen et al. | Improve object detection performance with efficient task-alignment module | |
Zhao et al. | Differentiable Channel Sparsity Search via Weight Sharing within Filters | |
CN118262197A (zh) | 一种模型训练方法、装置、电子设备、介质 | |
Lv et al. | Investigating Transformer-based Approach for Small-sample Object Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |