CN111832479A - 基于改进的自适应锚点r-cnn的视频目标检测方法 - Google Patents
基于改进的自适应锚点r-cnn的视频目标检测方法 Download PDFInfo
- Publication number
- CN111832479A CN111832479A CN202010672068.XA CN202010672068A CN111832479A CN 111832479 A CN111832479 A CN 111832479A CN 202010672068 A CN202010672068 A CN 202010672068A CN 111832479 A CN111832479 A CN 111832479A
- Authority
- CN
- China
- Prior art keywords
- network
- detection
- layer
- cnn
- detection frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于改进的自适应锚点R‑CNN的光学遥感视频目标检测方法,用于解决现有技术中精确率和召回率较低的问题,实现步骤为:获取训练样本集和测试样本集;构建改进的自适应锚点R‑CNN网络及其损失函数;对改进的自适应锚点R‑CNN网络进行迭代训练;获取目标检测识别结果。本发明所构建的小目标区域提议网络自适应地生成高质量的锚点,一定程度上避免漏检,有效提高小目标的检测召回率,同时所构建的尺寸预测损失函数有利于小目标尺寸的稳定收敛,进一步提高了小目标的检测精确率和召回率,可用于光学遥感视频中的目标检测。
Description
技术领域
本发明属于机器视觉技术领域,涉及一种视频目标检测方法,具体涉及一种基于改进的自适应锚点R-CNN的光学遥感视频目标检测方法,可用于光学遥感视频中的目标检测。
背景技术
遥感技术的发展对于人们认识和探索世界有着巨大的帮助,它具有许多鲜明的技术特点,如数据范围广、获取周期短、数据综合性强等,这些特点使得遥感技术可以在农业、海洋、气象、军事等多个领域发挥重要的作用。光学遥感视频涵盖的目标种类丰富,范围广泛,在获取地理信息、应急灾害检测、资源规划等方面具有重要的现实意义。
光学遥感视频目标检测的主要思想就是使用一些策略或算法在遥感视频序列图像中搜寻得到感兴趣的目标,确定目标的位置,识别目标类别,该技术的技术指标有精确率、召回率和检测速度等。在传统的目标检测算法中往往鲁棒性差且计算量庞大,且光学遥感视频中存在的大量密集小目标,与本身成像方式所导致的较低的分辨率,这一系列特性决定了传统的目标检测方法在光学遥感视频领域中的应用无法满足客观需求。
如今,随着深度神经网络的发展,基于深度学习的目标检测算法成为主流方法。深度学习可通过学习深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。基于深度学习的目标检测算法可以通过构建具有很多隐层的网络模型和海量的训练数据,来学习有辨别力的感兴趣目标特征,从而最终提升检测的准确率和召回率。在基于深度学习的目标检测算法中,设计合理的网络结构与选取合适的损失函数至关重要,结构的设计决定着模型能否提取到有辨别力的目标特征信息,能否准确地进行预测,损失函数的选取决定着模型能否稳定快速地训练,达到预期的效果。
基于深度学习的目标检测方法可以分为基于锚点的和基于关键点的目标检测方法,其中,基于锚点的目标检测方法在检测过程中首先生成锚点,并对锚点进行分类和回归,得到目标的位置及其类别,然而由于需要手工设置锚点的相关参数,使得在处理不同形状与尺寸的目标时,锚点难以通过自适应方法进行拟合,且生成锚点时所需的均匀采样机制计算量庞大,运行速度慢。基于关键点的目标检测方法在检测过程中首先预测关键点的类别和位置,然后基于关键点的位置和类别,得到目标的位置及其类别,然而由于关键点的位置和类别较难预测,导致检测精确率和召回率较低。
为了避免预设参数对于模型的影响以及提高算法效率,基于锚点和关键点的目标检测方法应运而生,例如Jiaqi Wang、Kai Chen和Shuo Yang等人在2019年CVPR会议上发表的论文《Region Proposal by Guided Anchoring》中,提出了基于自适应锚点R-CNN的目标检测算法。该方法通过自适应锚点R-CNN所包含的自适应区域提议网络,在特征图的每个位置上预测锚点的中心点位置与尺寸,并通过后续的卷积操作与可变形卷积操作,得到高质量的提议区域,并在训练过程中,通过中心点预测损失函数指导自适应区域提议网络中的中心点预测网络的学习,通过尺寸预测损失函数用于指导自适应区域提议网络中的尺寸预测网络的学习,一定程度上提升了算法的精确率和召回率。但其不足之处在于,自适应区域提议网络中的可变性卷积层容易丢失密集小目标的信息,造成漏检问题,限制了算法召回率的进一步提升,同时,使用尺寸预测损失函数对网络进行训练时,容易造成小目标尺寸的收敛不稳定,增大网络训练的难度,使得网络的精确率和召回率仍然无法满足现阶段需求。
发明内容
本发明的目的在于针对上述现有技术的不足,提出了一种基于改进的自适应锚点R-CNN的视频目标检测方法,用于解决现有技术中存在的检测精度和召回率较低的技术问题。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取训练样本集I和测试样本集V:
从一段光学遥感视频中选取连续N帧大小为W×H的图像组成训练样本集I={i1,i2,...,in,...,iN},同时从另一段光学遥感视频中选取连续M帧大小为W×H的图像组成测试样本集V={v1,v2,...,vm,...,vM},其中,N≥300,W和H表示图像的行和列像素点的个数,in表示I中第n帧图像,M≥20,vm表示V中第m帧图像;
(2)构建改进的自适应锚点R-CNN网络G及其损失函数L:
(2a)构建改进的自适应锚点R-CNN网络G:
构建包括特征提取网络、小目标区域提议网络和检测框分类回归网络的改进的自适应锚点R-CNN网络G,其中:特征提取网络包括依次相间层叠的多个卷积层和多个下采样层;小目标区域提议网络包括并行排布且均包括多个层叠的卷积层的中心点提议网络和尺寸提议网络;检测框分类回归网络包括并行排布且均包括一个池化层和多个层叠的全连接层的检测框分类网络和检测框回归网络;
特征提取网络、小目标区域提议网络和检测框分类回归网络依次级联,且特征提取网络的输出端与检测框分类回归网络的输入端级联;
(2b)构建改进的自适应锚点R-CNN网络G的损失函数L:
L=L1+L2+L3+L4
其中,L1为中心点置信度预测损失函数,L2为尺寸预测损失函数,L3为检测框置信度损失函数,L4为检测框位置预测损失函数,bij为中心点置信度热图预测标签中坐标为(i,j)的值,b′ij为中心点置信度热图真实标签中坐标为(i,j)的值,xij为尺寸热图预测标签中坐标为(i,j)的值,x′ij为尺寸热图真实标签中坐标为(i,j)的值,N为训练样本集中目标的个数,C为训练样本集中目标类别的个数,sci为检测框置信度预测标签中坐标为(c,i)的值,s'ci为检测框置信度真实标签中坐标为(c,i)的值,tci为检测框位置预测标签中坐标为(c,i)的值,t'ci为检测框位置真实标签中坐标为(c,i)的值;
(3)对改进的自适应锚点R-CNN网络G进行迭代训练:
(3a)设迭代次数为t,最大迭代次数为T,T≥20,当前改进的自适应锚点R-CNN网络为Gt,并令t=1,Gt=G;
(3d)采用反向传播算法,并通过Lt对改进的自适应锚点R-CNN网络中卷积层的卷积核参数ωt、各全连接层结点之间的连接参数θt进行更新,得到更新后的Gt;
(3e)判断t=T是否成立,若是,得到训练好的改进的自适应锚点R-CNN网络G*,否则,令t=t+1,并执行步骤(3b);
(4)获取目标检测识别结果:
将V中的样本依次输入到G*中进行交替的卷积和池化操作,然后对其结果进行全连接操作,得到G*的检测框置信度预测标签z3和检测框位置预测标签z4。
本发明与现有技术相比,具有如下优点:
第一,本发明所构建的改进的自适应锚点R-CNN网络中,由于小目标区域提议网络包括并行排布且均包括多个层叠的卷积层的中心点提议网络和尺寸提议网络,在检测过程中能够充分利用特征提取网络得到的特征图的语义信息,预测锚点的位置与尺寸,避免了现有技术中在进行可变性卷积时容易造成密集小目标特征丢失的缺陷,有效地提高了密集小目标的检测召回率。
第二,本发明在对网络的训练过程中,使用尺寸预测损失函数指导小目标区域提议网络中的尺寸预测网络,在现有技术的尺寸预测损失函数中,增添了一项尺度平滑系数,使得损失函数在真实值附近的梯度更加平滑,从而使得预测值更容易稳定收敛,克服了现有技术中的损失函数针对小目标的尺寸回归收敛不稳定的问题,能够得到质量更高的锚点,进一步提高了小目标的检测精确率和召回率。
附图说明
图1是本发明实现流程图;
图2是本发明实施例采用的改进的自适应锚点R-CNN网络的结构图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤:
步骤1)获取训练样本集I和测试样本集V:
选取一段带有标签的光学遥感视频,并从其第5帧开始选取连续N帧大小为W×H的图像,组成训练样本集I={i1,i2,...,in,...,iN},同时从另一段无标签的光学遥感视频中选取连续M帧大小为W×H的图像,组成测试样本集V={v1,v2,...,vm,...,vM},其中,N≥300,W和H表示图像的行和列像素点的个数,in表示I中第n帧图像,M≥20,vm表示V中第m帧图像,本实施例中,N=300,W=H=3000,M=60;
步骤2)构建改进的自适应锚点R-CNN网络G及其损失函数L:
(2a)构建改进的自适应锚点R-CNN网络G,其结构如图2所示:
构建包括特征提取网络、小目标区域提议网络和检测框分类回归网络的改进的自适应锚点R-CNN网络G,其中:
特征提取网络,其中的卷积层与下采样层的个数均为4个,该特征提取网络的具体结构为:第一卷积层→第一下采样层→第二卷积层→第二下采样层→第三卷积层→第三下采样层→第四卷积层→第四下采样层,本实施例中,卷积层卷积核的大小为3×3,步长为1,下采样层的步长为2,特征提取网络用来的提取图像感兴趣目标的特征信息,并使用特征图的方式表示;
小目标区域提议网络,其中的中心点提议网络包括层叠的第六卷积层和第七卷积,尺寸提议网络包括层叠的第八卷积层和第九卷积层,本实施例中,卷积层卷积核的大小为1×1,步长为1,第六和第七卷积层负责预测在特征图每个位置的像素点成为锚点中心点的置信度,第八和第九卷积层负责预测特征图每个位置的像素点所对应的锚点长宽,中心点的置信度信息与长宽信息相结合,得到自适应锚点,用于后续的检测过程。该自适应方法克服了原有技术中锚点对于不同尺寸与形状的目标适应性差的缺点,增强了算法的鲁棒性,提升了算法的运算效率,同时,第六至第八卷积层在损失函数的指导下能够充分有效提取锚点的特征信息,避免了原有结构中的可变形卷积层易造成的小目标信息丢失的问题,一定程度上克服了漏检现象;
检测框分类回归网络中,其中的检测框分类网络包括层叠的第一池化层、第一全连接层和第二全连接层,检测框回归网络包含层叠的第一池化层、第三全连接层和第四全连接层,本实施例中,第一池化层的输出尺寸为32×32,第一全连接层节点个数为1024,第二全连接层结点个数为2,第一池化层负责进一步提炼目标特征,并在第二全连接层完成对检测框类别的分类,在第四全连接层完成检测框位置的回归。
特征提取网络、小目标区域提议网络和检测框分类回归网络依次级联,且特征提取网络的输出端与检测框分类回归网络的输入端级联;
(2b)构建改进的自适应锚点R-CNN网络G的损失函数L:
L=L1+L2+L3+L4
其中,L1为中心点置信度预测损失函数,L2为尺寸预测损失函数,L3为检测框置信度损失函数,L4为检测框位置预测损失函数,bij为中心点置信度热图预测标签中坐标为(i,j)的值,b′ij为中心点置信度热图真实标签中坐标为(i,j)的值,xij为尺寸热图预测标签中坐标为(i,j)的值,x′ij为尺寸热图真实标签中坐标为(i,j)的值,N为训练样本集中目标的个数,C为训练样本集中目标类别的个数,sci为检测框置信度预测标签中坐标为(c,i)的值,s'ci为检测框置信度真实标签中坐标为(c,i)的值,tci为检测框位置预测标签中坐标为(c,i)的值,t'ci为检测框位置真实标签中坐标为(c,i)的值;
步骤3)对改进的自适应锚点R-CNN网络G进行迭代训练:
(3a)设迭代次数为t,最大迭代次数为T,T≥20,在本实施例中,T=50,当前改进的自适应锚点R-CNN网络为Gt,并令t=1,Gt=G;
(3d)采用反向传播算法,并通过Lt对改进的自适应锚点R-CNN网络中卷积层的卷积核参数ωt、各全连接层结点之间的连接参数θt进行更新,得到更新后的Gt,更新公式为:
(3e)判断t=T是否成立,若是,得到训练好的改进的自适应锚点R-CNN网络G*,否则,令t=t+1,并执行步骤(3b);
步骤4)获取目标检测识别结果:
将V中的样本依次输入到G*中进行交替的卷积和池化操作,然后对其结果进行全连接操作,得到G*的检测框置信度预测标签z3和检测框位置预测标签z4。
Claims (3)
1.一种基于改进的自适应锚点R-CNN的视频目标检测方法,其特征在于,包括如下步骤:
(1)获取训练样本集ST和测试样本集SV:
从一段光学遥感视频中选取连续N帧大小为W×H的图像组成训练样本集I={i1,i2,...,in,...,iN},同时从另一段光学遥感视频中选取连续M帧大小为W×H的图像组成测试样本集V={v1,v2,...,vm,...,vM},其中,N≥300,W和H表示图像的行和列像素点的个数,in表示I中第n帧图像,M≥20,vm表示V中第m帧图像;
(2)构建改进的自适应锚点R-CNN网络G及其损失函数L:
(2a)构建改进的自适应锚点R-CNN网络G:
构建包括特征提取网络、小目标区域提议网络和检测框分类回归网络的改进的自适应锚点R-CNN网络G,其中:特征提取网络包括依次相间层叠的多个卷积层和多个下采样层;小目标区域提议网络包括并行排布且均包括多个层叠的卷积层的中心点提议网络和尺寸提议网络;检测框分类回归网络包括并行排布且均包括一个池化层和多个层叠的全连接层的检测框分类网络和检测框回归网络;
特征提取网络、小目标区域提议网络和检测框分类回归网络依次级联,且特征提取网络的输出端与检测框分类回归网络的输入端级联;
(2b)构建改进的自适应锚点R-CNN网络G的损失函数L:
L=L1+L2+L3+L4
其中,L1为中心点置信度预测损失函数,L2为尺寸预测损失函数,L3为检测框置信度损失函数,L4为检测框位置预测损失函数,bij为中心点置信度热图预测标签中坐标为(i,j)的值,b′ij为中心点置信度热图真实标签中坐标为(i,j)的值,xij为尺寸热图预测标签中坐标为(i,j)的值,x′ij为尺寸热图真实标签中坐标为(i,j)的值,N为训练样本集中目标的个数,C为训练样本集中目标类别的个数,sci为检测框置信度预测标签中坐标为(c,i)的值,s′ci为检测框置信度真实标签中坐标为(c,i)的值,tci为检测框位置预测标签中坐标为(c,i)的值,t′ci为检测框位置真实标签中坐标为(c,i)的值;
(3)对改进的自适应锚点R-CNN网络G进行迭代训练:
(3a)设迭代次数为t,最大迭代次数为T,T≥20,当前改进的自适应锚点R-CNN网络为Gt,并令t=1,Gt=G;
(3d)采用反向传播算法,并通过Lt对改进的自适应锚点R-CNN网络中卷积层的卷积核参数ωt、各全连接层结点之间的连接参数θt进行更新,得到更新后的Gt;
(3e)判断t=T是否成立,若是,得到训练好的改进的自适应锚点R-CNN网络G*,否则,令t=t+1,并执行步骤(3b);
(4)获取目标检测识别结果:
将V中的样本依次输入到G*中进行交替的卷积和池化操作,然后对其结果进行全连接操作,得到G*的检测框置信度预测标签z3和检测框位置预测标签z4。
2.根据权利要求1所述的基于改进的自适应锚点R-CNN的视频目标检测方法,其特征在于,步骤(2)中所述的特征提取网络、小目标区域提议网络和检测框分类回归网络,其中:
特征提取网络,其中的卷积层与下采样层的个数均为4个,该特征提取网络的具体结构为:第一卷积层→第一下采样层→第二卷积层→第二下采样层→第三卷积层→第三下采样层→第四卷积层→第四下采样层;
小目标区域提议网络,其中的中心点提议网络包括层叠的第六卷积层和第七卷积,尺寸提议网络包括层叠的第八卷积层和第九卷积层;
检测框分类回归网络中,其中的检测框分类网络包括层叠的第一池化层、第一全连接层和第二全连接层,检测框回归网络包含层叠的第一池化层、第三全连接层和第四全连接层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010672068.XA CN111832479B (zh) | 2020-07-14 | 2020-07-14 | 基于改进的自适应锚点r-cnn的视频目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010672068.XA CN111832479B (zh) | 2020-07-14 | 2020-07-14 | 基于改进的自适应锚点r-cnn的视频目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111832479A true CN111832479A (zh) | 2020-10-27 |
CN111832479B CN111832479B (zh) | 2023-08-01 |
Family
ID=72922775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010672068.XA Active CN111832479B (zh) | 2020-07-14 | 2020-07-14 | 基于改进的自适应锚点r-cnn的视频目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111832479B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610024A (zh) * | 2021-08-13 | 2021-11-05 | 天津大学 | 一种多策略的深度学习遥感影像小目标检测方法 |
CN115994887A (zh) * | 2022-09-06 | 2023-04-21 | 江苏济远医疗科技有限公司 | 一种基于动态锚点的医学图像密集目标分析方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427912A (zh) * | 2018-02-05 | 2018-08-21 | 西安电子科技大学 | 基于稠密目标特征学习的光学遥感图像目标检测方法 |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
US20190102646A1 (en) * | 2017-10-02 | 2019-04-04 | Xnor.ai Inc. | Image based object detection |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN110532894A (zh) * | 2019-08-05 | 2019-12-03 | 西安电子科技大学 | 基于边界约束CenterNet的遥感目标检测方法 |
WO2020047420A1 (en) * | 2018-08-31 | 2020-03-05 | Alibaba Group Holding Limited | Method and system for facilitating recognition of vehicle parts based on a neural network |
-
2020
- 2020-07-14 CN CN202010672068.XA patent/CN111832479B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190102646A1 (en) * | 2017-10-02 | 2019-04-04 | Xnor.ai Inc. | Image based object detection |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN108427912A (zh) * | 2018-02-05 | 2018-08-21 | 西安电子科技大学 | 基于稠密目标特征学习的光学遥感图像目标检测方法 |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
WO2020047420A1 (en) * | 2018-08-31 | 2020-03-05 | Alibaba Group Holding Limited | Method and system for facilitating recognition of vehicle parts based on a neural network |
CN110399884A (zh) * | 2019-07-10 | 2019-11-01 | 浙江理工大学 | 一种特征融合自适应锚框模型车辆检测方法 |
CN110532894A (zh) * | 2019-08-05 | 2019-12-03 | 西安电子科技大学 | 基于边界约束CenterNet的遥感目标检测方法 |
Non-Patent Citations (2)
Title |
---|
王凯;潘炼;: "基于改进Faster R-CNN图像小目标检测", 电视技术, no. 20 * |
陈志旺;张忠新;宋娟;罗红福;彭勇;: "基于目标感知特征筛选的孪生网络跟踪算法", 光学学报, no. 09 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610024A (zh) * | 2021-08-13 | 2021-11-05 | 天津大学 | 一种多策略的深度学习遥感影像小目标检测方法 |
CN113610024B (zh) * | 2021-08-13 | 2022-08-12 | 天津大学 | 一种多策略的深度学习遥感影像小目标检测方法 |
CN115994887A (zh) * | 2022-09-06 | 2023-04-21 | 江苏济远医疗科技有限公司 | 一种基于动态锚点的医学图像密集目标分析方法 |
CN115994887B (zh) * | 2022-09-06 | 2024-01-09 | 江苏济远医疗科技有限公司 | 一种基于动态锚点的医学图像密集目标分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111832479B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948425B (zh) | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 | |
CN109033998B (zh) | 基于注意力机制卷积神经网络的遥感影像地物标注方法 | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN107092870B (zh) | 一种高分辨率影像语义信息提取方法 | |
CN111695457B (zh) | 一种基于弱监督机制的人体姿态估计方法 | |
CN114419449B (zh) | 一种自注意力多尺度特征融合的遥感图像语义分割方法 | |
CN110751209B (zh) | 一种融合深度图像分类和检索的智能台风定强方法 | |
CN112529005B (zh) | 基于语义特征一致性监督金字塔网络的目标检测方法 | |
CN113128335B (zh) | 微体古生物化石图像检测、分类及发现方法、系统及应用 | |
CN113177560A (zh) | 一种普适性轻量级深度学习车辆检测方法 | |
CN112347970A (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN111832479B (zh) | 基于改进的自适应锚点r-cnn的视频目标检测方法 | |
CN111985325A (zh) | 特高压环境评价中的航拍小目标快速识别方法 | |
CN109584206B (zh) | 零件表面瑕疵检测中神经网络的训练样本的合成方法 | |
CN113627093A (zh) | 一种基于改进Unet网络的水下机构跨尺度流场特征预测方法 | |
CN114511710A (zh) | 一种基于卷积神经网络的图像目标检测方法 | |
CN114781514A (zh) | 一种融合注意力机制的漂浮物目标检测方法及系统 | |
CN115953630A (zh) | 一种基于全局-局部知识蒸馏的跨域小样本图像分类方法 | |
CN112766102A (zh) | 一种基于空谱特征融合的无监督高光谱视频目标跟踪方法 | |
Luo et al. | Sailboat detection based on automated search attention mechanism and deep learning models | |
Peng et al. | RSBNet: One-shot neural architecture search for a backbone network in remote sensing image recognition | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN116883393B (zh) | 一种基于无锚框目标检测算法的金属表面缺陷检测方法 | |
CN117576038A (zh) | 基于YOLOv8网络的织物瑕疵检测方法及系统 | |
CN113095479A (zh) | 一种基于多尺度注意力机制的冰下层结构提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |