CN116958774A - 一种基于自适应空间特征融合的目标检测方法 - Google Patents
一种基于自适应空间特征融合的目标检测方法 Download PDFInfo
- Publication number
- CN116958774A CN116958774A CN202311224196.8A CN202311224196A CN116958774A CN 116958774 A CN116958774 A CN 116958774A CN 202311224196 A CN202311224196 A CN 202311224196A CN 116958774 A CN116958774 A CN 116958774A
- Authority
- CN
- China
- Prior art keywords
- feature
- module
- target detection
- specifically
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000010586 diagram Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 17
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 15
- 150000001875 compounds Chemical class 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应空间特征融合的目标检测方法,首先进行图像预处理,然后采用卷积注意模块来提取图像中的特征,得到特征提取图;采用APAM模块计算得到自适应参数;再采用ASFF模块将特征提取图和自适应参数进行自适应特征融合,得到四个尺度的特征图;最后将四个尺度的特征图进行卷积操作,得到四个目标检测头,采用四个目标检测头进行目标检测。本发明能够充分融合和适应图像中不同尺度和位置的特征信息,提高了目标检测的准确性和稳定性。
Description
技术领域
本发明涉及图像处理技术领域,具体是一种基于自适应空间特征融合的目标检测方法。
背景技术
在图像处理领域,目标检测是一项重要的研究任务。航空遥感图像由于其特殊性,包含了大量的地理信息和复杂的背景场景,因此对于目标快速准确的检测具有一定的挑战性。现有的目标检测方法在处理图像时面临着一些困难,例如尺度变化、目标与背景的复杂交叉等问题,无法快速且准确地检测到图像中的目标。
发明内容
本发明要解决的技术问题是提供一种基于自适应空间特征融合的目标检测方法,能够充分融合和适应图像中不同尺度和位置的特征信息,提高了目标检测的准确性和稳定性。
本发明的技术方案为:
一种基于自适应空间特征融合的目标检测方法,具体包括有以下步骤:
(1)、进行图像预处理,然后采用卷积注意模块来提取图像中的特征,得到特征提取图;
(2)、采用APAM模块计算得到自适应参数;
(3)、采用ASFF模块将特征提取图和自适应参数进行自适应特征融合,得到四个尺度的特征图;
(4)、将四个尺度的特征图进行卷积操作,得到四个目标检测头,采用四个目标检测头进行目标检测。
所述的图像预处理是将所有的训练图像处理为同一尺寸,输入的待检测图像定义为输入图像x;所有的训练图像采用卷积注意模块、APAM模块、ASFF模块和目标检测头进行训练,得到训练好的网络,输入图像x输入到训练好的网络进行目标检测。
所述的采用卷积注意模块提取图像特征的具体步骤为:
S2.1、采用Focus模块将输入图像x进行切片操作,然后经过一次卷积操作,得到采样特征图f(0);
S2.2、将采样特征图f(0)输入到骨干网络进行特征提取,得到四个不同维度的特征图,具体见下式(1):
;
其中,表示Batch Normalization层,即对输入的采样特征图f(0)进行标准化处理;/>表示ReLU激活函数;/>表示卷积操作;
S2.3、将四个分别输入到三个C3、六个C3、九个C3和SPP模块中,得到四个/>,具体见下式(2):
;
其中,表示C3模块;/>模块表示空间金字塔池化;
S2.4、将四个分别输入到CBAM模块中,在通道和空间维度上进行特征提取,得到四个特征提取图/>,具体见下式(3):
。
所述的APAM模块计算自适应参数的具体步骤为:
S3.1、将四个特征提取图输入到GAP模块进行全局平均池化操作,得到四个/>,具体见下式(4):
;
S3.2、将四个通过全连接层FC处理,得到四个特征图的权重向量,具体见下式(5):
;
式(5)中,表示全连接层;
S3.3、将四个经过ReLU函数处理,得到四个/>,具体见下式(6):
;
S3.4、四个再次通过全连接层FC和Sigmoid函数/>处理后,得到四个特征权重/>,具体见下式(7):
;
S3.5、将四个采用Concat函数进行组合,得到特征C,具体见下式(8):
;
S3.6、将特征C通过全连接层FC和Softmax函数处理,得到一个1×4的矩阵,具体见下式(9):
;
式(9)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.7、将四个特征提取图通过Conv1d模块的卷积操作,得到四个尺度的特征,并通过Softmax函数处理,得到一个1×4的矩阵/>,具体见下式(10):
;
式(10)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.8、将和/>分别一一对应并进行平均操作,得到四个自适应参数/>,具体见下式(11):
。
所述的ASFF模块进行自适应特征融合,是通过ASFF模块在各个尺度上自适应融合所有层次的特征,得到四个尺度的特征图,具体见式(12):
;
式(12)中,表示特征提取图从第i层调整到第j层的特征向量,/>即分别对四个特征提取图/>进行上采样或下采样操作,具体见公式(13):
;
式(13)中,表示上采样操作,/>表示下采样操作。
所述的四个尺度的特征图分别具体为式(14):
。
所述的四个尺度的特征图进行Conv卷积操作,得到四个目标检测头,具体见下式(15):
。
所述的四个目标检测头分别检测四种不同尺寸的特征图,并输出检测到目标物体的位置Position和目标物体的类别Class,并将其加载在待检测图像上,最终完成目标检测任务。
本发明的优点:
(1)、本发明采用四个目标检测头进行图像中目标的检测,可以有效解决目标检测中存在的错检和漏检问题,提高遥感或者是航空图像中小目标和密集目标的检测精度,有效提高了处理目标检测相关复杂性的能力;
(2)、本发明通过APAM模块计算得到自适应参数,实现后续的自适应空间特征融合,能在增加目标检测网络深度的同时,更好的保留图像纹理等底层特征,并使具有不同尺度的特征互相融合,能够有效提升检测的效果;
(3)本发明采用ASFF模块将特征提取图和自适应参数进行自适应特征融合,可以有效解决遥感或者是航空图像目标检测任务中背景信息复杂、光照强度不一、图像尺寸不统一、混淆目标多、数据庞大、数据集缺乏等问题。
附图说明
图1是本发明的流程图。
图2是本发明APAM模块计算自适应参数的流程图。
图3是实施例中本发明目标检测方法与YOLOv7系列算法模型在上的对比图。
图4是实施例中本发明目标检测方法与YOLOv7系列算法模型在:0.95上的对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
见图1和图2,一种基于自适应空间特征融合的目标检测方法,具体包括有以下步骤:
(1)、图像预处理:将所有的训练图像处理为同一尺寸,输入的待检测图像定义为输入图像x;所有的训练图像采用下述的卷积注意模块、APAM模块、ASFF模块和目标检测头进行训练,得到训练好的网络,输入图像x输入到训练好的网络(包括有卷积注意模块、APAM模块、ASFF模块和目标检测头)进行目标检测;
(2)、采用卷积注意模块来提取图像中的特征,得到特征提取图,具体包括有:
S2.1、采用Focus模块将输入图像x进行切片操作,然后经过一次卷积操作,得到采样特征图f(0);
S2.2、将采样特征图f(0)输入到骨干网络进行特征提取,得到四个不同维度的特征图,具体见下式(1):
;
其中,表示Batch Normalization层,即对输入的采样特征图f(0)进行标准化处理;/>表示ReLU激活函数;/>表示卷积操作;
S2.3、将四个分别输入到三个C3、六个C3、九个C3和SPP模块中,得到四个/>,具体见下式(2):
;
其中,表示C3模块, 其结构和作用与CSP模块类似,只是在修正单元的选择上有所不同,包含了3个标准卷积层以及多个Bottleneck模块;/>模块表示空间金字塔池化,是通过卷积操作将通道减半再分别做最大卷积池化;
S2.4、将四个分别输入到CBAM模块中,在通道和空间维度上进行特征提取,得到四个特征提取图/>,具体见下式(3):
;
(3)、采用APAM模块计算得到自适应参数,具体包括有:
S3.1、将四个特征提取图输入到GAP模块进行全局平均池化操作,得到四个/>,具体见下式(4):
;
S3.2、将四个通过全连接层FC处理,得到四个特征图的权重向量,具体见下式(5):
;
式(5)中,表示全连接层;
S3.3、将四个经过ReLU函数处理,为特征提取网络提供更灵敏的激活和输入,且避免饱和,得到四个/>,具体见下式(6):
;
S3.4、四个再次通过全连接层FC和Sigmoid函数/>处理后,得到四个特征权重/>,具体见下式(7):
;
S3.5、为了同时表示不同图层的特征,将四个采用Concat函数进行组合,得到特征C,具体见下式(8):
;
S3.6、将特征C通过全连接层FC和Softmax函数处理,得到一个1×4的矩阵,具体见下式(9):
;
式(9)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.7、将四个特征提取图通过Conv1d模块的卷积操作,得到四个尺度的特征,并通过Softmax函数处理,得到一个1×4的矩阵/>,具体见下式(10):
;
式(10)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.8、将和/>分别一一对应并进行平均操作,得到四个自适应参数/>,具体见下式(11):
;
(4)、ASFF模块进行自适应特征融合,是通过ASFF模块在各个尺度上自适应融合所有层次的特征,得到四个尺度的特征图,具体见式(12):
;
式(12)中,表示特征提取图从第i层调整到第j层的特征向量,/>即分别对四个特征提取图/>进行上采样或下采样操作,具体见公式(13):
;
式(13)中,表示上采样操作,/>表示下采样操作;
四个尺度的特征图分别具体为式(14):
;
(5)、将四个尺度的特征图进行Conv卷积操作,得到四个目标检测头,具体见下式(15):
;
(6)、四个目标检测头分别检测四种不同尺寸的特征图(例如:当输入图像的尺寸为/>,四个目标检测头分别检测/>、/>、/>、尺寸的特征图),并输出检测到目标物体的位置Position和目标物体的类别Class,再通过后处理和推理把方框和类别(可以加上置信度)加在待检测图像对应目标物体的位置处,最终完成目标检测任务。
将本发明的目标检测方法(实线)和YOLOv7系列算法模型(虚线)进行检测精度对比,得到对比图(图3)和/>:0.95对比图(图4);由图3可知,本发明在100 Epoch时为78%,YOLOv7系列算法模型在100 Epoch时为69%,相对比,本发明的精度提升了9%;由图4可知,本发明/>:0.95在100 Epoch时为46%,YOLOv7系列算法模型在100 Epoch时为38%,相对比,本发明的精度提升了8%。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (8)
1.一种基于自适应空间特征融合的目标检测方法,其特征在于:具体包括有以下步骤:
(1)、进行图像预处理,然后采用卷积注意模块来提取图像中的特征,得到特征提取图;
(2)、采用APAM模块计算得到自适应参数;
(3)、采用ASFF模块将特征提取图和自适应参数进行自适应特征融合,得到四个尺度的特征图;
(4)、将四个尺度的特征图进行卷积操作,得到四个目标检测头,采用四个目标检测头进行目标检测。
2.根据权利要求1所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的图像预处理是将所有的训练图像处理为同一尺寸,输入的待检测图像定义为输入图像x;所有的训练图像采用卷积注意模块、APAM模块、ASFF模块和目标检测头进行训练,得到训练好的网络,输入图像x输入到训练好的网络进行目标检测。
3.根据权利要求2所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的采用卷积注意模块提取图像特征的具体步骤为:
S2.1、采用Focus模块将输入图像x进行切片操作,然后经过一次卷积操作,得到采样特征图f(0);
S2.2、将采样特征图f(0)输入到骨干网络进行特征提取,得到四个不同维度的特征图,具体见下式(1):
;
其中,表示Batch Normalization层,即对输入的采样特征图f(0)进行标准化处理;/>表示ReLU激活函数;/>表示卷积操作;
S2.3、将四个分别输入到三个C3、六个C3、九个C3和SPP模块中,得到四个,具体见下式(2):
;
其中,表示C3模块;/>模块表示空间金字塔池化;
S2.4、将四个分别输入到CBAM模块中,在通道和空间维度上进行特征提取,得到四个特征提取图/>,具体见下式(3):
。
4.根据权利要求3所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的APAM模块计算自适应参数的具体步骤为:
S3.1、将四个特征提取图输入到GAP模块进行全局平均池化操作,得到四个/>,具体见下式(4):
;
S3.2、将四个通过全连接层FC处理,得到四个特征图的权重向量,具体见下式(5):
;
式(5)中,表示全连接层;
S3.3、将四个经过ReLU函数处理,得到四个/>,具体见下式(6):
;
S3.4、四个再次通过全连接层FC和Sigmoid函数/>处理后,得到四个特征权重/>,具体见下式(7):
;
S3.5、将四个采用Concat函数进行组合,得到特征C,具体见下式(8):
;
S3.6、将特征C通过全连接层FC和Softmax函数处理,得到一个1×4的矩阵,具体见下式(9):
;
式(9)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.7、将四个特征提取图通过Conv1d模块的卷积操作,得到四个尺度的特征,并通过Softmax函数处理,得到一个1×4的矩阵/>,具体见下式(10):
;
式(10)中,,/>分别表示第l层到第1,2,3,4层的特征映射权重,且满足/>;
S3.8、将和/>分别一一对应并进行平均操作,得到四个自适应参数/>,具体见下式(11):
。
5.根据权利要求4所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的ASFF模块进行自适应特征融合,是通过ASFF模块在各个尺度上自适应融合所有层次的特征,得到四个尺度的特征图,具体见式(12):
;
式(12)中,表示特征提取图从第i层调整到第j层的特征向量,/>即分别对四个特征提取图/>进行上采样或下采样操作,具体见公式(13):
;
式(13)中,表示上采样操作,/>表示下采样操作。
6.根据权利要求5所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的四个尺度的特征图分别具体为式(14):
。
7.根据权利要求5所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的四个尺度的特征图进行Conv卷积操作,得到四个目标检测头,具体见下式(15):
。
8.根据权利要求1所述的一种基于自适应空间特征融合的目标检测方法,其特征在于:所述的四个目标检测头分别检测四种不同尺寸的特征图,并输出检测到目标物体的位置Position和目标物体的类别Class,并将其加载在待检测图像上,最终完成目标检测任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311224196.8A CN116958774B (zh) | 2023-09-21 | 2023-09-21 | 一种基于自适应空间特征融合的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311224196.8A CN116958774B (zh) | 2023-09-21 | 2023-09-21 | 一种基于自适应空间特征融合的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116958774A true CN116958774A (zh) | 2023-10-27 |
CN116958774B CN116958774B (zh) | 2023-12-01 |
Family
ID=88453325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311224196.8A Active CN116958774B (zh) | 2023-09-21 | 2023-09-21 | 一种基于自适应空间特征融合的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116958774B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3293672A1 (en) * | 2016-09-07 | 2018-03-14 | Malvern Panalytical Limited | Particle boundary identification |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
WO2022067668A1 (zh) * | 2020-09-30 | 2022-04-07 | 中国科学院深圳先进技术研究院 | 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质 |
CN114863301A (zh) * | 2022-05-07 | 2022-08-05 | 西南科技大学 | 一种面向无人机航拍图像的小目标检测方法 |
CN115497005A (zh) * | 2022-09-05 | 2022-12-20 | 重庆邮电大学 | 一种融合特征转移与注意力机制的yolov4遥感目标检测方法 |
CN115565044A (zh) * | 2022-10-24 | 2023-01-03 | 广东工业大学 | 一种目标检测方法及系统 |
US20230129263A1 (en) * | 2021-10-22 | 2023-04-27 | Uif (University Industry Foundation), Yonsei University | Multi-level transferable region-based domain adaptive object detection apparatus and method |
WO2023077998A1 (zh) * | 2021-11-05 | 2023-05-11 | 通号通信信息集团有限公司 | 卷积神经网络中自适应特征融合方法及系统 |
CN116342867A (zh) * | 2023-03-20 | 2023-06-27 | 郑州轻工业大学 | 一种基于自适应递归金字塔的YOLOv4小目标检测方法 |
CN116363415A (zh) * | 2023-02-28 | 2023-06-30 | 哈尔滨工程大学 | 一种基于自适应特征层融合的船舶目标检测方法 |
WO2023138300A1 (zh) * | 2022-01-20 | 2023-07-27 | 城云科技(中国)有限公司 | 目标检测方法及应用其的移动目标跟踪方法 |
-
2023
- 2023-09-21 CN CN202311224196.8A patent/CN116958774B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3293672A1 (en) * | 2016-09-07 | 2018-03-14 | Malvern Panalytical Limited | Particle boundary identification |
US20200193212A1 (en) * | 2016-09-07 | 2020-06-18 | Malvern Panalytical Limited | Particle boundary identification |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
WO2022067668A1 (zh) * | 2020-09-30 | 2022-04-07 | 中国科学院深圳先进技术研究院 | 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质 |
US20230129263A1 (en) * | 2021-10-22 | 2023-04-27 | Uif (University Industry Foundation), Yonsei University | Multi-level transferable region-based domain adaptive object detection apparatus and method |
WO2023077998A1 (zh) * | 2021-11-05 | 2023-05-11 | 通号通信信息集团有限公司 | 卷积神经网络中自适应特征融合方法及系统 |
WO2023138300A1 (zh) * | 2022-01-20 | 2023-07-27 | 城云科技(中国)有限公司 | 目标检测方法及应用其的移动目标跟踪方法 |
CN114863301A (zh) * | 2022-05-07 | 2022-08-05 | 西南科技大学 | 一种面向无人机航拍图像的小目标检测方法 |
CN115497005A (zh) * | 2022-09-05 | 2022-12-20 | 重庆邮电大学 | 一种融合特征转移与注意力机制的yolov4遥感目标检测方法 |
CN115565044A (zh) * | 2022-10-24 | 2023-01-03 | 广东工业大学 | 一种目标检测方法及系统 |
CN116363415A (zh) * | 2023-02-28 | 2023-06-30 | 哈尔滨工程大学 | 一种基于自适应特征层融合的船舶目标检测方法 |
CN116342867A (zh) * | 2023-03-20 | 2023-06-27 | 郑州轻工业大学 | 一种基于自适应递归金字塔的YOLOv4小目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116958774B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
JP2021532435A (ja) | 目標検出および目標検出ネットワークのトレーニング | |
CN111738261A (zh) | 基于位姿估计和校正的单图像机器人无序目标抓取方法 | |
CN112364931B (zh) | 一种基于元特征和权重调整的少样本目标检测方法及网络系统 | |
CN112149591B (zh) | 用于sar图像的ssd-aeff自动桥梁检测方法及系统 | |
CN113052109A (zh) | 一种3d目标检测系统及其3d目标检测方法 | |
CN111507222B (zh) | 一种基于多源数据知识迁移的三维物体检测框架 | |
CN109902631B (zh) | 一种基于图像金字塔的快速人脸检测方法 | |
CN112966659B (zh) | 一种基于深度学习的视频图像小目标检测方法 | |
CN113807361B (zh) | 神经网络、目标检测方法、神经网络训练方法及相关产品 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN112085789A (zh) | 位姿估计方法、装置、设备及介质 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN113537085A (zh) | 基于两次迁移学习和数据增广的船舶目标检测方法 | |
CN115019201B (zh) | 一种基于特征精细化深度网络的弱小目标检测方法 | |
CN113642606A (zh) | 一种基于注意力机制的海上舰船检测方法 | |
CN112508863B (zh) | 一种基于rgb图像和msr图像双通道的目标检测方法 | |
CN112101113B (zh) | 一种轻量化的无人机图像小目标检测方法 | |
CN116958774B (zh) | 一种基于自适应空间特征融合的目标检测方法 | |
CN115760990B (zh) | 一种菠萝花蕊的识别定位方法、电子设备及存储介质 | |
CN116953702A (zh) | 基于演绎范式的旋转目标检测方法及装置 | |
CN114820723A (zh) | 一种基于联合检测和关联的在线多目标跟踪方法 | |
CN114782360A (zh) | 基于DCT-YOLOv5模型的实时番茄姿态检测方法 | |
CN112749710A (zh) | 目标检测、智能行驶方法、装置、设备及存储介质 | |
CN116681983B (zh) | 一种基于深度学习的狭长目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |