CN116824272B - 基于旋转特征的特征增强目标检测方法 - Google Patents
基于旋转特征的特征增强目标检测方法 Download PDFInfo
- Publication number
- CN116824272B CN116824272B CN202311006238.0A CN202311006238A CN116824272B CN 116824272 B CN116824272 B CN 116824272B CN 202311006238 A CN202311006238 A CN 202311006238A CN 116824272 B CN116824272 B CN 116824272B
- Authority
- CN
- China
- Prior art keywords
- feature
- convolution
- degrees
- target detection
- normalization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000010606 normalization Methods 0.000 claims abstract description 24
- 230000004913 activation Effects 0.000 claims abstract description 22
- IJJWOSAXNHWBPR-HUBLWGQQSA-N 5-[(3as,4s,6ar)-2-oxo-1,3,3a,4,6,6a-hexahydrothieno[3,4-d]imidazol-4-yl]-n-(6-hydrazinyl-6-oxohexyl)pentanamide Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)NCCCCCC(=O)NN)SC[C@@H]21 IJJWOSAXNHWBPR-HUBLWGQQSA-N 0.000 claims abstract description 17
- 238000010586 diagram Methods 0.000 claims abstract description 16
- 230000001965 increasing effect Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 102100031315 AP-2 complex subunit mu Human genes 0.000 description 2
- 101000796047 Homo sapiens AP-2 complex subunit mu Proteins 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及目标检测技术领域,具体为基于旋转特征的特征增强目标检测方法,包括以下步骤:对输入的三维特征图[C,H,W]分别进行90°、180°、270°旋转,得到四组三维特征图,将四组三维特征图分别通过RTC模块,经Reshape操作、卷积、GeLU激活函数、卷积、Bach Normalization函数归一化、GeLU激活函数得到四个角度F'1,F'2,F'3,F'4。该基于旋转特征的特征增强目标检测方,通过对特征图进行旋转不同的角度,使得模型获得不同角度的特征,增加特征的多样性,再通过注意力机制使得模型关注更加重要的部分,以提高目标检测模型的精度。
Description
技术领域
本发明涉及目标检测技术领域,具体为基于旋转特征的特征增强目标检测方法。
背景技术
随着互联网、人工智能、大数据等一系列技术的飞速发展,这些新技术逐渐影响着人们的生活,在生活中起到举足轻重的作用,目标检测正是其中之一,已经应用到自动驾驶、智能视频监控、交通场景检测、医疗等领域,因此,提高目标检测的精度具有重要的意义。
目标检测随着深度学习技术的发展取得了巨大的进展,但是深度学习需要大量样本进行训练才能达到较好的性能和泛化能力,目前可用于目标检测的大规模标记数据的数据集有PASCAL VOC、MS COCO数据集和Objects 365数据集,但是用于特定任务的大规模公开数据集较少,通过数据增强来提高数据集的多样性,数据增强的方法有旋转、缩放、平移、噪声扰动和裁剪等等,数据增强能提升模型的鲁棒性,降低模型对图像的敏感程度。
目标检测需要图像进行特征提取,然后进行分类和定位,基于卷积神经网络的目标检测算法相较于传统算法在各方面取得了非常大的提升。随着卷积神经网络提取特征过程中下采样和卷积次数增加,深度不断的加深,感受野不断增大,深层特征语义信息更加丰富,更加有利于分类任务。然而对于定位任务而言,更依赖于浅层特征,因为浅层特征,具有更高的分辨率,空间信息丰富,拥有更多的细节信息,但是语义信息较少。
Lin等人提出了FPN特征金字塔,特征金字塔是自顶向下,横向连接的结构,将深层特征与浅层特征进行融合,通过上采样将语义信息传给浅层特征,解决了浅层特征的语义信息较少的问题,并通过横向连接结构构建了一个多尺度的特征金字塔。
通过横向连接构建的特征金字塔输入通道是固定的,而且是通过降维实现的,导致从主干网络获取的不同深度的特征会有一定的丢失,尤其深层特征而言,故而提出了一种基于旋转特征的特征增强目标检测方法来解决上述问题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了,具备基于旋转特征的特征增强目标检测方法等优点,解决了通过横向连接构建的特征金字塔输入通道是固定的,而且是通过降维实现的,导致从主干网络获取的不同深度的特征会有一定的丢失,尤其深层特征而言的问题。
(二)技术方案
为实现上述提高目标检测模型精度的目的,本发明提供如下技术方案:基于旋转特征的特征增强目标检测方法,包括以下步骤:
1)对输入的三维特征图[C,H,W]分别进行90°、180°、270°旋转,得到四组三维特征图;
2)将四组三维特征图分别通过RTC模块,经Reshape操作、卷积、GeLU激活函数、卷积、Bach Normalization函数归一化、GeLU激活函数得到四个角度F'1,F'2,F'3,F'4;
3)保存四个角度F'1,F'2,F'3,F'4经过Bach Normalization函数得到的对应的权重γ1,γ2,γ3,γ4;
4)进行四个角度F'1,F'2,F'3,F'4的交错拼接,通过Reshape函数得到通道数为4C、高宽为[H,W]的特征图[4C,H,W];
5)对特征图[4C,H,W]进行分组卷积,通过Bach Normalization函数和GeLU激活函数得到[C,H,W]的特征图,再将得到的权重γ1,γ2,γ3,γ4输入到Position-Attention自注意力函数中得到Bn-weight;
6)对Bn-weight进行卷积、GeLU激活函数和Softmax归一化函数处理,并将处理结果与分组卷积得到的[C,H,W]特征图相乘,得到的结果与我们输入的特征图[C,H,W]相加得到我们特征增强后的结果。
进一步,所述输入的三维特征图[C,H,W]中的C是指的特征图的通道数,H、W是指的特征图的高和宽,所述旋转公式如下所示:
F1=[C,H1,W1]
F2=[C,H2,W2]
F3=[C,H3,W3]
F4=[C,H4,W4].
Fi=torch.rot90(F1,i-1,[H,W]),i=2,3,4
torch.rot90(Tensor,k,dim)
其中,Tensor是指的输入的张量,k是指的旋转多少个90°,dim是的需要旋转的维度,F1是指的输入的特征图,F2,F3,F4是依次指的是旋转90°、180°、270°后的特征图。
进一步,所述Position Attention公式如下:
其中,R=γ1,Q=γ2,K=γ3,V=γ4。
进一步,所述RTC模块的具体步骤包括:
1)通过Reshape把三维特征图[C,H,W]拉成一条,从[C,H,W]变成[C,HW];
2)使用卷积核大小为1*1,padding为1,步长为1的卷积进行降维得到特征图[C/16,HW];
3)增加跨通道信息的交互、增加非线性和减少模型的参数量,再经过GELU激活函数;
4)再次通过卷积核大小为1*1,padding为1,步长为1的卷积进行升维得到特征图[C,HW];
5)通过降维升维减少参数量、并提高模型的泛化能力,再进行BachNormalization归一化,再经过GeLU激活函数得到四个角度F'1,F'2,F'3,F'4。
进一步,所述GELU激活函数公式如下所示:
其中,Φ(x)表示高斯分布的累积概率分布,即在(-∞,X)区间对高斯分布的定积分。
进一步,所述Bach Normalization公式如下:
其中,X是输入,Y是归一化后的输出,μB是X的均值,σB 2是标准差。
(三)有益效果
与现有技术相比,本发明提供了基于旋转特征的特征增强目标检测方,具备以下有益效果:
该基于旋转特征的特征增强目标检测方,通过对特征图进行旋转不同的角度,使得模型获得不同角度的特征,增加特征的多样性,再通过注意力机制使得模型关注更加重要的部分,以提高目标检测模型的精度。
具体实施方式
下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于旋转特征的特征增强目标检测方法,包括以下步骤:
1)对输入的三维特征图[C,H,W]分别进行90°、180°、270°旋转,得到四组三维特征图;
2)将四组三维特征图分别通过RTC模块,经Reshape操作、卷积、GeLU激活函数、卷积、Bach Normalization函数归一化、GeLU激活函数得到四个角度F'1,F'2,F'3,F'4;
3)保存四个角度F'1,F'2,F'3,F'4经过Bach Normalization函数得到的对应的权重γ1,γ2,γ3,γ4;
4)进行四个角度F'1,F'2,F'3,F'4的交错拼接,通过Reshape函数得到通道数为4C、高宽为[H,W]的特征图[4C,H,W];
5)对特征图[4C,H,W]进行分组卷积,分为C组,每组为[4,H,W]的特征图,分组卷积核大小为3*3,padding为1,步长为1的卷积,通过Bach Normalization函数和GeLU激活函数得到[C,H,W]的特征图,再将得到的权重γ1,γ2,γ3,γ4输入到Position-Attention自注意力函数中得到Bn-weight;
6)对Bn-weight进行卷积、GeLU激活函数和Softmax归一化函数处理,并将处理结果与分组卷积得到的[C,H,W]特征图相乘,得到的结果与我们输入的特征图[C,H,W]相加得到我们特征增强后的结果。
本实施例中,所述输入的三维特征图[C,H,W]中的C是指的特征图的通道数,H、W是指的特征图的高和宽,所述旋转公式如下所示:
F1=[C,H1,W1]
F2=[C,H2,W2]
F3=[C,H3,W3]
F4=[C,H4,W4].
Fi=torch.rot90(F1,i-1,[H,W]),i=2,3,4
torch.rot90(Tensor,k,dim)
其中,Tensor是指的输入的张量,k是指的旋转多少个90°,dim是的需要旋转的维度,F1是指的输入的特征图,F2,F3,F4是依次指的是旋转90°、180°、270°后的特征图。
3.根据权利要求1所述的基于旋转特征的特征增强目标检测方法,其特征在于,所述Position Attention公式如下:
其中,R=γ1,Q=γ2,K=γ3,V=γ4,90°,180°,270°对应的Bach Normalization权重输入到自注意力中去,90°的权重与180°的权重的转置进行矩阵乘法,然后除以通道数C开根号,经过Softmax然后与270°的权重相乘,得到的注意力矩阵与0°的权重进行相加得到Bn-weight。
本实施例中,所述RTC模块的具体步骤包括:
1)通过Reshape把三维特征图[C,H,W]拉成一条,从[C,H,W]变成[C,HW];
2)使用卷积核大小为1*1,padding为1,步长为1的卷积进行降维得到特征图[C/16,HW];
3)增加跨通道信息的交互、增加非线性和减少模型的参数量,再经过GELU激活函数;
4)再次通过卷积核大小为1*1,padding为1,步长为1的卷积进行升维得到特征图[C,HW];
5)通过降维升维减少参数量、并提高模型的泛化能力,再进行BachNormalization归一化,再经过GeLU激活函数得到四个角度F'1,F'2,F'3,F'4。
本实施例中,所述GELU激活函数公式如下所示:
其中,Φ(x)表示高斯分布的累积概率分布,即在(-∞,X)区间对高斯分布的定积分。
本实施例中,所述Bach Normalization公式如下:
其中,X是输入,Y是归一化后的输出,μB是X的均值,σB 2是标准差。
实验例:
将提出的旋转特模块放在MS COCO数据集上进行了实验,实验结果如下表所示:
其中,在MS COCO数据集中,评价指标是平均精度AP、AP50、AP75、APS、APM、APL,AP指的是IOU从0.5至0.95每0.05作为一个间隔,计算mAP值,AP50指的是IOU阈值为0.5时,计算的mAP,AP75指的是IOU阈值为0.75时,计算的mAP,APS指的是像素面积小于32的平方的小目标,APM指的是像素面积小于32的平方的小目标大于96的平方的中等目标,APL指的是像素面积大于96的平方的大目标。
从上述实验可得旋转特征增强模块通过旋转不同角度的特征,并将不同角度同一维度的特征进行特征融合,充分利用了不同角度的空间信息,而且通过注意力机制增强了通道之间的信息,不同目标检测模型特征金字塔的横向连接处,能够有效的减少通道降维引起的语义信息的丢失。通过将旋转特征增强模块加入到不同目标检测模型中,在COCO数据集上验证可得,我们的方法在提升特征表达能力和检测精度方面取得了显著的效果,为目标检测任务的性能提升提供了新的途径。
本发明的有益效果是:该基于旋转特征的特征增强目标检测方,通过对特征图进行旋转不同的角度,使得模型获得不同角度的特征,增加特征的多样性,再通过注意力机制使得模型关注更加重要的部分,以提高目标检测模型的精度。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.基于旋转特征的特征增强目标检测方法,其特征在于,包括以下步骤:
1)对输入的三维特征图[C,H,W]分别进行90°、180°、270°旋转,得到四组三维特征图;
其中,输入的三维特征图[C,H,W]中的C是指的特征图的通道数,H、W是指的特征图的高和宽,所述旋转公式如下所示:
F1=[C,H1,W1]
F2=[C,H2,W2]
F3=[C,H3,W3]
F4=[C,H4,W4].
Fi=torch.rot90(F1,i-1,[H,W]),i=2,3,4
torch.rot90(Tensor,k,dim)
式中,Tensor是指的输入的张量,k是指的旋转多少个90°,dim是的需要旋转的维度,F1是指的输入的特征图,F2,F3,F4是依次指的是旋转90°、180°、270°后的特征图;
2)将四组三维特征图分别通过RTC模块,经Reshape操作、卷积、GeLU激活函数、卷积、Bach Normalization函数归一化、GeLU激活函数得到四个角度F'1,F'2,F'3,F'4;
3)保存四个角度F'1,F'2,F'3,F'4经过Bach Normalization函数得到的对应的权重γ1,γ2,γ3,γ4;
4)进行四个角度F'1,F'2,F'3,F'4的交错拼接,通过Reshape函数得到通道数为4C、高宽为[H,W]的特征图[4C,H,W];
5)对特征图[4C,H,W]进行分组卷积,通过Bach Normalization函数和GeLU激活函数得到[C,H,W]的特征图,再将得到的权重γ1,γ2,γ3,γ4输入到Position-Attention自注意力函数中得到Bn-weight;
6)对Bn-weight进行卷积、GeLU激活函数和Softmax归一化函数处理,并将处理结果与分组卷积得到的[C,H,W]特征图相乘,得到的结果与我们输入的特征图[C,H,W]相加得到我们特征增强后的结果。
2.根据权利要求1所述的基于旋转特征的特征增强目标检测方法,其特征在于,所述Position Attention公式如下:
其中,R=γ1,Q=γ2,K=γ3,V=γ4。
3.根据权利要求1所述的基于旋转特征的特征增强目标检测方法,其特征在于,所述RTC模块的具体步骤包括:
1)通过Reshape把三维特征图[C,H,W]拉成一条,从[C,H,W]变成[C,HW];
2)使用卷积核大小为1*1,padding为1,步长为1的卷积进行降维得到特征图[C/16,HW];
3)增加跨通道信息的交互、增加非线性和减少模型的参数量,再经过GELU激活函数;
4)再次通过卷积核大小为1*1,padding为1,步长为1的卷积进行升维得到特征图[C,HW];
5)通过降维升维减少参数量、并提高模型的泛化能力,再进行Bach Normalization归一化,再经过GeLU激活函数得到四个角度F'1,F'2,F'3,F'4。
4.根据权利要求3所述的基于旋转特征的特征增强目标检测方法,其特征在于,所述GELU激活函数公式如下所示:
其中,Φ(x)表示高斯分布的累积概率分布,即在(-∞,X)区间对高斯分布的定积分。
5.根据权利要求3所述的基于旋转特征的特征增强目标检测方法,其特征在于,所述Bach Normalization公式如下:
其中,xi是输入,yi是归一化后的输出,μB是xi的均值,σB 2是标准差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311006238.0A CN116824272B (zh) | 2023-08-10 | 2023-08-10 | 基于旋转特征的特征增强目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311006238.0A CN116824272B (zh) | 2023-08-10 | 2023-08-10 | 基于旋转特征的特征增强目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116824272A CN116824272A (zh) | 2023-09-29 |
CN116824272B true CN116824272B (zh) | 2024-02-13 |
Family
ID=88141494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311006238.0A Active CN116824272B (zh) | 2023-08-10 | 2023-08-10 | 基于旋转特征的特征增强目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116824272B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666998A (zh) * | 2020-06-03 | 2020-09-15 | 电子科技大学 | 一种基于目标点检测的内窥镜智能插管决策方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN114419589A (zh) * | 2022-01-17 | 2022-04-29 | 东南大学 | 一种基于注意力特征增强模块的道路目标检测方法 |
CN115985505A (zh) * | 2023-01-19 | 2023-04-18 | 北京未磁科技有限公司 | 多维度融合的心肌缺血辅助诊断模型及其构建方法 |
CN116468740A (zh) * | 2023-04-26 | 2023-07-21 | 重庆理工大学 | 一种图像语义分割模型及分割方法 |
-
2023
- 2023-08-10 CN CN202311006238.0A patent/CN116824272B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN111666998A (zh) * | 2020-06-03 | 2020-09-15 | 电子科技大学 | 一种基于目标点检测的内窥镜智能插管决策方法 |
CN114419589A (zh) * | 2022-01-17 | 2022-04-29 | 东南大学 | 一种基于注意力特征增强模块的道路目标检测方法 |
CN115985505A (zh) * | 2023-01-19 | 2023-04-18 | 北京未磁科技有限公司 | 多维度融合的心肌缺血辅助诊断模型及其构建方法 |
CN116468740A (zh) * | 2023-04-26 | 2023-07-21 | 重庆理工大学 | 一种图像语义分割模型及分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116824272A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109035149B (zh) | 一种基于深度学习的车牌图像去运动模糊方法 | |
CN112070158B (zh) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 | |
CN112614136B (zh) | 一种红外小目标实时实例分割方法及装置 | |
CN114092793B (zh) | 适用于复杂水下环境的端到端生物目标检测方法 | |
CN114419449A (zh) | 一种自注意力多尺度特征融合的遥感图像语义分割方法 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN113392711A (zh) | 一种基于高层语义与噪声抑制的烟雾语义分割方法及系统 | |
CN113468996A (zh) | 一种基于边缘细化的伪装物体检测方法 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN115050021A (zh) | 基于改进YOLOv4的非结构环境下葡萄识别方法 | |
CN116935332A (zh) | 一种基于动态视频的渔船目标检测与跟踪方法 | |
CN114333062B (zh) | 基于异构双网络和特征一致性的行人重识别模型训练方法 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN116824272B (zh) | 基于旋转特征的特征增强目标检测方法 | |
CN112183269B (zh) | 一种适用于智能视频监控的目标检测方法与系统 | |
CN113421222A (zh) | 一种轻量化煤矸目标检测方法 | |
CN116682090A (zh) | 一种基于改进YOLOv3算法的车辆目标检测方法 | |
CN116246109A (zh) | 一种多尺度孔洞邻域注意力计算骨干网络模型及其应用 | |
CN114419341B (zh) | 一种基于迁移学习改进的卷积神经网络图像识别方法 | |
CN113537173B (zh) | 一种基于面部补丁映射的人脸图像真伪识别方法 | |
CN115223026A (zh) | 轻量化红外弱小目标实时检测方法 | |
CN114743148A (zh) | 多尺度特征融合篡改视频检测方法、系统、介质和设备 | |
Li et al. | Underwater object detection based on improved SSD with convolutional block attention | |
CN114565946A (zh) | 一种基于自注意力机制轻量级网络的指纹活体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |