CN112750129B - 一种基于特征增强位置注意力机制的图像语义分割模型 - Google Patents
一种基于特征增强位置注意力机制的图像语义分割模型 Download PDFInfo
- Publication number
- CN112750129B CN112750129B CN202110035003.9A CN202110035003A CN112750129B CN 112750129 B CN112750129 B CN 112750129B CN 202110035003 A CN202110035003 A CN 202110035003A CN 112750129 B CN112750129 B CN 112750129B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- feature
- attention mechanism
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 42
- 230000007246 mechanism Effects 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 230000001965 increasing effect Effects 0.000 claims abstract description 8
- 230000010354 integration Effects 0.000 claims description 13
- 230000002708 enhancing effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000017105 transposition Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 5
- 238000007781 pre-processing Methods 0.000 abstract description 3
- 238000003062 neural network model Methods 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征增强位置注意力机制的图像语义分割模型。本发明包括以下步骤:1、模型建立,设计一种基于特征增强位置注意力机制的图像语义分割模型,通过注意力机制学习像素点图像特征之间的关联性以及通过增加感受野进一步捕获图像丰富的上下文语义信息。2、模型训练,首先对数据集预处理,然后根据建立好的模型进行模型训练。3、模型推理,将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,评估预测准确度。本发明是一种针对图像语义分割的神经网络模型,特别是提出了一种特征增强位置注意力机制提取图像自身注意力信息的统一建模方法,获得了在语义分割领域较好的分割效果。
Description
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于特征增强位置注意力机制的图像语义分割模型。
背景技术
图像语义分割是计算机视觉的一个基础问题,广泛应用于自动驾驶、智能机器人、人机交互等等领域的场景理解。图像语义分割技术是将视觉图像中具有相似语义信息的像素点给予一致的标签,解释不同的语义类别。例如,在自动驾驶场景中我们需要区分图像中属于汽车的所有像素,并把这些像素标记为一个语义类别。
传统的图像语义分割方法包括纹理基元森林(TextonForest)和随机森林(RandomForest)。由于光照对图像邻域分割的影响,导致纹理基元森林(TextonForest)方法不能得到准确率较高的分割效果;随机森林(Random Forest)方法直接利用图像低级的像素信息,提高算法训练和测试速度,该方法的缺点是无法控制模型内部的运行,在回归问题中表现不佳。
近年来伴随着深度学习的不断发展,基于深度学习的图像语义分割模型越来越多的应用在实际的场景中。采用卷积神经网络(Convolutional Neural Networks,CNN)和全卷积神经网络(Fully Convolutional Neural Networks,FCN)进行端到端(end-to-end)的问题建模成为计算机视觉方向上的主流研究方法。在图像的语义分割中,设计应用相关的深度网络模型进行端到端的建模,分割的准确率和速度均得到了明显的提升,相比传统的语义分割方法分割效果得到了大大的提升。
目前基于深度学习的图像语义分割的主要方法:(1)通过全卷积神经网络进行图像语义分割的处理,虽然全卷积神经网络可以实现任意尺寸大小图像的输入,并且得到与输入对应尺寸大小的输出,但是不能够获得足够丰富的图像上下文信息,得到的图像特征不够明显;(2)基于全卷积神经网络添加后处理模块,近两年用的比较多的是添加注意力机制模块,可以获得丰富的上下文信息,提高图像语义分割的准确率,但是有些模型参数过多,导致模型冗余,提取的特征不够全面,在实际应用场景中分割效果差。
因此,有必要设计一套高效的易于实现的图像语义分割深度网络模型。
参考文献
1.Krizhevsky A,Sutskever I,Hinton G E,et al.(2012)Imagenetclassifification with deep convolutional neural networks.Advances in NeuralInformation Processing Systems(NIPS),470Lake Tahoe,USA,Dec.3-6,pp.1097-1105.
2.Mark Everingham,Luc Van Gool,Christopher KI Williams,John Winn,andAndrew Zisserman.(2010)The pascal visual object classes(voc)challenge.International journal of computer vision,88:303-338.
3.Long J,Shelhamer E,Darrell T.(2015)Fully convolutional networks forsemantic segmentation.IEEE Conf.On Computer Vision and Pattern Recognition(CVPR),Boston,USA,Jun.7-12,pp.3461-3440
发明内容
本发明提供一种基于特征增强位置注意力机制的图像语义分割模型,该基于特征增强的位置注意力机制模型效率高,易于实现。
发明的技术解决方案如下:
一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于,包括数据预处理、模型的建立、模型的训练和验证;
数据预处理主要是给定图像I,对应的真实标签图GT,构成训练集,为模型训练提供数据基础;
模型的建立是通过分析图像语义增强过程设计具体子模块,构建端到端的语义分割深度网络模型;
模型的训练和验证是确定所建立的模型的参数,并且检验所设计的模型的分割效果;
基于特征增强位置注意力机制的图像语义分割模型按照以下步骤展开:
步骤1:模型建立;
步骤2:模型训练;
步骤3:模型推理。
步骤1中,具体设计一种基于特征增强位置注意力机制的图像语义分割模型,通过注意力机制学习像素点图像特征之间的关联性以及通过增加感受野进一步捕获图像丰富的上下文语义信息,以加强同类别像素的关联性提高分割准确性;
首先,对图像进行特征提取,通过骨干网络ResNet-101提取图像特征F;
然后,建立特征集成模型FIM,通过增大感受野对图像特征F进行增强,得到具有增强语义信息的图像特征X;
最后,建立位置注意力模型PAM,通过位置注意力机制增强图像特征X空间位置的关联性,得到上下文关联性增强的特征图E;
步骤2中,首先对提供的数据集进行预处理操作,对图像I进行尺度随机缩放,水平旋转,将图像裁剪成固定尺寸大小的图像IC;
然后对步骤1建立的模型进行训练,将图像IC通过骨干网ResNet-101、特征集成模型FIM子模块、位置注意力模型PAM子模块得到特征图E,再经过上采样后进行图像语义类别预测,将得到的预测值Z与真实值GT进行交叉熵运算,度量预测值与真实值的误差;通过反向传播算法对步骤1定义的网络模型参数进行迭代优化训练,训练到整个模型收敛为止;
步骤3中,将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比MIoU,评估预测准确度。
步骤1所述的模型建立具体过程如下:
然后,建立特征集成模型FIM进一步对图像特征进行增强,有关特征集成模型FIM操作的具体过程如下:首先对F采用不同卷积算子'1×1,3×3,5×5,7×7'进行通道降维,具体过程如下:
ai=Convi(F),i∈{1,3,5,7}, ⑴
其中Convi是i×i卷积(i=1,3,5,7),然后,为了得到具有不同大小感受野的图像特征Ai其中i∈{1,3,5,7},直接输出a1,对a3,a5和a7均采用'3×3'的卷积进行不同程度上扩大感受野,其中a5和a7分别通过a3和a5的残差操作获得较大的感受野,a3直接通过'3×3'的卷积获得较小的感受野,具体过程如下所示:
A1=a1,A3=Conv3(a3),A5=Conv3(A3+a5),A7=Conv3(A5+a7) ⑵
最后,对具有不同大小感受野的图像特征Ai,其中i∈{1,3,5,7}进行通道拼接操作,即[A1,A3,A5,A7],其中'[]'表示拼接操作,得到感受野增大的图像特征,利用1×1卷积操作进行通道的升维,与输入F进行矩阵对应元素相加,进一步通过'1×1'卷积操作降维,最终输出语义信息增强的图像特征X,其中C2是图像特征的通道数,H和W是图像特征的高度和宽度;
在完成特征集成模型FIM操作后,建立位置注意力机制模型PAM,有关位置注意力机制模型PAM操作的具体过程如下:采用注意力机制对特征图X进行空间位置的关联性的增强,得到上下文关联性增强的特征图E,其中C2是图像特征的通道数,H和W是图像特征的高度和宽度,对于X注意力机制的具体运算如下所示:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑶
Y=Softmax(KT×Q) ⑷
其中Y是计算权重,β是指可学习的系数且β∈R,T为矩阵的转置;
步骤2所述的模型训练具体过程如下:
输入图像I,通过骨干网络ResNet-101对图像进行特征提取,利用提供的特征集成模型FIM进一步对图像特征进行增强,然后利用位置注意力模型PAM增强像素间空间位置的关联性,最后上采样进行语义分割预测,得到预测结果Z,采用交叉损失函数计算预测值与真实值GT之间的损失,其中损失函数如下:
其中B是指输入模型的图像的个数,C是类别数;
步骤3所述模型推理具体过程如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的图像得到测试预测值,推理测试图像的语义类别预测值,计算测试预测值与真实值的交并比,直到所有测试集测试完成,给出最终的预测准确度。
本发明有益效果如下:
本发明提出的方法在针对图像语义分割的问题上相对于其他算法提高了精度。具体表现为:1)相对于以住一些网络模型本发明提出的模型比较容易实现;2)本发明的网络参数较少,轻量化了网络,有效地降低了模型训练的时间。本发明基于全卷积端到端的网络通过增大感受野的方式引入注意力机制,在图像语义分割任务中获得了比以往模型高的准确度。
附图说明
图1为本发明的模型总结构图。
图2为本发明的特征集成模型。
图3为本发明的位置注意力机制模型。
图4为本发明的模型实验可视化结果。
具体实施方式
为了使本发明的目的及技术方案更加清楚明白,以下结合附图和实施例,对本发明的应用原理作详细的描述。但本发明的保护范围并不限于以下具体实施例。
除非另有定义,下文中所使用的所有专业术语与本领域技术人员通常理解含义相同。本文中所使用的专业术语只是为了描述具体实施例的目的,并不是旨在限制本发明的保护范围。
实施例1:
如图1图2图3所示,本发明提供一种基于特征增强位置注意力机制的图像语义分割模型具体步骤如下:
步骤1所述的模型建立具体如下:
此发明采用PASCAL VOC 2012[2]数据集,其中此数据集包含21个类别,作为训练和测试数据;
首先,使用ResNet-101作为骨干网络提取图像特征,具体过程为:把输入的图像统一缩放到513×513并输入到骨干网络中,经过骨干网络进行图像特征的提取,将输出的最后一层特征图作为输入进入特征集成模型FIM进行特征的进一步提取;然后,执行特征集成模型FIM操作,具体如下:
②对{a1,a3,a5,a7}分别通过'3×3'卷积和残差操作得到感受野不同程度增大的具有强的语义信息的图像特征{A1,A3,A5,A7};
③将具有强的图像语义信息的特征{A1,A3,A5,A7}统一通过一层卷积增加通道数,利用残差方式与输入F进行融合,通过'1×1'卷积操作将得到的特征图进行降维为X;最后,执行位置注意力模型PAM操作,增强像素间空间位置的关联性,位置注意力模型PAM操作具体如下:
①对输入X进行注意力机制运算操作,提取像素点之间的关联性,其中注意力机制运算操作具体公式如下所示:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑷
Y=Softmax(KT×Q) ⑸
其中Y是计算权重,β是指可学习的系数且β∈R,T为矩阵的转置;
②对输入X进行注意力机制运算操作,增强图像的像素点空间位置的关联性,得到具有丰富上下文语义信息的特征图E;
至此完成模型建立的操作。
步骤2所述模型训练,具体如下:
对步骤1建立的模型进行训练,将图像IC通过骨干网ResNet-101、特征集成模型FIM子模块、位置注意力模型PAM子模块得到特征图E,再经过上采样后进行图像语义类别预测,得到预测值Z;将其与数据集的真实标签图GT做比较,通过定义的损失函数计算得到预测值与真实值之间的损失值,然后根据该损失值调整整个网络的参数值,直到网络收敛;
至此完成模型训练的操作。
步骤3所述模型推理,具体如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的图像得到测试预测值,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比,评估预测准确度。
至此完成模型推理的操作。
下表为本发明所述的方法在Pascal VOC 2012中的准确度。FCN[3]为基于深度学习的图像语义分割开篇之作,Our为本发明所提供的深度模型,aero,bike表示数据集中待语义分割的类别物,采用平均交并比MIoU评估图像语义分割的平均准确度。
Claims (2)
1.一种基于特征增强位置注意力机制的图像语义分割模型的构建方法,其特征在于包括以下步骤:
步骤1:模型建立;
具体设计一种基于特征增强位置注意力机制的图像语义分割模型,通过增大感受野捕获图像的上下文语义信息而增强图像特征,再通过注意力机制增强图像特征空间位置的关联性,以加强同类像素的关联性提高分割准确性;
然后,建立特征集成模型FIM,通过增大感受野对图像特征F进行增强,得到具有增强语义信息的图像特征X;
最后,建立位置注意力模型PAM,通过位置注意力机制增强图像特征X空间位置的关联性,得到上下文关联性增强的图像特征图E;
其中,建立的特征集成模型FIM,其特征在于包括以下操作:
首先对F采用不同卷积算子'1×1,3×3,5×5,7×7'进行通道降维,具体过程如下:
ai=Convi(F),i∈{1,3,5,7}, ⑴
为了得到具有不同大小感受野的图像特征Ai,其中i∈{1,3,5,7},直接输出a1,对a3,a5和a7均采用'3×3'的卷积进行不同程度上扩大感受野,其中a5和a7分别通过a3和a5的残差操作获得较大的感受野,a3直接通过'3×3'的卷积获得较小的感受野,具体过程如下所示:
A1=a1,A3=Conv3(a3),A5=Conv3(A3+a5),A7=Conv3(A5+a7) ⑵
对具有不同大小感受野的图像特征Ai,其中i∈{1,3,5,7}进行通道拼接操作,即[A1,A3,A5,A7],其中'[]'表示拼接操作,得到感受野增大的图像特征,利用1×1卷积操作进行通道的升维,与输入F进行矩阵对应元素相加,进一步通过'1×1'卷积操作降维,最终输出语义信息增强的图像特征X,其中C2是图像特征的通道数,H和W是图像特征的高度和宽度;
建立的位置注意力模型PAM,在特征在于包括以下操作:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑶
Y=Softmax(KT×Q) ⑷
E=βY×VT+X ⑸
其中β是可学习的系数,且β∈R,T为矩阵的转置;
步骤2:模型训练;
对步骤1所建立的模型进行训练,训练到整个模型收敛为止;
步骤3:模型推理;
将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,评估预测准确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110035003.9A CN112750129B (zh) | 2021-03-11 | 2021-03-11 | 一种基于特征增强位置注意力机制的图像语义分割模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110035003.9A CN112750129B (zh) | 2021-03-11 | 2021-03-11 | 一种基于特征增强位置注意力机制的图像语义分割模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112750129A CN112750129A (zh) | 2021-05-04 |
CN112750129B true CN112750129B (zh) | 2022-12-02 |
Family
ID=75650849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110035003.9A Active CN112750129B (zh) | 2021-03-11 | 2021-03-11 | 一种基于特征增强位置注意力机制的图像语义分割模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112750129B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191365B (zh) * | 2021-05-12 | 2023-04-21 | 北京邮电大学 | 一种文化语义图像重构效果评价方法 |
CN113361353A (zh) * | 2021-05-28 | 2021-09-07 | 同济大学 | 一种基于DeepLabV3Plus的斑马鱼形态学评分方法 |
CN113362395A (zh) * | 2021-06-15 | 2021-09-07 | 上海追势科技有限公司 | 一种基于传感器融合的环境感知方法 |
CN113658188B (zh) * | 2021-08-18 | 2022-04-01 | 北京石油化工学院 | 一种基于改进Unet模型的溶液结晶过程图像语义分割方法 |
CN114529836B (zh) * | 2022-02-23 | 2022-11-08 | 安徽大学 | 一种sar图像目标检测方法 |
CN114972812B (zh) * | 2022-06-02 | 2024-06-18 | 华侨大学 | 一种基于结构相似度的非局部注意力学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188765A (zh) * | 2019-06-05 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像语义分割模型生成方法、装置、设备及存储介质 |
CN111797779A (zh) * | 2020-07-08 | 2020-10-20 | 兰州交通大学 | 基于区域注意力多尺度特征融合的遥感图像语义分割方法 |
CN112233129A (zh) * | 2020-10-20 | 2021-01-15 | 湘潭大学 | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 |
-
2021
- 2021-03-11 CN CN202110035003.9A patent/CN112750129B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188765A (zh) * | 2019-06-05 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像语义分割模型生成方法、装置、设备及存储介质 |
CN111797779A (zh) * | 2020-07-08 | 2020-10-20 | 兰州交通大学 | 基于区域注意力多尺度特征融合的遥感图像语义分割方法 |
CN112233129A (zh) * | 2020-10-20 | 2021-01-15 | 湘潭大学 | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 |
Non-Patent Citations (1)
Title |
---|
DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs;Chen, L,et al.;《IEEE Trans.Pattern Anal. Mach. Intell》;20171231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112750129A (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112750129B (zh) | 一种基于特征增强位置注意力机制的图像语义分割模型 | |
CN109063723A (zh) | 基于迭代挖掘物体共同特征的弱监督图像语义分割方法 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN108629288A (zh) | 一种手势识别模型训练方法、手势识别方法及系统 | |
CN110675421B (zh) | 基于少量标注框的深度图像协同分割方法 | |
CN113763364B (zh) | 一种基于卷积神经网络的图像缺陷检测方法 | |
CN115908793A (zh) | 一种基于位置注意力机制的编解码结构语义分割模型 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
CN115272777B (zh) | 面向输电场景的半监督图像解析方法 | |
CN116310305A (zh) | 一种基于张量和二阶协方差注意力机制的编解码结构语义分割模型 | |
CN112164077A (zh) | 基于自下而上路径增强的细胞实例分割方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN114332075A (zh) | 基于轻量化深度学习模型的结构缺陷快速识别与分类方法 | |
CN116152554A (zh) | 基于知识引导的小样本图像识别系统 | |
CN114299305B (zh) | 聚合密集和注意力多尺度特征的显著性目标检测算法 | |
CN110751005A (zh) | 融合深度感知特征和核极限学习机的行人检测方法 | |
CN115661539A (zh) | 一种嵌入不确定性信息的少样本图像识别方法 | |
CN114359167B (zh) | 一种复杂场景下基于轻量化YOLOv4的绝缘子缺陷检测方法 | |
CN113537119B (zh) | 基于改进Yolov4-tiny的输电线路连接部件检测方法 | |
CN114581789A (zh) | 一种高光谱图像分类方法及系统 | |
CN115171074A (zh) | 一种基于多尺度yolo算法的车辆目标识别方法 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN117173595A (zh) | 基于改进YOLOv7的无人机航拍图像目标检测方法 | |
CN116229228A (zh) | 基于中心环绕机制的小目标检测方法 | |
CN114913368B (zh) | 基于自步双向对抗学习的融合遥感图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20210504 Assignee: Changsha Hongli Xinchuang Technology Co.,Ltd. Assignor: XIANGTAN University Contract record no.: X2023980052284 Denomination of invention: An Image Semantic Segmentation Model Based on Feature Enhanced Position Attention Mechanism Granted publication date: 20221202 License type: Common License Record date: 20231213 |
|
EE01 | Entry into force of recordation of patent licensing contract |