CN114067116B - 一种基于深度学习和权重分配的实时语义分割系统及方法 - Google Patents
一种基于深度学习和权重分配的实时语义分割系统及方法 Download PDFInfo
- Publication number
- CN114067116B CN114067116B CN202111414203.1A CN202111414203A CN114067116B CN 114067116 B CN114067116 B CN 114067116B CN 202111414203 A CN202111414203 A CN 202111414203A CN 114067116 B CN114067116 B CN 114067116B
- Authority
- CN
- China
- Prior art keywords
- signal
- layer
- output
- module
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000010586 diagram Methods 0.000 claims abstract description 57
- 230000002776 aggregation Effects 0.000 claims abstract description 55
- 238000004220 aggregation Methods 0.000 claims abstract description 55
- 230000007246 mechanism Effects 0.000 claims abstract description 40
- 230000004927 fusion Effects 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims description 54
- 238000011176 pooling Methods 0.000 claims description 28
- 239000011800 void material Substances 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习和权重分配的实时语义分割系统,包括数据采集模块、数据预处理模块、编码模块、解码模块、权重分配模块和语义分割预测模块;通过在编码‑解码模块的编码模块中引入组卷积、深度方向可分离卷积以及混洗等,以降低计算成本,同时保持特征信息的表现能力;通过在解码模块中引入多尺度融合单元,利用特征信息聚合和注意力机制精细处理编码模块输出的特征图,提升了编码‑解码模块的整体分割精度;在权重分配模块,通过利用图像中每个类别的像素点个数计算出相应类别的loss值的权重,以此达到提升整个方法的分割精度;该系统所涉及的语义分割方法简单易实现。
Description
【技术领域】
本发明涉及人工智能实时语义分割领域,具体而言是一种基于深度学习和权重分配的实时语义分割系统及方法。
【背景技术】
语义分割可以看作是按像素进行分类的任务,它可以为图像中的每个像素分配特定的预定义类别,该任务在自动驾驶和图像编辑等方面具有许多潜在的实际应用。
近年来,建立更深、更大的卷积神经网络(CNN,Convolutional Neural Networks)是解决语义分割任务的主要趋势。大多数只追求准确性的CNN网络通常使用成百上千个特征通道和卷积层。尽管已经实现了更高的精度,但是在许多现实的应用场景中,例如现实增强,机器人技术和自动驾驶等,经常需要小型计算网络来及时进行在线预测。因此,开发轻量级,高效且实时的语义分割方法至关重要,亦或是,利用更少的计算资源,获得更快更精确的结果。设计一种足够有效的轻量级网络,并且它可能更容易在精度,网络大小,速度和效率之间进行平衡,仍然是实时语义分割领域不可或缺的研究课题。
为了解决这个问题,许多轻量级网络被设计来平衡实现效率和分割精度。这些网络大致分为两类:卷积因子分解和网络压缩。后者倾向于通过压缩与训练网络来减少计算冗余,包括利用剪枝、量化等方案。与后者相比,前者基于卷积因子分解原理(CFP,Convolutional Factorization Principle),它将标准卷积分解为组卷积或者深度可分离卷积,着重于直接训练较小的网络。例如,Lightweight Encoder-Decoder Network(轻量级编解码网络)使用Split-Shuffle-non-bottleneck(分割-混洗-非瓶颈单元)作为残差层来执行有效的推理计算,它采用的是经典的编解码结构,大大减少了网络参数,然而,解码模块不能灵活地使用不同层的特征来维持更好的准确性,网络层数较少,并且无法提取足够的特征信息来实现准确的分类。
随着大数据和人工智能技术的不断发展,以及实验数据集建设的逐步完善,基于大数据和人工智能等前沿技术对实时语义分割逐步形成了坚实的基础。通过对现有数据集的分析和预处理,构建深度学习推断方法,能够从不同的像素点中提取到相关特征信息,并通过模型学习形成经验模型,并对新的数据进行预测,从而能够准确预测出分割结果。
【发明内容】
本发明的目的在于提供一种基于深度学习和权重分配的实时语义分割系统及方法,它是一种新颖的带非对称编-解码结构系统,能够利用编码模块的轻量化残差层、解码模块的多尺度注意力融合单元和权重分配能够克服现有技术的不足,其结构简单、容易实现的方法,且该方法在减少参数量的同时对分割精度具有显著的提升,具有一定的实用价值。
本发明的技术方案:一种基于深度学习和权重分配的实时语义分割系统,其特征在于它包括以下模块:数据采集模块、数据预处理模块、编码模块、解码模块、权重分配模块和语义分割预测模块;其中,所述数据采集模块对输入图像信号进行采集,并将其输出给数据预处理模块的输入端;所述编码模块的输入端接收数据预处理模块的输出端发出的处理后图像信号,其输出端输出特征图信号,并输出给解码模块的输入端;所述解码模块的输入端接收编码模块的输出端输出的特征图信号,并输出给权重分配模块或语义分割预测模块;所述权重分配模块的输入端接收解码模块输出端输出的特征图信号,并将处理后的预测结果信号反馈到编码模块;所述语义分割预测模块的输入端接收解码模块输出端输出的特征图信号,并输出最终的预测结果。
一种基于深度学习和权重分配的实时语义分割方法,其特征在于它包括以下步骤:
(1)由数据采集模块对Cityscapes数据集的待识别图片进行图像信息采集,并输出图像信号连接到数据处理模块,对图像进行预处理;
所述步骤(1)中的Cityscapes数据集中包含5000张图片,其中2975张图片用于模型训练,500张图片用于验证,1525张图片用于测试;所述Cityscapes数据集具有19个类别的密集像素标注,分别是道路,人行道,墙,栅栏,竿,交通标志,红绿灯,植被,天空,地形,骑手,汽车,卡车,公交汽车,火车,摩托车,自行车,建筑物,行人。
(2)数据预处理模块对步骤(1)数据采集模块采集到的图片进行预处理,输出图像信号F,利用归一化公式(1)将0~255区间的像素点的图像转换为0~1区间的像素点的图像,使编码模块能够在训练时接收到0~1区间的图像,并能使输入到编码模块内的图像经过训练后可与标签图像计算损失后迭代;
其中xi表示图像像素点值,max(x),min(x)分别表示图像像素值的最大与最小值;
(3)由编码模块对由步骤(2)得到的图像信号F进行处理,分别生成两个特征图信号,即:特征图信号和特征图信号
所述步骤(3)中的编码模块是由3个下采样层和13个残差层组成的16层残差网络结构,分别是在第5个残差层输出的特征图信号和第13个残差层输出的特征图信号所述编码模块的第一个下采样层输入端连接数据预处理模块的输出端,接收一个图像信号,其输出端连接编码模块的第一个残差层;所述第一个残差层输入端连接第一个下采样层的输出端,接收经第一个采样层处理过的一组特征图信号,其输出端连接第二个残差层;所述第二个残差层输入端连接第一个残差层的输出端,接收经第一个残差层处理后的一组特征图信号,其输出端连接第三个残差层;所述第三个残差层输入端连接第二个残差层的输出端,接收经第二个残差层处理后的一组特征图信号,其输出端连接第二个下采样层;所述第二个下采样层输入端连接第三个残差层的输出端,接收经第三个残差层处理后的一组特征图信号,其输出端连接第四个残差层;所述第四个残差层输入端连接第二个下采样层的输出端,接收经第二个采样层处理后的一组特征图信号,其输出端连接第五个残差层;所述第五个残差层输入端连接第四个残差层输出端,接收经第四个残差层处理后的一组特征图信号,其输出端有两个,分别将输出一组特征图信号,一端连接第三个下采样层的输入端,另一端输出特征图信号连接到解码模块;所述第三个下采样层输入端连接第五个残差层的输出端,接收经第五个残差层处理后的一组特征图信号,其输出连接第六个残差层;所述第六个残差层输入端连接第三个下采样层的输出端,接收经第三个下采样层处理后的一组特征图信号,其输出端连接第七个残差层;所述第七个残差层的输入端连接第六个残差层的输出端,接收经第六个残差层处理后的一组特征图信号,其输出端连接第八个残差层;所述第八个残差层的输入端连接第七个残差层的输出端,接收经第七个残差层处理后的一组特征图信号,其输出端连接第九个残差层;所述第九个残差层的输入端连接第八个残差层的输出端,接收经第八个残差层处理后的一组特征图信号,其输出端连接第十个残差层;所述第十个残差层输入端连接第九个残差层的输出端,接收经第九个残差层处理后的一组特征图信号,其输出端连接第十一个残差层;所述第十一个残差层输入端连接第十个残差层的输出端,接收经第十个残差层处理后的一组特征图信号,其输出端连接第十二个残差层;所述第十二个残差层输入端连接第十一个残差层的输出端,接收经第十一个残差层处理后的一组特征图信号,其输出端连接第十三个残差层;所述第十三个残差层输入端连接第十二个残差层的输出端,接收经第十二个残差层处理后的一组特征图信号,其输出端输出一组特征图信号并连接到解码模块;其中,所述下采样层,特征图信号每次进入下采样层,输出的特征图信号都会减少至输入的特征图信号的二分之一;其中,所述残差层是由通道拆分、组卷积、带空洞率的深度可分离卷积、特征图级联和通道混洗操作组成,是一种新型的残差层,以此达到减少编码模块计算时所需的参数量的目的。
所述步骤(3)的具体实现过程如下:
(3-1)由公式(2)对由步骤(2)得到的图像信号进行通道拆分,并将读取到的特征图信号的特征通道个数记为C,将输入的特征图信号拆分为两个具有C/2个特征通道的特征图信号,得到特征图信号F1和特征图信号F2:
[F1,F2]=SPLIT2(F) (2)
其中,SPLIT2表示将输入的特征图信号以第2维进行拆分,F表示输入的特征图信号;
所述步骤(3-1)中的特征通道个数C的区间为3至256。
(3-2)由公式(3)对步骤(3-1)中经过通道拆分后的两个特征图信号分别进行组卷积处理,得到特征图信号和特征图信号由于经过通道拆分,两个组卷积计算所需的参数量相较标准卷积将减少1/2,
其中,Conv1*k(Convk*1())与Convk*1(Conv1*k())表示为组卷积,F1与F2表示步骤(3-1)中输出的两个特征图信号;
(3-3)由公式(4)对步骤(3-2)中经过组卷积处理后的两个特征图信号和特征图信号进行特征图级联,以保证特征图信号通道不变,便于输出到带空洞率的深度可分离卷积进行处理,得到特征图信号FConcat:
其中,Concat2()表示将输入的两个特征图信号以第2维进行级联;
(3-4)由公式(5)对步骤(3-3)中经过特征图级联后的特征图信号FConcat进行带空洞的深度可分离卷积处理,得到处理后的特征图信号FDepthPoint,即:
FDepthPoint=ReLU(Pointwise(Depthwisei*2(ReLU(Pointwise(Depthwisei(FConcat)))))) (5)
其中,ReLU表示激活函数,Pointwise表示逐点卷积,Depthwisei表示带有i个空洞率的深度卷积;由Pointwise和Depthwisei组成带空洞率的深度可分离卷积;
(3-5)由公式(6)对步骤(3-4)中经过带空洞率的深度可分离卷积处理后的特征图信号FDepthPoint进行通道混洗,以达到特征图信号中的特征复用效果,得到特征图信号Foutput:
Foutput=Shuffle2(F) (6)
其中,Shuffle2表示对输入的特征图信号按第2维进行混洗;
(4)由解码模块对由编码模块输出的特征图信号和特征图信号进行处理后融合;
所述步骤(4)中的解码模块是使用具有注意力机制和全局平均池化结构的多尺度融合单元,是由注意力聚合单元I、注意力聚合单元II、全局平均池化单元、3*3卷积层单元和特征级联单元构成;所述注意力聚合单元I的输入端接收由编码模块的第七层输出的特征图信号,其输出端与特征级联单元的输入端连接;所述注意力聚合单元II的输入端、全局平均池化单元的输入端及3*3卷积层单元的输入端分别接收由编码模块第十六层输出的特征图信号;所述全局平均池化单元的输出端的输出信号与注意力聚合单元II的输出端的输出信号叠加后,共同送入特征级联单元;所述3*3卷积层单元的输出端的输出信号与特征级联单元的输出端的输出信号进行点乘后生成输出特征图信号;该模块利用注意力机制和全局平均池化操作对编码模块输出的两个特征图信号处理后,进行多尺度融合,以达到减少解码模块计算时所需的参数量和提升解码模块在进行语义分割时的精度的目的。
所述注意力聚合单元I和注意力聚合单元II是同一种结构,由组卷积和注意力机制构成;所述注意力聚合单元I的组卷积输入端连接编码模块第五个残差层,接收经第五个残差层处理后的特征图信号,其输出端连接注意力聚合单元I的注意力机制;所述注意力聚合单元I的注意力机制的输入端连接组卷积,接收经组卷积处理后的特征图信号,其输出端连接特征图级联;所述注意力聚合单元II的组卷积输入端连接编码模块的第十三个残差层,接收经第十三个残差层处理后的特征图信号,其输出端连接注意力聚合单元II的注意力机制;所述注意力聚合单元II的注意力机制的输入端连接注意力聚合单元I的组卷积,接收经组卷积处理后的特征图信号,其输出的特征图信号与全局平均池化输出的特征图信号进行相加。
所述步骤(4)中的特征图信号和特征图信号将分别进入多尺度融合单元,处理过程由以下步骤构成:
(4-1)对编码模块输出的两个特征图信号进行注意力机制处理,以提升解码模块进行语义分割时的精度:
(4-1-1)由公式(7)对编码模块输出的特征图信号和特征图信号进行通道拆分,得到原图尺寸1/8的通道拆分特征图信号和特征图信号以及原图尺寸1/4的通道拆分特征图信号和特征图信号以便后续组卷积对特征图信号特征图信号特征图信号和特征图信号进行处理,达到减少参数量的目的:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号SPLIT2表示对特征图信号进行通道拆分;
(4-1-2)由公式(8-1)-公式(8-4)对步骤(4-1-1)中通道拆分后的特征图信号特征图信号特征图信号和特征图信号进行组卷积处理,得到特征图信号和由于经过通道拆分,两个组卷积计算所需的参数量相交标准卷积将减少1/2:
其中,Conv1*k(Convk*1())与Convk*1(Conv1*2())表示为组卷积;
(4-1-3)由公式(9)对经过组卷积处理后的特征图信号和两两对应相加,便于后续进行注意力机制处理,得到特征图信号和
(4-1-4)由公式(10-1)和公式(10-2)对相加过后的F1/8Add和F1/4Add进行注意力机制处理,得到特征图信号和特征图信号由于在(4-1-3)中采取的是特征图信号相加策略,因此此处注意力机制计算所需的参数量将减少1/2,同时利用注意力机制还可以提升解码模块在进行语义分割时的精度:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号AvgPool表示全局平均池化,Conv1*1表示1*1卷积,BatchNorm表示批次规范化,ReLU表示激活函数,F1/8Add和F1/4Add表示(4-1-3)中两两相加后的特征图信号;
(4-2)利用公式(11)对编码模块输出的原图尺寸1/8的特征图信号进行全局平均池化处理,以达到后续与(4-1-4)中输出的特征图信号进行多尺度融合的目的;得到特征图信号
其中表示编码模块输出的原图尺寸1/8的特征图信号,AvgPool表示全局平均池化;
(4-3)利用公式(12)对编码模块输出的特征图信号进行3*3卷积处理,得到特征图信号以达到与步骤(4-5)输出的特征图信号FConcat进行多尺度融合的目的;
(4-4)利用公式(13)对步骤(4-1-4)输出的特征图信号和步骤(4-2)输出的特征图信号相加,得到特征图信号以达到提升解码模块进行语义分割时的精度的目的;
(4-5)利用公式(14)对步骤(4-4)得到的特征图信号和步骤(4-1-4)得到特征图信号进行特征图级联操作,以达到多尺度融合的目的,不仅可以提升解码模块进行语义分割时的精度还可以减少解码模块计算时所需的参数量,最后得到经过特征图级联后的特征图信号FConcat:
其中,Concat表示特征图级联;
(4-6)利用公式(15)对步骤(4-5)得到的特征图信号FConcat与步骤(4-3)得到的特征图信号进行点乘处理,得到解码模块的最终输出特征图信号Foutput,并且在实施例中特征图信号Foutput具有19个通道的特征图信号,以便后续在权重分配模块与标签图像计算loss值或在语义分割预测模块计算语义分割预测结果;
(5)由权重分配模块对步骤(4)解码模块输出的特征图信号Foutput与标签图像计算后的loss值进行赋予权重,以进行下一次迭代;权重分配模块是利用权重分配公式计算所得的权重分配给图像中相应类别的loss值的模块,以达到提升编-解码模块在进行语义分割时的精度的目的;
(5-1)利用交叉熵损失函数公式(16)对编码模块输出的特征图信号Foutput与数据集的标签图像进行loss值计算,得到特征图信号中每个类别的loss值:
其中,p(Foutput)为真实像素点概率分布,q(Foutput)为预测像素点概率分布,m表示图像个数,n表示图像中类别的个数,i表示当前第i个图像,j表示当前第j个类别;
(5-2)利用权重分配公式(17-1)-公式(17-3)计算步骤(1)的数据集Cityscapes图像中的每个类别占用的像素点个数计算每个类别的权重,且像素点少的类别将分配较大的权重,以提高编码模块和解码模块在进行语义分割时的精度:
Ei=1/log(Di) (17-1)
Wi=N×(Li-min{L})+(max{L}/Li) (17-3)
其中,Di表示每个类别在所有标签中占据的像素点数量,Ei表示每个类别的像素点数量的对数的权重然后取反,N表示数据集中的类别数;Li表示权重Ei的L1归一化,Li表示由上一个公式计算的每个类别的最终权重,L表示所有类别权重的集合,Wi表示经过公式(17-1)-公式(17-2)计算后的权重;
(5-3)利用公式(18)对步骤(5-1)计算出的loss值赋予步骤(5-2)中计算出的与该loss值相对应的权重,以便进行下一次迭代。
lossi=lossi*Wi (18)
当本方法迭代到公式(16)中的loss值不再下降,同时防止出现过拟合问题,迭代次数应当不小于300次时,解码模块输出的特征图信号连接到语义分割预测模块,否则连接到本模块。
(6)由语义分割预测模块对由步骤(4)解码模块输出的特征图信号Foutput进行预测显示:
解码模块输出的特征图信号Foutput不再经过权重分配模块,而是利用双线性插值公式(公知),如式(19)所示,将语义分割预测模块的接收到的解码模块输出的特征图信号Foutput放大至原图尺寸,从而得到语义分割预测结果:
其中,x、y分别为未知像素点的横、纵坐标,f(Q11)、f(Q21)、f(Q12)、f(Q22)均为已知像素点的像素值,x1、x2、y1、y2分别为已知像素点的横纵坐标,最终输出的f(x,y)表示未知像素点的像素值;通过使用双线性插值的方法,即可依次计算出语义分割预测模块接收到的只有1/4原图尺寸的特征图信号放大至与原图相等尺寸时所有像素点的像素值。
本发明的工作原理:本发明的目标是解决效率和准确度之间的折衷问题,于是提出了一种有效的多尺度分割融合语义分割网络,该网络使用非对称,多尺度融合编解码结构进行实时语义分割。该网络由三部分组成,编码模块,解码模块以及类别权重分配模块。在编码模块中,使用带有卷积因子分解功能的模块作为残差层,不仅加快处理过程,并且其中的特征混洗和通道拆分也增加了特征通道中的信息交换。解码模块中,使用了一种多尺度注意力融合模块,从而融合来自不同层的特征,并利用注意力机制来评估每个像素的语义类别。最后,在类别权重分配模块中,为每个类的损失分配不均匀的权重,提升模型的整体准确度。由于是在图像进入编码模块之前以及提前计算好的权重,因此不会消耗任何计算资源。
本发明的优越性:基于卷积因子分解和注意力机制的实时语义分割模型,通过在编码模块的残差层中引入组卷积和深度可分离卷积,用以针对标准卷积的参数量庞大的语义分割方法,并且在解码模块中引入注意力机制用以针对实时语义分割模型精度不足的语义分割方法;使用数据集Cityscapes中的图像,运算速度能够达到60.6FPS,同时精度也能够保持在72.0%mIoU,在减少参数量的同时对分割精度具有显著的提升;结构简单、容易实现,具有一定的实用价值。
【附图说明】
图1为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中的方法结构图。
图2为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中的编码-解码模块结构图。
图3为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中的编码模块结构图。
图4为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中编码模块的残差层结构图。
图5为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中解码模块的多尺度注意力融合单元结构图。
图6为本发明所涉一种基于深度学习和权重分配的实时语义分割方法中多尺度注意力融合单元中的注意力聚合单元结构图。
图7为本发明的一种实施例中数据预处理前后的图像对比示意图(其中,图7-a为输入图像,图7-b为处理后的图像)。
图8为本发明的一种实施例中预测的图像对比示意图(其中,图8-a为数据采集模块采集到的图像、图8-b为权重分配模块要与解码模块输出的特征图进行loss计算的标签图像、图8-c为经过本发明所有模块处理后的预测结果图像。并且预测结果中以红绿蓝三原色值表示预测结果,即(102,102,156)表示墙、(128,64,128)表示道路、(244,35,232)表示人行道、(70,70,70)表示建筑物、(190,153,153)表示栅栏、(153,153,153)表示竿、(250,170,30)表示红绿灯、(220,220,0)表示交通标志、(107,142,35)表示植被、(152,251,152)表示地形、(70,130,180)表示天空、(220,20,60)表示行人、(255,0,0)表示骑手、(0,0,142)表示汽车、(0,0,70)表示卡车、(0,60,100)表示公共汽车、(0,0,230)表示摩托车、(119,11,32)表示自行车、(0,80,100)表示火车)。
【具体实施方式】
实施例:一种基于深度学习和权重分配的实时语义分割系统,如图1所示,其特征在于它包括以下模块:数据采集模块、数据预处理模块、编码模块、解码模块、权重分配模块和语义分割预测模块;其中,所述数据采集模块对输入图像信号进行采集,并将其输出给数据预处理模块的输入端;所述编码模块的输入端接收数据预处理模块的输出端发出的处理后图像信号,其输出端输出特征图信号,并输出给解码模块的输入端;所述解码模块的输入端接收编码模块的输出端输出的特征图信号,并输出给权重分配模块或语义分割预测模块;所述权重分配模块的输入端接收解码模块输出端输出的特征图信号,并将处理后的预测结果信号反馈到编码模块;所述语义分割预测模块的输入端接收解码模块输出端输出的特征图信号,并输出最终的预测结果。
一种基于深度学习和权重分配的实时语义分割方法,其特征在于它包括以下步骤:
(1)由数据采集模块对Cityscapes数据集的待识别图片进行图像信息采集,并输出图像信号连接到数据处理模块,对图像进行预处理;其中中的Cityscapes数据集中包含5000张图片,其中2975张图片用于模型训练,500张图片用于验证,1525张图片用于测试;所述Cityscapes数据集具有19个类别的密集像素标注,分别是道路,人行道,墙,栅栏,竿,交通标志,红绿灯,植被,天空,地形,骑手,汽车,卡车,公交汽车,火车,摩托车,自行车,建筑物,行人;
(2)数据预处理模块对步骤(1)数据采集模块采集到的图片进行预处理,输出图像信号F,利用归一化公式(1)将0~255区间的像素点的图像转换为0~1区间的像素点的图像,使编码模块能够在训练时接收到0~1区间的图像,并能使输入到编码模块内的图像经过训练后可与标签图像计算损失后迭代;
其中xi表示图像像素点值,max(x),min(x)分别表示图像像素值的最大与最小值;
(3)由编码模块对由步骤(2)得到的图像信号F进行处理,分别生成两个特征图信号,即:特征图信号和特征图信号编码模块是由3个下采样层和13个残差层组成的16层残差网络结构,分别是在第5个残差层输出的特征图信号和第13个残差层输出的特征图信号如图2、图3所示;所述编码模块的第一个下采样层输入端连接数据预处理模块的输出端,接收一个图像信号,其输出端连接编码模块的第一个残差层;所述第一个残差层输入端连接第一个下采样层的输出端,接收经第一个采样层处理过的一组特征图信号,其输出端连接第二个残差层;所述第二个残差层输入端连接第一个残差层的输出端,接收经第一个残差层处理后的一组特征图信号,其输出端连接第三个残差层;所述第三个残差层输入端连接第二个残差层的输出端,接收经第二个残差层处理后的一组特征图信号,其输出端连接第二个下采样层;所述第二个下采样层输入端连接第三个残差层的输出端,接收经第三个残差层处理后的一组特征图信号,其输出端连接第四个残差层;所述第四个残差层输入端连接第二个下采样层的输出端,接收经第二个采样层处理后的一组特征图信号,其输出端连接第五个残差层;所述第五个残差层输入端连接第四个残差层输出端,接收经第四个残差层处理后的一组特征图信号,其输出端有两个,分别将输出一组特征图信号,一端连接第三个下采样层的输入端,另一端输出特征图信号连接到解码模块;所述第三个下采样层输入端连接第五个残差层的输出端,接收经第五个残差层处理后的一组特征图信号,其输出连接第六个残差层;所述第六个残差层输入端连接第三个下采样层的输出端,接收经第三个下采样层处理后的一组特征图信号,其输出端连接第七个残差层;所述第七个残差层的输入端连接第六个残差层的输出端,接收经第六个残差层处理后的一组特征图信号,其输出端连接第八个残差层;所述第八个残差层的输入端连接第七个残差层的输出端,接收经第七个残差层处理后的一组特征图信号,其输出端连接第九个残差层;所述第九个残差层的输入端连接第八个残差层的输出端,接收经第八个残差层处理后的一组特征图信号,其输出端连接第十个残差层;所述第十个残差层输入端连接第九个残差层的输出端,接收经第九个残差层处理后的一组特征图信号,其输出端连接第十一个残差层;所述第十一个残差层输入端连接第十个残差层的输出端,接收经第十个残差层处理后的一组特征图信号,其输出端连接第十二个残差层;所述第十二个残差层输入端连接第十一个残差层的输出端,接收经第十一个残差层处理后的一组特征图信号,其输出端连接第十三个残差层;所述第十三个残差层输入端连接第十二个残差层的输出端,接收经第十二个残差层处理后的一组特征图信号,其输出端输出一组特征图信号并连接到解码模块;其中,所述下采样层,特征图信号每次进入下采样层,输出的特征图信号都会减少至输入的特征图信号的二分之一;其中,所述残差层是由通道拆分、组卷积、带空洞率的深度可分离卷积、特征图级联和通道混洗操作组成,如图4所示,是一种新型的残差层,以此达到减少编码模块计算时所需的参数量的目的;
编码模块的第五个残差层输出的特征图信号包含最初输入的图像的空间信息,所述第十三个残差层输出的特征图信号包含最初输入的图像的语义信号;且该空间信息和语义信号送入解码模块后能够提升语义分割的精度;如图4所示,实施例中,输入图像信号经过13个残差层中每个残差层时会经过通道拆分、组卷积、带空洞率的深度可分离卷积、特征图级联和通道混洗,具体过程如下:
(3-1)由公式(2)对由步骤(2)得到的图像信号进行通道拆分,并将读取到的特征图信号的特征通道个数记为C,将输入的特征图信号拆分为两个具有C/2个特征通道的特征图信号,得到特征图信号F1和特征图信号F2:
[F1,F2]=SPLIT2(F) (2)
其中,SPLIT2表示将输入的特征图信号以第2维进行拆分,F表示输入的特征图信号;特征通道个数C的区间为3至256,本实施例中最佳数据为输入图像的C=3,第一层至第四层C=64,第五层至第七层C=128,第八层至第十六层C=256。
(3-2)由公式(3)对步骤(3-1)中经过通道拆分后的两个特征图信号分别进行组卷积处理,得到特征图信号和特征图信号由于经过通道拆分,两个组卷积计算所需的参数量相较标准卷积将减少1/2,
其中,Conv1*k(Convk*1())与Convk*1(Conv1*k())表示为组卷积,F1与F2表示步骤(3-1)中输出的两个特征图信号;
(3-3)由公式(4)对步骤(3-2)中经过组卷积处理后的两个特征图信号和特征图信号进行特征图级联,以保证特征图信号通道不变,便于输出到带空洞率的深度可分离卷积进行处理,得到特征图信号FConcat:
其中,Concat2()表示将输入的两个特征图信号以第2维进行级联;
(3-4)由公式(5)对步骤(3-3)中经过特征图级联后的特征图信号FConcat进行带空洞的深度可分离卷积处理,得到处理后的特征图信号FDepthPoint,即:
FDepthPoint=ReLU(Pointwise(Depthwisei*2(ReLU(Pointwise(Depthwisei(FConcat)))))) (5)
其中,ReLU表示激活函数,Pointwise表示逐点卷积,Depthwisei表示带有i个空洞率的深度卷积;由Pointwise和Depthwisei组成带空洞率的深度可分离卷积;
(3-5)由公式(6)对步骤(3-4)中经过带空洞率的深度可分离卷积处理后的特征图信号FDepthPoint进行通道混洗,以达到特征图信号中的特征复用效果,得到特征图信号Foutput:
Foutput=Shuffle2(F) (6)
其中,Shuffle2表示对输入的特征图信号按第2维进行混洗;
(4)由解码模块对由编码模块输出的特征图信号和特征图信号进行处理后融合;其中,解码模块是使用具有注意力机制和全局平均池化结构的多尺度融合单元,是由注意力聚合单元I、注意力聚合单元II、全局平均池化单元、3*3卷积层单元和特征级联单元构成;所述注意力聚合单元I的输入端接收由编码模块的第七层输出的特征图信号,其输出端与特征级联单元的输入端连接;所述注意力聚合单元II的输入端、全局平均池化单元的输入端及3*3卷积层单元的输入端分别接收由编码模块第十六层输出的特征图信号;所述全局平均池化单元的输出端的输出信号与注意力聚合单元II的输出端的输出信号叠加后,共同送入特征级联单元;所述3*3卷积层单元的输出端的输出信号与特征级联单元的输出端的输出信号进行点乘后生成输出特征图信号;该模块利用注意力机制和全局平均池化操作对编码模块输出的两个特征图信号处理后,进行多尺度融合,以达到减少解码模块计算时所需的参数量和提升解码模块在进行语义分割时的精度的目的。
如图6所示,所述注意力聚合单元I和注意力聚合单元II是同一种结构,由组卷积和注意力机制构成;所述注意力聚合单元I的组卷积输入端连接编码模块第五个残差层,接收经第五个残差层处理后的特征图信号,其输出端连接注意力聚合单元I的注意力机制;所述注意力聚合单元I的注意力机制的输入端连接组卷积,接收经组卷积处理后的特征图信号,其输出端连接特征图级联;所述注意力聚合单元II的组卷积输入端连接编码模块的第十三个残差层,接收经第十三个残差层处理后的特征图信号,其输出端连接注意力聚合单元II的注意力机制;所述注意力聚合单元II的注意力机制的输入端连接注意力聚合单元I的组卷积,接收经组卷积处理后的特征图信号,其输出的特征图信号与全局平均池化输出的特征图信号进行相加。
如图5所示,实施例中,所述步骤(4)中的特征图信号和特征图信号将分别进入多尺度融合单元,处理过程由以下步骤构成:
(4-1)对编码模块输出的两个特征图信号进行注意力机制处理,以提升解码模块进行语义分割时的精度:
(4-1-1)由公式(7)对编码模块输出的特征图信号和特征图信号进行通道拆分,得到原图尺寸1/8的通道拆分特征图信号和特征图信号以及原图尺寸1/4的通道拆分特征图信号和特征图信号以便后续组卷积对特征图信号特征图信号特征图信号和特征图信号进行处理,达到减少参数量的目的:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号SPLIT2表示对特征图信号进行通道拆分;
(4-1-2)由公式(8-1)-公式(8-4)对步骤(4-1-1)中通道拆分后的特征图信号特征图信号特征图信号和特征图信号进行组卷积处理,得到特征图信号和由于经过通道拆分,两个组卷积计算所需的参数量相交标准卷积将减少1/2:
其中,Conv1*k(Convk*1())与Convk*1(Conv1*2())表示为组卷积;
(4-1-3)由公式(9)对经过组卷积处理后的特征图信号和两两对应相加,便于后续进行注意力机制处理,得到特征图信号F1/8Add和F1/4Add:
(4-1-4)由公式(10-1)和公式(10-2)对相加过后的F1/8Add和F1/4Add进行注意力机制(公知)处理,得到特征图信号和特征图信号由于在(4-1-3)中采取的是特征图信号相加策略,因此此处注意力机制计算所需的参数量将减少1/2,同时利用注意力机制还可以提升解码模块在进行语义分割时的精度:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号AvgPool表示全局平均池化,Conv1*1表示1*1卷积,BatchNorm表示批次规范化,ReLU表示激活函数,F1/8Add和F1/4Add表示(4-1-3)中两两相加后的特征图信号;
(4-2)利用公式(11)对编码模块输出的原图尺寸1/8的特征图信号进行全局平均池化处理,以达到后续与(4-1-4)中输出的特征图信号进行多尺度融合的目的;得到特征图信号
其中表示编码模块输出的原图尺寸1/8的特征图信号,AvgPool表示全局平均池化;
(4-3)利用公式(12)对编码模块输出的特征图信号进行3*3卷积处理,得到特征图信号以达到与步骤(4-5)输出的特征图信号FConcat进行多尺度融合的目的;
(4-4)利用公式(13)对步骤(4-1-4)输出的特征图信号和步骤(4-2)输出的特征图信号相加,得到特征图信号以达到提升解码模块进行语义分割时的精度的目的;
(4-5)利用公式(14)对步骤(4-4)得到的特征图信号和步骤(4-1-4)得到特征图信号进行特征图级联操作,以达到多尺度融合的目的,不仅可以提升解码模块进行语义分割时的精度还可以减少解码模块计算时所需的参数量,最后得到经过特征图级联后的特征图信号FConcat:
其中,Concat表示特征图级联;
(4-6)利用公式(15)对步骤(4-5)得到的特征图信号FConcat与步骤(4-3)得到的特征图信号进行点乘处理,得到解码模块的最终输出特征图信号Foutput,并且在实施例中特征图信号Foutput具有19个通道的特征图信号,以便后续在权重分配模块与标签图像计算loss值或在语义分割预测模块计算语义分割预测结果;
(5)由权重分配模块对步骤(4)解码模块输出的特征图信号Foutput与标签图像计算后的loss值进行赋予权重,以进行下一次迭代;权重分配模块是利用权重分配公式计算所得的权重分配给图像中相应类别的loss值的模块,以达到提升编-解码模块在进行语义分割时的精度的目的;
(5-1)利用交叉熵损失函数公式(16)对编码模块输出的特征图信号Foutput与数据集的标签图像进行loss值计算,得到特征图信号中每个类别的loss值:
其中,p(Foutput)为真实像素点概率分布,q(Foutput)为预测像素点概率分布,m表示图像个数,n表示图像中类别的个数,i表示当前第i个图像,j表示当前第j个类别;
(5-2)利用权重分配公式(17-1)-公式(17-3)计算步骤(1)的数据集Cityscapes图像中的每个类别占用的像素点个数计算每个类别的权重,且像素点少的类别将分配较大的权重,以提高编码模块和解码模块在进行语义分割时的精度:
Ei=1/log(Di) (17-1)
Wi=N×(Li-min{L})+(max{L}/Li) (17-3)
其中,Di表示每个类别在所有标签中占据的像素点数量,Ei表示每个类别的像素点数量的对数的权重然后取反,N表示数据集中的类别数;Li表示权重Ei的L1归一化,Li表示由上一个公式计算的每个类别的最终权重,L表示所有类别权重的集合,Wi表示经过公式(17-1)-公式(17-2)计算后的权重;
(5-3)利用公式(18)对步骤(5-1)计算出的loss值赋予步骤(5-2)中计算出的与该loss值相对应的权重,以便进行下一次迭代。
lossi=lossi*Wi (18)
当本方法迭代到公式(16)中的loss值不再下降(公知),同时防止出现过拟合问题,迭代次数应当不小于300次时,解码模块输出的特征图信号连接到语义分割预测模块,否则连接到本模块。
(6)由语义分割预测模块对由步骤(4)解码模块输出的特征图信号Foutput进行预测显示:
解码模块输出的特征图信号Foutput不再经过权重分配模块,而是利用双线性插值公式(公知),如式(19)所示,将语义分割预测模块的接收到的解码模块输出的特征图信号Foutput放大至原图尺寸,从而得到语义分割预测结果:
其中,x、y分别为未知像素点的横、纵坐标,f(Q11)、f(Q21)、f(Q12)、f(Q22)均为已知像素点的像素值,x1、x2、y1、y2分别为已知像素点的横纵坐标(此处为公知解释),最终输出的f(x,y)表示未知像素点的像素值;通过使用双线性插值的方法,即可依次计算出语义分割预测模块接收到的只有1/4原图尺寸的特征图信号放大至与原图相等尺寸时所有像素点的像素值。
如图7-c所示,可以看见本方法成功将图片分为了19个不同的语义类别,实现了语义分割的预测;并且基于深度学习和权重分配的实时语义分割方法的贡献在于编-解码模块减少大量计算时所需的参数量,增加了本方法在进行语义分割时的处理速度;解码模块和权重分配模块提升了本方法在进行语义分割时的精度,从而得到更好的语义分割预测效果。
本实施例利用Python3语言和PyTorch1.5等框架构建基于深度学习和权重分配的实时语义分割方法,分割的主要目标是图像中对每个类别的分割精度,速度,参数量。具体实施方式如下:
数据采集模块:从https://www.cityscapes-dataset.com/获取cityscapes数据集。
数据预处理模块:本模块对输入图像进行数据增强,其中包括水平翻转,垂直翻转,裁切,放大等方法。如图7-b所示,对输入图像进行归一化操作,将0~255区间的像素点转换为0~1区间的像素点,以便加快网络的学习速度,使得所有输入样本的均值接近于0或与其均方差相比很小。最后,输出3通道的512*1024像素的图像
编码模块:如图3中编码模块所示,输入的预处理后的图像首先经过一个下采样层,3通道510*1024像素的图像变为32通道256*512像素的特征图。随后经过三个具有通道拆分,深度可分离卷积和通道混洗的残差层,此时通道数与像素尺寸保持不变,此处残差层的作用是提取足够丰富的语义信息以供后续模块进行处理。再经过一个下采样层,特征图变为64通道128*256像素的特征图,相同的两个残差层操作对特征图进行处理。经过最后一个下采样层,特征图变为128通道64*128像素的特征图,相同的八个残差块操作对特征图进行处理,提取语义信息。并且在第七层和最后一层同时输出一个特征图,尺寸通道保持不变,以供后续模块进行多尺度融合。最后,输出64通道的128*256像素的特征图和128通道的64*128像素的特征图。
表1编码模块测试结果
方法 | 参数(M) | 速度(FPS) | GFLOPs | mIoU(%) |
非瓶颈单元 | 0.94M | 71 | 11.5 | 69.2 |
本发明 | 0.79M | 74 | 10.2 | 69.8 |
其中,以轻量级编解码网络的分割-混洗-非瓶颈单元作为骨干网络进行对比,本发明的参数量(Params)为0.79M、计算量(GFLPs)为10.2、速度(FPS)为74、准确率(mIoU)为69.8%。由表1可见本发明的编码模块中的编码模块都优于非瓶颈单元组成的编码模块。
解码模块:如图5所示,解码模块接收来自编码模块的两个特征图,分别对其进行注意力聚合处理,即进入注意力聚合单元,如图6所示,将通道进行拆分分别经过一组(1xk,kx1或kx1,1xk)一维卷积组操作。再将输出的特征图进行相加,以保持特征图的通道数不变。随后经过两个分支,其中上分支是计算全局平均池化,求得一个通道数相同1*1像素的注意力点。与特征图进行点乘操作,即以注意力机制评估每个点的语义信息。最后,特征图再与原始特征图进行残差链接,加速网络训练的同时,提升特征的复用性。
其中,如图5所示,1/8原图大小的特征图不仅需要经过注意力聚合单元,还有两个分支操作需要处理,上分支为全局平均池化,随后上采样至原图的1/8以便后续与特征图进行求和操作。下分支为一个3*3的卷积操作,并且将尺寸上采样至原图的1/4,以便最后与特征图进行点乘。
如图5所示,1/8原图大小的特征图经过注意力聚合单元后,与上分支进行全局平均池化后的特征图进行相加,再上采样至原图的1/4,与1/4原图大小的特征图经过注意力聚合单元后输出的特征图进行“Concat”操作。此时特征图的通道数为128,像素尺寸为128*256。最后与下分支输出的特征图进行点乘操作后。最后,输出128通道的128*256像素的特征图。
表2多尺度注意力融合模块的消融实验
其中,模型A是表1中没有使用权重分配的最终结果,模型B是去除1/4节点分支的单尺度注意力模块最终结果。模型C是同时使用1/4特征图和1/8特征图的多尺度注意力融合模块最终结果。
权重分配模块:此时接收来自解码模块的128通道128*256像素的特征图,需要对齐进行通道整理以及上采样,使用一个卷积将通道数变为19,再使用双线性插值进行上采样至原图大小。输出与数据标签进行Loss计算,此处我们选择的是交叉熵损失函数。计算之后得到19个类损失数值,此时我们将公式(1)(2)(3)中计算好的每个类的权重分配给相对应的损失,参与到反向传播中,提升网络的整体精度。
表3整体模型的消融实验
方法 | 参数(M) | 速度(FPS) | GFLPs | mIoU(%) |
模型A | 0.79M | 74 | 10.2 | 69.8 |
模型B | 1.53M | 69 | 19.4 | 70.9 |
模型C | 17.2M | 60 | 29.7 | 71.5 |
其中,模型A是仅使用编码模块的网络最终结果,模型B是未使用权重分配模块的整体网络结构的最终结果。模型C是使用了权重分配模块的整体网络结构的最终结果。
语义分割预测模块:利用公式(4)语义分割最常用的所有类别和类别的均值相交(mIoU)来估计模型的分割精度,并且使用公式(5)计算参数量大小(FLOPS),并利用1080ti显卡评估速度(FPS)。从表3可知本网络的mIoU为72.0%,参数量为29.7GFLOPs,FPS为60。由此可以看出本发明中,即在编码模块的残差层中使用通道拆分、深度可分离卷积和通道混洗操作,解码模块中使用多尺度注意力融合模块以及权重分配方案均是有效的,并且达到了在实现效率和保持准确度上相对优秀的平衡。
预测结果对比:如图8-a所示,输入图像为真实城市街景图像并且本发明的输入通道数是3,即红绿蓝三原色。图8-b和图8-c为数据集标签和最终的预测结果,考虑到图片中总共有19个类别,需要对每个类别进行区分,因此使用不同的颜色绘制相应类别。
Claims (7)
1.一种基于深度学习和权重分配的实时语义分割方法,其特征在于它包括以下步骤:
(1)由数据采集模块对Cityscapes数据集的待识别图片进行图像信息采集,并输出图像信号连接到数据处理模块,对图像进行预处理;
(2)数据预处理模块对步骤(1)数据采集模块采集到的图片进行预处理,输出图像信号F,利用归一化公式(1)将0~255区间的像素点的图像转换为0~1区间的像素点的图像,使编码模块能够在训练时接收到0~1区间的图像,并能使输入到编码模块内的图像经过训练后可与标签图像计算损失后迭代;
其中χi表示图像像素点值,max(χ),min(x)分别表示图像像素值的最大与最小值;
(3)由编码模块对由步骤(2)得到的图像信号F进行处理,分别生成两个特征图信号,即:特征图信号和特征图信号
所述步骤(3)中的编码模块是由3个下采样层和13个残差层组成的16层残差网络结构,分别是在第5个残差层输出的特征图信号和第13个残差层输出的特征图信号所述编码模块的第一个下采样层输入端连接数据预处理模块的输出端,接收一个图像信号,其输出端连接编码模块的第一个残差层;所述第一个残差层输入端连接第一个下采样层的输出端,接收经第一个采样层处理过的一组特征图信号,其输出端连接第二个残差层;所述第二个残差层输入端连接第一个残差层的输出端,接收经第一个残差层处理后的一组特征图信号,其输出端连接第三个残差层;所述第三个残差层输入端连接第二个残差层的输出端,接收经第二个残差层处理后的一组特征图信号,其输出端连接第二个下采样层;所述第二个下采样层输入端连接第三个残差层的输出端,接收经第三个残差层处理后的一组特征图信号,其输出端连接第四个残差层;所述第四个残差层输入端连接第二个下采样层的输出端,接收经第二个采样层处理后的一组特征图信号,其输出端连接第五个残差层;所述第五个残差层输入端连接第四个残差层输出端,接收经第四个残差层处理后的一组特征图信号,其输出端有两个,分别将输出一组特征图信号,一端连接第三个下采样层的输入端,另一端输出特征图信号连接到解码模块;所述第三个下采样层输入端连接第五个残差层的输出端,接收经第五个残差层处理后的一组特征图信号,其输出连接第六个残差层;所述第六个残差层输入端连接第三个下采样层的输出端,接收经第三个下采样层处理后的一组特征图信号,其输出端连接第七个残差层;所述第七个残差层的输入端连接第六个残差层的输出端,接收经第六个残差层处理后的一组特征图信号,其输出端连接第八个残差层;所述第八个残差层的输入端连接第七个残差层的输出端,接收经第七个残差层处理后的一组特征图信号,其输出端连接第九个残差层;所述第九个残差层的输入端连接第八个残差层的输出端,接收经第八个残差层处理后的一组特征图信号,其输出端连接第十个残差层;所述第十个残差层输入端连接第九个残差层的输出端,接收经第九个残差层处理后的一组特征图信号,其输出端连接第十一个残差层;所述第十一个残差层输入端连接第十个残差层的输出端,接收经第十个残差层处理后的一组特征图信号,其输出端连接第十二个残差层;所述第十二个残差层输入端连接第十一个残差层的输出端,接收经第十一个残差层处理后的一组特征图信号,其输出端连接第十三个残差层;所述第十三个残差层输入端连接第十二个残差层的输出端,接收经第十二个残差层处理后的一组特征图信号,其输出端输出一组特征图信号并连接到解码模块;其中,所述下采样层,特征图信号每次进入下采样层,输出的特征图信号都会减少至输入的特征图信号的二分之一;其中,所述残差层是由通道拆分、组卷积、带空洞率的深度可分离卷积、特征图级联和通道混洗操作组成;
(4)由解码模块对由编码模块输出的特征图信号和特征图信号进行处理后融合;
所述步骤(4)中的解码模块是使用具有注意力机制和全局平均池化结构的多尺度融合单元,是由注意力聚合单元I、注意力聚合单元II、全局平均池化单元、3*3卷积层单元和特征级联单元构成;所述注意力聚合单元I的输入端接收由编码模块的第七层输出的特征图信号,其输出端与特征级联单元的输入端连接;所述注意力聚合单元II的输入端、全局平均池化单元的输入端及3*3卷积层单元的输入端分别接收由编码模块第十六层输出的特征图信号;所述全局平均池化单元的输出端的输出信号与注意力聚合单元II的输出端的输出信号叠加后,共同送入特征级联单元;所述3*3卷积层单元的输出端的输出信号与特征级联单元的输出端的输出信号进行点乘后生成输出特征图信号;
(5)由权重分配模块对步骤(4)解码模块输出的特征图信号Foutput与标签图像计算后的loss值进行赋予权重,以进行下一次迭代;权重分配模块是利用权重分配公式计算所得的权重分配给图像中相应类别的loss值的模块,以达到提升编-解码模块在进行语义分割时的精度的目的;
(5-1)利用交叉熵损失函数公式(16)对编码模块输出的特征图信号Foutput与数据集的标签图像进行loss值计算,得到特征图信号中每个类别的loss值:
其中,p(Foutput)为真实像素点概率分布,q(Foutput)为预测像素点概率分布,m表示图像个数,n表示图像中类别的个数,i表示当前第i个图像,j表示当前第j个类别;
(5-2)利用权重分配公式(17-1)-公式(17-3)计算步骤(1)的数据集Cityscapes图像中的每个类别占用的像素点个数计算每个类别的权重,且像素点少的类别将分配较大的权重,以提高编码模块和解码模块在进行语义分割时的精度:
Ei=1/log(Di) (17-1)
Wi=N×(Li-min{L})+(max{L}/Li) (17-3)
其中,Di表示每个类别在所有标签中占据的像素点数量,Ei表示每个类别的像素点数量的对数的权重然后取反,N表示数据集中的类别数;Li表示权重Ei的L1归一化,Li表示由上一个公式计算的每个类别的最终权重,L表示所有类别权重的集合,Wi表示经过公式(17-1)-公式(17-2)计算后的权重;
(5-3)利用公式(18)对步骤(5-1)计算出的loss值赋予步骤(5-2)中计算出的与该loss值相对应的权重,以便进行下一次迭代
lossi=lossi*Wi (18);
当本方法迭代到公式(16)中的loss值不再下降,同时防止出现过拟合问题,迭代次数应当不小于300次时,解码模块输出的特征图信号连接到语义分割预测模块,否则连接到本模块;
(6)由语义分割预测模块对由步骤(4)解码模块输出的特征图信号Foutput进行预测显示:
解码模块输出的特征图信号Foutput不再经过权重分配模块,而是利用双线性插值公式(公知),如式(19)所示,将语义分割预测模块的接收到的解码模块输出的特征图信号Foutput放大至原图尺寸,从而得到语义分割预测结果:
其中,x、y分别为未知像素点的横、纵坐标,f(Q11)、f(Q21)、f(Q12)、f(Q22)均为已知像素点的像素值,x1、x2、y1、y2分别为已知像素点的横纵坐标,最终输出的f(x,y)表示未知像素点的像素值;通过使用双线性插值的方法,即可依次计算出语义分割预测模块接收到的只有1/4原图尺寸的特征图信号放大至与原图相等尺寸时所有像素点的像素值。
2.根据权利要求1所述一种基于深度学习和权重分配的实时语义分割方法,其特征在于所述步骤(1)中的Cityscapes数据集中包含5000张图片,其中2975张图片用于模型训练,500张图片用于验证,1525张图片用于测试;所述Cityscapes数据集具有19个类别的密集像素标注,分别是道路,人行道,墙,栅栏,竿,交通标志,红绿灯,植被,天空,地形,骑手,汽车,卡车,公交汽车,火车,摩托车,自行车,建筑物,行人。
3.根据权利要求1所述一种基于深度学习和权重分配的实时语义分割方法,其特征在于所述步骤(3)的具体实现过程如下:
(3-1)由公式(2)对由步骤(2)得到的图像信号进行通道拆分,并将读取到的特征图信号的特征通道个数记为C,将输入的特征图信号拆分为两个具有C/2个特征通道的特征图信号,得到特征图信号F1和特征图信号F2:
[F1,F2]=SPLIT2(F) (2)
其中,SPLIT2表示将输入的特征图信号以第2维进行拆分,F表示输入的特征图信号;
(3-2)由公式(3)对步骤(3-1)中经过通道拆分后的两个特征图信号分别进行组卷积处理,得到特征图信号和特征图信号由于经过通道拆分,两个组卷积计算所需的参数量相较标准卷积将减少1/2,
其中,Conv1*k(Convk*1())与Convk*7(Conv1*k())表示为组卷积,F1与F2表示步骤(3-1)中输出的两个特征图信号;
(3-3)由公式(4)对步骤(3-2)中经过组卷积处理后的两个特征图信号和特征图信号进行特征图级联,以保证特征图信号通道不变,便于输出到带空洞率的深度可分离卷积进行处理,得到特征图信号FConcat:
其中,Concat2()表示将输入的两个特征图信号以第2维进行级联;
(3-4)由公式(5)对步骤(3-3)中经过特征图级联后的特征图信号FConcat进行带空洞的深度可分离卷积处理,得到处理后的特征图信号FDepthPoint,即:
FDepthPoint=
ReLU(Pointwise(Depthwisei*2(ReLU(Pointwise(Depthwisei(FConcat)))))) (5)
其中,ReLU表示激活函数,Pointwise表示逐点卷积,Depthwisei表示带有i个空洞率的深度卷积;由Pointwise和Depthwisei组成带空洞率的深度可分离卷积;
(3-5)由公式(6)对步骤(3-4)中经过带空洞率的深度可分离卷积处理后的特征图信号FDepthPoint进行通道混洗,以达到特征图信号中的特征复用效果,得到特征图信号Foutput:
Foutput=Shuffle2(F) (6)
其中,Shuffle2表示对输入的特征图信号按第2维进行混洗。
4.根据权利要求3所述一种基于深度学习和权重分配的实时语义分割方法,其特征在于所述步骤(3-1)中的特征通道个数C的区间为3至256。
5.根据权利要求1所述一种基于深度学习和权重分配的实时语义分割方法,其特征在于所述步骤(4)中的特征图信号和特征图信号将分别进入多尺度融合单元,处理过程由以下步骤构成:
(4-1)对编码模块输出的两个特征图信号进行注意力机制处理,以提升解码模块进行语义分割时的精度:
(4-1-1)由公式(7)对编码模块输出的特征图信号和特征图信号进行通道拆分,得到原图尺寸1/8的通道拆分特征图信号和特征图信号以及原图尺寸1/4的通道拆分特征图信号和特征图信号以便后续组卷积对特征图信号特征图信号特征图信号和特征图信号进行处理,达到减少参数量的目的:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号SPLIT2表示对特征图信号进行通道拆分;
(4-1-2)由公式(8-1)-公式(8-4)对步骤(4-1-1)中通道拆分后的特征图信号特征图信号特征图信号和特征图信号进行组卷积处理,得到特征图信号和由于经过通道拆分,两个组卷积计算所需的参数量相交标准卷积将减少1/2:
其中,Conv1*k(Convk*7())与Convk*1(Conv1*2())表示为组卷积;
(4-1-3)由公式(9)对经过组卷积处理后的特征图信号和两两对应相加,便于后续进行注意力机制处理,得到特征图信号F1/8Add和F1/4Add:
(4-1-4)由公式(10-1)和公式(10-2)对相加过后的F1/8Add和F1/4Add进行注意力机制处理,得到特征图信号和特征图信号由于在(4-1-3)中采取的是特征图信号相加策略,因此此处注意力机制计算所需的参数量将减少1/2,同时利用注意力机制还可以提升解码模块在进行语义分割时的精度:
其中,和为编码模块输出的两个特征图信号,分别为原图尺寸1/8时输出的特征图信号以及原图尺寸1/4时输出的特征图信号AvgPool表示全局平均池化,Conv1*1表示1*1卷积,BatchNorm表示批次规范化,ReLU表示激活函数,F1/8Add和F1/4Add表示(4-1-3)中两两相加后的特征图信号;
(4-2)利用公式(11)对编码模块输出的原图尺寸1/8的特征图信号进行全局平均池化处理,以达到后续与(4-1-4)中输出的特征图信号进行多尺度融合的目的;得到特征图信号
其中表示编码模块输出的原图尺寸1/8的特征图信号,AvgPool表示全局平均池化;
(4-3)利用公式(12)对编码模块输出的特征图信号进行3*3卷积处理,得到特征图信号以达到与步骤(4-5)输出的特征图信号FConcat进行多尺度融合的目的;
(4-4)利用公式(13)对步骤(4-1-4)输出的特征图信号和步骤(4-2)输出的特征图信号相加,得到特征图信号以达到提升解码模块进行语义分割时的精度的目的;
(4-5)利用公式(14)对步骤(4-4)得到的特征图信号和步骤(4-1-4)得到特征图信号进行特征图级联操作,以达到多尺度融合的目的,不仅可以提升解码模块进行语义分割时的精度还可以减少解码模块计算时所需的参数量,最后得到经过特征图级联后的特征图信号FConcat:
其中,Concat表示特征图级联;
(4-6)利用公式(15)对步骤(4-5)得到的特征图信号FConcat与步骤(4-3)得到的特征图信号进行点乘处理,得到解码模块的最终输出特征图信号Foutput,并且在特征图信号Foutput具有19个通道的特征图信号,以便后续在权重分配模块与标签图像计算loss值或在语义分割预测模块计算语义分割预测结果
6.根据权利要求1所述一种基于深度学习和权重分配的实时语义分割方法,其特征在于所述注意力聚合单元I和注意力聚合单元II是同一种结构,由组卷积和注意力机制构成;所述注意力聚合单元I的组卷积输入端连接编码模块第五个残差层,接收经第五个残差层处理后的特征图信号,其输出端连接注意力聚合单元I的注意力机制;所述注意力聚合单元I的注意力机制的输入端连接组卷积,接收经组卷积处理后的特征图信号,其输出端连接特征图级联;所述注意力聚合单元II的组卷积输入端连接编码模块的第十三个残差层,接收经第十三个残差层处理后的特征图信号,其输出端连接注意力聚合单元II的注意力机制;所述注意力聚合单元II的注意力机制的输入端连接注意力聚合单元I的组卷积,接收经组卷积处理后的特征图信号,其输出的特征图信号与全局平均池化输出的特征图信号进行相加。
7.一种实现权利要求1所述一种基于深度学习和权重分配的实时语义分割方法的系统,其特征在于它包括以下模块:数据采集模块、数据预处理模块、编码模块、解码模块、权重分配模块和语义分割预测模块;其中,所述数据采集模块对输入图像信号进行采集,并将其输出给数据预处理模块的输入端;所述编码模块的输入端接收数据预处理模块的输出端发出的处理后图像信号,其输出端输出特征图信号,并输出给解码模块的输入端;所述解码模块的输入端接收编码模块的输出端输出的特征图信号,并输出给权重分配模块或语义分割预测模块;所述权重分配模块的输入端接收解码模块输出端输出的特征图信号,并将处理后的预测结果信号反馈到编码模块;所述语义分割预测模块的输入端接收解码模块输出端输出的特征图信号,并输出最终的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111414203.1A CN114067116B (zh) | 2021-11-25 | 2021-11-25 | 一种基于深度学习和权重分配的实时语义分割系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111414203.1A CN114067116B (zh) | 2021-11-25 | 2021-11-25 | 一种基于深度学习和权重分配的实时语义分割系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114067116A CN114067116A (zh) | 2022-02-18 |
CN114067116B true CN114067116B (zh) | 2024-05-17 |
Family
ID=80276299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111414203.1A Active CN114067116B (zh) | 2021-11-25 | 2021-11-25 | 一种基于深度学习和权重分配的实时语义分割系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114067116B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183360A (zh) * | 2020-09-29 | 2021-01-05 | 上海交通大学 | 高分辨率遥感影像的轻量化语义分割方法 |
CN112330681A (zh) * | 2020-11-06 | 2021-02-05 | 北京工业大学 | 一种基于注意力机制的轻量级网络实时语义分割方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112991354A (zh) * | 2021-03-11 | 2021-06-18 | 东北大学 | 一种基于深度学习的高分辨率遥感影像语义分割方法 |
CN113421269A (zh) * | 2021-06-09 | 2021-09-21 | 南京瑞易智能科技有限公司 | 一种基于双分支深度卷积神经网络的实时语义分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102215757B1 (ko) * | 2019-05-14 | 2021-02-15 | 경희대학교 산학협력단 | 이미지 세그멘테이션 방법, 장치 및 컴퓨터 프로그램 |
-
2021
- 2021-11-25 CN CN202111414203.1A patent/CN114067116B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183360A (zh) * | 2020-09-29 | 2021-01-05 | 上海交通大学 | 高分辨率遥感影像的轻量化语义分割方法 |
CN112330681A (zh) * | 2020-11-06 | 2021-02-05 | 北京工业大学 | 一种基于注意力机制的轻量级网络实时语义分割方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
CN112991354A (zh) * | 2021-03-11 | 2021-06-18 | 东北大学 | 一种基于深度学习的高分辨率遥感影像语义分割方法 |
CN113421269A (zh) * | 2021-06-09 | 2021-09-21 | 南京瑞易智能科技有限公司 | 一种基于双分支深度卷积神经网络的实时语义分割方法 |
Non-Patent Citations (1)
Title |
---|
一种新的多尺度深度学习图像语义理解方法研究;蒋应锋;张桦;薛彦兵;周冕;徐光平;高赞;光电子·激光;20161231;第27卷(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114067116A (zh) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993082B (zh) | 卷积神经网络道路场景分类与道路分割方法 | |
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
Liu et al. | RELAXNet: Residual efficient learning and attention expected fusion network for real-time semantic segmentation | |
CN112541503A (zh) | 基于上下文注意力机制和信息融合的实时语义分割方法 | |
CN105956626A (zh) | 基于深度学习的对车牌位置不敏感的车牌识别方法 | |
CN111639524B (zh) | 一种自动驾驶图像语义分割优化方法 | |
CN107679462A (zh) | 一种基于小波的深度多特征融合分类方法 | |
CN112561027A (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
Zhuang et al. | LRDNet: A lightweight and efficient network with refined dual attention decorder for real-time semantic segmentation | |
CN113269133A (zh) | 一种基于深度学习的无人机视角视频语义分割方法 | |
CN110210027B (zh) | 基于集成学习的细粒度情感分析方法、装置、设备及介质 | |
CN113255678A (zh) | 一种基于语义分割的道路裂缝自动识别方法 | |
CN117237559B (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN112733693B (zh) | 一种全局感知高分辨率遥感影像多尺度残差道路提取方法 | |
CN112819000A (zh) | 街景图像语义分割系统及分割方法、电子设备及计算机可读介质 | |
CN114373073A (zh) | 一种用于道路场景语义分割的方法及系统 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN112668638A (zh) | 一种图像美学质量评估和语义识别联合分类方法及系统 | |
CN115546489B (zh) | 基于跨模态特征强化与交互的多模态图像语义分割方法 | |
Lu et al. | MFNet: Multi-feature fusion network for real-time semantic segmentation in road scenes | |
CN116071668A (zh) | 基于多尺度特征融合的无人机航拍图像目标检测方法 | |
CN114299286A (zh) | 一种异常天气下基于类别分组的道路场景语义分割方法 | |
CN112215231A (zh) | 一种结合空间深度卷积和残差结构的大尺度点云语义分割方法 | |
CN116092034A (zh) | 一种基于改进的DeeplabV3+模型的车道线检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |