CN112785525B - 基于深度学习去除刀具刃口图像中的附着物的方法和系统 - Google Patents
基于深度学习去除刀具刃口图像中的附着物的方法和系统 Download PDFInfo
- Publication number
- CN112785525B CN112785525B CN202110106827.0A CN202110106827A CN112785525B CN 112785525 B CN112785525 B CN 112785525B CN 202110106827 A CN202110106827 A CN 202110106827A CN 112785525 B CN112785525 B CN 112785525B
- Authority
- CN
- China
- Prior art keywords
- convolution
- attachments
- image
- input
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 37
- 230000004913 activation Effects 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 claims abstract description 11
- 230000006403 short-term memory Effects 0.000 claims abstract description 9
- 230000007787 long-term memory Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000005520 cutting process Methods 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims 2
- 230000000694 effects Effects 0.000 abstract description 9
- 238000001514 detection method Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 abstract description 7
- 230000001737 promoting effect Effects 0.000 abstract description 3
- 230000004044 response Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 230000001464 adherent effect Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 229920000742 Cotton Polymers 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
技术领域
本发明属于刀具刃口图像处理领域,具体是指一种基于深度学习去除刀具刃口图像中的附着物的方法及系统。
背景技术
分切是电动汽车动力电池生产的一个重要生产工艺,分切刀具的质量是影响分切的电极片质量的重要因素,确保分切刀具刃口豁口数量和大小在安全阈值下才能保证电池极片切割中产生的毛刺不至于引起短路风险。因此,对于刀具豁口的检测十分重要。由于刀具有油易于粘附,使用、转运和现场检测环境洁净度无法得到保证,在刃口处易粘连金属附着物、毛发和棉絮等位置和形态各异的附着物,刃口附着物存在影响了显微成像时自动对焦和清晰成像,导致显微图像拼接失败,形成刀具伪边缘,增加豁口误检率,严重影响系统检测精度。现有技术有基于深度学习去除附着物方法,缺乏对目标的针对性学习,导致计算资源浪费在背景等无关特征上;然而工业现场的计算资源有限,模型的参数量巨大导致模型在处理大尺寸图片时耗费大量时间,严重耽误生产效率。且现有技术缺乏对图像中局部与全局之间的特征依赖关系的提取,存在去除效果差,甚至无法去除附着物的缺点,因此提高刀具刃口图像的附着物去除模型性能十分重要。
发明内容
本发明目的在于提供一种基于深度学习去除刀具刃口图像中的附着物的方法和系统,以准确检测并去除刀具刃口附着物,保证刀具豁口检测有效性和精度。
实现上述目的的技术方案为,
一种基于深度学习去除刀具刃口图像中的附着物的方法,包括采集含附着物和擦拭干净的刀具刃口图像并生成数据集,还包括以下步骤,
步骤一,采用3×3卷积和激活函数对输入的含附着物图片的浅层特征提取和通道提升;在输入特征两边界进行卷积之前,为保证特征图在卷积过程中尺寸大小不变和保持边界信息,采取了补1操作。
步骤二,采用长短期记忆网络提取附着物递归去除过程中的时序信息;长短期记忆网络改进了原始的递归神经网络,通过对门单元的控制,从而决定流动特征的取舍或遗忘,有效地解决了网络训练过程中的梯度爆炸和丢失问题。
步骤三,对输入的含附着物图片的引入自注意力模块进行深层特征提取;采用普通的残差模块提取深层特征,缺少了自注意力机制的引导,导致附着物粘连的边缘出现扭曲现象,而自注意力模块能有效提取附着物特征,更好分辨图像中的刀具部分和附着物部分。
步骤四,通过3×3的卷积,逐通道进行卷积,整合特征获得输出附着物去除后的3通道图像。
进一步,所述步骤三中,提取深层特征时采用数个深度可分离卷积残差模块中穿插1个自注意力模块。自注意力机制可以作为图像响应的向导,在输入的特征序列中,分别计算某特征在任意位置的响应,从而获得全局信息,动态调节特征图谱中的网络权值,达到聚焦于附着物区域的效果。
进一步,所述深度可分离卷积残差模块数量为5个。选取合适的模块数量确保在计算时间和去除效果上取得平衡。
进一步,所述深度可分离卷积残差模块由3×3深度卷积、激活函数ReLU6和1×1点卷积依次构成。ReLU6激活函数的最大响应限制在6。避免了因激活响应太大,导致在低精度工业设备上单精度浮点和整形运算时,出现精度丢失的现象。
进一步,步骤一所述的激活函数为ReLU激活函数。
进一步,步骤一至步骤四采用结构相似度的相反数作为损失函数用来减少因附着物误去除产生的噪点。
一种基于深度学习去除刀具刃口图像中的附着物的系统,包括
浅层特征提取模块,由3×3卷积和激活函数组成,用于提取输入图片的浅层特征和通道提升;
长短期记忆网络,用于提取附着物递归去除过程中的时序信息,增强网络在时间维度上的特征提取能力;
自注意力机制的深层特征提取模块,数个深度可分离卷积残差模块中穿插1个自注意力模块,用自注意力机制对残差模块进行引导,降低附着物粘连的边缘扭曲现象。
进一步,所述深度可分离卷积残差模块数量为5个。
进一步,所述深度可分离卷积残差模块由3×3深度卷积、激活函数ReLU6和1×1点卷积依次构成。
进一步,还包括网络损失函数,以结构相似度的相反数作为网络损失函数用来减少因附着物误去除产生的噪点。
本案在去除刀具刃口图像中的附着物工业应用中存在以下部分或全部技术效果:
一是刀具图片中纹理特征较少,本案引入深度可分离卷积,对比普通的PReNet递归神经网络,使用本案降低了90%参数量和计算量,符合工业现场的速度需求;
二是引入了自注意力机制,提高了特征图通道中的附着物定位能力,使附着物与刀具边缘的衔接部分更平滑,说明去除效果显著,提升了刀具豁口检测系统精度。
附图说明
图1为本发明的总流程图;
图2为本发明的具体实施中建立的整体网络结构示意图;
图3为图2所示的附着物去除模块结构示意图;
附着物去除模块包括Conv3x3(即3×3卷积)和ReLU构成的浅层特征提取模块、LSTM(即长短期记忆网络提取模块)、DESA(即基于自注意力机制的深层特征提取模块)和Conv3x3(即3×3卷积)构成的特征整合模块;
图4为图3所示的DESA(即基于自注意力机制的深层特征提取模块)的结构示意图;
图5为图4所示的Self-Attention(即自注意力机制)示意图;
图6为图4所示的DSRB(即深度可分离卷积残差模块)结构示意图;
图7为本发明实施例中的实验使用到的刀具刃口无任何附着物的原始图像;
图8为本发明实施例中的实验使用到的刀具刃口沾染附着物后的图像;
图9为使用本发明具体实施的方法和系统对图8图像中的附着物进行去除后的图像;
图10为使用普通的PReNet递归神经网络对图8图像中的附着物进行去除后的图像。
具体实施方式
以下结合实验中应用本发明对刀具刃口图像附着物去除的说明对本发明进行详细具体的说明,本发明的整体流程图如图1所示,实施步骤如下:
1)制作实验数据集:
实验使用放大倍数为10的蔡司物镜,靶面尺寸为1.1英寸的Basler工业相机,构成0.345微米/像素精度的光学系统。采集外径约为110mm,内径约为90mm的某型号动力电池分切刀具。实验从312套刀具图片中(每套300张4096*2160分辨率图片),收集了567张含附着物4k分辨率图片,其中包含训练集510张,测试集57张。对含有附着物部分进行随机裁剪,生成尺寸为100×100含附着物和对应的无附着物图片,共3478对,其中包含训练集3130对,测试集占348对。
2)搭建深度学习网络模型
参见图1至图3,本发明实施中刀具附着物去除网络包括附着物去除模块,该附着物去除模块包括由3×3卷积和ReLU激活函数构成的浅层特征提取模块、LSTM长短期记忆网络提取模块、DESA自注意力机制的深层特征提取模块和由3×3卷积构成的特征整合模块,其中递归T次后的输出图像公式如下:
如公式(1)所示,XO为输入的附着物图片,F(X1,X2)为附着物图像到无附着物图像的非线性映射操作,YT为递归T次后的附着物去除图像,n为总递归次数。当T=1时,F(X1,X2)输入为两张相同附着物原图XO;当T=n时,F(X1,X2)输入为XO和YT-1;
2a)浅层特征提取模块的建立
本实施例中,浅层特征提取模块由3×3卷积和激活函数组成,用于提取输入图片的浅层特征和通道提升,用X0和F0分别表示网络的输入图片和输出特征,浅层特征提取可用式(2)表示。
F0=σ(W0*X0+b0), (2)
其中,*表示卷积操作,W0表示3×3卷积核,b0为偏置,σ为激活函数,F0表示输入附着物图片X0提取的浅层特征。在输入特征两边界进行卷积之前,为保证特征图在卷积过程中尺寸大小不变和保持边界信息,采取了补1操作。
2b)长短期记忆网络的建立
针对刀具附着物缺乏形状特征和纹理信息的问题,本发明采用长短期记忆网络提取附着物递归去除过程中的时序信息,增强网络在时间维度上的特征提取能力。长短期记忆网络改进了原始的递归神经网络,通过对门单元的控制,从而决定流动特征的取舍或遗忘,有效地解决了网络训练过程中的梯度爆炸和丢失问题。其中,长短期记忆网络单元的隐藏层中的遗忘门f、输入门i、候选细胞态输出门o实现公式如下:
ft=σ(Wf*[ht-1,xt]+bf), (3)
it=σ(Wi*[ht-1,xt]+bi), (4)
ot=σ(Wo*[ht-1,xt]+bo), (6)
其中,*表示卷积操作,ht-1和xt分别为上一次LSTM层的输出特征和本次的输入图片,Wf、Wi、WC和Wo均为3×3卷积核,bf、bi、bC和bo为对应变量的偏置值,σ为sigmoid激活函数。鉴于输入图片为3通道灰度图,通道之间的冗余信息较多。因此,本案采用3×3深度可分离卷积计算以上的四个权重矩阵和偏置值。当前时刻t下的细胞态Ct和长短期记忆单元的输出ht公式如下:
ht=ot·tanh(Ct), (8)
其中,Ct-1和为上一时刻的细胞态和当前时刻的候选细胞态,Ct为上一时刻细胞态与遗忘门乘积再叠加输入门与待选细胞态的乘积,长短期记忆网络细胞输出ht为输出门与当前时刻细胞态由tanh激活后的乘积。实验表明,在递归网络PReNet中长短期记忆网络层具有优越性;
2c)自注意力机制的深层特征提取模块的建立
刀具附着物分布在刀具和白色光源的交界处,普通残差模块在特征提取过程中,缺乏刀具边界的针对性学习。本案的数据集背景纹理特征较少,较为相似,难以区分图像中的刀具部分和附着物部分。采用普通的残差模块提取深层特征,缺少了自注意力机制的引导,导致附着物粘连的边缘出现扭曲现象,而自注意力模块能有效提取附着物特征,更好分辨图像中的刀具部分和附着物部分。因此,为解决上述问题,本案在深层特征提取过程中引入自注意力模块。由于自注意力模块具有较强的特征提取能力且自注意力模块计算量相对较大,只需增加一个便可达到较大的效果提升。参见图4,本实例中自注意力机制的深层特征提取模块由5个深度可分离卷积残差块和1个自注意力模块组成。首先,由两个深度可分离卷积残差块提取刀具边缘与附着物的混合特征;然后自注意力模块根据特征动态调整权值,聚焦于附着物与刀具边缘连接区域;最后,由三个深度可分离卷积残差块模块进一步提取附着物的深层位置特征;
参见图5,本发明实施例中,自注意力特征提取模块包含三种向量:Q(待查询特征)、K(被查询特征的全局依赖关系)和V(被查询特征),计算公式分别如式(9)、式(10)和式(11)所示。
Q=x*Wq, (9)
K=x*Wk, (10)
V=x*Wv, (11)
其中,*表示卷积操作,x为输入特征,Wq、Wk和Wv均为1×1卷积核。特征通过1×1卷积后,Q和K向量的输入通道从32降低到8通道,V向量从32降低到16通道。最后自注意力输出的公式为:
Q与KT相乘后得到一个10000*10000的权重矩阵,再经过权值系数调整后,由Softmax激活,构建出输入图片的全尺寸权重矩阵。在自注意力模块中,首先,特征Q任意位置的依赖关系在特征K上构建逐一对应关系;然后,输入的特征图谱Q以转置相乘的方式和K共同构成全局依赖关系字典;最后,在全局依赖关系字典中,查得被查询特征V上的某位置的真实响应,从而得到增强后的注意力特征。自注意力机制可以作为图像响应的向导,在输入的特征序列中,分别计算某特征在任意位置的响应,从而获得全局信息,动态调节特征图谱中的网络权值,达到聚焦于附着物区域的效果;
参见图6,本发明实施中深度可分离卷积残差模块主要由两个深度可分离卷积组成。由于本案刀具图片的背景特征单一,无需对特征维度做进一步缩放,因此深度可分离卷积中的通道扩展系数设为1。深度可分离卷积模块由3×3深度卷积、1×1点卷积和激活函数ReLU6构成。同时,为防止信息过度丢失,特征通过点卷积后没有使用ReLU6激活函数。其中,ReLU6激活函数与ReLU激活函数区别在于ReLU6激活函数的最大响应限制在6。避免了因激活响应太大,导致在低精度工业设备上单精度浮点和整形运算时,出现精度丢失的现象。
为比较深度可分离卷积与普通卷积的参数量,假设输入特征图的尺寸为H×W×M,卷积核尺寸为DK×DK×M,输出的特征图尺寸为H×W×N。则标准卷积层的参数量Psconv计算公式如式(13)所示:
Psconv=DK×DK×M×N, (13)
而深度可分离卷积的参数量Pdsconv计算公式如式(14)所示:
Pdsconv=DK×DK×M+M×N, (14)
因此,深度可分离卷积与标准卷积之间的比值β如式(15)所示:
如式(15)可见,与普通卷积相比,深度可以分离卷积能减少大量参数,而且随着卷积核尺寸增大,深度可分离卷积能指数性减少参数量。本案深度卷积采用的卷积核大小为3×3,即DK为3,带入公式(15)可得,深度可分离卷积残差块能减少大88.9%参数量;
2d)特征整合模块的建立
特征整合模块把上一级的深层特征进行整合,通过3×3的卷积,逐通道进行卷积,把维度从32降到与输入附着物图片维度一致,图片尺寸与输入图片保持不变,输出附着物去除后的3通道图像。
YT=Wo*R(x)+bo, (16)
如式(16)中所示,YT为递归第T次的附着物去除图片,Wo为3×3的卷积核,R(x)表示网络学习到的无附着物的深层特征,bo为输出的偏置;
3)训练附着物去除模型
3a)本发明的损失函数定义为LSSIM,结构相似度用于评价两幅图像间的结构相似性。结构相似度相比于均方误差,在模型训练初期能学习到图片的结构信息,减少因附着物误去除产生的噪点,且收敛速度更快。其中结构相似度的计算公式如下:
其中,μXT和分别为递归循环T次后的输入图片X的均值和方差,和分别是附着物标准去除图片XGT的均值和方差,为递归循环T次后的输入图片XT和附着物标准去除图片XGT的协方差,C1和C2为常数,分别取值为0.01和0.03用于防止计算中分母为零的情况。最后以结构相似度的相反数作为损失函数,记为LSSIM:
LSSIM(XT,XGT)=-SSIM(XT,XGT), (18)
3b)使用Adam优化器,初始学习率设置为0.0001,共训练100epoch,并在第40、60、80epoch下降低学习率为当前学习率的一半。
3c)使用1)中的数据集和2)中的网络模型进行训练,其中训练过程采用3a)中的损失函数和3b)中的优化器对网络中的参数进行优化,直至网络损失下降至浮动不大为止。
4)将测试集中的待去附着物的刀具刃口图片输入训练好的附着物去除网络中,得到去除附着物后的刀具刃口图像。
实验结果分析:
参见图7至图10,图7与图8对比显示:刀具刃口沾染了附着物后,其图像必然会导致严重影响系统对豁口位置和大小的检测精准度;图10、图9分别与图7对比显示:使用本案的方法和系统去除图像中的附着物相对使用普通的递归网络明显获得了更加接近理想刀具刃口图像,因此系统可以获得更加精确的豁口位置和大小的信息,可见本案的去除附着物具有速度快效果更好的优点。
Claims (10)
1.一种基于深度学习去除刀具刃口图像中的附着物的方法,包括采集含附着物和擦拭干净的刀具刃口图像并生成数据集,其特征为,还包括以下步骤,
步骤一,采用3×3卷积和激活函数对输入的含附着物图片的浅层特征提取和通道提升,浅层特征提取可用式(2)表示,
F0=σ(W0*X0+b0), (2)
其中,*表示卷积操作,W0表示3×3卷积核,b0为偏置,σ为激活函数,F0表示输入附着物图片X0提取的浅层特征;
ft=σ(Wf*[ht-1,xt]+bf), (3)
it=σ(Wi*[ht-1,xt]+bi), (4)
ot=σ(Wo*[ht-1,xt]+bo), (6)
其中,*表示卷积操作,ht-1和xt分别为上一次LSTM层的输出特征和本次的输入图片,Wf、Wi、WC和Wo均为3×3卷积核,bf、bi、bC和bo为对应变量的偏置值,σ为sigmoid激活函数,鉴于输入图片为3通道灰度图,通道之间的冗余信息较多,因此,本案采用3×3深度可分离卷积计算以上的四个权重矩阵和偏置值,当前时刻t下的细胞态Ct和长短期记忆单元的输出ht公式如下:
ht=ot·tanh(Ct), (8)
步骤三,对输入的含附着物图片的引入自注意力模块进行深层特征提取,自注意力特征提取模块包含三种向量:Q(待查询特征)、K(被查询特征的全局依赖关系)和V(被查询特征),计算公式分别如式(9)、式(10)和式(11)所示,
Q=x*Wq, (9)
K=x*Wk, (10)
V=x*Wv, (11)
其中,*表示卷积操作,x为输入特征,Wq、Wk和Wv均为1×1卷积核,特征通过1×1卷积后,Q和K向量的输入通道从32降低到8通道,V向量从32降低到16通道,最后自注意力输出的公式为:
步骤四,通过3×3的卷积,整合通道的特征,输出附着物去除后的刀具刃口图像,具体包括,将上一级的深层特征进行整合,通过3×3的卷积,逐通道进行卷积,把维度从32降到与输入附着物图片维度一致,图片尺寸与输入图片保持不变,输出附着物去除后的3通道图像。
2.根据权利要求1所述的基于深度学习去除刀具刃口图像中的附着物的方法,其特征为,所述步骤三中,提取深层特征时采用数个深度可分离卷积残差模块中穿插1个自注意力模块。
3.根据权利要求2所述的基于深度学习去除刀具刃口图像中的附着物的方法其特征为,所述深度可分离卷积残差模块数量为5个。
4.根据权利要求2或3所述的基于深度学习去除刀具刃口图像中的附着物的方法其特征为,所述深度可分离卷积残差模块由3×3深度卷积、激活函数ReLU6和1×1点卷积依次构成。
5.根据权利要求1所述的基于深度学习去除刀具刃口图像中的附着物的方法其特征为,步骤一所述的激活函数为ReLU激活函数。
6.根据权利要求1所述的基于深度学习去除刀具刃口图像中的附着物的方法其特征为,步骤一至步骤四采用结构相似度的相反数作为损失函数用来减少因附着物误去除产生的噪点。
7.一种基于深度学习去除刀具刃口图像中的附着物的系统,其特征为,包括
浅层特征提取模块,由3×3卷积和激活函数组成,用于提取输入图片的浅层特征和通道提升,浅层特征提取可用式(2)表示,
F0=σ(W0*X0+b0), (2)
其中,*表示卷积操作,W0表示3×3卷积核,b0为偏置,σ为激活函数,F0表示输入附着物图片X0提取的浅层特征;
ft=σ(Wf*[ht-1,xt]+bf), (3)
it=σ(Wi*[ht-1,xt]+bi), (4)
ot=σ(Wo*[ht-1,xt]+bo), (6)
其中,*表示卷积操作,ht-1和xt分别为上一次LSTM层的输出特征和本次的输入图片,Wf、Wi、WC和Wo均为3×3卷积核,bf、bi、bC和bo为对应变量的偏置值,σ为sigmoid激活函数,鉴于输入图片为3通道灰度图,通道之间的冗余信息较多,因此,本案采用3×3深度可分离卷积计算以上的四个权重矩阵和偏置值,当前时刻t下的细胞态Ct和长短期记忆单元的输出ht公式如下:
ht=ot·tanh(Ct), (8)
自注意力机制的深层特征提取模块,包含三种向量:Q(待查询特征)、K(被查询特征的全局依赖关系)和V(被查询特征),计算公式分别如式(9)、式(10)和式(11)所示,
Q=x*Wq, (9)
K=x*Wk, (10)
V=x*Wv, (11)
其中,*表示卷积操作,x为输入特征,Wq、Wk和Wv均为1×1卷积核,特征通过1×1卷积后,Q和K向量的输入通道从32降低到8通道,V向量从32降低到16通道,最后自注意力输出的公式为:
特征整合模块:将上一级的深层特征进行整合,通过3×3的卷积,逐通道进行卷积,把维度从32降到与输入附着物图片维度一致,图片尺寸与输入图片保持不变,输出附着物去除后的3通道图像。
8.根据权利要求7所述的基于深度学习去除刀具刃口图像中的附着物的系统,其特征为,所述深度可分离卷积残差模块数量为5个。
9.根据权利要求7或8所述的基于深度学习去除刀具刃口图像中的附着物的系统,其特征为,所述深度可分离卷积残差模块由3×3深度卷积、激活函数ReLU6和1×1点卷积依次构成。
10.根据权利要求7所述的基于深度学习去除刀具刃口图像中的附着物的系统,其特征为,还包括网络损失函数,以结构相似度的相反数作为网络损失函数用来减少因附着物误去除产生的噪点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110106827.0A CN112785525B (zh) | 2021-01-26 | 2021-01-26 | 基于深度学习去除刀具刃口图像中的附着物的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110106827.0A CN112785525B (zh) | 2021-01-26 | 2021-01-26 | 基于深度学习去除刀具刃口图像中的附着物的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112785525A CN112785525A (zh) | 2021-05-11 |
CN112785525B true CN112785525B (zh) | 2022-08-16 |
Family
ID=75758007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110106827.0A Active CN112785525B (zh) | 2021-01-26 | 2021-01-26 | 基于深度学习去除刀具刃口图像中的附着物的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112785525B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN111627004A (zh) * | 2020-05-25 | 2020-09-04 | 广东智源机器人科技有限公司 | 餐具的清洁度的检测方法、检测设备、存储介质与处理器 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11506877B2 (en) * | 2016-11-10 | 2022-11-22 | The Trustees Of Columbia University In The City Of New York | Imaging instrument having objective axis and light sheet or light beam projector axis intersecting at less than 90 degrees |
JP7200572B2 (ja) * | 2018-09-27 | 2023-01-10 | 株式会社アイシン | 付着物検出装置 |
EP3955803A1 (en) * | 2019-06-09 | 2022-02-23 | Canfield Scientific, Incorporated | Hair analysis methods and apparatuses |
CN111079837B (zh) * | 2019-12-16 | 2022-06-28 | 桂林电子科技大学 | 一种用于二维灰度图像检测识别分类的方法 |
CN111062892B (zh) * | 2019-12-26 | 2023-06-16 | 华南理工大学 | 一种基于复合残差网络和深层监督的单幅图像去雨方法 |
CN111122587B (zh) * | 2020-01-19 | 2022-06-28 | 南京理工大学 | 一种基于视觉特征提取的刀具损伤检测方法 |
CN111861910A (zh) * | 2020-06-29 | 2020-10-30 | 深圳高性能医疗器械国家研究院有限公司 | 一种ct图像降噪系统及方法 |
-
2021
- 2021-01-26 CN CN202110106827.0A patent/CN112785525B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN111627004A (zh) * | 2020-05-25 | 2020-09-04 | 广东智源机器人科技有限公司 | 餐具的清洁度的检测方法、检测设备、存储介质与处理器 |
Also Published As
Publication number | Publication date |
---|---|
CN112785525A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516670B (zh) | 基于场景级与区域建议自注意模块的目标检测方法 | |
CN112308158A (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN107291945B (zh) | 基于视觉注意力模型的高精度服装图像检索方法及系统 | |
CN106202329B (zh) | 样本数据处理、数据识别方法和装置、计算机设备 | |
Wang et al. | Real-time underwater onboard vision sensing system for robotic gripping | |
CN109214353B (zh) | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 | |
CN111126386A (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
US11275966B2 (en) | Calculation method using pixel-channel shuffle convolutional neural network and operating system using the same | |
CN107679501B (zh) | 一种基于标签自提纯的深度学习方法 | |
CN112115879B (zh) | 一种遮挡敏感的自监督行人重识别方法及系统 | |
WO2022127814A1 (zh) | 一种图像的显著性物体检测方法、装置、设备及存储介质 | |
CN115830387A (zh) | 一种模型训练方法、训练装置、分类方法及分类装置 | |
CN112766378A (zh) | 一种专注细粒度识别的跨域小样本图像分类模型方法 | |
CN116977844A (zh) | 一种轻量级水下目标实时检测方法 | |
Zheng et al. | Differential-evolution-based generative adversarial networks for edge detection | |
CN111709433A (zh) | 一种多特征融合图像识别算法 | |
CN112785525B (zh) | 基于深度学习去除刀具刃口图像中的附着物的方法和系统 | |
CN114926826A (zh) | 场景文本检测系统 | |
CN107578445B (zh) | 基于卷积特征谱的图像可判别区域提取方法 | |
CN114037666A (zh) | 一种数据集扩充和阴影图像分类辅助的阴影检测方法 | |
CN112364747A (zh) | 一种有限样本下的目标检测方法 | |
CN117011515A (zh) | 基于注意力机制的交互式图像分割模型及其分割方法 | |
CN116958809A (zh) | 一种特征库迁移的遥感小样本目标检测方法 | |
CN113449751B (zh) | 基于对称性和群论的物体-属性组合图像识别方法 | |
Okamoto et al. | Generating Smooth Interpretability Map for Explainable Image Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |