CN114627290A - 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 - Google Patents
一种基于改进DeepLabV3+网络的机械零部件图像分割算法 Download PDFInfo
- Publication number
- CN114627290A CN114627290A CN202210184465.1A CN202210184465A CN114627290A CN 114627290 A CN114627290 A CN 114627290A CN 202210184465 A CN202210184465 A CN 202210184465A CN 114627290 A CN114627290 A CN 114627290A
- Authority
- CN
- China
- Prior art keywords
- feature
- convolution
- segmentation
- layer
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于改进DeepLabV3+网络的机械零部件图像分割算法。包括:首先,在主干网络中引入注意力机制来提升有效特征信息的重要性,增强对零部件目标的学习能力。其次,增加底层特征来源以充分利用特征融合分支进行自适应学习低级特征的空间信息,并且将原4倍上采样操作分解为逐层上采样,减少了重要像素信息的丢失。最后,使用不对称卷积来增强解码层中3×3卷积的核骨架部分,提高了卷积核的处理能力以及模型精度。本发明方法实现了对零部件图像中的零部件区域的准确分割,有效弥补了传统DeepLabV3+对零部件图像分割时存在边缘分割模糊、不完全分割的问题,同时具有一定的实时性,提升工业化效率。
Description
技术领域
本发明涉及深度学习和计算机视觉技术领域,具体的说是一种基于改进DeepLabV3+网络的机械零部件图像分割算法。
背景技术
零件的识别分割作为工业机器人智能抓取视觉任务的重要组成部分,其分割结果将对抓取任务的顺利进行产生极大的影响。在对零部件识别分割的研究中,先是使用HOG算法、Canny边缘检测和Sobel算子等传统算法进行特征提取,但这些传统方法的零件特征识别精度主要取决于人工选择特征提取法的质量,且在多目标机械零部件图像中识别效果不佳;随着卷积神经网络算法被逐步提出,提取零部件图像区域的方法常为目标检测或语义分割,目标检测方法中常用R-CNN,SS和YOLO系列等,但由于实际场景中零件种类繁多,目标检测方法难以提取目标轮廓和特定区域,但语义分割方法可以,常用方法为SegNet,U-Net和DeepLab系列等,但在分割的过程中,由于部分零部件图像与背景相似,局部遮挡等问题,增加了分割难度。
发明内容
针对传统DeepLabV3+分割零部件图像时存在零件边缘分割模糊,不完全分割等问题,造成最终图像分割准确率低的问题,提出了一种基于改进DeepLabV3+网络的机械零部件图像分割算法,减少零部件图像分割结果中边界信息模糊,提高零部件分割算法的准确度,以适应目前工业化的零部件图像分割。实验结果显示本文的算法模型能够取得不错的分割效果,对零部件图像分割具有一定的参考意义。
本发明为实现上述目的所采用的技术方案是:一种基于改进DeepLabV3+网络的机械零部件图像分割算法,包括以下步骤:
步骤一:采集原始零部件图像;对零部件原始图像中出现的1个或多个零部件边界进行分割标注得到人工分割图像,将原始图像与人工分割图像共同建立零部件图像数据集;
步骤二:对零部件图像和人工分割图像分别进行数据增强处理扩充样本图像,再按比例随机划分为训练集、验证集和测试集;
步骤三:搭建改进DeepLabV3+的语义分割模型,包括编码层和解码层;编码层包括MobileNetV2和通道注意力模块、自适应空间特征融合模块ASFF、空间金字塔池模块ASPP、1×1卷积模块,用于将特征图尺寸缩小,提取信息进行零部件边界分割;解码层包括1×1卷积模块、上采样操作、非对称卷积模块,用于逐步恢复空间维度,输出同尺寸的边界分割结果图;
步骤四:设置网络训练参数,将训练集图片输入改进DeepLabV3+的语义分割网络进行训练,利用验证集进行验证,得到优化的网络模型;
步骤五:利用优化的DeepLabV3+语义分割模型对测试集中的零部件图像进行识别预测,得到机械零部件分割结果图。
所述数据增强包括旋转、平移和添加噪声操作。
所述旋转包括水平翻转、垂直翻转、±60°、±90°、±210°、±240°的旋转;所述平移包括右移100像素、下移100像素;以及添加0.001,0.002,0.003的椒盐噪声;最后将增强后的数据集样本按8:1:1的比例随机划分为训练集、验证集和测试集。
所述MobileNetV2和通道注意力模块,将输入的样本图像进行处理,输出原图1/4大小的底层特征图、三个不同大小的特征层级图以及原图1/16大小的高层语义特征图;其中三个不同大小的特征层级图输入到ASFF模块后输出融合特征图至解码层;高层语义特征输入到ASPP结构中,并行经过1×1卷积,空洞率为6,12,18的空洞卷积继续提取特征以及全局平均池化后对特征图进行融合再输出至1×1卷积模块,得到的高层语义特征图进入解码层;
所述编码层输出的底层特征图经过1×1卷积后与ASFF融合特征图进行相加操作;然后与编码层获得的高层语义特征图进行逐层2倍双线性插值上采样后的特征图进行融合操作;之后对融合后的特征图采用非对称卷积,再经过逐层2倍上采样操作后输出最终的分割预测结果图。
所述ASFF模块进行处理的步骤包括:
以三个不同大小的特征层级图为输入,分别记为x1,x2,x3,通过3×3卷积进行下采样操作将特征层级x2和x3调整与x1的大小相同;
对尺寸调整后的特征层级图x1,x2,x3按照融合特征公式来自适应学习各空间权重信息,得到融合特征图yl;所述l级融合特征公式如下:
所述逐层2倍双线性插值上采样替换原4倍上采样用于像素的连续性,减少重要像素信息的丢失。
所述网络训练参数包括:训练次数epoch设为100,初始学习率设为0.007,学习策略采用“poly”,Batchsize设置为2,初始动量为0.9,使用交叉熵损失函数,同时选择随机梯度下降优化算法进行训练。
本发明具有以下有益效果及优点:
本文方法以MobilenetV2替换原先的骨干网络,满足了工业化场景下的实时性需求;对于骨干网络中增加的通道注意力机制,能够增强网络对目标的学习能力;对于增加的自适应空间特征融合模块,充分利用多尺度特征的特征信息,获取更多的目标信息;对于逐层上采样操作能够保证像素连续,减少重要像素信息的丢失;最后使用非对称卷积来增强3×3卷积的核骨架部分,提高卷积核的处理能力以及模型精度,最终本文方法能以较高的准确度分割出零部件图像。
附图说明
图1为本发明方法的整体流程示意图;
图2为本发明方法中使用的通道注意力模块示意图;
图3为本发明方法一种基于改进DeepLabV3+网络的结构示意图;
图4为本发明实施例中方法中一种基于改进DeepLabV3+网络的机械零部件图像分割算法识别遮挡零件的效果示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方法做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
除非另有定义,本文所使用的所有技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
图1是本发明流程图。
步骤一:数据准备
对零部件进行随机摆放,然后使用工业相机得到原始零部件图像;使用Labelme软件对零部件原始图像中的零部件边界及部分零件中心圆轮廓进行分类标注(即按照所需要识别的零部件按照种类进行分别标注),得到人工分割图像,原始图像同人工分割图像共同建立零部件图像数据集。
步骤二:数据增强处理
对零部件图像和人工分割图像分别进行旋转、平移和添加噪声等数据增强处理后得到样本图像,将所有样本图像按比例随机划分为训练集、验证集和测试集;数据增强是指通过一系列随机变换对原始数据集进行扩充,从而提高数据量的方法,本系统采用一些随机的图像处理方法对原始数据集进行扩充,包括水平翻转、垂直翻转、±60°、±90°、±210°、±240°的旋转、右移100像素、下移100像素以及添加0.001,0.002,0.003的椒盐噪声,提高网络的泛化能力;最后将增强后的数据集样本按8:1:1的比例随机划分为训练集、验证集和测试集。
步骤三:搭建分割模型
DeepLabV3+总体结构可分为编码层和解码层两部分,编码层主要作用是将特征图尺寸缩小,提取更多的信息进行准确分割,解码层则是逐步恢复空间维度,在尽可能的前提下完成同尺寸的输出。在编码层部分,以MobileNetV2替换原先的Xception作为主干网络并添加通道注意力模块,增强对目标的学习能力,通道注意力结构如图2所示。输入的零部件图像首先经此主干网络后,获得原图1/4大小的底层特征、三个不同大小的特征层级图以及原图1/16大小的高层语义特征三部分,其中三个不同大小的特征层级图输入到自适应空间特征融合(Adaptively Spatial Feature Fusion,ASFF)模块,高层语义特征部分输入到空间金字塔池(Atrous Spatial Pyramid Pooling,ASPP),在ASPP结构中并行经过1×1卷积,空洞率为6,12,18的空洞卷积继续提取特征以及全局平均池化后对特征图进行融合,避免了信息的丢失。接着使用1×1卷积来减少通道数,得到的特征图进入解码层;在解码层部分,骨干网络产生的底层特征图经过1×1卷积后与ASFF融合的特征图进行相加操作,增加通道数所携带的特征信息,然后与编码层获得的高层语义特征图进行逐层2倍双线性插值上采样后的特征图进行融合操作,之后对融合后的特征图采用非对称卷积,再经过逐层2倍上采样操作,最后获得网络的预测结果,基于DeepLabV3+改进的网络结构如图3所示。
在本实施例中,以Xception替换为MobileNetV2,是因为MobileNetV2网络能够解决在模型训练过程中出现的卷积神经网络庞大,硬件训练不足等问题,其核心是深度可分离卷积,包含纵向卷积和点卷积两部分,可在同等卷积核大小时,极大的减少计算量,保证了该算法在工业化场景下的实时性。
同时在主干网络中倒置残差块的跳跃连接前引入有效通道注意力模块,该模块对τ=RW×H×C的特征图,当只考虑通道与一维卷积核k之间的相互作用时,以共享权重ωi进行通道全局平均池化后得到1×1×C的特征图,由于一维卷积的大小k与通道维数C存在的映射关系,故可通过C确定k的大小以及跨通道信息交互范围,对映射后的1×1×C特征图与初始输入特征图相乘即可得到输出,这样通过自适应确定卷积核大小k来捕获本地跨通道交互,减少模型复杂度,提高效率。
ASFF模块是为了充分利用底层信息,该操作是通过增加骨干网络产生1/2,1/4,1/8大小的特征图作为输入特征层级,分别记为x1,x2,x3,输入通道数分别为32,24,16,然后通过3×3卷积进行下采样操作将特征层级x2和x3调整与x1的大小相同。最后将x1作为结果输出,因为该层级相比较其他层级拥有更丰富的语义信息和空间信息;然后通过自适应融合操作来自适应学习各空间权重信息后进行融合,令表示为m级调整到l级的特征映射上位置(i,j)处的特征向量,则在相应的l级融合特征公式为:
逐层2倍双线性插值上采样替换原4倍上采样,保证了像素的连续性,减少了重要像素信息的丢失。
非对称卷积融合模块,使用非对称卷积是为了增强3×3卷积的核骨架部分,增强卷积核的处理能力,提高模型的准确率,该卷积包含3×3,1×3,3×1卷积,对于第j个卷积核,令F(j),和分别表示3×3,1×3和3×1卷积核的输出结果,最终卷积核融合的结果表示为:
式中,O:,:,j,分别表示原始含3×3,1×3和3×1三个分支的输出,加和后作为该非对称卷积融合模块的输出,*表示二维卷积算子,M:,:,k是M第k个通道上尺寸为U×V的特征图,表示融合后作用于第k个通道上的卷积核j,C表示通道数。
步骤四:训练语义分割模型
设置网络训练参数,然后将步骤二中划分后的训练集图片输入到步骤三构建的改进DeepLabV3+的语义分割网络进行训练。
本实施例中,网络训练参数是训练网络的epoch设为100,初始学习率设为0.007,学习策略采用“poly”,Batchsize设置为2,初始动量为0.9,使用交叉熵损失函数,同时选择随机梯度下降(Stochastic Gradient Descent,SGD)优化算法。
步骤五:测试
利用所述的DeepLabV3+语义分割模型对测试集中的零部件图像进行识别分割,得到网络的分割结果,如图4c)所示。其中,图4a)所示为原始图像,图4b)所示为人工标注图像,按照本方法识别的零部件边缘与人工标注图像吻合度高,表明本方法分割效果不错。
本实施例中,采用平均交并比MIoU指标来评判图像分割性能,该值越高代表网络预测越准确,
式中,n表示总的类别数,即人为标注的该像素属于哪个零部件类;pij表示本应该是i类但被预测为j类的像素数量;pii表示预测正确的像素数量。pij和pji分别表示假正和假负,使用测试集进行实验结果验证,实验结果表明零部件图像的平均交并比达到了93.77%。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。
Claims (8)
1.一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,包括以下步骤:
步骤一:采集原始零部件图像;对零部件原始图像中出现的1个或多个零部件边界进行分割标注得到人工分割图像,将原始图像与人工分割图像共同建立零部件图像数据集;
步骤二:对零部件图像和人工分割图像分别进行数据增强处理扩充样本图像,再按比例随机划分为训练集、验证集和测试集;
步骤三:搭建改进DeepLabV3+的语义分割模型,包括编码层和解码层;编码层包括MobileNetV2和通道注意力模块、自适应空间特征融合模块ASFF、空间金字塔池模块ASPP、1×1卷积模块,用于将特征图尺寸缩小,提取信息进行零部件边界分割;解码层包括1×1卷积模块、上采样操作、非对称卷积模块,用于逐步恢复空间维度,输出同尺寸的边界分割结果图;
步骤四:设置网络训练参数,将训练集图片输入改进DeepLabV3+的语义分割网络进行训练,利用验证集进行验证,得到优化的网络模型;
步骤五:利用优化的DeepLabV3+语义分割模型对测试集中的零部件图像进行识别预测,得到机械零部件分割结果图。
2.根据权利要求1所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述数据增强包括旋转、平移和添加噪声操作。
3.根据权利要求2所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述旋转包括水平翻转、垂直翻转、±60°、±90°、±210°、±240°的旋转;所述平移包括右移100像素、下移100像素;以及添加0.001,0.002,0.003的椒盐噪声;最后将增强后的数据集样本按8:1:1的比例随机划分为训练集、验证集和测试集。
4.根据权利要求1所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述MobileNetV2和通道注意力模块,将输入的样本图像进行处理,输出原图1/4大小的底层特征图、三个不同大小的特征层级图以及原图1/16大小的高层语义特征图;其中三个不同大小的特征层级图输入到ASFF模块后输出融合特征图至解码层;高层语义特征输入到ASPP结构中,并行经过1×1卷积,空洞率为6,12,18的空洞卷积继续提取特征以及全局平均池化后对特征图进行融合再输出至1×1卷积模块,得到的高层语义特征图进入解码层;
所述编码层输出的底层特征图经过1×1卷积后与ASFF融合特征图进行相加操作;然后与编码层获得的高层语义特征图进行逐层2倍双线性插值上采样后的特征图进行融合操作;之后对融合后的特征图采用非对称卷积,再经过逐层2倍上采样操作后输出最终的分割预测结果图。
6.根据权利要求1所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述逐层2倍双线性插值上采样替换原4倍上采样用于像素的连续性,减少重要像素信息的丢失。
7.根据权利要求1所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述非对称卷积模块包含3×3,1×3,3×1卷积,对于第j个卷积核,令F(j),和分别表示3×3,1×3和3×1卷积核的输出结果,最终融合的结果可表示为:
8.根据权利要求1所述的一种基于改进DeepLabV3+网络的机械零部件图像分割算法,其特征在于,所述网络训练参数包括:训练次数epoch设为100,初始学习率设为0.007,学习策略采用“poly”,Batchsize设置为2,初始动量为0.9,使用交叉熵损失函数,同时选择随机梯度下降优化算法进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184465.1A CN114627290A (zh) | 2022-02-25 | 2022-02-25 | 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184465.1A CN114627290A (zh) | 2022-02-25 | 2022-02-25 | 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114627290A true CN114627290A (zh) | 2022-06-14 |
Family
ID=81899939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210184465.1A Pending CN114627290A (zh) | 2022-02-25 | 2022-02-25 | 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114627290A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115239657A (zh) * | 2022-07-18 | 2022-10-25 | 无锡雪浪数制科技有限公司 | 一种基于深度学习目标分割的工业零件增量识别方法 |
CN115375707A (zh) * | 2022-08-18 | 2022-11-22 | 石河子大学 | 一种复杂背景下植物叶片精准分割方法及系统 |
CN115439483A (zh) * | 2022-11-09 | 2022-12-06 | 四川川锅环保工程有限公司 | 一种高质量的焊缝及焊缝缺陷识别系统、方法、存储介质 |
CN115968760A (zh) * | 2022-12-20 | 2023-04-18 | 内蒙古农业大学 | 一种基于马铃薯根系时空分布的在地化灌溉方法 |
-
2022
- 2022-02-25 CN CN202210184465.1A patent/CN114627290A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115239657A (zh) * | 2022-07-18 | 2022-10-25 | 无锡雪浪数制科技有限公司 | 一种基于深度学习目标分割的工业零件增量识别方法 |
CN115239657B (zh) * | 2022-07-18 | 2023-11-21 | 无锡雪浪数制科技有限公司 | 一种基于深度学习目标分割的工业零件增量识别方法 |
CN115375707A (zh) * | 2022-08-18 | 2022-11-22 | 石河子大学 | 一种复杂背景下植物叶片精准分割方法及系统 |
CN115439483A (zh) * | 2022-11-09 | 2022-12-06 | 四川川锅环保工程有限公司 | 一种高质量的焊缝及焊缝缺陷识别系统、方法、存储介质 |
CN115968760A (zh) * | 2022-12-20 | 2023-04-18 | 内蒙古农业大学 | 一种基于马铃薯根系时空分布的在地化灌溉方法 |
CN115968760B (zh) * | 2022-12-20 | 2024-05-28 | 内蒙古农业大学 | 一种基于马铃薯根系时空分布的在地化灌溉方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN114627290A (zh) | 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 | |
CN112329800A (zh) | 一种基于全局信息引导残差注意力的显著性目标检测方法 | |
CN114066964B (zh) | 一种基于深度学习的水产实时尺寸检测方法 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
WO2023193401A1 (zh) | 点云检测模型训练方法、装置、电子设备及存储介质 | |
CN114255238A (zh) | 一种融合图像特征的三维点云场景分割方法及系统 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN113591795A (zh) | 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统 | |
CN111860683B (zh) | 一种基于特征融合的目标检测方法 | |
CN111553949A (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN112164077B (zh) | 基于自下而上路径增强的细胞实例分割方法 | |
CN110532959B (zh) | 基于双通道三维卷积神经网络的实时暴力行为检测系统 | |
CN116309648A (zh) | 一种基于多注意力融合的医学图像分割模型构建方法 | |
JP7337268B2 (ja) | 三次元エッジ検出方法、装置、コンピュータプログラム及びコンピュータ機器 | |
CN111369522A (zh) | 基于生成对抗卷积神经网络的光场显著性目标检测方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN114445715A (zh) | 一种基于卷积神经网络的农作物病害识别方法 | |
CN115222946A (zh) | 一种单阶段实例图像分割方法、装置以及计算机设备 | |
CN116681894A (zh) | 一种结合大核卷积的相邻层特征融合Unet多器官分割方法、系统、设备及介质 | |
CN116091823A (zh) | 一种基于快速分组残差模块的单特征无锚框目标检测方法 | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
CN110889868A (zh) | 一种结合梯度和纹理特征的单目图像深度估计方法 | |
CN114037678A (zh) | 一种基于深度学习的尿液有形成分检测方法及装置 | |
CN113610178A (zh) | 一种基于视频监控图像的内河船舶目标检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |