CN113989290A - 一种基于U-Net的皱纹分割方法 - Google Patents

一种基于U-Net的皱纹分割方法 Download PDF

Info

Publication number
CN113989290A
CN113989290A CN202111215846.3A CN202111215846A CN113989290A CN 113989290 A CN113989290 A CN 113989290A CN 202111215846 A CN202111215846 A CN 202111215846A CN 113989290 A CN113989290 A CN 113989290A
Authority
CN
China
Prior art keywords
wrinkle
data
segmentation
training
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111215846.3A
Other languages
English (en)
Inventor
杨勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yanyun Technology Co ltd
Original Assignee
Hangzhou Yanyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yanyun Technology Co ltd filed Critical Hangzhou Yanyun Technology Co ltd
Priority to CN202111215846.3A priority Critical patent/CN113989290A/zh
Publication of CN113989290A publication Critical patent/CN113989290A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于U‑Net的皱纹分割方法,本发明首先对数据进行预处理,包括数据切分、二分类模型和数据增强,再将数据进行归一化处理,长宽各缩小一半,以更大的batch训练,采用Adam优化器+Focal Loss损失函数的组合,通过自适应调整算法来设置学习率,并设置好U‑Net初始化参数,将数据放入网路中进行训练,得到皱纹分割模型,最后对于新输入的数据,划分区域并调整大小后输入对应网络中进行预测即可得到分割结果。本发明对于图像检测分割皱纹具有较好的效果,并且是在基于深度神经网络的皱纹分割算法领域的一种探索,具有重大意义。

Description

一种基于U-Net的皱纹分割方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于U-Net的皱纹分割方法。
背景技术
U-Net是一个卷积神经网络架构,它借鉴了全卷积神经网络的思路,整个架构中没有使用任何的全连接层,仅通过卷积操作就完成了端到端的图像分割任务。
U-Net对输入图像首先进行了一系列的卷积和下采样操作,然后进行了一系列的卷积和上采样操作,最后通过一个1x1卷积获得分割结果。其中,左半部分和右半部分分别叫做收缩路径和扩张路径。除此之外,灰色箭头表示的就是特征通道,它将压缩路径的特征图复制了一份,然后合并到与之分辨率相同的扩张路径的特征图上。这么做的好处在于弥补了图像上采样时缺失的图像信息,允许网络将上下文信息传播到更高分辨率的层。最后的1x1卷积则相当于传统网络中的全连接层,它负责将最后一个特征图的数值映射为每个像素点关于每个类别的概率值。
U-Net应用于医学图像分割和遥感图像分割,但是医学或遥感图像数据集的数据量往往较小,而图片分辨率往往较大,并且数据是医生直接在偏振白光图上标注的皱纹数据,直接使用这些数据进行训练将导致网络无法收敛,效果非常的不好。
首先,原始数据存在前景背景像素点数量不均衡问题。前景指的是皱纹区域,背景则是其他区域。由于整幅图的分辨率高达3000x5000,而经过计算,其中的皱纹像素点占比不到1%,所以,即使网络将整幅图所有像素都预测为背景,其损失仍然很低。也就是说,网络很可能检测不出任何的皱纹。
其次,三种皱纹类别之间存在数量不均衡问题。在这种情况下,网络就会偏向于预测数量多的类别,而忽视数量少的类别。最终导致结果就是数量多的皱纹类别分割效果很好,但数量少的皱纹类别几乎检测不出。
再次,由于原始图像过高的分辨率,直接不加缩小的将整张图片输入网络进行训练是不现实的。然而图片一旦经过缩小,就会丢失很多细节,而皱纹分割往往依赖这些细节,因此也会造成分割精度的下降。
发明内容
本发明为克服上述的不足之处,目的在于提供一种基于U-Net的皱纹分割方法,本发明首先对数据进行预处理,包括数据切分、二分类模型和数据增强,再将数据进行归一化处理,长宽各缩小一半,以更大的batch训练,采用Adam优化器+Focal Loss损失函数的组合,通过自适应调整算法来设置学习率,并设置好U-Net初始化参数,将数据放入网路中进行训练,得到皱纹分割模型,最后对于新输入的数据,划分区域并调整大小后输入对应网络中进行预测即可得到分割结果。本发明对于图像检测分割皱纹具有较好的效果,并且是在基于深度神经网络的皱纹分割算法领域的一种探索,具有重大意义。
本发明是通过以下技术方案达到上述目的:一种基于U-Net的皱纹分割方法,包括数据预处理、模型训练、皱纹检测三部分,具体步骤如下:
(1)对数据进行预处理,包括数据切分、二分类模型、数据增强,得到数据集;
(2)划分数据集,并对数据进行归一化处理,采用Adam优化器+Focal Loss损失函数的组合,采用自适应调整算法设置学习率,设置U-Net的初始化参数,对每个皱纹分割模型进行训练;
(3)将新输入的数据根据人脸关键信息划分出若干区域,调整好尺寸后将局部图输入对应网络进行预测,将分割结果过滤后叠加到局部图后,调整回原尺寸并放回最初数据,得到皱纹检测结果图像。
作为优选,所述步骤(1)具体如下:
(1.1)数据切分:针对原始数据存在的分辨率过大,皱纹像素点占比低的问题,通过对原始数据进行局部切分的方法解决。利用每种皱纹存在于人脸大致区域可以确定的特点,借助人脸关键点的位置信息,将该块区域切出,然后将图片统一调整为1024x1024的分辨率,最终可切分为额头区域、左右眼区域和鼻子周边区域。
(1.2)二分类模型:针对皱纹分布不均的问题,为每一种类型的皱纹训练一个U-Net二分类模型,即对应划分的三种皱纹区域都训练一个模型,以一定的时间开销来提高检测的精度。
(1.3)数据增强:对于本数据集,采用了三种数据增强方式,分别是沿x轴随机缩放0.5-1.5倍、沿y轴随机缩放0.5-1.5倍、随机进行透视变换。这么做可以增强网络对不同宽度和长度的皱纹检测的鲁棒性。对于每一张图,增强了4张图,即将训练集扩充为原来的5倍。
作为优选,所述步骤(2)具体如下:
(2.1)将数据集的80%作为训练集,20%作为测试集,然后将训练集的10%划出作为验证集。在数据输入网络训练之前,均作了归一化处理,长宽做了缩小一半的处理,为了能以更大的batch训练。
(2.2)选择Adam优化器+Focal Loss损失函数的组合,Adam优化器权重衰减参数设置为1e-8。Focal Loss是专门用于学习困难样本和不均衡样本的损失函数,其计算公式如下
Figure BDA0003310763400000041
其中,yi表示某个像素点的真实类别(0或1),pi表示某个像素点属于类别1的概率,α、γ均为可调超参数。
(2.3)学习率的设置使用了自适应调整算法,具体来说,网络以一个较高的学习率启动训练,然后每一个epoch训练完成后,在验证集上计算Dice coefficient的值,计算公式如下:
Figure BDA0003310763400000042
其中,A和B分别表示皱纹标签像素点集合和预测像素点集合,该值越大表示重合程度越高,1表示完全重合。如果这个值连续3个epoch都没有提高,就将学习率除以2。同时,为了防止学习率过小导致网络学习不到东西,还限定了学习率的最小值。
(2.4)U-Net的初始化参数对最终结果的影响很大,采用可以使得网络每层的激活值呈正态分布,从而可以避免梯度消失的kaiming参数初始化。训练时,batch size设置为8,每个皱纹分割模型都在Nvidia Tesla V100 GPU上训练200个epoch。
作为优选,步骤(3)具体如下:
(3.1)将一张完整的偏正白光大图新数据,根据人脸关键点位置信息分割出额头区域、左右眼角区域、鼻子周围一块区域。然后经过尺寸调整后将对应的局部图输入对应网络进行预测,输出分割结果
(3.2)由于网络分割结果存在细小的噪声点或者是不完整的皱纹分割,所以需要对结果做过滤。具体来说,就是在mask图像上找轮廓,滤除像素点数量小于500的轮廓。
(3.3)将过滤后的分割结果叠加到局部图上,再调整回原来的尺寸。最后,将局部图重新放回到偏振白光图上,得到皱纹检测结果图像。
本发明的有益效果在于:本发明对于明显的皱纹可以实现较好的分割,对于不明显的皱纹效果较差,对比皱纹分割领域中的其他研究成果,其效果位于前列;本发明对于图像检测分割皱纹具有较好的效果,并且是在基于深度神经网络的皱纹分割算法领域的一种探索,具有重大意义。
附图说明
图1是本发明的方法流程示意图;
图2是本发明的U-Net的网络架构示意图;
图3是本发明的模型训练应用自适应调整算法后学习率的变化图;
图4是本发明实施例训练过程中的训练集Loss曲线图;
图5是本发明实施例训练过程中验证集Dice coefficient曲线图。
具体实施方式
下面结合具体实施例对本发明进行进一步描述,但本发明的保护范围并不仅限于此:
实施例:本发明主要分为三个部分,第一部分对数据集进行预处理,第二部分设置好各项参数后训练皱纹分割模型,第三部分是进行皱纹预测的过程。通过这三部分,本发明对于明显的皱纹可以实现较好的分割,对于不明显的皱纹效果较差,对比皱纹分割领域中的其他研究成果,其效果位于前列。如图1所示,一种基于U-Net的皱纹分割方法,包括步骤如下:
步骤1:为了克服原始数据存在的分辨率过大、皱纹像素占比小、皱纹数量不均衡的问题,对数据进行预处理,具体如下:
步骤1.1:数据切分,利用每种皱纹存在于人脸大致区域可以确定的特点,借助人脸关键点的位置信息,将该块区域切出,然后将图片统一调整为1024x1024的分辨率,最终可切分为额头区域、左右眼区域和鼻子周边区域。
步骤1.2:二分类模型,针对皱纹分布不均的问题,为每一种类型的皱纹训练一个U-Net二分类模型,即对应划分的三种皱纹区域都训练一个模型,以一定的时间开销来提高检测的精度。
步骤1.3:数据增强,对于本数据集,采用了三种数据增强方式,分别是沿x轴随机缩放0.5-1.5倍、沿y轴随机缩放0.5-1.5倍、随机进行透视变换。这么做可以增强网络对不同宽度和长度的皱纹检测的鲁棒性。对于每一张图,增强了4张图,即将训练集扩充为原来的5倍。
步骤2:划分数据集,并对数据进行归一化处理。采用Adam优化器+Focal Loss损失函数的组合,使用自适应调整算法来设置学习率,设置U-Net的初始化参数,对每个皱纹分割模型进行训练。其中U-Net的网络架构如图2所示。具体如下:
步骤2.1:将数据集的80%作为训练集,20%作为测试集,然后将训练集的10%划出作为验证集。在数据输入网络训练之前,均作了归一化处理,长宽做了缩小一半的处理,为了能以更大的batch训练。
步骤2.2:选择Adam优化器+Focal Loss损失函数的组合,Adam优化器权重衰减参数设置为1e-8。Focal Loss是专门用于学习困难样本和不均衡样本的损失函数,其计算公式如下
Figure BDA0003310763400000071
其中,yi表示某个像素点的真实类别(0或1),pi表示某个像素点属于类别1的概率,α、γ均为可调超参数。在本实施例中,α=0.75,γ=2。其中α是调整正样本和负样本损失的平衡因子,(1-pi)γ则用于平衡易学样本和困难样本。由于易学样本的pi往往接近于1或0,那么(1-pi)γ或pi γ就很小,从而易学样本的整体loss就小;相反的,困难样本的loss就大,因此提高了困难样本对梯度更新的贡献度,使得网络提高对困难样本的分割准确率。
步骤2.3:学习率的设置使用了自适应调整算法,具体来说,网络以一个较高的学习率启动训练,然后每一个epoch训练完成后,在验证集上计算Dice coefficient的值,计算公式如下:
Figure BDA0003310763400000081
其中,A和B分别表示皱纹标签像素点集合和预测像素点集合,该值越大表示重合程度越高,1表示完全重合。如果这个值连续3个epoch都没有提高,就将学习率除以2。同时,为了防止学习率过小导致网络学习不到东西,还限定了学习率的最小值。其实施例具体结果如图3、图4、图5所示。
步骤2.4:采用可以使得网络每层的激活值呈正态分布,从而可以避免梯度消失的kaiming参数初始化对U-Net网络的参数进行初始化。训练时,batch size设置为8,每个皱纹分割模型都在Nvidia Tesla V100 GPU上训练200个epoch。
步骤3:皱纹检测,将新输入的数据根据人脸关键信息划分出若干区域,调整好尺寸后将局部图输入对应网络进行预测,将分割结果过滤后叠加到局部图,调整回原尺寸并放回最初数据,得到皱纹检测结果图像。具体如下:
步骤3.1:将一张完整的偏正白光大图新数据,根据人脸关键点位置信息分割出额头区域、左右眼角区域、鼻子周围一块区域。然后经过尺寸调整后将对应的局部图输入对应网络进行预测,输出分割结果。
步骤3.2:由于网络分割结果存在细小的噪声点或者是不完整的皱纹分割,所以需要对结果做过滤。具体来说,就是在mask图像上找轮廓,滤除像素点数量小于500的轮廓。
步骤3.3:将过滤后的分割结果叠加到局部图上,再调整回原来的尺寸。最后,将局部图重新放回到偏振白光图上,得到皱纹检测结果图像。
综上所述,本发明可以对明显的皱纹实现较好的分割,对于不明显的皱纹效果较差,对比皱纹分割领域中的其他研究成果,其效果位于前列。
以上的所述乃是本发明的具体实施例及所运用的技术原理,若依本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的精神时,仍应属本发明的保护范围。

Claims (5)

1.一种基于U-Net的皱纹分割方法,其特征在于,包括数据预处理、模型训练、皱纹检测三部分,具体步骤如下:
(1)对数据进行预处理,包括数据切分、二分类模型、数据增强,得到数据集;
(2)划分数据集,并对数据进行归一化处理,采用Adam优化器+Focal Loss损失函数的组合,采用自适应调整算法设置学习率,设置U-Net的初始化参数,对每个皱纹分割模型进行训练;
(3)将新输入的数据根据人脸关键信息划分出若干区域,调整好尺寸后将局部图输入对应网络进行预测,将分割结果过滤后叠加到局部图后,调整回原尺寸并放回最初数据,得到皱纹检测结果图像。
2.根据权利要求1所述的一种基于U-Net的皱纹分割方法,其特征在于:所述步骤(1)具体如下:
(1.1)数据切分:利用每种皱纹存在于人脸大致区域可以确定的特点,借助人脸关键点的位置信息,将该块区域切出,然后将图片统一调整为1024x1024的分辨率,最终可切分为额头区域、左右眼区域和鼻子周边区域;
(1.2)二分类模型:为每一种类型的皱纹训练一个U-Net二分类模型,即对应划分的三种皱纹区域分别训练一个模型;
(1.3)数据增强:分别采用三种数据增强方式进行数据增强,其中三种数据增强方式分别是沿x轴随机缩放0.5-1.5倍、沿y轴随机缩放0.5-1.5倍、随机进行透视变换。
3.根据权利要求1所述的一种基于U-Net的皱纹分割方法,其特征在于:所述步骤(2)具体如下:
(2.1)将数据集的80%作为训练集,20%作为测试集,并将训练集的10%划出作为验证集;其中在数据输入网络训练之前,均作了归一化处理,长宽做了缩小一半的处理;
(2.2)选择Adam优化器+Focal Loss损失函数的组合,Adam优化器权重衰减参数设置为1e-8;
(2.3)采用自适应调整算法设置学习率,具体的,网络以一个较高的学习率启动训练,然后每一个epoch训练完成后,在验证集上计算Dice coefficient的值,计算公式如下:
Figure FDA0003310763390000021
其中,A和B分别表示皱纹标签像素点集合和预测像素点集合,该值越大表示重合程度越高,1表示完全重合;如果这个值连续3个epoch都没有提高,则将学习率除以2;同时为了防止学习率过小导致网络学习不到东西,因此限定了学习率的最小值;
(2.4)采用可以使得网络每层的激活值呈正态分布,从而可以避免梯度消失的kaiming参数初始化方法实现U-Net的参数初始化;训练时,batch size设置为8,每个皱纹分割模型都在Nvidia Tesla V100 GPU上训练200个epoch。
4.根据权利要求3所述的一种基于U-Net的皱纹分割方法,其特征在于:所述的FocalLoss损失函数是专门用于学习困难样本和不均衡样本的损失函数,其计算公式如下
Figure FDA0003310763390000031
其中,yi表示某个像素点的真实类别(0或1),pi表示某个像素点属于类别1的概率,α、γ均为可调超参数。
5.根据权利要求1所述的一种基于U-Net的皱纹分割方法,其特征在于:所述步骤(3)具体如下:
(3.1)将一张完整的偏正白光大图新数据,根据人脸关键点位置信息分割出额头区域、左右眼角区域、鼻子周围一块区域;并经过尺寸调整后将对应的局部图输入对应网络进行预测,输出分割结果;
(3.2)对输出的分割结果做过滤,即在mask图像上找轮廓,滤除像素点数量小于500的轮廓;
(3.3)将过滤后的分割结果叠加到局部图上,再调整回原来的尺寸;并将局部图重新放回到偏振白光图上,得到皱纹检测结果图像。
CN202111215846.3A 2021-10-19 2021-10-19 一种基于U-Net的皱纹分割方法 Pending CN113989290A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111215846.3A CN113989290A (zh) 2021-10-19 2021-10-19 一种基于U-Net的皱纹分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111215846.3A CN113989290A (zh) 2021-10-19 2021-10-19 一种基于U-Net的皱纹分割方法

Publications (1)

Publication Number Publication Date
CN113989290A true CN113989290A (zh) 2022-01-28

Family

ID=79739329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111215846.3A Pending CN113989290A (zh) 2021-10-19 2021-10-19 一种基于U-Net的皱纹分割方法

Country Status (1)

Country Link
CN (1) CN113989290A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612994A (zh) * 2022-03-23 2022-06-10 深圳伯德睿捷健康科技有限公司 训练皱纹检测模型的方法、装置及检测皱纹的方法、装置
CN116862869A (zh) * 2023-07-07 2023-10-10 东北大学 基于标志点检测的下颌骨骨折自动检测方法
WO2024014853A1 (ko) * 2022-07-13 2024-01-18 주식회사 룰루랩 반자동 라벨링에 따라 학습된 딥러닝 기반 주름 검출 모델을 이용하여 얼굴 주름을 검출하기 위한 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886971A (zh) * 2019-01-24 2019-06-14 西安交通大学 一种基于卷积神经网络的图像分割方法及系统
CN110443765A (zh) * 2019-08-02 2019-11-12 厦门美图之家科技有限公司 图像处理方法、装置及电子设备
CN112767417A (zh) * 2021-01-20 2021-05-07 合肥工业大学 一种基于级联U-Net网络的多模态图像分割方法
CN112819801A (zh) * 2021-02-10 2021-05-18 桂林电子科技大学 一种改进U-Net的肺结节分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886971A (zh) * 2019-01-24 2019-06-14 西安交通大学 一种基于卷积神经网络的图像分割方法及系统
CN110443765A (zh) * 2019-08-02 2019-11-12 厦门美图之家科技有限公司 图像处理方法、装置及电子设备
CN112767417A (zh) * 2021-01-20 2021-05-07 合肥工业大学 一种基于级联U-Net网络的多模态图像分割方法
CN112819801A (zh) * 2021-02-10 2021-05-18 桂林电子科技大学 一种改进U-Net的肺结节分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杨桄: "高光谱图像处理与分析应用", 30 June 2021, 吉林大学出版社, pages: 62 *
瀧雅人: "深度学习入门", 30 June 2020, 机械工业出版社, pages: 53 - 55 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612994A (zh) * 2022-03-23 2022-06-10 深圳伯德睿捷健康科技有限公司 训练皱纹检测模型的方法、装置及检测皱纹的方法、装置
WO2024014853A1 (ko) * 2022-07-13 2024-01-18 주식회사 룰루랩 반자동 라벨링에 따라 학습된 딥러닝 기반 주름 검출 모델을 이용하여 얼굴 주름을 검출하기 위한 방법 및 장치
CN116862869A (zh) * 2023-07-07 2023-10-10 东北大学 基于标志点检测的下颌骨骨折自动检测方法
CN116862869B (zh) * 2023-07-07 2024-04-19 东北大学 基于标志点检测的下颌骨骨折自动检测方法

Similar Documents

Publication Publication Date Title
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN113989290A (zh) 一种基于U-Net的皱纹分割方法
CN111652321B (zh) 一种基于改进yolov3算法的海上船舶检测方法
CN112668663B (zh) 一种基于YOLOv4的航拍小汽车检测方法
CN112016614B (zh) 光学图像目标检测模型的构建方法、目标检测方法及装置
CN109978807B (zh) 一种基于生成式对抗网络的阴影去除方法
CN111523553B (zh) 一种基于相似度矩阵的中心点网络多目标检测方法
CN110728330A (zh) 基于人工智能的对象识别方法、装置、设备及存储介质
CN114821246B (zh) 基于多层次残差网络感知和注意力机制的小目标检测方法
CN109583483A (zh) 一种基于卷积神经网络的目标检测方法和系统
CN110245620B (zh) 一种基于注意力的非最大化抑制方法
US20200364913A1 (en) User guided segmentation network
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN111626379B (zh) 肺炎x光图像检测方法
CN112150497A (zh) 基于二值神经网络的局部激活方法与系统
CN112966757A (zh) 训练样本的扩展方法、装置、存储介质及设备
CN116403127A (zh) 一种无人机航拍图像目标检测方法、装置和存储介质
CN116563232A (zh) 基于长程依赖关系和多尺度输入的视网膜血管分割方法
CN116977844A (zh) 一种轻量级水下目标实时检测方法
CN116091823A (zh) 一种基于快速分组残差模块的单特征无锚框目标检测方法
CN117314751A (zh) 一种基于生成式对抗网络的遥感图像超分辨率重建方法
CN107369138A (zh) 基于高阶统计模型的图像最优化显示方法
CN108447066B (zh) 胆道图像分割方法、终端、存储介质
CN115690536A (zh) 一种单帧红外小目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination