CN111583287A - 一种用于精细人像图片分割的深度学习模型训练方法 - Google Patents

一种用于精细人像图片分割的深度学习模型训练方法 Download PDF

Info

Publication number
CN111583287A
CN111583287A CN202010327146.2A CN202010327146A CN111583287A CN 111583287 A CN111583287 A CN 111583287A CN 202010327146 A CN202010327146 A CN 202010327146A CN 111583287 A CN111583287 A CN 111583287A
Authority
CN
China
Prior art keywords
gradient
portrait
image
training
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010327146.2A
Other languages
English (en)
Inventor
齐冬莲
陈汐
闫云凤
郑伊
徐文渊
张建良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yuanjian Information Technology Co ltd
Zhejiang University ZJU
Original Assignee
Hangzhou Yuanjian Information Technology Co ltd
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yuanjian Information Technology Co ltd, Zhejiang University ZJU filed Critical Hangzhou Yuanjian Information Technology Co ltd
Priority to CN202010327146.2A priority Critical patent/CN111583287A/zh
Publication of CN111583287A publication Critical patent/CN111583287A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于精细人像图片分割的深度学习模型训练方法。采集获取人像图片,二值化构成训练数据集;用Canny边缘算法检测边界;采用自适应膨胀算子对边界扩充形成边缘区域,得到人像边缘/背景区域标注图;将原始图像输入到深度学习模型进行训练处理,训练处理中根据人像边缘/背景区域标注图计算图像梯度损失和分割交叉熵损失,共同对深度学习模型进行训练优化。本发明使用粗糙的人工标注结果,通过“自监督”的方式训练,训练出比人工标注更加精确的分割结果,大大节约人工标注的成本,能够应用于人员监控、人像分析、人像编辑等各种场景。

Description

一种用于精细人像图片分割的深度学习模型训练方法
技术领域
本发明涉及了一种用于精细人像分割的训练方法,尤其是涉及了一种基于原始图像与分割预测结果图的图像梯度一致性的图像梯度损失函数及其训练方法。
背景技术
人像分割算法被广泛运用于视频监控、人像分析、人像编辑等各个领域。然而之前的算法无法满足对于边缘精度要求较高的场合。考虑到基于深度学习的模型对于训练标注的要求非常高,然而标注高精度的人像边缘细节比如:头发丝、衣服边缘非常耗时。标注高精度的人像训练样本往往受限于成本无法大规模实现。于是,探究不依赖与高精度人工标注的训练方法,从图像本身获取监督信息,利用较为粗糙的标注样本获得精细的训练结果有很强的实际意义。
发明内容
为了解决背景技术中的问题,本发明提出了一种用于精细人像图片分割的深度学习模型训练方法。
本发明的技术方案包括以下步骤:
1)采集获取人像图片,以人像为前景,人像图片中前景区域已标记为1,背景区域已标记为0,形成二值化的人像/背景标注图,构成训练数据集;
2)在二值化的人像/背景标注图上使用Canny边缘算法检测得到人像与背景之间的边界;
3)采用自适应膨胀算子对步骤2)检测得到的边界结果进行扩充形成边缘区域,并得到人像边缘/背景区域标注图Mbound,人像边缘/背景区域标注图中,人像与背景之间的边界区域为1,其余区域取0;
4)将原始图像输入到任意深度学习模型进行训练处理,训练处理中根据人像边缘/背景区域标注图计算图像梯度损失Lgrad,并同时处理计算分割交叉熵损失Lseg,结合图像梯度损失Lgrad和分割交叉熵损失Lseg共同对深度学习模型进行训练优化。
所述步骤4)中,根据人像边缘/背景区域标注图计算在边缘区域的图像梯度损失,具体为:
4.1)训练过程中对每一张的输入原始图像和分割预测结果图均采用以下方式进行归一化:
Figure BDA0002463618480000021
其中,I表示输入的原始图像/分割预测结果图,Imin表示输入的原始图像/分割预测结果图的像素值最小值,Imax表示输入的原始图像/分割预测结果图的像素值最大值;
4.2)根据如下公式,计算原始图像在x,y轴方向的图像梯度Gx和Gy:
Figure BDA0002463618480000022
Figure BDA0002463618480000023
其中,⊙表示卷积操作,In表示输入的原始图像,其中的3*3矩阵表示卷积核;
并计算原始图像的梯度幅值为
Figure BDA0002463618480000024
梯度方向为
Figure BDA0002463618480000025
4.3)利用和步骤4.2)中相同的方法,计算分割预测结果图在x,y轴方向的图像梯度,以及分割预测结果图的梯度幅值Mpred和梯度方向
Figure BDA0002463618480000026
4.4)按照下列公式求取梯度方向损失Ldir
Figure BDA0002463618480000027
其中,
Figure BDA0002463618480000028
Mpred分别为步骤4.2)和4.3)中获得的原始图像的梯度方向、分割预测结果图的梯度方向、分割预测结果图的梯度幅值;vx img,vy img分别为原始图像的梯度方向
Figure BDA0002463618480000029
在x轴和y轴上的投影,vx pred,vy pred分别为分割预测结果图的梯度方向
Figure BDA00024636184800000210
在x轴和y轴上的投影;
4.5)按照下面公式求取梯度幅值损失Lmag
Lmag=maX(λ*Mimg-Mpred,O)
其中,Mimg、Mpred分别表示原始图像的梯度幅值和分割预测结果图的梯度幅值,λ表示图像梯度幅值的放大系数,具体实施中设置为1.5;max()表示取较大值函数;
max函数表示为:当λ*Mimg-Mpred大于0时,Lmag取值为λ*Mimg-Mpred,反之Lmag取值为0。
4.6)最终按照以下在边缘区域计算获得图像梯度损失Lgrad
Lgrad=(γ1*Ldir2*Lmag)*Mbound
其中,Mbound表示步骤3)中得到的人像边缘/背景区域标注图,在人像边缘/背景区域标注图中位于边界区域的像素点Mbound=1,位于非边界区域的像素点Mbound=0;γ1、γ2分别表示梯度方向损失和梯度幅值损失的权重,具体实施中设置γ1=γ2=0.5;
4.7)在整张图像区域采用以下公式计算分割交叉熵损失Lseg
Figure BDA0002463618480000031
其中,
Figure BDA0002463618480000032
为步骤1)中得到的二值化的人像/背景标注图,
Figure BDA0002463618480000033
为深度学习模型输出的分割预测结果图;
4.8)将步骤4.7)中的分割交叉熵损失和步骤4.6)中的在人像边界区域的图像梯度损失进行加权处理,得到最终损失函数:
Ltotal=α*Lseg+β*Lgrad
其中,α和β分别表示分割交叉熵损失和梯度损失的权重;
4.9)利用步骤1)构建的数据集针对深度学习模型进行训练,每次训练处理中计算获得原始图像和分割预测结果图之间的最终损失函数Ltotal,利用最终损失函数Ltotal对模型参数进行迭代优化,使得最终损失函数Ltotal收敛最小。
所述步骤3)中,自适应膨胀算子具体采用以下公式,边缘区域的膨胀大小Ka计算方法为:
Figure BDA0002463618480000034
其中,|Gf|、|Gb|分别为人像/背景标注图中前景区域和背景区域的像素总个数,Kc为标准膨胀区域大小,具体实施中Kc的值设置为50。
所述深度学习模型在训练过程中,使用随机梯度下降算法进行寻训练,训练分为两个阶段:
第一阶段设置α=1,β=0,训练迭代20000次,以获取较好的预测梯度初始化值;
第二阶段设置α=β=0.5,训练迭代20000次,使得模型挖掘更多的细节特征。
这样上述本发明方法处理训练获得的深度学习模型能够在训练标注边缘质量不高的情况下得到精准的边缘区域预测结果。
本发明首先,由手工标注的人像/背景二值化标注数据计算得到人像边缘区域标注;其次,在边缘区域施加图像梯度损失(Gradient Loss)进行监督;同时在非边缘区域施加二值化交叉熵损失函数。
本发明的有益效果是:
本发明使用粗糙的人工标注结果,通过“自监督”的方式训练,训练出比人工标注更加精确的分割结果,大大节约人工标注的成本,能够应用于人员监控、人像分析、人像编辑等各种场景。
附图说明
图1为人像/背景标注图;
图2为人像边缘/背景区域标注图;
图3为原始图像的图像梯度幅值图;
图4为分割预测结果图的图像梯度幅值图;
图5为实际预测效果图;
图6为实验对比效果图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细说明。
按照本发明发明内容完整方法实施的实施例过程如下:
1)采集获取人像图片,以人像为前景,人像图片中前景区域已标记为1,背景区域已标记为0,形成二值化的人像/背景标注图,如图1所示,构成训练数据集;
2)在二值化的人像/背景标注图上使用Canny边缘算法检测得到人像与背景之间的边界;
3)采用自适应膨胀算子对步骤2)检测得到的边界结果进行扩充形成边缘区域,并得到人像边缘/背景区域标注图Mbound,如图2所示,人像边缘/背景区域标注图中,人像与背景之间的边界区域为1,其余区域取0;
自适应膨胀算子具体采用以下公式,边缘区域的膨胀大小Ka计算处理如下:
Figure BDA0002463618480000041
4)将原始图像输入到任意深度学习模型进行训练处理,训练处理中根据人像边缘/背景区域标注图计算图像梯度损失Lgrad,并同时处理计算分割交叉熵损失Lseg,结合图像梯度损失Lgrad和分割交叉熵损失Lseg共同对深度学习模型进行训练优化。具体为:
4.1)训练过程中对每一张的输入原始图像和分割预测结果图均采用以下方式进行归一化:
Figure BDA0002463618480000051
4.2)根据如下公式,计算原始图像在x,y轴方向的图像梯度Gx和Gy:
Figure BDA0002463618480000052
Figure BDA0002463618480000053
并计算原始图像的梯度幅值为
Figure BDA0002463618480000054
梯度方向为
Figure BDA0002463618480000055
结果如图3所示。
4.3)利用和步骤4.2)中相同的方法,计算分割预测结果图在x,y轴方向的图像梯度,以及分割预测结果图的梯度幅值Mpred和梯度方向
Figure BDA0002463618480000056
结果如图4所示。
4.4)按照下列公式求取梯度方向损失Ldir
Figure BDA0002463618480000057
4.5)按照下面公式求取梯度幅值损失Lmag
Lmag=max(λ*Mimg-Mpred,0)
4.6)最终按照以下在边缘区域计算获得图像梯度损失Lgrad
Lgrad=(γ1*Ldir2*Lmag)*Mbound
4.7)在整张图像区域采用以下公式计算分割交叉熵损失Lseg
Figure BDA0002463618480000058
4.8)将步骤4.7)中的分割交叉熵损失和步骤4.6)中的在人像边界区域的图像梯度损失进行加权处理,得到最终损失函数:
Ltotal=α*Lseg+β*Lgrad
4.9)利用步骤1)构建的数据集针对深度学习模型进行训练,每次训练处理中计算获得原始图像和分割预测结果图之间的最终损失函数Ltotal,利用最终损失函数Ltotal对模型参数进行迭代优化,使得最终损失函数Ltotal收敛最小。
具体实施在训练过程中,使用随机梯度下降算法进行寻训练,训练分为两个阶段:第一阶段设置α=1,β=0,训练迭代20000次,以获取较好的预测梯度初始化值;第二阶段设置α=β=0.5,训练迭代20000次,使得模型挖掘更多的细节特征。
实施例具体情况如下:
收集图片并构建数据集:实验图片共有1700张,其中用于训练的图片有1300张,测试用例400张。本发明中将每张图片剪裁成256*256的统一大小。
例如最终采用本发明方法训练后的深度学习模型对如图5左侧的待测图片进行处理输出如图5右侧的结果图。
模型训练:人像分割的深度学习模型选用Unet网络,使用普通方法和本发明的方法进行训练进行对比。对照用的普通方法为:仅用步骤5)中提到的分割交叉熵损失进行训练。使用平均交并比(Mean Intersection Over Union)作为预测质量评价准则。对比结果如下:
表1人像分割结果
训练方法 Mean IoU
常规方法 94.9%
发明方法 95.8%
结果分析:定量对比结果可得,对比与普通的交叉熵损失(表格中常规方法)本文提出的算法对于人像分割结果有在交并比在94.9%的基础上有0.9%的提高较,有明显的提升作用。
其他定性结果对比如图6所示。中间图片为用常规交叉熵损失进行训练得到的预测掩膜,右侧图片为使用本专利提出方法训练得到的模型的预测结果。右图在预测边缘区域明显相较于对照方法更为清晰和准确。
可见,该发明所提出的训练方法,对于提升分割结果的边缘区域预测质量有显著作用。

Claims (4)

1.一种用于精细人像图片分割的深度学习模型训练方法,其特征在于:方法包括以下计算步骤:
1)采集获取人像图片,以人像为前景,人像图片中前景区域已标记为1,背景区域已标记为0,形成二值化的人像/背景标注图,构成训练数据集;
2)在二值化的人像/背景标注图上使用Canny边缘算法检测得到人像与背景之间的边界;
3)采用自适应膨胀算子对步骤2)检测得到的边界结果进行扩充形成边缘区域,并得到人像边缘/背景区域标注图Mbound,人像边缘/背景区域标注图中,人像与背景之间的边界区域为1,其余区域取0;
4)将原始图像输入到深度学习模型进行训练处理,训练处理中根据人像边缘/背景区域标注图计算图像梯度损失Lgrad,并同时处理计算分割交叉熵损失Lseg,结合图像梯度损失Lgrad和分割交叉熵损失Lseg共同对深度学习模型进行训练优化。
2.根据权利要求1所述的一种用于精细人像图片分割的深度学习模型训练方法,其特征在于:所述步骤4)中,根据人像边缘/背景区域标注图计算在边缘区域的图像梯度损失,具体为:
4.1)训练过程中对每一张的输入原始图像和分割预测结果图均采用以下方式进行归一化:
Figure FDA0002463618470000011
其中,I表示输入的原始图像/分割预测结果图,Imin表示输入的原始图像/分割预测结果图的像素值最小值,Imax表示输入的原始图像/分割预测结果图的像素值最大值;
4.2)根据如下公式,计算原始图像在x,y轴方向的图像梯度Gx和Gy:
Figure FDA0002463618470000012
Figure FDA0002463618470000013
其中,⊙表示卷积操作,In表示输入的原始图像,其中的3*3矩阵表示卷积核;
并计算原始图像的梯度幅值为
Figure FDA0002463618470000021
梯度方向为
Figure FDA0002463618470000022
4.3)利用和步骤4.2)中相同的方法,计算分割预测结果图在x,y轴方向的图像梯度,以及分割预测结果图的梯度幅值Mpred和梯度方向
Figure FDA0002463618470000023
4.4)按照下列公式求取梯度方向损失Ldir
Figure FDA0002463618470000024
其中,
Figure FDA0002463618470000025
Mpred分别为步骤4.2)和4.3)中获得的原始图像的梯度方向、分割预测结果图的梯度方向、分割预测结果图的梯度幅值;vx img,vy img分别为原始图像的梯度方向
Figure FDA0002463618470000026
在x轴和y轴上的投影,vx pred,vy pred分别为分割预测结果图的梯度方向
Figure FDA0002463618470000027
在x轴和y轴上的投影;
4.5)按照下面公式求取梯度幅值损失Lmag
Lmag=max(λ*Mimg-Mpred,0)
其中,Mimg、Mpred分别表示原始图像的梯度幅值和分割预测结果图的梯度幅值,λ表示图像梯度幅值的放大系数,max()表示取较大值函数;
4.6)最终按照以下在边缘区域计算获得图像梯度损失Lgrad
Lgrad=(γ1*Ldir2*Lmag)*Mbound
其中,Mbound表示步骤3)中得到的人像边缘/背景区域标注图,γ1、γ2分别表示梯度方向损失和梯度幅值损失的权重;
4.7)在整张图像区域采用以下公式计算分割交叉熵损失Lseg
Figure FDA0002463618470000028
其中,
Figure FDA0002463618470000029
为步骤1)中得到的二值化的人像/背景标注图,
Figure FDA00024636184700000210
为深度学习模型输出的分割预测结果图;
4.8)将步骤4.7)中的分割交叉熵损失和步骤4.6)中的在人像边界区域的图像梯度损失进行加权处理,得到最终损失函数:
Ltotal=α*Lseg+β*Lgrad
其中,α和β分别表示分割交叉熵损失和梯度损失的权重;
4.9)利用步骤1)构建的数据集针对深度学习模型进行训练,每次训练处理中计算获得原始图像和分割预测结果图之间的最终损失函数Ltotal,利用最终损失函数Ltotal对模型参数进行迭代优化,使得最终损失函数Ltotal收敛最小。
3.根据权利要求1所述的一种用于精细人像图片分割的深度学习模型训练方法,其特征在于:所述步骤3)中,自适应膨胀算子具体采用以下公式,边缘区域的膨胀大小Ka计算方法为:
Figure FDA0002463618470000031
其中,|Gf|、|Gb|分别为人像/背景标注图中前景区域和背景区域的像素总个数,Kc为标准膨胀区域大小。
4.根据权利要求1所述的一种用于精细人像图片分割的深度学习模型训练方法,其特征在于:所述深度学习模型在训练过程中,使用随机梯度下降算法进行寻训练,训练分为两个阶段:第一阶段设置α=1,β=0,训练迭代20000次,以获取较好的预测梯度初始化值;第二阶段设置α=β=0.5,训练迭代20000次,使得模型挖掘更多的细节特征。
CN202010327146.2A 2020-04-23 2020-04-23 一种用于精细人像图片分割的深度学习模型训练方法 Pending CN111583287A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010327146.2A CN111583287A (zh) 2020-04-23 2020-04-23 一种用于精细人像图片分割的深度学习模型训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010327146.2A CN111583287A (zh) 2020-04-23 2020-04-23 一种用于精细人像图片分割的深度学习模型训练方法

Publications (1)

Publication Number Publication Date
CN111583287A true CN111583287A (zh) 2020-08-25

Family

ID=72111638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010327146.2A Pending CN111583287A (zh) 2020-04-23 2020-04-23 一种用于精细人像图片分割的深度学习模型训练方法

Country Status (1)

Country Link
CN (1) CN111583287A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308870A (zh) * 2020-10-16 2021-02-02 易思维(杭州)科技有限公司 基于深度学习的边缘检测滤波器优化方法
CN112381168A (zh) * 2020-11-23 2021-02-19 浙江大学 基于单样例引导物体表征拆分的图像编辑算法
CN112950599A (zh) * 2021-03-10 2021-06-11 中山大学 一种基于深度学习的大肠空腔区及肠内容物标注方法
CN113112475A (zh) * 2021-04-13 2021-07-13 五邑大学 一种基于机器学习的中医耳部五脏区域分割方法和装置
CN113269778A (zh) * 2021-06-21 2021-08-17 复旦大学 基于迭代的图像弱监督分割方法
CN113552944A (zh) * 2021-07-20 2021-10-26 深圳市博乐信息技术有限公司 一种智慧宣传系统
CN114092485A (zh) * 2021-09-28 2022-02-25 华侨大学 一种基于mask rcnn的堆叠粗骨料图像分割方法及系统
CN115063370A (zh) * 2022-06-21 2022-09-16 西安翔迅科技有限责任公司 基于半自动化标注的砂轮磨损状态监测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法
CN110443818A (zh) * 2019-07-02 2019-11-12 中国科学院计算技术研究所 一种基于涂鸦的弱监督语义分割方法与系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741347A (zh) * 2018-12-30 2019-05-10 北京工业大学 一种基于卷积神经网络的迭代学习的图像分割方法
CN110443818A (zh) * 2019-07-02 2019-11-12 中国科学院计算技术研究所 一种基于涂鸦的弱监督语义分割方法与系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XI CHEN,ET AL.: "Boundary-Aware Network for Fast and High-Accuracy Portrait Segmentation", 《ARXIV:1901.03814V1》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308870A (zh) * 2020-10-16 2021-02-02 易思维(杭州)科技有限公司 基于深度学习的边缘检测滤波器优化方法
CN112308870B (zh) * 2020-10-16 2022-06-14 易思维(杭州)科技有限公司 基于深度学习的边缘检测滤波器优化方法
CN112381168A (zh) * 2020-11-23 2021-02-19 浙江大学 基于单样例引导物体表征拆分的图像编辑算法
CN112950599A (zh) * 2021-03-10 2021-06-11 中山大学 一种基于深度学习的大肠空腔区及肠内容物标注方法
CN113112475A (zh) * 2021-04-13 2021-07-13 五邑大学 一种基于机器学习的中医耳部五脏区域分割方法和装置
CN113269778A (zh) * 2021-06-21 2021-08-17 复旦大学 基于迭代的图像弱监督分割方法
CN113269778B (zh) * 2021-06-21 2022-11-29 复旦大学 基于迭代的图像弱监督分割方法
CN113552944A (zh) * 2021-07-20 2021-10-26 深圳市博乐信息技术有限公司 一种智慧宣传系统
CN113552944B (zh) * 2021-07-20 2024-03-08 深圳市博乐信息技术有限公司 一种智慧宣传系统
CN114092485A (zh) * 2021-09-28 2022-02-25 华侨大学 一种基于mask rcnn的堆叠粗骨料图像分割方法及系统
CN115063370A (zh) * 2022-06-21 2022-09-16 西安翔迅科技有限责任公司 基于半自动化标注的砂轮磨损状态监测方法

Similar Documents

Publication Publication Date Title
CN111583287A (zh) 一种用于精细人像图片分割的深度学习模型训练方法
CN111062915A (zh) 一种基于改进YOLOv3模型的实时钢管缺陷检测方法
CN109035273B (zh) 一种免疫层析试纸卡的图像信号快速分割方法
CN110322445B (zh) 基于最大化预测和标签间相关性损失函数的语义分割方法
CN111161222B (zh) 一种基于视觉显著性的印刷辊筒缺陷检测方法
CN109035196B (zh) 基于显著性的图像局部模糊检测方法
CN109598681B (zh) 一种对称唐卡修复后图像的无参考质量评价方法
CN114066820A (zh) 一种基于Swin-Transformer与NAS-FPN的织物疵点检测方法
CN111681249A (zh) 基于Grabcut的砂石颗粒的改进分割算法研究
CN109829507B (zh) 航拍高压输电线路环境检测方法
Kiruthika et al. Matching of different rice grains using digital image processing
CN112534243A (zh) 检查装置及方法
CN113298809A (zh) 基于深度学习和超像素分割的复材超声图像缺陷检测方法
CN104637060B (zh) 一种基于邻域主成分分析-拉普拉斯的图像分割方法
CN114494739B (zh) 基于人工智能的色粉混合效果检测方法
CN117474863A (zh) 一种压缩多头自注意力神经网络的芯片表面缺陷检测方法
CN109741358B (zh) 基于自适应超图学习的超像素分割方法
Samsi et al. Colorization of H&E stained tissue using Deep Learning
CN108537798B (zh) 一种快速超像素分割方法
CN114359300B (zh) 一种图像分割模型的优化方法、装置、系统及存储介质
CN113223098B (zh) 图像颜色分类的预处理优化方法
CN115861610A (zh) 一种基于改进CondInst的砂石骨料图像的分割处理方法
CN115641294A (zh) 基于周长面积比筛选阳性突变细胞的方法及系统
CN115330705A (zh) 一种基于自适应加权模板ncc的蒙皮漆面缺陷检测方法
CN111260625B (zh) 胶印大张图像检测区域的自动提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200825

RJ01 Rejection of invention patent application after publication