CN112884776B - 一种基于合成数据集增广的深度学习抠图方法 - Google Patents

一种基于合成数据集增广的深度学习抠图方法 Download PDF

Info

Publication number
CN112884776B
CN112884776B CN202110089679.6A CN202110089679A CN112884776B CN 112884776 B CN112884776 B CN 112884776B CN 202110089679 A CN202110089679 A CN 202110089679A CN 112884776 B CN112884776 B CN 112884776B
Authority
CN
China
Prior art keywords
matting
data set
network
deep learning
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110089679.6A
Other languages
English (en)
Other versions
CN112884776A (zh
Inventor
高新宇
金小刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110089679.6A priority Critical patent/CN112884776B/zh
Publication of CN112884776A publication Critical patent/CN112884776A/zh
Application granted granted Critical
Publication of CN112884776B publication Critical patent/CN112884776B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于合成数据集增广的深度学习抠图方法,包括以下步骤:利用DAZ3D软件对adobe数据集进行数据增广,并合成深度学习所需的数据集;对数据集中的alpha遮罩进行腐蚀和膨胀的形态学操作,得到训练所需的三分图;在VGG16网络结构的基础上构建适合抠图使用的网络结构,利用VGG16网络的编解码结构对由图像和三分图拼接而成的4通道输入进行卷积,输出粗略抠图结果;构建用于精细抠图的网络结构,将得到的粗略抠图结果和源图像拼接经过卷积后得到边界清晰的预测结果,结合粗略抠图训练形成一个整体网络,重复训练所述整体网络,对整体网络的权重进行更新;将得到的整体网络的权重保存为预训练网络模型,用于后续批量抠图的需求。本发明实现了自然背景的图像毛发级别精度的抠图。

Description

一种基于合成数据集增广的深度学习抠图方法
技术领域
本发明涉及计算机图像处理领域,特别是涉及一种基于合成数据集增广的深度学习抠图方法。
背景技术
图像的抠图是一个有广泛应用背景的领域,从修图软件到影视特效制作都会涉及背景抠图的问题。抠图与图像分割属于一大类问题,图像分割的目标是“像素级”精度,而抠图的目标是“半像素”级精度,即需要求解前景物体在图像中对应的透明度,两者具有很高的相似度。虽然图像分割的问题已经研究的较为成熟,但如遇到前景边缘存在毛发等软边缘的细节、或者前景物体具有半透明和折射等特点,使用抠图操作仍有其特有的优势,故抠图问题具有区别于图像分割的独有的研究价值。
抠图在早些年的研究主要以传统的计算机视觉算法为主,抠图的图像背景也多为绿屏、蓝屏等这类纯色背景。近几年出现了针对自然背景的抠图需求,故其对抠图算法提出了更高的要求,同时深度学习的不断发展为抠图提供了崭新的解决思路和方案。
现阶段抠图(包括抠图的线性组合方程)的主要问题为无法从单个像素求解出前景背景和包括透明度在内的7个未知数,故在输入的原始图片上要辅助提供额外的信息。不论是传统的算法(例如:passion image matting)还是现有的深度学习的方法都要求以三分图、大致形状分割或者用户涂鸦标记等方法提供辅助信息来帮助抠图,在此基础上抠图还是存在很大的难点,主要体现在:
1、对于毛发细节的保留是否完整,是否会出现毛发细节缺失,毛发分离断裂的结果。
2、对于半透明物体而言,是否能避免透射的背景带来的结构上的影响,是否能较为清晰地抠出大片连续平滑的半透明部分。
3、对于背景较为复杂的图像,方法是否足够鲁棒,是否能避免或者极大的减少复杂背景带来的干扰。
在这几年提出的关于深度学习的方法中又涉及到高质量数据集获取的问题,这也给研究抠图问题造成了很大了困难。
公开号为CN111161277A的说明书公开了一种基于深度学习的自然图像抠图方法,包括以下步骤:获取抠图数据集,并进行数据增强;搭建具有编码器-解码器结构的自然图像抠图模型,为保留细节信息,设计编码器使其下采样倍数为4,为弥补下采样倍数下降带来的感受野变小,引入空洞卷积扩大感受野,保存最大池化操作中最大像素位置,以便为上采样阶段提供位置信息;为解决多尺度问题,在编码器顶部连接一个空洞空间金字塔模块;在解码器中设计全局语境模块,用于融合所述编码器与解码器对应的高层特征;最后训练并测试。该发明主要针对自然图像进行抠图方法设计,采用了全局语境模块,但对于毛发等软边缘细节并没有涉及。
公开号为CN109035253A的说明书公开了了一种语义分割信息指导的深度学习自动图像抠图方法,包括步骤:S1:采集待抠图图像数据集;S2:构建用于自动图像抠图的深度学习模型;S3:利用采集的数据集对深度学习模型进行训练,得到训练完成的深度学习模型;S4:对于待抠图的图像,直接将其输入训练完成的深度学习模型,即可快速得到前景目标图像。该发明采用了语义分割信息指导对抠图方法进行了设计,但该模型的精细度并没有达到毛发级别精度的抠图。
发明内容
本发明的目的在于提供了一种基于合成数据集增广的深度学习抠图方法,在数据集的构建上提出了利用3D软件进行数据增广,对自然背景的图像进行毛发级别精度的抠图。
一种基于合成数据集增广的深度学习抠图方法,包括以下步骤:
(1)利用DAZ 3D软件对adobe数据集进行数据增广,并合成深度学习所需的数据集;
(2)对数据集中的alpha遮罩进行腐蚀和膨胀的形态学操作,得到每个训练图片对应的三分图;
(3)在VGG16网络结构的基础上构建适合抠图使用的网络结构,利用VGG16网络的编解码结构对由图像和三分图拼接而成的4通道输入进行卷积,粗略抠图训练阶段收敛后,输出粗略抠图结果;
(4)构建用于进一步精细抠图的网络结构,将步骤(3)中得到的粗略抠图结果和源图像拼接为4通道RGBA的输入,经过4层卷积后得到边界清晰的预测结果,精细抠图训练阶段收敛后,结合步骤(3)的粗略抠图训练形成一个整体网络,重复训练所述整体网络,对整体网络的权重进行更新;
(5)将步骤(4)得到的整体网络的权重保存为预训练网络模型,用于后续批量抠图的需求。
优选地,所述Adobe数据集为现有数据集,从adobe数据集包含的具有精细alpha遮罩的图像中提取前景,选取MSCOCO-2017-Train-Dataset和PASCAL-VOC-2012数据集中的图片作为背景。
步骤(1)中,利用如下线性公式合成深度学习所需的数据集,
I=F*alpha+B*(1-alpha)。
其中I表示合成后的图片,F,B表示前景图和背景图;
所述DAZ3D利用图形学渲染的方法生成高质量的图片为现有数据集的前景图片提供数据增广,具体步骤如下:
1.在软件的虚拟环境中构建模型的光照场景。尽量还原现实中的光照条件,并注意模型毛发细节等摆放问题。
2.对整个场景进行分级渲染,得到单张图片和其对应的alpha遮罩。
3.更换多个模型和场景背景,进行批量操作得到由DAZ3D软件生成的数据集。
4.将得到的数据集与之前合成的数据集进行合并,形成最终的数据集。
使用DAZ 3D软件搭建虚拟环境,对整个模型场景进行光照和烘焙。渲染出接近真实环境的光照条件和精细的alpha通道。
所述步骤(2)中对数据集中的alpha遮罩进行腐蚀和膨胀的形态学操作的步骤包括:对alpha遮罩进行二值化操作;对二值化的结果进行多次的腐蚀和膨胀的图像形态学操作以消除边缘的毛发等细节区域;膨胀后的背景作为三分图的黑色区域,腐蚀后的前景作为三分图的白色区域,其他区域作为三分图的灰色区域,生成训练所用三分图并储存。
优选地,所述腐蚀和膨胀的形态学操作中的卷积核大小从2-5中随机产生,迭代次数从5-15中随机产生。
所述步骤(3)中,利用VGG16网络的编解码结构对输入图像通道进行卷积,具体步骤包括:在编码阶段具有14个卷积层和5个最大池化层,在解码阶段具有6个步长为分数的卷积层和5个反池化层,通过ADAM优化器对网络模型进行训练,最终得到单通道的、与输入图像等大的alpha图像输出结果。
所述步骤(3)中,粗略抠图训练阶段的损失函数为:
Figure BDA0002912264220000041
其中,
Figure BDA0002912264220000042
是alpha预测的单独损失,
Figure BDA0002912264220000043
Figure BDA0002912264220000044
是利用预测结果合成后RGB三通道的损失,
Figure BDA0002912264220000045
Figure BDA0002912264220000046
为预测值,
Figure BDA0002912264220000047
为真实值,wl为权值,
Figure BDA0002912264220000048
为使用
Figure BDA0002912264220000049
计算的单像素RGB向量;
Figure BDA00029122642200000410
为真实图片对应单像素RGB向量;∈2为防止梯度不稳定的极小的常量。
所述步骤(4)中,所述4层卷积中前3层卷积采用relu激活函数。
所述步骤(4)中,精细抠图训练阶段使用的损失函数为精细抠图的alpha预测的单独损失,所述整体网络训练的损失函数为粗略抠图训练阶段的损失函数与精细抠图训练阶段的损失函数相加。
本发明与现有技术相比,主要优点包括:
本发明不论自然背景还是纯色背景的抠图测试中均表现优秀;
本发明对毛发等软边缘细节保留较好,具备对大块半透明区域的抠图能力。
附图说明
图1为本发明实施例基于合成数据集增广的深度学习抠图方法的流程示意图。
图2为adobe数据集中的自然图像(原图为彩色照片)。
图3为图2在adobe数据集中对应的alpha遮罩。
图4为daz3D软件合成的图像(原图为彩色照片)。
图5为图4在daz3D软件合成数据集中对应的alpha遮罩。
具体实施方式
如图1所示,基于合成数据集增广的深度学习抠图方法,包括以下步骤:
S1利用DAZ 3D软件对adobe数据集进行数据增广,并合成深度学习所需的数据集;
S2对数据集中的alpha遮罩进行腐蚀和膨胀的形态学操作,得到每个训练图片对应的三分图;
S3在VGG16网络结构的基础上构建适合抠图使用的网络结构,利用VGG16网络的编解码结构对由图像和三分图拼接而成的4通道输入进行卷积,粗略抠图训练阶段收敛后,输出粗略抠图结果;
S4构建用于进一步精细抠图的网络结构,将S3中得到的粗略抠图结果和源图像拼接为4通道RGBA的输入,经过4层卷积后得到边界清晰的预测结果,精细抠图训练阶段收敛后,结合步骤(3)的粗略抠图训练形成一个整体网络,重复训练所述整体网络,对整体网络的权重进行更新;
S5将S4得到的整体网络的权重保存为预训练网络模型,用于后续批量抠图的需求。
下面以图2和图4为例,进行说明:
进行步骤S1,从adobe数据集包含的具有精细alpha遮罩的图像中提取前景,如图3,选取MSCOCO-2017-Train-Dataset和PASCAL-VOC-2012数据集中众多的图片作为背景,利用如下线性公式进行合成:
I=F*alpha+B*(1-alpha)。
其中I表示合成后的图片,F,B表示前景图和背景图。
DAZ3D利用图形学渲染的方法生成高质量的图片为现有数据集的前景图片提供数据增广,具体步骤如下:
1.在软件的虚拟环境中构建模型的光照场景。尽量还原现实中的光照条件,并注意模型毛发细节等摆放问题。
2.对整个场景进行分级渲染,得到单张图片如图4所示,及其对应的alpha遮罩,如图5所示。
3.更换多个模型和场景背景,进行批量操作得到由DAZ3D软件生成的数据集。
4.将得到的数据集与之前合成的数据集进行合并,形成最终的数据集。
进行步骤S2,对alpha遮罩进行二值化操作;对二值化的结果进行多次的腐蚀和膨胀的图像形态学操作以消除边缘的毛发等细节区域,腐蚀和膨胀的形态学操作中的卷积核大小从2-5中随机产生,迭代次数从5-15中随机产生。
膨胀后的背景作为三分图的黑色区域,腐蚀后的前景作为三分图的白色区域,其他区域作为三分图的灰色区域,生成训练所用三分图并储存。
进行步骤S3,利用VGG16网络的编解码结构对输入图像通道进行卷积,具体步骤包括:在编码阶段具有14个卷积层和5个最大池化层,在解码阶段具有6个步长为分数的卷积层和5个反池化层,通过ADAM优化器对网络模型进行训练,最终得到单通道的、与输入图像等大的alpha图像输出结果。
粗略训练阶段的损失函数为:
Figure BDA0002912264220000051
其中,
Figure BDA0002912264220000061
是alpha预测的单独损失,
Figure BDA0002912264220000062
Figure BDA0002912264220000063
是利用预测结果合成后RGB三通道的损失,
Figure BDA0002912264220000064
Figure BDA0002912264220000065
为预测值,
Figure BDA0002912264220000066
为真实值,wl为权值,
Figure BDA0002912264220000067
为使用
Figure BDA0002912264220000068
计算的单像素RGB向量;
Figure BDA0002912264220000069
为真实图片对应单像素RGB向量;∈2为防止梯度不稳定的极小的常量。
进行步骤S4,构建用于进一步精细抠图的网络结构,将步骤(3)中得到的粗略抠图结果和源图像拼接为4通道RGBA的输入。经过4层卷积后得到边界清晰的预测结果,其中前3层卷积使用relu激活函数,得到边界更为清晰的预测结果。精细抠图训练阶段使用的损失函数为精细抠图的alpha预测的单独损失。
精细抠图训练阶段收敛后,结合S3的训练形成一个整体网络,重复训练所述整体网络,对整体网络的权重进行更新,整体网络训练的损失函数为粗略抠图训练阶段的损失函数与精细抠图训练阶段的损失函数相加。
进行步骤S5,将训练好的网络权重保存为预训练网络模型,用于后续多次调用方法时对网络进行初始化。
利用本实施例对自然背景和纯色背景的抠图进行测试,得出本实施例对毛发等软边缘细节保留较好,具备对大块半透明区域的抠图能力。在抠图标准测试中,梯度误差和连接性误差均保持在2×10-3左右,故本发明可用于用户抠图或产品抠图等app中。

Claims (10)

1.一种基于合成数据集增广的深度学习抠图方法,其特征在于,包括以下步骤:
(1)利用DAZ 3D软件对adobe数据集进行数据增广,并合成深度学习所需的初步数据集;
(2)对数据集中的alpha遮罩进行腐蚀和膨胀的形态学操作,得到每个图片对应的三分图训练数据;
(3)在VGG16网络结构的基础上构建适合抠图使用的网络结构,利用VGG16网络的编解码结构对由图像和三分图拼接而成的4通道输入进行卷积,粗略抠图训练阶段收敛后,输出粗略抠图结果;
(4)构建用于进一步精细抠图的网络结构,将步骤(3)中得到的粗略抠图结果和源图像拼接为4通道RGBA的输入,经过4层卷积后得到边界清晰的预测结果,精细抠图训练阶段收敛后,结合步骤(3)的粗略抠图训练形成一个整体网络,重复训练所述整体网络,对整体网络的权重进行更新;
(5)将步骤(4)得到的整体网络的权重保存为预训练网络模型,用于后续批量抠图的需求。
2.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,步骤(1)中,所述Adobe数据集为现有数据集,从adobe数据集包含的具有精细alpha遮罩的图像中提取前景,选取MSCOCO-2017-Train-Dataset和PASCAL-VOC-2012数据集中的图片作为背景。
3.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,步骤(1)中,利用如下线性公式合成深度学习所需的数据集,
I=F*alpha+B*(1-alpha)
其中I表示合成后的图片,F,B表示前景图和背景图。
4.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,步骤(1)中,所述DAZ3D利用图形学渲染的方法为现有数据集的前景图片提供数据增广,具体步骤如下,
1.1在软件的虚拟环境中构建模型的光照场景;
1.2对整个场景进行分级渲染,得到单张图片和其对应的alpha遮罩;
1.3更换多个模型和场景背景,进行批量操作得到由DAZ3D软件生成的数据集;
1.4将得到的数据集与之前合成的数据集进行合并,形成增广后的数据集。
5.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述步骤(2)中对alpha遮罩进行腐蚀和膨胀的形态学操作的步骤包括:对alpha遮罩进行二值化操作;对二值化的结果分别进行多次的腐蚀和膨胀的图像形态学操作以消除边缘的毛发细节区域;膨胀后的背景作为三分图的黑色区域,腐蚀后的前景作为三分图的白色区域,其他区域作为三分图的灰色区域,生成训练所用三分图并储存。
6.根据权利要求5所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述腐蚀和膨胀的形态学操作中的卷积核大小从2-5中随机产生,迭代次数从5-15中随机产生。
7.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述步骤(3)中,利用VGG16网络的编解码结构对由图像和三分图拼接而成的RGBA4通道输入进行卷积,具体步骤包括:编码阶段具有14个卷积层和5个最大池化层,解码阶段具有6个步长为分数的卷积层和5个反池化层,通过ADAM优化器对网络模型进行训练,得到单通道的与输入图像等大的alpha图像输出结果。
8.根据权利要求7所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述步骤(3)中,粗略抠图训练阶段的损失函数为:
Figure FDA0003593592060000021
其中,
Figure FDA0003593592060000022
是alpha预测的单独损失,
Figure FDA0003593592060000023
Figure FDA0003593592060000024
是利用预测结果合成后RGB三通道的损失,
Figure FDA0003593592060000025
Figure FDA0003593592060000026
为预测值,
Figure FDA0003593592060000027
为真实值,wl为权值,
Figure FDA0003593592060000028
为使用
Figure FDA0003593592060000029
计算的单像素RGB向量,
Figure FDA00035935920600000210
为真实图片对应单像素RGB向量,∈2为防止梯度不稳定的极小常量。
9.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述步骤(4)中,所述4层卷积中前3层卷积采用relu激活函数。
10.根据权利要求1所述的基于合成数据集增广的深度学习抠图方法,其特征在于,所述步骤(4)中,精细抠图训练阶段使用的损失函数为精细抠图的alpha预测的单独损失,所述整体网络训练的损失函数为粗略抠图训练阶段的损失函数与精细抠图训练阶段的损失函数相加。
CN202110089679.6A 2021-01-22 2021-01-22 一种基于合成数据集增广的深度学习抠图方法 Active CN112884776B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110089679.6A CN112884776B (zh) 2021-01-22 2021-01-22 一种基于合成数据集增广的深度学习抠图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110089679.6A CN112884776B (zh) 2021-01-22 2021-01-22 一种基于合成数据集增广的深度学习抠图方法

Publications (2)

Publication Number Publication Date
CN112884776A CN112884776A (zh) 2021-06-01
CN112884776B true CN112884776B (zh) 2022-05-31

Family

ID=76050406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110089679.6A Active CN112884776B (zh) 2021-01-22 2021-01-22 一种基于合成数据集增广的深度学习抠图方法

Country Status (1)

Country Link
CN (1) CN112884776B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362365A (zh) * 2021-06-17 2021-09-07 云从科技集团股份有限公司 视频处理方法、系统、装置及介质
CN113379786B (zh) * 2021-06-30 2024-02-02 深圳万兴软件有限公司 图像抠图方法、装置、计算机设备及存储介质
CN113592074B (zh) * 2021-07-28 2023-12-12 北京世纪好未来教育科技有限公司 一种训练方法、生成方法及装置、电子设备
CN114373109B (zh) * 2022-01-16 2024-03-05 安徽大学 一种基于深度学习的自然图像抠图方法及抠图装置
CN114821399A (zh) * 2022-04-07 2022-07-29 厦门大学 一种面向智慧课堂的板书自动提取方法
CN115049695B (zh) * 2022-06-20 2024-05-03 焦点科技股份有限公司 一种自适应生成三分图及融合语义的电商产品抠图方法
CN117351118B (zh) * 2023-12-04 2024-02-23 江西师范大学 一种结合深度信息的轻量化固定背景抠像方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955918A (zh) * 2014-04-03 2014-07-30 吉林大学 一种全自动精细抠像装置及精细抠像方法
CN106952276A (zh) * 2017-03-20 2017-07-14 成都通甲优博科技有限责任公司 一种图像抠图方法及装置
WO2018107825A1 (zh) * 2016-12-13 2018-06-21 华为技术有限公司 抠图方法及装置
CN110610509A (zh) * 2019-09-18 2019-12-24 上海大学 可指定类别的优化抠图方法及系统
CN111161277A (zh) * 2019-12-12 2020-05-15 中山大学 一种基于深度学习的自然图像抠图方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955918A (zh) * 2014-04-03 2014-07-30 吉林大学 一种全自动精细抠像装置及精细抠像方法
WO2018107825A1 (zh) * 2016-12-13 2018-06-21 华为技术有限公司 抠图方法及装置
CN106952276A (zh) * 2017-03-20 2017-07-14 成都通甲优博科技有限责任公司 一种图像抠图方法及装置
CN110610509A (zh) * 2019-09-18 2019-12-24 上海大学 可指定类别的优化抠图方法及系统
CN111161277A (zh) * 2019-12-12 2020-05-15 中山大学 一种基于深度学习的自然图像抠图方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GPU加速的近实时图像彩色化;赵汉理;《计算机辅助设计与图形学学报》;20170815;全文 *
人体前景的自动抠图算法;冉清等;《计算机辅助设计与图形学学报》;20200215(第02期);全文 *
注意力机制和特征融合的自动抠图算法;王欣等;《计算机辅助设计与图形学学报》;20181231(第09期);全文 *

Also Published As

Publication number Publication date
CN112884776A (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
CN112884776B (zh) 一种基于合成数据集增广的深度学习抠图方法
Golts et al. Unsupervised single image dehazing using dark channel prior loss
CN110443842B (zh) 基于视角融合的深度图预测方法
CN111161277B (zh) 一种基于深度学习的自然图像抠图方法
US9558268B2 (en) Method for semantically labeling an image of a scene using recursive context propagation
Huang et al. Deep learning for image colorization: Current and future prospects
CN112163401B (zh) 基于压缩与激励的gan网络的汉字字体生成方法
CN113870124B (zh) 基于弱监督的双网络互激励学习阴影去除方法
CN114038006A (zh) 一种抠图网络训练方法及抠图方法
CN113408471A (zh) 一种基于多任务深度学习的无绿幕人像实时抠图算法
CN112396645A (zh) 一种基于卷积残差学习的单目图像深度估计方法和系统
CN115428027A (zh) 神经不透明点云
Li et al. Uphdr-gan: Generative adversarial network for high dynamic range imaging with unpaired data
Xiao et al. Image hazing algorithm based on generative adversarial networks
Liu et al. WSDS-GAN: A weak-strong dual supervised learning method for underwater image enhancement
CN114898021B (zh) 音乐舞台表演视频的智能卡通化方法
CN110930343A (zh) 基于sr-mdcnn的遥感图像融合方法
CN116580156A (zh) 基于大数据深度学习的文本生成3d打印模型方法
CN116342877A (zh) 一种复杂场景下基于改进aspp和融合模块的语义分割方法
CN114092774B (zh) 基于信息流融合的rgb-t图像显著性检测系统及检测方法
CN115713585A (zh) 纹理图像重建方法、装置、计算机设备和存储介质
CN112164078B (zh) 基于编码器-解码器的rgb-d多尺度语义分割方法
CN115578497A (zh) 一种基于gan网络的图像场景重光照的网络结构及方法
CN115115860A (zh) 一种基于深度学习的图像特征点检测匹配网络
CN114283181A (zh) 一种基于样例的动态纹理迁移方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant