CN113838084A - 基于编解码器网络和引导图的抠图方法 - Google Patents
基于编解码器网络和引导图的抠图方法 Download PDFInfo
- Publication number
- CN113838084A CN113838084A CN202111126534.5A CN202111126534A CN113838084A CN 113838084 A CN113838084 A CN 113838084A CN 202111126534 A CN202111126534 A CN 202111126534A CN 113838084 A CN113838084 A CN 113838084A
- Authority
- CN
- China
- Prior art keywords
- foreground
- network
- map
- guide
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000005070 sampling Methods 0.000 claims description 19
- 230000004927 fusion Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 7
- 230000003631 expected effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 53
- 238000012549 training Methods 0.000 description 29
- 238000012360 testing method Methods 0.000 description 17
- 238000010606 normalization Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 230000003628 erosive effect Effects 0.000 description 6
- 230000000750 progressive effect Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 238000012888 cubic function Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
一种基于编解码器网络和引导图的抠图方法,根据原图绘制一张引导图并通过编解码器网络进行第一次预测得到前景蒙版,根据预测的前景蒙版对原引导图进行修改并由编解码器网络再次进行预测,循环往复直到获得精确抠图结果。本发明通过三元图、草图、点击图或全灰输入作为引导图均可以通过简单操作实现精确抠图。
Description
技术领域
本发明涉及的是一种图像处理领域的技术,具体是一种基于编解码器网络和引导图的抠图方法。
背景技术
抠图(Image Matting)是通过输入的图像产生一个前景蒙版用于将前景物体(要抠出的物体)与背景分离,一般抠图问题被建模为求解公式Ii=αiFi+(1-αi)Bi,其中α∈[0,1],I表示的是输入图像(三通道),α(单通道)表示的是前景蒙版,F和B(三通道)分别表示前景和背景区域,i表示的是每个像素点的位置;为求解这个方程,就需要引入额外的约束,一般的约束有三元图(trimap)或草图(scribbles)等。当前的抠图方法主要是基于深度学习的方法,这些方法的精度要明显优于传统的基于采样的和基于传播的方法。大多数抠图方法使用一个手绘的三元图作为引导图来提供引导信息,绘制三元图较为耗时,对用户输入不友好,三元图使用白色(值为1),灰色(值为0.5)和黑色(值为0)的区域分别表示前景、过渡区域和背景区域。草图(scribblemap)和点击图(clickmap)同理,只是草图使用的是黑色和白色的曲线,相比三元图给定的信息要少,点击图使用的是圆,提供的信息更少,对神经网络的要求更高,但是对人工输入来说更加方便。在过去几年中,绝大多数的抠图方法使用的都是三元图并且取得较高的精度。
发明内容
本发明针对现有基于三元图的抠图技术,无法采用草图或点击图实现抠图的不足,提出一种基于编解码器网络和引导图的抠图方法,通过三元图、草图、点击图或全灰输入作为引导图均可以通过简单操作实现精确抠图。
本发明是通过以下技术方案实现的:
本发明涉及一种基于编解码器网络和引导图的抠图方法,根据原图绘制一张引导图并通过编解码器网络进行第一次预测得到前景蒙版,根据预测的前景蒙版对原引导图进行修改并由编解码器网络再次进行预测,循环往复直到获得精确前景蒙版,随后通过精确前景蒙版和输入图像获得要抠出的前景。
所述的编解码器网络包括:编码器、语义信息融合模块、跳跃连接模块和解码器,其中:编码器从输入图像和引导图在通道上连接而成的输入特征图中分别提取出多尺度深层特征图并输出至语义信息融合模块、提取出多尺度浅层特征图并通过跳跃连接模块输出至解码器;语义信息融合模块根据多尺度深层特征图进行特征融合与上采样,得到包含前景的轮廓信息的深层语义特征;解码器对深层语义特征进行上采样,同时与多尺度浅层特征图进行融合,最终得到前景蒙版。
所述的语义信息融合模块,包括:特征金字塔增强单元(FPEM)和联合上采样单元(JPU)级联,其中:特征金字塔增强单元从主干网络中提取多尺度特征并进行融合,增强语义信息,联合上采样单元将增强后的特征上采样得到深层语义特征。
所述的编解码器网络,通过基于深度学习的方法、使用公开抠图数据集进行基于渐进式三元图形变的训练,具体为:在训练过程中,随着训练步数的增加,输入网络的引导图中表示前景的区域面积与输入图像中前景区域的面积之比逐渐减少,输入网络的引导图中表示背景的区域面积与输入图像中背景区域的面积之比逐渐减少。输入神经网络的确定信息的量逐渐减少,使编解码器网络学会利用引导图中给定的有限的前景和背景信息预测前景蒙版。
所述的训练,其训练集和测试集使用的都是公开抠图数据集,其中训练集包含一定数量的前景图及其相应的前景蒙版,同时包含一定数量的背景图,测试集包含测试图片及相应的前景蒙版;损失函数使用L1、L2损失。
技术效果
本发明整体解决现有技术难以在保持抠图精度的同时减轻用户输入难度的缺陷,以及现有技术难以对抠图结果进行进一步优化的问题;本发明在训练过程中逐渐减少引导图中前景和背景的面积,使引导图逐渐从三元图变为草图,逐渐减少输入神经网络的确定信息的量,能够提升神经网络的鲁棒性,使其学会利用引导图中给定的前景和背景信息预测前景蒙版,而不是局限于三元图或草图的单个域中。用户可以根据前一次预测的前景蒙版在原引导图上进行修改,在没有预测正确的区域增加一些提示前景和背景的笔画,在局部增加引导图的信息,随后再次进行预测,循环往复,直到获得满意的抠图效果。
附图说明
图1为本发明网络结构示意图;
图2a和图2b分别为基于渐进式三元图形变的训练的流程图和效果图;
图3为语义信息融合模块的流程示意图;
图4a和图4b分别为迭代式优化抠图方法的流程图和效果图;
图5为主干网络及跳跃连接模块结构示意图;
图6为解码器部分结构示意图;
图7为渐进式三元图形变流程以及曲线粗细与训练步数的关系示意图;
具体实施方式
如图4a所示,为本实施例涉及的一种基于编解码器网络和引导图的抠图方法,根据原图绘制一张引导图并通过编解码器网络进行第一次预测得到前景蒙版,根据预测的前景蒙版对原引导图进行修改并由编解码器网络再次进行预测,循环往复直到获得精确抠图结果。
如图1所示,所述的前景蒙版,根据RGB图像与引导图在通道维度上连接成的特征图,使用本实施例编解码器网络得到。
如图3、图5、图6所示,所述的编解码器网络包括:编码器部分、语义信息融合模块、三个跳跃连接模块以及包含空间注意力模块的解码器部分,其中:三个跳跃连接模块分别设置于编码器部分和解码器部分之间并输出多尺度浅层特征图,语义信息融合模块接收编码器部分输出的多尺度深层特征图并输出至解码器部分,解码器部分输出精确抠图结果。
如图1所示,所述的编码器部分在训练阶段的输入特征图S1为RGB图和引导图在通道上连接而成,具体为输入特征图S1∈R4×512×512,长和宽都是512,该输入特征图经过卷积模块中两层3*3卷积以及相应的批次归一化、谱归一化以及ReLU激活函数之后,得到2倍下采样特征图S2∈R32*256*256,随后依次经过卷积、第一残差模块得到4倍下采样特征图S4∈R64*128*128,经过第二、三、四残差模块分别得到8倍下采样特征图S8∈R128*64*64、16倍下采样特征图S16∈R256*32*32和32倍下采样特征图S32∈R512*16*16。
所述的第一至第四残差模块,均包括主分支和下采样分支,其中:主分支包含两层3*3卷积及相应的谱归一化、批次归一化以及ReLU激活函数,下采样分支包含一层平均池化层、一层1*1卷积及相应的谱归一化、批次归一化。经过主分支和下采样分支处理的特征图将会进行元素对应相加,相加的结果经过一层ReLU激活函数作为残差模块的输出。
所述的跳跃连接模块分别将输入特征图S1、2倍下采样特征图S2和4倍下采样特征图S4得到尺寸分别为fea1∈R32*512*51232*512*512、fea2∈R32*256*256和fea3∈R64*128*128的多尺度浅层特征图并输出至解码器部分,每个跳跃连接模块均包括:两层卷积层以及相应的谱归一化、批次归一化以及ReLU激活函数。
如图1和图3所示,所述的语义信息融合模块包括:特征金字塔增强单元(FPEM)和联合上采样单元(JPU),其中:特征金字塔增强单元从主干网络中提取多尺度特征并进行融合,增强语义信息,联合上采样单元将增强后的特征上采样得到深层语义特征。
所述的融合具体为:将4倍、8倍、16倍和32倍下采样特征图S4、S8、S16和S32特征图进行多尺度特征融合,输出为128*128*128、128*64*64、128*32*32和128*16*16大小的特征图。
所述的上采样具体为:将128*64*64、128*32*32和128*16*16大小的特征图进行融合并上采样,得到512*64*64大小的特征图,进行双线性插值之后得到512*128*128大小的特征图,与之前FPEM输出的大小为128*128*128的特征图在通道上连接,随后经过一层卷积层的处理,得到深层语义特征SFM_OUT∈R64*128*128。
如图6所示,所述的解码器部分包括:第五残差模块和两个空间注意力模块,其中:第五残差模块根据来自语义信息融合模块输出的深层语义特征SFM_OUT∈R64*128*128和跳跃连接模块输出的fea3∈R64*128*128的特征图元素相加后使用最近邻采样以及反卷积对特征图进行上采样,输出大小为32*256*256的特征图,第一空间注意力模块根据第五残差模块输出的特征图和第二跳跃连接模块输出的多尺度浅层特征图fea2,在通道维度对32*256*256的特征图分别求均值和最大值,经过求均值得到的特征图和经过求最大值得到的特征图在通道上连接之后输入一层卷积和sigmoid函数,得到注意力图,再用注意力图和多尺度浅层特征图fea2进行元素对应相乘实现浅层信息过滤,得到的特征图经反卷积和相应的批次归一化以及LeakyReLU得到32*512*512大小的特征图并输出至第二空间注意力模块,第二空间注意力模块将第一空间注意力模块输出的特征图与多尺度浅层特征图fea1融合后,使用一层卷积将通道数压缩到1,使用函数alpha=(Tanh(x)+1)/2将每个像素点的值压缩到0和1之间,得到最终的前景蒙版。
所述的第五残差模块包括:主分支和上采样分支,其中:主分支包含两层反卷积及相应的谱归一化、批次归一化以及ReLU激活函数,上采样分支包含一层最近邻采样层、一层1*1卷积及相应的谱归一化、批次归一化。经过主分支和上采样分支处理的特征图将会进行元素对应相加,相加的结果经过一层ReLU激活函数作为残差模块的输出。
如图2a和图2b所示,所述的编解码器网络,采用基于渐进式三元图形变的训练,在训练过程中逐渐减少引导图中前景和背景的面积,使引导图逐渐从三元图变为草图,逐渐减少输入神经网络的确定信息的量,使编解码器网络学会利用引导图中给定的前景和背景信息预测前景蒙版,具体包括:
①对于每一个训练的步数,先从DIM数据集中获取标签的前景蒙版,然后对其进行腐蚀膨胀得到三元图;
所述的腐蚀膨胀是指:首先在1-30的范围随机选择滤波核的大小,之后分别使用该大小的腐蚀滤波核和膨胀滤波核对标签的前景蒙版进行腐蚀和膨胀操作,得到腐蚀图和膨胀图,将腐蚀图中白色前景区域(值为1)和膨胀图中黑色背景区域(值为0)绘制在一张全灰(值为0.5)的图上,就得到三元图。
②在三元图的前景和背景区域分别采样得到关键点,分别使用前景关键点和背景关键点曲线拟合得到曲线函数;
所述的采样是指:在三元图的前景和背景区域按均匀分布随机采样共10个关键点,得到10个关键点的坐标。
所述的曲线拟合是指:每取三个前景关键点或背景关键点使用三次函数拟合出一条曲线,当只有两个点,则得到连接这两个点的直线,当只有一个点,则得到一个圆,其直径等于曲线和直线的粗细。
③根据训练的步数来控制曲线粗细,得到前景草图和背景草图;
所述的控制曲线粗细是指:设置曲线的粗细为d,训练初期d值较大,输出引导图为三元图,训练后期d值较小,输出引导图为草图,将前景关键点得到的曲线、直线和圆以及背景关键点得到的曲线、直线和圆分别按此粗细d以值为1(白色)绘制在两张值为全0(黑色)的图上,得到前景草图和背景草图。
④使用从三元图中得到的前景和背景掩膜除去前景草图和背景草图中多余的部分;
所述的从三元图中得到的前景和背景掩膜是指:三元图分为前景区域(值为1)、过渡区域(值为0.5)和背景区域(值为0),分别根据前景区域和背景区域生成对应的掩膜就是前景和背景掩膜。
⑤将去除多余部分的前景草图和背景草图进行融合得到引导图,随着训练步数的增加,逐渐减小曲线的粗细就能使前景和背景面积逐渐减小,使引导图从三元图逐渐变为草图。
所述的前景草图和背景草图进行融合是指:已经得到去除多余部分的前景草图PFG和背景草图PBG,之后使用公式0.5+0.5*PFG+(-0.5)*PBG,得到用于训练的引导图。
所述的整个神经网络的损失函数为 其中:K为前景和背景的区域,T为除前景和背景以外的过渡区域,和α分别为预测的前景蒙版和标签前景蒙版,本方法在前景和背景区域使用L2损失,在过渡区域使用L1损失。同时使用梯度损失定义为在和α的梯度上使用L1损失。
本实施例涉及的编解码器网络中所有的卷积层都使用谱归一化(SpectralNorm)进行处理。
本实施例在实验测试平台(CPU:AMD R53600,GPU:GTX2080Ti)上进行,使用深度学习框架为Pytorch。
本实施例数据集使用DIM数据集,包含43100张背景和431个前景物体,需要通过程序合成成完整的图片才能送入网络中训练。训练时输入图像的大小调整为512*512,训练步数为60万次迭代,批次大小为10。在训练过程中使用的数据增强方式为随机仿射变换和本发明提出的渐进式三元图形变策略。首先对前景和相应的标签前景蒙版做随机仿射变换,之后使用公式Ii=αiFi+(1-αi)Bi将前景与背景合成一张图片,其中α为前景蒙板。之后就是渐进式三元图形变的流程,如图7所示,先对前景蒙版使用腐蚀膨胀的操作产生三元图,其中腐蚀膨胀使用的滤波核的大小在1-30的范围随机。得到三元图之后,在其前景和背景区域随机采样关键点,总数量为10个,随后每次取三个前景或背景关键点使用三次函数拟合出一条曲线,同时控制曲线的粗细,得到前景草图和背景草图,之后使用三元图的前景和背景掩膜分别于前景草图和背景草图进行元素相乘,得到去除多余部分的前景草图PFG和背景草图PBG,之后使用公式0.5+0.5*PFG+(-0.5)*PBG将前景草图和背景草图合成最终用于训练的引导图。在训练过程中,曲线粗细d随训练步数step的增加而减少,如图7所示。
本实施例提出的迭代式优化抠图方法。在使用阶段,通过将引导图和原图输入网络来预测出前景蒙版。在这个过程中,很难一次就能够达到理想的效果,因此需要对引导图进行不断地修改。本方法支持保留上一次输入网络的引导图,用户可以在其基础上进行修改。如图4b所示,第一次的抠图效果并不理想,第二次添加一些草图,前景的轮廓已经出来,但是细节部分效果不好,因此可以继续添加一下提示细节的草图,达到更好的效果。通过迭代式优化抠图方法,用户可以不断对引导图进行修改,直到取得理想的效果。
表1 DIM测试集(composition-1k)测试精度
在DIM测试集上进行测试,其中4个评价指标分别为Sum of Absolute Difference(SAD),Mean Square Error(MSE),Gradient error(Grad)以及Connectivity error(Conn)。其中Trimap test表示测试使用三元图,Scribblemap test表示测试使用草图,Clickmap test表示测试使用点击图,No-Guidance test表示输入一张值为0.5的引导图,没有任何前景和背景提示。表中用虚线将所有的方法分为三部分,最上面是基于三元图的方法,中间是无引导信息的抠图方法,下面是本方法。
将本实施例的结果和基于三元图的方法进行比较可以发现在输入三元图的情况下,本方法精度超过所有基于三元图的方法,在输入草图和点击图的情况下本实施例的输入对于用户来说更加简单,同时精度超过所有基于三元图的方法。在无引导信息输入的情况下,本实施例的结果也远远超过之前的无引导信息的抠图方法。对比本实施例的四个测试结果,可以看出给定的引导信息越精确,抠图结果就越好。
与现有技术相比,本发明使用DIM训练集训练能在DIM测试集上达到SAD30.1精度;相比基于三元图的方法,本方法只需草图或点击就能进行抠图,对于简单的前景,用户可以用草图或点击进行抠图,节约时间,对于难度高的前景,用户可以画更详细的三元图将其抠出;进一步可以在上一次输入的引导图的基础上进行修改,不断优化抠图结果。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (3)
1.一种基于编解码器网络和引导图的抠图方法,其特征在于,根据原图绘制一张引导图并通过编解码器网络进行第一次预测得到前景蒙版,根据预测的前景蒙版对原引导图进行修改并由编解码器网络再次进行预测,循环往复直到获得精确前景蒙版,随后通过精确前景蒙版和输入图像获得要抠出的前景;
所述的编解码器网络包括:编码器、语义信息融合模块、跳跃连接模块和解码器,其中:编码器从输入图像和引导图在通道上连接而成的输入特征图中分别提取出多尺度深层特征图并输出至语义信息融合模块、提取出多尺度浅层特征图并通过跳跃连接模块输出至解码器;语义信息融合模块根据多尺度深层特征图进行特征融合与上采样,得到包含前景的轮廓信息的深层语义特征;解码器对深层语义特征进行上采样,同时与多尺度浅层特征图进行融合,最终得到前景蒙版。
2.根据权利要求1所述的基于编解码器网络和引导图的抠图方法,其特征是,所述的语义信息融合模块,包括:特征金字塔增强单元和联合上采样单元级联,其中:特征金字塔增强单元从主干网络中提取多尺度特征并进行融合,增强语义信息,联合上采样单元将增强后的特征上采样得到深层语义特征。
3.根据权利要求1所述的基于编解码器网络和引导图的抠图方法,其特征是,当编解码器网络预测的前景蒙版未达到预期效果,则对原引导图进行修改并由编解码器网络再次进行预测,随后再次判断并循环直到获得精确抠图结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111126534.5A CN113838084A (zh) | 2021-09-26 | 2021-09-26 | 基于编解码器网络和引导图的抠图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111126534.5A CN113838084A (zh) | 2021-09-26 | 2021-09-26 | 基于编解码器网络和引导图的抠图方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113838084A true CN113838084A (zh) | 2021-12-24 |
Family
ID=78970099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111126534.5A Pending CN113838084A (zh) | 2021-09-26 | 2021-09-26 | 基于编解码器网络和引导图的抠图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113838084A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460770A (zh) * | 2016-12-13 | 2018-08-28 | 华为技术有限公司 | 抠图方法及装置 |
CN111223106A (zh) * | 2019-10-28 | 2020-06-02 | 稿定(厦门)科技有限公司 | 全自动人像蒙版抠图方法及系统 |
CN111815649A (zh) * | 2020-06-30 | 2020-10-23 | 清华大学深圳国际研究生院 | 一种人像抠图方法及计算机可读存储介质 |
CN112862838A (zh) * | 2021-02-04 | 2021-05-28 | 中国科学技术大学 | 基于用户实时点击交互的自然图像抠图方法 |
CN113012169A (zh) * | 2021-03-22 | 2021-06-22 | 深圳市人工智能与机器人研究院 | 一种基于非局部注意力机制的全自动抠图方法 |
-
2021
- 2021-09-26 CN CN202111126534.5A patent/CN113838084A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460770A (zh) * | 2016-12-13 | 2018-08-28 | 华为技术有限公司 | 抠图方法及装置 |
CN111223106A (zh) * | 2019-10-28 | 2020-06-02 | 稿定(厦门)科技有限公司 | 全自动人像蒙版抠图方法及系统 |
CN111815649A (zh) * | 2020-06-30 | 2020-10-23 | 清华大学深圳国际研究生院 | 一种人像抠图方法及计算机可读存储介质 |
CN112862838A (zh) * | 2021-02-04 | 2021-05-28 | 中国科学技术大学 | 基于用户实时点击交互的自然图像抠图方法 |
CN113012169A (zh) * | 2021-03-22 | 2021-06-22 | 深圳市人工智能与机器人研究院 | 一种基于非局部注意力机制的全自动抠图方法 |
Non-Patent Citations (2)
Title |
---|
QIHANG YU: "Mask Guided Matting via Progressive Refinement Network", 《ARXIV:2012.06722V2 [CS.CV]》, pages 1 - 10 * |
YU QIAO: "Attention-Guided Hierarchical Structure Aggregation for Image Matting", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, pages 13673 - 13682 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Connecting image denoising and high-level vision tasks via deep learning | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN109712165B (zh) | 一种基于卷积神经网络的同类前景图像集分割方法 | |
CN113033570B (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN111767979A (zh) | 神经网络的训练方法、图像处理方法、图像处理装置 | |
CN111861886B (zh) | 一种基于多尺度反馈网络的图像超分辨率重建方法 | |
CN111986075B (zh) | 一种目标边缘清晰化的风格迁移方法 | |
CN112215755B (zh) | 一种基于反投影注意力网络的图像超分辨率重建方法 | |
CN113870124B (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
Ma et al. | Meta PID attention network for flexible and efficient real-world noisy image denoising | |
CN113222875B (zh) | 一种基于色彩恒常性的图像和谐化合成方法 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN113052755A (zh) | 一种基于深度学习的高分辨率图像智能化抠图方法 | |
CN113052775B (zh) | 一种图像去阴影方法及装置 | |
CN112686816A (zh) | 一种基于内容注意力机制和掩码先验的图像补全方法 | |
CN115471665A (zh) | 基于三分图视觉Transformer语义信息解码器的抠图方法与装置 | |
Yu et al. | Semantic-driven face hallucination based on residual network | |
CN113436224B (zh) | 一种基于显式构图规则建模的智能图像裁剪方法及装置 | |
CN112686817B (zh) | 一种基于不确定性估计的图像补全方法 | |
CN113538608B (zh) | 基于生成对抗网络的可控人物图像生成方法 | |
CN113838084A (zh) | 基于编解码器网络和引导图的抠图方法 | |
CN110458849B (zh) | 一种基于特征修正的图像分割方法 | |
Yu et al. | MagConv: Mask-guided convolution for image inpainting | |
CN111260585A (zh) | 基于类凸集投影算法的图像恢复方法 | |
CN116188273A (zh) | 一种基于不确定性导向的双模态可分离图像超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |