CN111223041A - 一种全自动自然图像抠图方法 - Google Patents
一种全自动自然图像抠图方法 Download PDFInfo
- Publication number
- CN111223041A CN111223041A CN202010029018.XA CN202010029018A CN111223041A CN 111223041 A CN111223041 A CN 111223041A CN 202010029018 A CN202010029018 A CN 202010029018A CN 111223041 A CN111223041 A CN 111223041A
- Authority
- CN
- China
- Prior art keywords
- features
- convolution
- level
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims abstract description 10
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 2
- 230000002250 progressing effect Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000005070 sampling Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉技术领域,提供了一种全自动自然图像抠图方法,对于单幅图像的图像抠图来说,主要由高级语义特征和低级结构特征的提取、金字塔特征的过滤、空间结构信息的抽取、利用判别器网络的后期优化四部分构成。本发明可以在不需要任何辅助信息的情况下生成精准的蒙版遮罩,省去科研人员标注辅助信息的时间和用户使用时的交互时间。
Description
技术领域
本发明属于计算机视觉技术领域,涉及深度学习的全自动自然图像抠图的方法。
背景技术
一个前景物体如何无缝的和另一张图像合成一张新的图像,其最为关键的技术便是图像抠取,随着社会的发展和科技的不断进步,我们身边的图像数量正在呈指数速度增长,同时也伴随着众多对图像的处理技术接踵而来。从最初的图像分类到目标检测,再到图像分割等,其背后无不隐藏着人们对于解放双手、减少劳动力的需求,而这些需求的解决正是通过不同的图像处理技术来解决进而便利我们的生活。
图像抠图(Image Matting)是计算机视觉中较为重要的一个任务,它建立在图像分割的基础上,但又对图像分割做了深层的延伸。图像分割旨在从将图像中的不同区域或感兴趣的区域给分割出来,其本质上是一个非0即1的二分类问题,对于被分割的边缘细节不做过多要求;而图像抠图是不仅仅将前景区域分割出来,其还要求被分割出物较高的精细程度,例如人的头发,动物的毛发、密集度较高的网状体和半透明的物体等都是要被精细的分割并且肉眼可见的。这种高精度的分割结果对于图像合成具有意义非凡的用途,小到可以应用在日常的人像换背景等应用,大至电影行业的虚拟背景制作以及工业界的零部件精细制作等领域。
图像抠图和图像合成本质上是一个互为可逆的过程,其数学模型可以通过如下公式表示:
Iz=αFz+(1-α)Bz,α∈[0,1] (1)
如上公式中z=(x,y)表示输入图像I中的像素位置,F和B分别指分割之后的前景和背景值,α表示该像素点的不透明程度,其数值是介于0和1之间的,本质上属于一个回归问题。该公式给出了对于图像合成的直观解释,即一幅图像众多像素点组成,而每一个像素点均是由前景和背景的不同加权和组成,α便是这个加权因子。当α=1的时候表示完全不透明,即此像素只由前景构成;当α=0的时候表示完全透明,即此像素只由背景构成;当α∈[0,1]的时候,则是表明该像素是前景和背景的加权和共同组成,此像素所在的区域又称未知区域或过渡区域。
反观公式1可以看出图像抠图是一个欠约束的问题,对于一张RGB的彩色图,存在7个未知量却只有3个已知量。所以现存的一些方法均是通过增加一些额外的辅助信息(例如Trimap三分图、Scribble笔画)来解决这个病态问题,在这些辅助信息中通常会人工指定部分区域的α值。当然,随着科学技术的发展,图像抠图技术及相关领域的研究也在不断取得新的突破,在图像抠取领域的算法种类很多,大致可以分为以下三种类型。
(1)基于采样方式
基于采样的方法主要是通过对已知的前景和背景区域进行采样,以找到给定像素的前景和背景的候选颜色,然后使用不同的评测指标来确定最优的前景和背景像素的加权组合。不同的采样方法对于像素的加权组合也有不同的效果,包括沿着未知区域的边界去采样像素对、基于射线投射的采样、基于颜色聚类的采样等方法。这里的评测指标用于在采样的候补对象中进行决策,其主要包含对公式1的重建误差、距未知区域像素的距离及对前景/背景采样的相似性测量等方法。
(2)基于传播方式
在传播的方法中,公式一中的α被允许通过不同的传播算法将已知α的像素点的值传播到未知α的像素点。传播算法最为主流的便是对前景/背景进行局部平滑假设,随后通过求解线性稀疏方程组来找到全局最优的alpha蒙版遮罩。其它的方法还包括随机游走和非局部化的传播等。
(2)基于深度学习方式
随着深度学习的快速发展,在图像分类、语义分割等视觉领域中越来越多基于深度学习的方法超过了传统的图像处理技术,而深度学习技术在图像抠图领域的应用使得图像合成最终生成图像的质量得到了很大的提升。香港中文大学贾佳亚教授的实验室提出了深度自动人像抠图,其不仅考虑图像的语义预测,同时也考虑了像素级别的蒙版遮罩的优化。在实现的时候首先通过语义分割将输入图像分割为前景、背景和未知区域、然后提出一个新颖的遮罩层使得整个网络可以进行前馈和反馈操作。这种端到端的深度学习方法使得该方法不需要任何的用户交互,在保证精度的同时大幅度减少了人工的劳动力。最近来自浙江大学的许巍巍教授的实验室提出一种Late-fusion的方法,该方法从分类的角度出发,将图像抠图问题拆分为前景和背景的粗分类和边缘优化问题。在实现的时候先对一张图像进行两个分类任务,然后利用多个卷积层来进行一个融合操作。其与深度人像分割的区别在于深度人像分割利用传统的传播方法来进行桥接训练过程,而Late-fusion采用的是全卷积的方式分阶段训练。
发明内容
本发明针对现有方法的不足,提出了一种基于注意力引导的层次结构融合的全自动图像抠图框架。本框架能够在只输入单张RGB图像而没有任何额外辅助信息的情况下获得较精细的蒙版遮罩。用户输入单张RGB的图像到框架,首先会经过一个带有扩张金字塔池化模块的特征提取网络去对图像进行特征的提取,随后会经过一个通道注意力的模块去对高级特征进行一个过滤,之后会将过滤的结果和低级特征一并送入空间注意力模块以进行图像细节的抽取。最后将得到的蒙版遮罩和标签信息以及原始图像一并送入判别器网络以进行后期的优化,最终得到一个精细的图像蒙版。
本发明的技术方案:
一种全自动自然图像抠图方法,在无需任何额外辅助信息的情况下实现了从单张RGB图像中获取精细的前景物体的蒙版遮罩,该方法共由四部分构成,整体框架如图1所示,具体步骤如下:
(1)层级特征提取阶段
层级特征提取阶段主要从输入的图像中抽取不同层级的特征表示;选取ResNext作为基础网络,将其划分为五个块,五个块由浅到深,从浅层提取低级空间特征和纹理特征,到深层提取高级语义特征,依次递进;随着网络的深度加深,网络本身学习到的更多是深层语义特征,因此利用第二个块去提取低级空间特征和纹理特征,如图2所示展示了图像结构性相关的信息。为了让深层网络获得更大的感受野,先将第五个块的普通卷积操作改为扩张率为2的扩张卷积;为了解决图像中前景物体大小不同的问题,将第五个块提取出来的高级语义特征送入扩张空间金字塔池化模块,如图3所示,对于带扩张率的扩张卷积,设定扩张率分别是6、12和18;随后将这五个并行操作的结果级联起来经过一个3×3的卷积操作得到高层语义特征表示;
(2)金字塔特征过滤阶段
在将高层语义特征表示提取出来之后,传统方法通常是不加筛选的对整个特征表示进行下一步处理。由于图像中的物体种类不止一种,导致高层被激活的语义信息不止一处,前景背景的物体均有被激活的可能性(即不同的通道对于响应的物体也不同),这对于图像抠取来说会造成很大的困扰。本发明提出了金字塔特征过滤模块(即分层注意力中的通道注意力),具体流程如图4所示,将得到的高级语义特征先通过一个最大池化操作,以此将每一层的多个特征值压缩为一个特征值;接着将压缩后的特征值通过一个由三层卷积操作组成的共享多层感知机以进行多个通道间特征值的更新;最后将通过非线性激活函数得到的通道注意力图中每一个通道的元素和上阶段的高级语义特征对应的该通道所有元素进行相乘操作,以此来达到对不同激活区域的选择;数学表达式如下:
Output=σ(MLP(MaxPool(Input)))×Input(2)
式中,Input表示第一阶段得到的高级语义特征;σ表示非线性激活函数,经过σ之后得到的通道注意力图的大小是1×1×n,n表示通道的数量,而得到的高级语义特征的大小是x×y×n,x和y表示通道的长和宽,二者在执行相乘时会执行广播操作,是通道注意力图的一个元素和高级语义特征中对应通道的全部元素相乘;
(3)空间信息抽取阶段
现存的基于深度学习的图像抠图方法,直接将选择后的高级语义特征做上采样操作得到最终的蒙版遮罩,这会很大程度上丢失前景物体在边缘的细节信息和纹理信息。为了提升蒙版遮罩在物体边缘(例如头发、半透明玻璃、网状物)的精细度,本发明提出了一种空间信息抽取模块(即分层注意力中的空间注意力),如图5所示,将更新后的高级语义特征连同层级特征提取阶段中第二个块抽取出来的空间特征和纹理特征一并作为输入,利用更新过的高级语义特征当作引导信息,以此去有选择性的从空间信息中抽取与前景物体相关的空间特征和纹理特征;具体的,先将更新过的高级语义特征经过一个3×3的卷积操作,随后将卷积后的结果从两个方向再去做卷积,一种是先在横向做7×1的卷积,在该结果上在纵向做1×7的卷积;另一种则是先在纵向做1×7的卷积,在该结果上在横向做7×1的卷积,然后将两个平行却顺序不同的卷积操作的结果做一个级联操作,通过此方法对更新过的高级语义特征做进一步的筛选和过滤;之后将该结果做一个1×1的卷积以进行深层融合,再经过一个非线性激活函数得到空间注意力图,用此空间注意力图和来自第二个块的低级特征做逐元素相乘操作去得到更新过的低级特征;更新过的低级特征经过一个3×3的卷积之后和更新过的高级语义特征做级联操作,二者的融合特征随后经过一个3×3的卷积得到该阶段的输出;在该阶段为了保证最终生成的蒙版遮罩与标签信息的一致性,为此本专利设计了一个由结构相似性误差(SSIM)和均方误差(MSE)构成的混合误差函数。均方误差用于监督蒙版遮罩与监督信息之间的逐像素一致性,计算方式如下:
式中,Ω表示像素点集合,|Ω|表示一幅图像中像素点的个数,和分别表示在像素点i的蒙版遮罩值和监督信息值;结构相似性误差确保了从低级特征中提取的空间信息和纹理信息的一致性,以此来进一步提升前景物体的结构,计算公式如下:
(4)后期优化阶段
为了使生成的蒙版遮罩在视觉效果上更加与监督信息相匹配,在后期优化阶段本发明采用一个判别器网络来进行。如图1所示,将得到的蒙版遮罩、输入图像和监督信息一并送给判别器网络,判别器网络会认定监督信息和输入图像的级联为标准,以此去判断生成的蒙版遮罩和输入图像的级联,蒙版遮罩与监督信息间有一丝的不同,判别器就会返回一个假,直到二者完全一致,判别器会返回真。通过判别器进一步的优化蒙版遮罩的可视化质量,在图像合成的时候可以得到更加逼真的效果图。
本发明的有益效果:相比于现有的图像抠图方法,本发明最大的优点是不需要任何辅助信息和任何额外的用户交互信息,只需要输入一张RGB图像便可以得到精细的蒙版遮罩。一方面节省了科研人员的大量时间,不再需要去手工制作三分图或画笔画等辅助信息;另一方面对于用户来说,也不再需要他们在使用的时候去手工标注一些前景/背景的约束信息。同时,本发明中的基于注意力引导的层次结构融合方法对于图像抠图这一任务具有启迪意义,它在摆脱了对辅助信息依赖的同时,保证了蒙版遮罩的准确性。这种由高层去指导低层去学习的思想对其它计算机视觉任务有着较大的参考价值。
附图说明
图1是整体框架的流程图。
图2是原始输入图像及其对应的低级特征表示展示图。
图3是扩张空间金字塔池化流程图。
图4是金字塔特征过滤模块流程图。
图5是空间信息抽取模块流程图。
图6是不同组件效果对比图,(a)为原始输入图像;(b)为仅包含特征提取网络和扩张空间金字塔池化得到的蒙版遮罩;(c)为在(b)的基础上增加了金字塔特征过滤模块得到的蒙版遮罩;(d)为在(c)的基础上增加了空间信息抽取模块得到的蒙版遮罩;(e)为整个框架得到的结果;(f)为监督信息。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
为了更好的对比不同组件对于整个框架的贡献,我们根据图6来做可视化说明。(a)为原始输入图像;(b)为仅包含特征提取网络和扩张空间金字塔池化得到的蒙版遮罩;(c)为在(b)的基础上增加了金字塔特征过滤模块得到的蒙版遮罩;(d)为在(c)的基础上增加了空间信息抽取模块得到的蒙版遮罩;(e)为整个框架得到的结果;(f)为监督信息。从这一系列的蒙版遮罩的变化可以看出,背景区域的人和衣服上的字母在增加组件的过程中逐渐消失,而前景的网状和其边缘部位越来越精细化。由此也能进一步印证我们各个模块对提升性能的重要性和不可或缺性。
本发明的核心在于注意力引导的层次结构融合,结合具体实现方式对该发明作详细说明。该发明分为四部分,第一部分利用特征提取网络和扩张空间金字塔池化模块去提取高级语义特征和低级结构特征,如图1的整体框架流程图和图3的扩张空间金字塔池化流程图所示;第二部分利用金字塔特征过滤模块对高级语义特征进行过滤和过滤,如图4所示;第三部分利用上一阶段的结果作为指导信息送给空间信息抽取模块去用于低级结构特征抽取,随后将更新的高级语义特征和低级结构特征进行融合,如图5所示;第四部分通过判别器网络对得到的蒙版遮罩做进一步的优化,使其视觉效果与监督信息更加一致,如图1所示。
Claims (1)
1.一种全自动自然图像抠图方法,在无需任何额外辅助信息的情况下实现了从单张RGB图像中获取精细的前景物体的蒙版遮罩,该方法共由四部分构成,其特征在于,步骤如下:
(1)层级特征提取阶段
层级特征提取阶段主要从输入的图像中抽取不同层级的特征表示;选取ResNext作为基础网络,将其划分为五个块,五个块由浅到深,从浅层提取低级空间特征和纹理特征,到深层提取高级语义特征,依次递进;随着网络的深度加深,网络本身学习到的更多是深层语义特征,因此利用第二个块去提取低级空间特征和纹理特征;为了让深层网络获得更大的感受野,先将第五个块的普通卷积操作改为扩张率为2的扩张卷积;为了解决图像中前景物体大小不同的问题,将第五个块提取出来的高级语义特征送入扩张空间金字塔池化模块,对于带扩张率的扩张卷积,设定扩张率分别是6、12和18;随后将这五个并行操作的结果级联起来经过一个3×3的卷积操作得到高层语义特征表示;
(2)金字塔特征过滤阶段
提出金字塔特征过滤模块将得到的高级语义特征先通过一个最大池化操作,以此将每一层的多个特征值压缩为一个特征值;接着将压缩后的特征值通过一个由三层卷积操作组成的共享多层感知机以进行多个通道间特征值的更新;最后将通过非线性激活函数得到的通道注意力图中每一个通道的元素和上阶段的高级语义特征对应的该通道所有元素进行相乘操作,以此来达到对不同激活区域的选择;数学表达式如下:
Output=σ(MLP(MaxPool(Input)))×Input(2)
式中,Input表示第一阶段得到的高级语义特征;σ表示非线性激活函数,经过σ之后得到的通道注意力图的大小是1×1×n,n表示通道的数量,而得到的高级语义特征的大小是x×y×n,x和y表示通道的长和宽,二者在执行相乘时会执行广播操作,是通道注意力图的一个元素和高级语义特征中对应通道的全部元素相乘;
(3)空间信息抽取阶段
提出一种空间信息抽取模块将更新后的高级语义特征连同层级特征提取阶段中第二个块抽取出来的空间特征和纹理特征一并作为输入,利用更新过的高级语义特征当作引导信息,以此去有选择性的从空间信息中抽取与前景物体相关的空间特征和纹理特征;具体的,先将更新过的高级语义特征经过一个3×3的卷积操作,随后将卷积后的结果从两个方向再去做卷积,一种是先在横向做7×1的卷积,在该结果上在纵向做1×7的卷积;另一种则是先在纵向做1×7的卷积,在该结果上在横向做7×1的卷积,然后将两个平行却顺序不同的卷积操作的结果做一个级联操作,通过此方法对更新过的高级语义特征做进一步的筛选和过滤;之后将该结果做一个1×1的卷积以进行深层融合,再经过一个非线性激活函数得到空间注意力图,用此空间注意力图和来自第二个块的低级特征做逐元素相乘操作去得到更新过的低级特征;更新过的低级特征经过一个3×3的卷积之后和更新过的高级语义特征做级联操作,二者的融合特征随后经过一个3×3的卷积得到该阶段的输出;在该阶段为了保证最终生成的蒙版遮罩与标签信息的一致性,设计一个由结构相似性误差和均方误差构成的混合误差函数;均方误差用于监督蒙版遮罩与监督信息之间的逐像素一致性,计算方式如下:
式中,Ω表示像素点集合,|Ω|表示一幅图像中像素点的个数,和分别表示在像素点i的蒙版遮罩值和监督信息值;结构相似性误差确保了从低级特征中提取的空间信息和纹理信息的一致性,以此来进一步提升前景物体的结构,计算公式如下:
(4)后期优化阶段
为了使生成的蒙版遮罩在视觉效果上更加与监督信息相匹配,在后期优化阶段采用一个判别器网络来进行;将得到的蒙版遮罩、输入图像和监督信息一并送给判别器网络,判别器网络会认定监督信息和输入图像的级联为标准,以此去判断生成的蒙版遮罩和输入图像的级联,蒙版遮罩与监督信息间有一丝的不同,判别器就会返回一个假,直到二者完全一致,判别器会返回真;通过判别器进一步的优化蒙版遮罩的可视化质量,在图像合成时以得到更加逼真的效果图。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010029018.XA CN111223041B (zh) | 2020-01-12 | 2020-01-12 | 一种全自动自然图像抠图方法 |
US16/963,140 US11195044B2 (en) | 2020-01-12 | 2020-05-13 | Fully automatic natural image matting method |
PCT/CN2020/089942 WO2021139062A1 (zh) | 2020-01-12 | 2020-05-13 | 一种全自动自然图像抠图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010029018.XA CN111223041B (zh) | 2020-01-12 | 2020-01-12 | 一种全自动自然图像抠图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111223041A true CN111223041A (zh) | 2020-06-02 |
CN111223041B CN111223041B (zh) | 2022-10-14 |
Family
ID=70832454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010029018.XA Active CN111223041B (zh) | 2020-01-12 | 2020-01-12 | 一种全自动自然图像抠图方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111223041B (zh) |
WO (1) | WO2021139062A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753915A (zh) * | 2020-06-29 | 2020-10-09 | 广东浪潮大数据研究有限公司 | 一种图像处理装置、方法、设备及介质 |
CN111914795A (zh) * | 2020-08-17 | 2020-11-10 | 四川大学 | 一种航拍图像中旋转目标检测方法 |
CN113052242A (zh) * | 2021-03-29 | 2021-06-29 | 北京达佳互联信息技术有限公司 | 图像处理网络的训练方法及装置、图像处理方法及装置 |
CN113744280A (zh) * | 2021-07-20 | 2021-12-03 | 北京旷视科技有限公司 | 图像处理方法、装置、设备及介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113781309A (zh) * | 2021-09-17 | 2021-12-10 | 北京金山云网络技术有限公司 | 图像处理方法、装置及电子设备 |
CN114037833B (zh) * | 2021-11-18 | 2024-03-19 | 桂林电子科技大学 | 一种苗族服饰图像语义分割方法 |
CN114332116B (zh) * | 2021-12-23 | 2024-05-17 | 上海科技大学 | 用于交互式分割的意图感知特征传播网络实现方法 |
CN115049695B (zh) * | 2022-06-20 | 2024-05-03 | 焦点科技股份有限公司 | 一种自适应生成三分图及融合语义的电商产品抠图方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712145A (zh) * | 2018-11-28 | 2019-05-03 | 山东师范大学 | 一种图像抠图方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010049A (zh) * | 2017-11-09 | 2018-05-08 | 华南理工大学 | 使用全卷积神经网络分割定格动画中人手部区域的方法 |
CN109685067B (zh) * | 2018-12-26 | 2022-05-03 | 江西理工大学 | 一种基于区域和深度残差网络的图像语义分割方法 |
-
2020
- 2020-01-12 CN CN202010029018.XA patent/CN111223041B/zh active Active
- 2020-05-13 WO PCT/CN2020/089942 patent/WO2021139062A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712145A (zh) * | 2018-11-28 | 2019-05-03 | 山东师范大学 | 一种图像抠图方法及系统 |
Non-Patent Citations (3)
Title |
---|
吴玉娥等: "一种基于简单笔画交互的迭代图像抠图方法", 《中国图象图形学报》 * |
孙巍等: "基于视觉显著性信息的自然图像抠图算法", 《北京交通大学学报》 * |
张超等: "融合多线索信息的数字图像抠图方法研究", 《计算机工程与应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753915A (zh) * | 2020-06-29 | 2020-10-09 | 广东浪潮大数据研究有限公司 | 一种图像处理装置、方法、设备及介质 |
CN111753915B (zh) * | 2020-06-29 | 2023-11-07 | 广东浪潮大数据研究有限公司 | 一种图像处理装置、方法、设备及介质 |
CN111914795A (zh) * | 2020-08-17 | 2020-11-10 | 四川大学 | 一种航拍图像中旋转目标检测方法 |
CN111914795B (zh) * | 2020-08-17 | 2022-05-27 | 四川大学 | 一种航拍图像中旋转目标检测方法 |
CN113052242A (zh) * | 2021-03-29 | 2021-06-29 | 北京达佳互联信息技术有限公司 | 图像处理网络的训练方法及装置、图像处理方法及装置 |
CN113744280A (zh) * | 2021-07-20 | 2021-12-03 | 北京旷视科技有限公司 | 图像处理方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021139062A1 (zh) | 2021-07-15 |
CN111223041B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111223041B (zh) | 一种全自动自然图像抠图方法 | |
US11195044B2 (en) | Fully automatic natural image matting method | |
CN108986058B (zh) | 明度一致性学习的图像融合方法 | |
CN115049936B (zh) | 一种面向高分遥感影像的边界增强型语义分割方法 | |
CN110427875A (zh) | 基于深度迁移学习和极限学习机的红外图像目标检测方法 | |
CN110610509B (zh) | 可指定类别的优化抠图方法及系统 | |
CN107833183A (zh) | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 | |
CN113807210A (zh) | 一种基于金字塔切分注意力模块的遥感图像语义分割方法 | |
WO2018049084A1 (en) | Methods and systems for human imperceptible computerized color transfer | |
CN109509149A (zh) | 一种基于双通道卷积网络特征融合的超分辨率重建方法 | |
CN111126127B (zh) | 一种多级空间上下文特征指导的高分辨率遥感影像分类方法 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN114820579A (zh) | 一种基于语义分割的图像复合缺陷的检测方法及系统 | |
Qin et al. | Automatic skin and hair masking using fully convolutional networks | |
CN113052755A (zh) | 一种基于深度学习的高分辨率图像智能化抠图方法 | |
CN113033432A (zh) | 一种基于渐进监督的遥感影像居民区提取方法 | |
CN115100652A (zh) | 基于高分遥感图像的电子地图自动化生成方法 | |
CN114463340B (zh) | 一种边缘信息引导的敏捷型遥感图像语义分割方法 | |
CN117036281A (zh) | 一种缺陷图像的智能生成方法及其系统 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN115775316A (zh) | 基于多尺度注意力机制的图像语义分割方法 | |
Luo et al. | A fast denoising fusion network using internal and external priors | |
Wang | Exploring wavelet transform-based image enhancement algorithm for image restoration of long march national cultural park | |
Fang et al. | A New Method of Image Restoration Technology Based on WGAN. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |