CN111383232B - 抠图方法、装置、终端设备及计算机可读存储介质 - Google Patents
抠图方法、装置、终端设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111383232B CN111383232B CN201811645994.7A CN201811645994A CN111383232B CN 111383232 B CN111383232 B CN 111383232B CN 201811645994 A CN201811645994 A CN 201811645994A CN 111383232 B CN111383232 B CN 111383232B
- Authority
- CN
- China
- Prior art keywords
- image
- area
- processed
- mask
- portrait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000011218 segmentation Effects 0.000 claims abstract description 109
- 238000010586 diagram Methods 0.000 claims abstract description 89
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 238000005260 corrosion Methods 0.000 claims description 113
- 230000007797 corrosion Effects 0.000 claims description 113
- 238000012549 training Methods 0.000 claims description 78
- 230000000875 corresponding effect Effects 0.000 claims description 75
- 238000004590 computer program Methods 0.000 claims description 21
- 230000002596 correlated effect Effects 0.000 claims description 11
- 210000000746 body region Anatomy 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例适用于图像处理技术领域,公开了一种抠图方法、装置、终端设备及计算机可读存储介质,其中,方法包括:获取待处理图像;根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像;根据mask图像,生成待处理图像的三元图;根据三元图和待处理图像,通过预训练的全卷积神经网络生成待处理图像的蒙板;根据蒙板,抠取待处理图像中的目标对象。通过本申请实施例,可以使得抠图更加精细,效率更高。
Description
技术领域
本申请属于图像处理技术领域,尤其涉及一种抠图方法、装置、终端设备及计算机可读存储介质。
背景技术
随着图像处理技术的发展进步,抠图的应用也越来越广泛。
抠图是一种对图像中指定前景对象进行提取的技术,最早抠图主要应用于电影拍摄,所采取的抠图方法是“蓝屏抠图”。但是,这种方法附加条件严格,应用较为局限。渐渐的,人们为了提高抠图的精准性,人为地事先提供一些先验知识作为指引,该先验知识通常是以划分成前景区域、背景区域和未知区域的三元图Trimap形式而存在。基于Trimap发展出不少传统抠图算法。传统抠图算法大体分为基于采样的抠图方法和基于传播的抠图方法。基于采样的抠图方法对三元图的依赖性高,即如果三元图中未知区域较大,会增加需要配对采样的前背景点,那么错误配对的可能性也伴随着增加;基于传播的抠图方法通过学习图像的局部结构信息,以获得更平滑的结果,但是其需要更多时间进行抠取,效率较低。
近年来,随着深度学习的发展,出现基于深度学习的抠图技术。但是,目前基于深度学习的抠图技术不够精细,效率较低。
发明内容
有鉴于此,本申请实施例提供一种抠图方法、装置、终端设备及计算机可读存储介质,以解决现有抠图技术不够精细且效率较低的问题。
本申请实施例的第一方面提供一种抠图方法,包括:
获取待处理图像;
根据预训练的语义分割网络和所述待处理图像,生成所述待处理图像的mask图像;
根据所述mask图像,生成所述待处理图像的三元图;
根据所述三元图和所述待处理图像,通过预训练的全卷积神经网络生成所述待处理图像的蒙板;
根据所述蒙板,抠取所述待处理图像中的目标对象。
结合第一方面,在一种可行的实现方式中,当所述待处理图像为包含人像的图像时,所述根据预训练的语义分割网络和所述待处理图像,生成所述待处理图像的mask图像,包括:
通过预训练的第一语义分割网络分割所述待处理图像,得到第一分割结果;
通过预训练的第二语义分割网络分割所述待处理图像,得到第二分割结果;
计算所述第一分割结果和所述第二分割结果的并集,将所述并集作为所述待处理图像的人像mask图像;
其中,所述语义分割网络包括所述第一语义分割网络和所述第二语义分割网络,所述第一语义分割网络为用于对图像中的人体区域进行分割的网络,所述第二语义分割网络为用于对图像中的服饰区域进行分割的网络。
结合第一方面,在一种可行的实现方式中,当所述待处理图像为包含人像的图像时,所述根据预训练的语义分割网络和所述待处理图像,生成所述待处理图像的mask图像,包括:
通过预训练的所述语义分割网络分割所述待处理图像,得到第三分割结果,将所述第三分割结果作为所述待处理图像的人像mask图像;
其中,所述语义分割网络为用于对图像中的人体区域进行分割的网络。
结合第一方面,在一种可行的实现方式中,所述根据所述mask图像,生成所述待处理图像的三元图,包括:
计算所述人像mask图像中人像区域的第一面积;
根据预建立的面积与参数间的对应关系,获取与所述第一面积对应的第一腐蚀膨胀参数;其中,所述第一腐蚀膨胀参数与所述第一面积的大小正相关;
根据所述第一腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图。
结合第一方面,在一种可行的实现方式中,所述根据所述mask图像,生成所述待处理图像的三元图,包括:
计算所述人像mask图像中人像区域的第二面积;
根据预建立的面积与参数间的对应关系,获取与所述第二面积对应的第二腐蚀膨胀参数;其中,所述第二腐蚀膨胀参数与所述第二面积的大小正相关;
计算所述人像区域的头部区域的第三面积和非头部区域的第四面积;
根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与所述第三面积对应的第三腐蚀膨胀参数以及与所述第四面积对应的第四腐蚀膨胀参数;其中,所述第三腐蚀膨胀参数大于所述第四腐蚀膨胀参数;
根据所述第二腐蚀膨胀参数、第三腐蚀膨胀参数和所述第四腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图。
结合第一方面,在一种可行的实现方式中,在所述获取待处理图像之前,还包括:
构建所述全卷积神经网络;
获取训练样本数据集;
根据所述训练样本数据对所述全卷积神经网络进行训练。
结合第一方面,在一种可行的实现方式中,所述获取训练样本数据集,包括:
获取训练样本图像对应的训练蒙板;
在对所述训练蒙板进行人工修正之后,获取修正后训练蒙板;
将所述修正后训练蒙板和对应的所述训练样本图像的前景图像进行合成,得到所述训练样本数据集。
本申请实施例的第二方面提供一种抠图装置,包括:
图像获取模块,用于获取待处理图像;
Mask图像生成模块,用于根据预训练的语义分割网络和所述待处理图像,生成所述待处理图像的mask图像;
三元图生成模块,用于根据所述mask图像,生成所述待处理图像的三元图;
蒙板生成模块,用于根据所述三元图和所述待处理图像,通过预训练的全卷积神经网络生成所述待处理图像的蒙板;
抠取模块,用于根据所述蒙板,抠取所述待处理图像中的目标对象。
结合第二方面,在一种可行的实现方式中,当所述待处理图像为包含人像的图像时,所述Mask图像生成模块包括:
第一分割单元,用于通过预训练的第一语义分割网络分割所述待处理图像,得到第一分割结果;
第二分割单元,用于通过预训练的第二语义分割网络分割所述待处理图像,得到第二分割结果;
并集计算单元,用于计算所述第一分割结果和所述第二分割结果的并集,将所述并集作为所述待处理图像的人像mask图像;
其中,所述语义分割网络包括所述第一语义分割网络和所述第二语义分割网络,所述第一语义分割网络为用于对图像中的人体区域进行分割的网络,所述第二语义分割网络为用于对图像中的服饰区域进行分割的网络。
结合第二方面,在一种可行的实现方式中,当所述待处理图像为包含人像的图像时,所述Mask图像生成模块包括:
第三分割单元,用于通过预训练的所述语义分割网络分割所述待处理图像,得到第三分割结果,将所述第三分割结果作为所述待处理图像的人像mask图像;
其中,所述语义分割网络为用于对图像中的人体区域进行分割的网络。
结合第二方面,在一种可行的实现方式中,所述三元图生成模块包括:
第一计算单元,用于计算所述人像mask图像中人像区域的第一面积;
第一获取单元,用于根据预建立的面积与参数间的对应关系,获取与所述第一面积对应的第一腐蚀膨胀参数;其中,所述第一腐蚀膨胀参数与所述第一面积的大小正相关;
第一膨胀腐蚀单元,用于根据所述第一腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图。
结合第二方面,在一种可行的实现方式中,所述三元图生成模块包括:
第二计算单元,用于计算所述人像mask图像中人像区域的第二面积;
第二获取单元,用于根据预建立的面积与参数间的对应关系,获取与所述第二面积对应的第二腐蚀膨胀参数;其中,所述第二腐蚀膨胀参数与所述第二面积的大小正相关;
第三计算单元,用于计算所述人像区域的头部区域的第三面积和非头部区域的第四面积;
第三获取单元,用于根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与所述第三面积对应的第三腐蚀膨胀参数以及与所述第四面积对应的第四腐蚀膨胀参数;其中,所述第三腐蚀膨胀参数大于所述第四腐蚀膨胀参数;
第二膨胀腐蚀操作,用于根据所述第二腐蚀膨胀参数、第三腐蚀膨胀参数和所述第四腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图。
结合第二方面,在一种可行的实现方式中,还包括:
网络构建模块,用于构建所述全卷积神经网络;
训练集获取模块,用于获取训练样本数据集;
训练模块,用于根据所述训练样本数据对所述全卷积神经网络进行训练。
结合第二方面,在一种可行的实现方式中,所述训练集获取模块包括:
训练蒙板获取单元,用于获取训练样本图像对应的训练蒙板;
修正单元,用于在对所述训练蒙板进行人工修正之后,获取修正后训练蒙板;
合成单元,用于将所述修正后训练蒙板和对应的所述训练样本图像的前景图像进行合成,得到所述训练样本数据集。
本申请实施例的第三方面提供一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述抠图方法的步骤。
本申请实施例的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面任一项所述抠图方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例通过语义分割网络自动生成mask图像,根据该mask图像自动生成三元图,接着利用全卷积神经网络、三元图和待处理图像自动生成蒙版,最后根据蒙板抠取相应的目标对象,整个过程无需人工干预,自动完成抠图操作,提高了效率;通过语义分割网络和全卷积神经网络进行抠图,提高了所生成蒙板的精细度,从而使得抠图更加精细。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种抠图方法的流程示意框图;
图2为本申请实施例提供的生成人像mask图像的流程示意框图;
图3为本申请实施例提供的人体部件分割网络结构示意图;
图4为本申请实施例提供的服饰分割网络结构示意图;
图5为本申请实施例提供的三元图自动生成方法的一种流程示意框图;
图6为本申请实施例提供的三元图自动生成方法的另一种流程示意框图;
图7为本申请实施例提供的三元图示意图;
图8为本申请实施例提供的人像抠图效果示意图;
图9为本申请实施例提供的一种抠图装置的结构示意框图;
图10为本申请实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
实施例一
请参见图1,为本申请实施例提供的一种抠图方法的流程示意框图,该方法可以包括以下步骤:
步骤S101、获取待处理图像。
可以理解的是,上述待处理图像可以是任意的图片,该图片可以是包含人像的图片,也可以是不包含人像的图像。例如,预先拍摄的人像图片、从视频中获取的至少一帧人像图像等。当该待处理图像为待处理人像图像时,该待处理人像图像内所包含的人像可以是一个,也可以是多个。
步骤S102、根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像。
需要说明的是,上述语义分割网络可以包括但不限于全卷积神经网络(FullyConvolutional Networks,FCN)系列网络、deeplab系列网络、Resnet、Pspnet、RefineNet、MobileNet中的一种或多种。该语义分割网络可以用于对待处理图像进行分割,生成mask图像。
该语义分割网络可以包括两个语义分割网络,一个用于对图像中的人体部件进行分割,另一个用于对图像中的服饰部分进行分割;也可以只包括一个语义分割网络,该网络用于对图像中的人体部件进行分割。
在一些实施例中,参见图2示出的生成人像mask图像的流程示意框图,上述根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像的具体过程可以包括:
步骤S201、通过预训练的第一语义分割网络分割待处理图像,得到第一分割结果。
需要说明的是,上述第一语义分割网络为用于对图像中的人体区域进行分割的网络,该网络为人体部件分割网络。此处,该人体部件分割网络可以将输入图像分为7个语义部分,分别为:头、躯干、上臂、前臂加手、大腿、小腿加脚、背景。当然,划分的语义部分数量、类型可以根据实际需要进行划分。具体应用中,该第一语义分割网络可以为但不限于RefineNet网络。
将待处理人像图像输入至该预训练的第一语义分割网络,该网络对该图像进行前景人像分割,得到输出结果,该输出结果为只包含前景人体区域的图像。
步骤S202、通过预训练的第二语义分割网络分割待处理图像,得到第二分割结果。
需要说明的是,第二语义分割网络为用于对图像中的服饰区域进行分割的网络,该网络为服饰分割网络。服饰区域可以例如包括衣服和装饰品,装饰品可以包括帽子、包、太阳眼镜、鞋子等。具体应用中,该服饰分割网络可以为编解码网络结构的网络,例如,deeplabv3+。
将待处理人像图像输入至预训练的第二语义分割网络,该网络对图像进行前景分割,得到输出结果,该输出结果为只包含服饰区域的图像。
可以理解的是,实际图片中的人物往往会有很多装饰品,该类物品虽然不属于人体一部分,但对于用户来说,该类区域也是需要抠取的前景图像区域。
步骤S203、计算第一分割结果和第二分割结果的并集,将并集作为待处理图像的人像mask图像。其中,语义分割网络包括第一语义分割网络和第二语义分割网络。
具体地,在得到第一分割结果和第二分割结果之后,可以取第一分割结果和第二分割结果的并集,从而得到所需的人像mask图像。
而在另一些实施例中,使用人体部件分割网络的分割结果作为人像mask图像也能满足后续三元图的生成需要。因此,在生成人像mask图像过程中,可以只使用人体部件分割网络对图像进行前景分割。故上述根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像的具体过程可以包括:通过预训练的语义分割网络分割待处理图像,得到第三分割结果,将第三分割结果作为待处理图像的人像mask图像;其中,语义分割网络为用于对图像中的人体区域进行分割的网络。
需要说明的是,上述第三分割结果和第一分割结果本质上是一样的,其表述不同只是为了区分两种不同情况的人体部件分割网络的分割结果。也即,该第三分割结果为只包含前景人体区域的图像。
实际应用中,可以根据实际需要选择上述两种不同的人像mask图像生成过程中的一种。相较而言,通过人体部件分割网络和服饰分割网络生成人像mask图像,可以进一步提高人像抠图的精细度。且自动生成人像mask图像,也提高了人像抠图的效率。
其中,人体部件分割网络的网络结构可以如图3所示的人体部件分割网络结构示意图中的网络结构,而服饰分割网络结构可以如图4所示的服饰分割网络结构示意图中的网络结构。
需要说明的是,当所扣取的对象为非人像时,通过训练完成的语义分割网络生成相应的mask图像的过程与上述过程类似,在此不再赘述。
步骤S103、根据mask图像,生成待处理图像的三元图。
可以理解的是,上述三元图Trimap是指包括前景区域、背景区域和未知区域的图像,其又可以称为Alpha或不透明度。
需要说明的是,根据mask图像自动生成三元图的方法可以采用现有任意的三元图自动生成方法。但是,目前的三元图自动生成方法中,利用的膨胀、腐蚀尺寸对mask图像进行膨胀、腐蚀,以得到三元图。即,对mask图像的各个区域对采用同样的膨胀、腐蚀尺寸进行膨胀、腐蚀,这种方法会使得所生成的三元图中的未知区域过大。
而三元图的精确度和未知区域的大小对后续生成的蒙板精度。一般情况下,未知区域越小,需要进行预测的像素就越少,生成蒙板的效率、精细度就会越好。反之,未知区域越大,需要进行预测的像素就越多,生成蒙板的效率、精细度就会越差。而现有通过固定尺寸自动生成三元图的方法,会导致未知区域过大从而极大影响到最终生成的蒙板的效果。
为了进一步提高生成蒙板的效率和精细度,从而提高人像抠图的效率和精细度,此处可以采用根据人像所占像素大小动态调整腐蚀膨胀参数大小的三元图自动生成方法,以缩小未知区域的大小。
故在一些实施例中,参见图5所示的三元图自动生成方法的一种流程示意框图,上述根据mask图像,生成待处理图像的三元图的具体过程可以包括:
步骤S501、计算人像mask图像中人像区域的第一面积。
步骤S502、根据预建立的面积与参数间的对应关系,获取与第一面积对应的第一腐蚀膨胀参数;其中,第一腐蚀膨胀参数与第一面积的大小正相关。
需要说明的是,上述对应关系是指面积与参数直接的映射关系,通过面积可以获得与其对应的参数数值。该对应关系可以预先根据大量实验得出的结果建立的,即,通过大量实验得出每个面积对应的腐蚀膨胀参数,然后建立面积与参数将的对应关系,并将面积和参数进行持久化存储。而上述腐蚀膨胀参数包括膨胀参数和腐蚀参数。
具体地,计算出人像mask图像中的人像区域的所占面积值,然后根据对应关系,从数据库中获取到与该面积值对应的膨胀参数和腐蚀参数。
其中,腐蚀膨胀参数和面积的大小呈正相关,即,人像区域所占面积越大,对应的膨胀尺寸、腐蚀尺寸也越大;人像区域所占面积越小,对应的膨胀尺寸、腐蚀尺寸也越小。这样,当人像所占区域面积较小时,则只需要较小的未知区域来覆盖待抠取的边缘细节,而人像所占区域面积较大时,则需要较大的未知区域来覆盖待抠取的边缘细节。根据人像区域大小动态调整腐蚀膨胀参数,可以在人像mask图像中前景区域和背景区域没有错误的情况下,极大地缩小了未知区域的大小,从而提高了后续蒙板的生成效率和精细度,提高人像抠图的效率和精细度。
步骤S503、根据第一腐蚀膨胀参数,对人像mask图像进行腐蚀膨胀操作,得到待处理图像的三元图。
具体地,根据对应的腐蚀参数、膨胀参数,相应地对人像mask图像进行腐蚀操作、膨胀操作,以得到待处理人像图像的三元图。
对于人像图像来说,头发通常有丰富的细节需要更大的未知区域来覆盖,而其它部分一般边缘分明、细节相对较少,只需要较小的未知区域来覆盖。因此,为了更进一步提高人像抠图的精细度和效率,可以对头部区域和非头部区域采用不同的腐蚀膨胀参数,且头部区域的腐蚀膨胀参数大于非头部区域的腐蚀膨胀参数。
在另一些实施例中,参见图6示出的三元图自动生成方法的另一种流程示意框图,上述根据mask图像,生成待处理图像的三元图的过程可以包括:
步骤S601、计算人像mask图像中人像区域的第二面积。
需要说明的是,上述第二面积和上述第一面积均是指人像区域的所占面积。其表述不同是为了便于区分两种不同情况下的人像区域的所占面积。
步骤S602、根据预建立的面积与参数间的对应关系,获取与第二面积对应的第二腐蚀膨胀参数;其中,第二腐蚀膨胀参数与第二面积的大小正相关。
需要说明的是,根据对应关系获取腐蚀膨胀参数的过程与上文根据第一面积获取相应的参数的过程相同,相关介绍请参见上文相应的内容,在此不再赘述。
步骤S603、计算人像区域的头部区域的第三面积和非头部区域的第四面积。
步骤S604、根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与第三面积对应的第三腐蚀膨胀参数以及与第四面积对应的第四腐蚀膨胀参数;其中,第三腐蚀膨胀参数大于第四腐蚀膨胀参数。
具体地,计算出头部区域所占面积和非头部区域的所占面积之后,可以根据面积与参数之间的对应关系,获得相应的腐蚀膨胀参数。其中,相应对应关系可以通过大量实验的结果建立,即,预先通过大量实验得出每个头部区域面积对应的腐蚀膨胀参数、每个非头部区域面积对应的腐蚀膨胀参数,然后建立面积与参数将的对应关系,并将面积和参数进行持久化存储。上述腐蚀膨胀参数包括膨胀参数和腐蚀参数。
步骤S605、根据第二腐蚀膨胀参数、第三腐蚀膨胀参数和第四腐蚀膨胀参数,对人像mask图像进行腐蚀膨胀操作,得到待处理图像的三元图。
具体地,通过第二腐蚀膨胀参数对人像mask图像整体进行腐蚀膨胀操作,而对人像区域的头部区域采用第三腐蚀膨胀参数腐蚀膨胀操作,对人像区域的非头部区域采用第四腐蚀膨胀参数进行腐蚀膨胀操作。
头部区域的腐蚀尺寸、膨胀尺寸大于非头部区域的腐蚀尺寸、膨胀尺寸,这样,可以更加精细地生成三元图,从而提高后续人像抠图的精细度。
为了突出动态调整腐蚀膨胀参数的效果,下面将以图7所示的三元图示意图。如图7所示,其包括两行相关图像,从左到右依次是待处理人像图像、人像mask图像、现有方案生成的三元图、本申请实施例提供的方案生成的三元图。其中,三元图中黑色区域为背景区域,白色区域为前景区域,灰色区域为未知区域。上面一行的图像中,人像区域所占面积较小,使用固定尺寸对人像mask图像进行膨胀腐蚀得到的三元图的未知区域较大,而使用动态调整腐蚀膨胀尺寸对人像mask图像进行腐蚀膨胀得到的三元图的未知区域较小。下面一行的图像中,人像区域所占面积较大,且头部区域的头发有较多的细节,使用现有方案生成的三元图中的头部区域的未知区域较小,不能覆盖更多的细节。而使用本申请实施例的方案生成的三元图中的头部区域的未知区域较大,能覆盖更多的细节。可见,使用本申请实施例提供的三元图生成方法可以进一步提高人像抠图的精细度。
自动生成三元图之后,可以根据该三元图自动生成待处理人像的蒙板。
步骤S104、根据三元图和待处理图像,通过预训练的全卷积神经网络生成待处理图像的蒙板。
需要说明的是,上述全卷积神经网络为编解码网络,其可以具体为FCN类编解码网络。将三元图和待处理图像输入至该网络中,所输出的结果即为蒙板。
该全卷积神经网络可以是预先训练的。可选地,在获取待处理图像之前,还包括:构建全卷积神经网络;获取训练样本数据集;根据训练样本数据对全卷积神经网络进行训练。进一步地,上述获取训练样本数据集的具体过程可以包括:获取训练样本图像对应的训练蒙板;在对训练蒙板进行人工修正之后,获取修正后训练蒙板;将修正后训练蒙板和对应的训练样本图像的前景图像进行合成,得到训练样本数据集。
需要说明的是,由于人像蒙板没有公开的数据集,故此处采用传统方法生成图片的蒙板,并人工挑选其中效果最好的蒙板进行人工修正,以得到精细的蒙板。然后根据这些精细的蒙板和相应的图片合成后作为训练数据集,对构建的全卷积神经网络进行训练。
步骤S105、根据蒙板,抠取待处理图像中的目标对象。
需要说明的是,上述目标对象是指待扣取的对象,该对象可以是任意的,可以是人,也可以是物,在此不作限定。其中,根据蒙板从待处理人像图像中抠取出一个或多个目标人像的过程为本领域技术人员所熟知,在此不再赘述。
参见图8所示的人像抠图效果示意图,图中示出了4组待处理人像图像的抠图效果图,从左往右依次为待处理人像图像、人像mask图像、三元图、蒙板、所抠取的人像图。从中可知,通过生成精细的蒙板,使得最终抠取的人像更加精细、更加准确。
本实施例中,通过语义分割网络自动生成mask图像,根据该mask图像自动生成三元图,接着利用全卷积神经网络、三元图和待处理图像自动生成蒙版,最后根据蒙板抠取相应的目标对象,整个过程无需人工干预,自动完成抠图操作,提高了效率;通过语义分割网络和全卷积神经网络进行抠图,提高了所生成蒙板的精细度,从而使得抠图更加精细。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例二
请参见图9,为本申请实施例提供的一种抠图装置的结构示意框图,该装置可以包括:
本申请实施例的第二方面提供一种抠图装置,包括:
图像获取模块91,用于获取待处理图像;
Mask图像生成模块92,用于根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像;
三元图生成模块93,用于根据mask图像,生成待处理图像的三元图;
蒙板生成模块94,用于根据三元图和待处理图像,通过预训练的全卷积神经网络生成待处理图像的蒙板;
抠取模块95,用于根据蒙板,抠取待处理图像中的目标对象。
在一种可行的实现方式中,当待处理图像为包含人像的图像时,上述Mask图像生成模块包括:
第一分割单元,用于通过预训练的第一语义分割网络分割待处理图像,得到第一分割结果;
第二分割单元,用于通过预训练的第二语义分割网络分割待处理图像,得到第二分割结果;
并集计算单元,用于计算第一分割结果和第二分割结果的并集,将并集作为待处理图像的人像mask图像;
其中,语义分割网络包括第一语义分割网络和第二语义分割网络,第一语义分割网络为用于对图像中的人体区域进行分割的网络,第二语义分割网络为用于对图像中的服饰区域进行分割的网络。
在一种可行的实现方式中,当待处理图像为包含人像的图像时,上述Mask图像生成模块包括:
第三分割单元,用于通过预训练的语义分割网络分割待处理图像,得到第三分割结果,将第三分割结果作为待处理图像的人像mask图像;
其中,语义分割网络为用于对图像中的人体区域进行分割的网络。
结合第二方面,在一种可行的实现方式中,三元图生成模块包括:
第一计算单元,用于计算人像mask图像中人像区域的第一面积;
第一获取单元,用于根据预建立的面积与参数间的对应关系,获取与第一面积对应的第一腐蚀膨胀参数;其中,第一腐蚀膨胀参数与第一面积的大小正相关;
第一膨胀腐蚀单元,用于根据第一腐蚀膨胀参数,对人像mask图像进行腐蚀膨胀操作,得到待处理图像的三元图。
在一种可行的实现方式中,上述三元图生成模块包括:
第二计算单元,用于计算人像mask图像中人像区域的第二面积;
第二获取单元,用于根据预建立的面积与参数间的对应关系,获取与第二面积对应的第二腐蚀膨胀参数;其中,第二腐蚀膨胀参数与第二面积的大小正相关;
第三计算单元,用于计算人像区域的头部区域的第三面积和非头部区域的第四面积;
第三获取单元,用于根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与第三面积对应的第三腐蚀膨胀参数以及与第四面积对应的第四腐蚀膨胀参数;其中,第三腐蚀膨胀参数大于第四腐蚀膨胀参数;
第二膨胀腐蚀操作,用于根据第二腐蚀膨胀参数、第三腐蚀膨胀参数和第四腐蚀膨胀参数,对人像mask图像进行腐蚀膨胀操作,得到待处理图像的三元图。
在一种可行的实现方式中,上述装置还包括:
网络构建模块,用于构建全卷积神经网络;
训练集获取模块,用于获取训练样本数据集;
训练模块,用于根据训练样本数据对全卷积神经网络进行训练。
在一种可行的实现方式中,上述训练集获取模块包括:
训练蒙板获取单元,用于获取训练样本图像对应的训练蒙板;
修正单元,用于在对训练蒙板进行人工修正之后,获取修正后训练蒙板;
合成单元,用于将修正后训练蒙板和对应的训练样本图像的前景图像进行合成,得到训练样本数据集。
需要说明的是,本实施例与上述抠图方法实施例一一对应,相关介绍请参见上文相应内容,在此不再赘述。
本实施例中,通过语义分割网络自动生成mask图像,根据该mask图像自动生成三元图,接着利用全卷积神经网络、三元图和待处理图像自动生成蒙版,最后根据蒙板抠取相应的目标对象,整个过程无需人工干预,自动完成抠图操作,提高了效率;通过语义分割网络和全卷积神经网络进行抠图,提高了所生成蒙板的精细度,从而使得抠图更加精细。
实施例三
图10是本申请一实施例提供的终端设备的示意图。如图10所示,该实施例的终端设备10包括:处理器100、存储器101以及存储在所述存储器101中并可在所述处理器100上运行的计算机程序102。所述处理器100执行所述计算机程序102时实现上述各个抠图方法实施例中的步骤,例如图1所示的步骤S101至S105。或者,所述处理器100执行所述计算机程序102时实现上述各装置实施例中各模块或单元的功能,例如9所示模块91至95的功能。
示例性的,所述计算机程序102可以被分割成一个或多个模块或单元,所述一个或者多个模块或单元被存储在所述存储器101中,并由所述处理器100执行,以完成本申请。所述一个或多个模块或单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序102在所述终端设备10中的执行过程。例如,所述计算机程序102可以被分割成图像获取模块、Mask图像生成模块、三元图生成模块、蒙板生成模块、抠取模块,各模块具体功能如下:
图像获取模块,用于获取待处理图像;Mask图像生成模块,用于根据预训练的语义分割网络和待处理图像,生成待处理图像的mask图像;三元图生成模块,用于根据mask图像,生成待处理图像的三元图;蒙板生成模块,用于根据三元图和待处理图像,通过预训练的全卷积神经网络生成待处理图像的蒙板;抠取模块,用于根据蒙板,抠取待处理图像中的目标对象。
所述终端设备10可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器100、存储器101。本领域技术人员可以理解,图10仅仅是终端设备10的示例,并不构成对终端设备10的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器100可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器101可以是所述终端设备10的内部存储单元,例如终端设备10的硬盘或内存。所述存储器101也可以是所述终端设备10的外部存储设备,例如所述终端设备10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器101还可以既包括所述终端设备10的内部存储单元也包括外部存储设备。所述存储器101用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器101还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置、终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置、终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块或单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (8)
1.一种抠图方法,其特征在于,包括:
获取待处理图像,所述待处理图像是包含人像的图像;
通过预训练的第一语义分割网络分割所述待处理图像,得到第一分割结果,通过预训练的第二语义分割网络分割所述待处理图像,得到第二分割结果,所述第一语义分割网络为用于对图像中的人体区域进行分割的网络,所述第二语义分割网络为用于对图像中的服饰区域进行分割的网络;
计算所述第一分割结果和所述第二分割结果的并集,将所述并集作为所述待处理图像的人像mask图像;
计算所述人像mask图像中人像区域的第二面积,并根据预建立的面积与参数间的对应关系,获取与所述第二面积对应的第二腐蚀膨胀参数;所述第二腐蚀膨胀参数与所述第二面积的大小正相关;
计算所述人像区域的头部区域的第三面积和非头部区域的第四面积,并根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与所述第三面积对应的第三腐蚀膨胀参数以及与所述第四面积对应的第四腐蚀膨胀参数;所述第三腐蚀膨胀参数大于所述第四腐蚀膨胀参数;
根据所述第二腐蚀膨胀参数、第三腐蚀膨胀参数和所述第四腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图;
根据所述三元图和所述待处理图像,通过预训练的全卷积神经网络生成所述待处理图像的蒙板;
根据所述蒙板,抠取所述待处理图像中的目标对象。
2.根据权利要求1所述的抠图方法,其特征在于,在所述获取待处理图像之前,还包括:
构建所述全卷积神经网络;
获取训练样本数据集;
根据所述训练样本数据对所述全卷积神经网络进行训练。
3.根据权利要求2所述的抠图方法,其特征在于,所述获取训练样本数据集,包括:
获取训练样本图像对应的训练蒙板;
在对所述训练蒙板进行人工修正之后,获取修正后训练蒙板;
将所述修正后训练蒙板和对应的所述训练样本图像的前景图像进行合成,得到所述训练样本数据集。
4.一种抠图装置,其特征在于,包括:
图像获取模块,用于获取待处理图像,所述待处理图像是包含人像的图像;
Mask图像生成模块,用于通过预训练的第一语义分割网络分割所述待处理图像,得到第一分割结果;通过预训练的第二语义分割网络分割所述待处理图像,得到第二分割结果;计算所述第一分割结果和所述第二分割结果的并集,将所述并集作为所述待处理图像的人像mask图像;所述第一语义分割网络为用于对图像中的人体区域进行分割的网络,所述第二语义分割网络为用于对图像中的服饰区域进行分割的网络;
三元图生成模块,用于计算所述人像mask图像中人像区域的第二面积,并根据预建立的面积与参数间的对应关系,获取与所述第二面积对应的第二腐蚀膨胀参数;所述第二腐蚀膨胀参数与所述第二面积的大小正相关;计算所述人像区域的头部区域的第三面积和非头部区域的第四面积,并根据预建立的头部区域面积与参数间的对应关系以及预建立的非头部区域面积与参数间的对应关系,分别获取与所述第三面积对应的第三腐蚀膨胀参数以及与所述第四面积对应的第四腐蚀膨胀参数;所述第三腐蚀膨胀参数大于所述第四腐蚀膨胀参数;根据所述第二腐蚀膨胀参数、第三腐蚀膨胀参数和所述第四腐蚀膨胀参数,对所述人像mask图像进行腐蚀膨胀操作,得到所述待处理图像的三元图;
蒙板生成模块,用于根据所述三元图和所述待处理图像,通过预训练的全卷积神经网络生成所述待处理图像的蒙板;
抠取模块,用于根据所述蒙板,抠取所述待处理图像中的目标对象。
5.根据权利要求4所述的抠图装置,其特征在于,所述装置还包括:
网络构建模块,用于构建所述全卷积神经网络;
训练集获取模块,用于获取训练样本数据集;
训练模块,用于根据所述训练样本数据对所述全卷积神经网络进行训练。
6.根据权利要求5所述的抠图装置,其特征在于,所述训练集获取模块包括:
训练蒙版获取单元,用于获取训练样本图像对应的训练蒙板;
修正单元,用于在对所述训练蒙板进行人工修正之后,获取修正后训练蒙板;
合成单元,用于将所述修正后训练蒙板和对应的所述训练样本图像的前景图像进行合成,得到所述训练样本数据集。
7.一种终端设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述抠图方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述抠图方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811645994.7A CN111383232B (zh) | 2018-12-29 | 2018-12-29 | 抠图方法、装置、终端设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811645994.7A CN111383232B (zh) | 2018-12-29 | 2018-12-29 | 抠图方法、装置、终端设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111383232A CN111383232A (zh) | 2020-07-07 |
CN111383232B true CN111383232B (zh) | 2024-01-23 |
Family
ID=71219417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811645994.7A Active CN111383232B (zh) | 2018-12-29 | 2018-12-29 | 抠图方法、装置、终端设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383232B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570614A (zh) * | 2021-01-18 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112967292B (zh) * | 2021-03-01 | 2022-03-04 | 焦点科技股份有限公司 | 一种针对电商产品的自动抠图与评分方法及系统 |
CN112990331A (zh) * | 2021-03-26 | 2021-06-18 | 共达地创新技术(深圳)有限公司 | 图像处理方法、电子设备和存储介质 |
CN113052242A (zh) * | 2021-03-29 | 2021-06-29 | 北京达佳互联信息技术有限公司 | 图像处理网络的训练方法及装置、图像处理方法及装置 |
CN113297913B (zh) * | 2021-04-26 | 2023-05-26 | 云南电网有限责任公司信息中心 | 一种配网现场作业人员穿衣规范的识别方法 |
CN114140547B (zh) * | 2021-12-07 | 2023-03-14 | 北京百度网讯科技有限公司 | 图像生成方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107452010A (zh) * | 2017-07-31 | 2017-12-08 | 中国科学院长春光学精密机械与物理研究所 | 一种自动抠图算法和装置 |
WO2018081537A1 (en) * | 2016-10-31 | 2018-05-03 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for image segmentation using controlled feedback |
CN108961279A (zh) * | 2018-06-28 | 2018-12-07 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置及移动终端 |
CN109035253A (zh) * | 2018-07-04 | 2018-12-18 | 长沙全度影像科技有限公司 | 一种语义分割信息指导的深度学习自动图像抠图方法 |
-
2018
- 2018-12-29 CN CN201811645994.7A patent/CN111383232B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081537A1 (en) * | 2016-10-31 | 2018-05-03 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for image segmentation using controlled feedback |
CN107452010A (zh) * | 2017-07-31 | 2017-12-08 | 中国科学院长春光学精密机械与物理研究所 | 一种自动抠图算法和装置 |
CN108961279A (zh) * | 2018-06-28 | 2018-12-07 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置及移动终端 |
CN109035253A (zh) * | 2018-07-04 | 2018-12-18 | 长沙全度影像科技有限公司 | 一种语义分割信息指导的深度学习自动图像抠图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111383232A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111383232B (zh) | 抠图方法、装置、终端设备及计算机可读存储介质 | |
CN106778928B (zh) | 图像处理方法及装置 | |
CN109829930B (zh) | 人脸图像处理方法、装置、计算机设备及可读存储介质 | |
CN108961303B (zh) | 一种图像处理方法、装置、电子设备和计算机可读介质 | |
WO2022199583A1 (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
WO2022078041A1 (zh) | 遮挡检测模型的训练方法及人脸图像的美化处理方法 | |
CN111127309B (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
CN108765264B (zh) | 图像美颜方法、装置、设备及存储介质 | |
CN112308866B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110853071A (zh) | 图像编辑方法及终端设备 | |
CN111489322A (zh) | 给静态图片加天空滤镜的方法及装置 | |
RU2697627C1 (ru) | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ | |
US20210248729A1 (en) | Superpixel merging | |
CN111369478A (zh) | 人脸图像增强方法、装置、计算机设备和存储介质 | |
CN113658065A (zh) | 图像降噪方法及装置、计算机可读介质和电子设备 | |
CN113658035A (zh) | 脸部变换方法、装置、设备、存储介质以及产品 | |
CN111414823B (zh) | 人体特征点的检测方法、装置、电子设备以及存储介质 | |
CN115115552B (zh) | 图像矫正模型训练及图像矫正方法、装置和计算机设备 | |
CN111784726A (zh) | 人像抠图方法和装置 | |
CN115393241A (zh) | 医学图像增强方法、装置、电子设备及可读存储介质 | |
CN113239867B (zh) | 一种基于掩码区域自适应增强的光照变化人脸识别方法 | |
CN112561822B (zh) | 美颜方法、装置、电子设备及存储介质 | |
CN110097622B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN116823869A (zh) | 背景替换的方法和电子设备 | |
CN114399494A (zh) | 异常细胞检测分割方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 516006 TCL science and technology building, No. 17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL Corp. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |