CN112330527A - 图像处理方法、装置、电子设备和介质 - Google Patents
图像处理方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN112330527A CN112330527A CN202010482378.5A CN202010482378A CN112330527A CN 112330527 A CN112330527 A CN 112330527A CN 202010482378 A CN202010482378 A CN 202010482378A CN 112330527 A CN112330527 A CN 112330527A
- Authority
- CN
- China
- Prior art keywords
- face region
- face
- information
- image
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 46
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 63
- 230000009466 transformation Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 17
- 230000002087 whitening effect Effects 0.000 claims description 17
- 230000004927 fusion Effects 0.000 claims description 11
- 210000004709 eyebrow Anatomy 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 5
- 241000519995 Stachys sylvatica Species 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 101100269850 Caenorhabditis elegans mask-1 gene Proteins 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G06T3/04—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种图像处理方法,包括:获取用户图像,从用户图像中提取第一脸部区域,对第一脸部区域进行关键点定位处理,得到第一关键点信息,获取目标图像的第二关键点信息,第二关键点信息与目标图像中的第二脸部区域相关,基于第一关键点信息和第二关键点信息,对第一脸部区域的各像素进行调整,得到第三脸部区域,其中,第三脸部区域对应第三关键点信息,基于第三关键点信息和/或第二关键点信息生成掩码,以及基于掩码和第二脸部区域,将第三脸部区域与目标图像相融合。
Description
技术领域
本公开涉及计算机技术领域,更具体地,涉及一种图像处理方法、装置、电子设备和介质。
背景技术
随着电子技术和通信技术的快速发展,各种各样的应用程序越来越多地应用于手机等移动终端。例如,各种具备人脸融合功能的应用程序逐渐成为人们社交娱乐的新热点。
人脸融合技术可以将用户的人脸交换到人像模板中,可以实现线上造型体验等功能,为人们的生活带来方便和乐趣。然而,在实现本发明构思的过程中,发明人发现相关技术中至少存在如下问题:相关技术中的人脸融合效果不佳,鲁棒性较低,且融合过程中会产生白斑,影响用户体验。
发明内容
有鉴于此,本公开提供了一种图像处理方法、装置、电子设备和介质。
本公开的一个方面提供了一种图像处理方法,包括:获取用户图像,从所述用户图像中提取第一脸部区域,对所述第一脸部区域进行关键点定位处理,得到第一关键点信息,获取目标图像的第二关键点信息,所述第二关键点信息与所述目标图像中的第二脸部区域相关,基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,得到第三脸部区域,其中,所述第三脸部区域对应第三关键点信息,基于所述第三关键点信息和/或所述第二关键点信息生成掩码,以及基于所述掩码和所述第二脸部区域,将所述第三脸部区域与所述目标图像相融合。
根据本公开的实施例,所述从所述用户图像中提取第一脸部区域,包括:通过经训练的神经网络检测所述用户图像中的人脸框信息,对所述人脸框信息进行扩大处理,得到提取信息,基于所述提取信息从所述用户图像中提取所述第一脸部区域。
根据本公开的实施例,所述基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,包括:基于所述第一关键点信息和所述第二关键点信息确定变换矩阵,通过所述变换矩阵对所述第一脸部区域的各像素进行调整。
根据本公开的实施例,所述方法还包括:调整所述第三脸部区域中眉毛部分和眼睛部分之间的间距,和/或调整所述第三脸部区域中鼻子部分的角度。
根据本公开的实施例,所述方法还包括:对所述第三脸部区域进行美白处理。
根据本公开的实施例,所述方法还包括:对所述第三脸部区域进行颜色校正。
根据本公开的实施例,所述对所述第三脸部区域进行颜色校正,包括:通过高斯模糊方法和/或颜色直方图匹配方法对所述第三脸部区域进行颜色校正。
根据本公开的实施例,所述方法还包括:显示融合后的图像。
根据本公开的实施例,所述方法还包括:响应于用户指令,存储所述融合后的图像。
本公开的另一个方面提供了一种图像处理装置,包括第一获取模块、提取模块、第一处理模块、第二获取模块、第一调整模块、生成模块以及融合模块。其中,第一获取模块用于获取用户图像。提取模块用于从所述用户图像中提取第一脸部区域。第一处理模块用于对所述第一脸部区域进行关键点定位处理,得到第一关键点信息。第二获取模块用于获取目标图像的第二关键点信息,所述第二关键点信息与所述目标图像中的第二脸部区域相关。第一调整模块用于基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,得到第三脸部区域,其中,所述第三脸部区域对应第三关键点信息。生成模块用于基于所述第三关键点信息和/或所述第二关键点信息生成掩码。融合模块用于基于所述掩码和所述第二脸部区域,将所述第三脸部区域与所述目标图像相融合。
根据本公开的实施例,所述从所述用户图像中提取第一脸部区域,包括:通过经训练的神经网络检测所述用户图像中的人脸框信息,对所述人脸框信息进行扩大处理,得到提取信息,基于所述提取信息从所述用户图像中提取所述第一脸部区域。
根据本公开的实施例,所述基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,包括:基于所述第一关键点信息和所述第二关键点信息确定变换矩阵,通过所述变换矩阵对所述第一脸部区域的各像素进行调整。
根据本公开的实施例,所述装置还包括第二调整模块和/或第三调整模块。其中,第二调整模块用于调整所述第三脸部区域中眉毛部分和眼睛部分之间的间距。第三调整模块用于调整所述第三脸部区域中鼻子部分的角度。
根据本公开的实施例,所述装置还包括:第二处理模块,用于对所述第三脸部区域进行美白处理。
根据本公开的实施例,所述装置还包括:颜色校正模块,用于对所述第三脸部区域进行颜色校正。
根据本公开的实施例,所述对所述第三脸部区域进行颜色校正,包括:通过高斯模糊方法和/或颜色直方图匹配方法对所述第三脸部区域进行颜色校正。
根据本公开的实施例,所述装置还包括:显示模块,用于显示融合后的图像。
根据本公开的实施例,所述装置还包括:存储模块,用于响应于用户指令,存储所述融合后的图像。
本公开的另一方面提供了一种电子设备,包括:一个或多个处理器,存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如上所述的方法。
本公开的另一方面提供了一种计算机可读介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的图像处理方法和装置的示例性系统架构;
图2示意性示出了根据本公开实施例的图像处理方法的流程图;
图3示意性示出了根据本公开实施例的从用户图像中提取第一脸部区域的示意图;
图4示意性示出了根据本公开实施例的关键点的示意图;
图5示意性示出了根据本公开实施例的对第一脸部区域进行调整得到第三脸部区域的示意图;
图6A和6B示意性示出了根据本公开实施例的对第三脸部区域进行美白处理的示意图;
图7示意性示出了根据本公开实施例的图像处理装置的框图;以及
图8示意性示出了根据本公开实施例的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。这里使用的词语“一”、“一个(种)”和“该”等也应包括“多个”、“多种”的意思,除非上下文另外明确指出。此外,在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
本公开的实施例提供了一种图像处理方法和装置。该方法包括:获取用户图像,从用户图像中提取第一脸部区域。对第一脸部区域进行关键点定位处理,得到第一关键点信息。然后,获取目标图像的第二关键点信息,第二关键点信息与目标图像中的第二脸部区域相关。基于第一关键点信息和第二关键点信息,对第一脸部区域的各像素进行调整,得到第三脸部区域,其中,第三脸部区域对应第三关键点信息。以及,基于第三关键点信息和/或第二关键点信息生成掩码,并基于掩码和第二脸部区域,将第三脸部区域与目标图像相融合。
图1示意性示出了根据本公开实施例的图像处理方法和的示例性系统架构100。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104是用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的图像处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的图像处理装置一般可以设置于服务器105中。本公开实施例所提供的图像处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的图像处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
例如,用户可以通过终端设备101、102、103中的任意一个(例如,终端设备101,但不限于此)向服务器105发送用户图像。服务器105可以基于接收到的用户图像和用户选定的目标图像,将用户图像中的人脸区域与目标图像相融合,实现人脸交换。服务器105还可以将融合后的图像发送给终端设备101,以使用户可以查看人脸交换后的图像。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的图像处理方法的流程图。
如图2所示,该方法包括操作S201~S207。
在操作S201,获取用户图像。
根据本公开实施例,可以接收用户上传的用户图像。用户图像中可以包括用户的脸部区域。
在操作S202,从用户图像中提取第一脸部区域。
根据本公开实施例,在用户图像中包括一个脸部区域的情况下,可以提取该脸部区域。在用户图像中包括多个脸部区域的情况下,可以提取用户选定的脸部区域,也可以先提取全部的脸部区域待用户确定,还可以提取多个脸部区域中五官完整画质清晰的脸部区域。
在本公开实施例中,可以通过经训练的神经网络检测用户图像中的人脸框信息,对该人脸框信息进行扩大处理,得到提取信息,并基于该提取信息从用户图像中提取第一脸部区域。
例如,可以通过经训练的多任务卷积神经网络(Multi-task convolutionalneural network,简称MTCNN)检测用户图像中的人脸框。例如,用户图像的大小可以表示为(img_h,img_w),其中,img_h可以表示用户图像的高度,img_w可以表示用户图像的宽度。
图3示意性示出了根据本公开实施例的从用户图像中提取第一脸部区域的示意图。如图3所示,通过神经网络检测得到的人脸框310的信息可以表示为box=[x1,y1,x2,y2],其中,(x1,y1)可以表示检测到的人脸框的第一顶点,(x2,y2)可以表示该人脸框的第二顶点,第一顶点与第二顶点为对角线上的顶点。该人脸框310的高度可以表示为h,宽度可以表示为w。
本公开实施例可以对神经网络检测到的人脸框310的信息进行扩大处理,得到待提取的第一脸部区域320的提取信息,该提取信息可以表示为box′=[x1′,y1′,x2′,y2′]。扩大处理例如可以是:
pad=(h-w)/2
x1′=max(0,x1-pad)
x2′=min(img_w,x2+pad)
y1′=min(img_h,y1+pad)
y2′=min(img_h,y2+pad)
本公开实施例对神经网络检测到的人脸框310进行扩大处理,截取扩大后的人脸框320作为第一脸部区域,从而可以避免后期融合过程中影响边界效果。
在操作S203,对第一脸部区域进行关键点定位处理,得到第一关键点信息。
根据本公开实施例,对第一脸部区域进行关键点定位处理可以是对第一脸部区域中的脸部轮廓、眉毛、眼睛、鼻子和嘴等关键部位进行定位。
例如,图4示意性示出了根据本公开实施例的关键点的示意图。如图4所示,对第一脸部区域320进行关键点定位处理后,该第一脸部区域320的脸部轮廓、眉毛、眼睛、鼻子和嘴等位置定位了多个关键点321。
在本公开实施例中,可以将第一脸部区域输入至基于残差网络搭建的106点的回归网络中,该网络可以输出106个关键点。关于第i个关键点,该回归网络输出的关键点信息可以表示为(xi,yi),0≤xi,yi≤1。
根据本公开实施例,可以基于回归网络输出的各关键点的信息与第一脸部区域图像的尺寸确定第一关键点信息。
例如,第i个关键点在第一脸部区域图像上的坐标(Xi,Yi)可以为:
Xi=xi*w1
Yi=yi*h1
其中,w1表示第一脸部区域的宽度,h1表示第一脸部区域的高度。
根据本公开实施例,第一关键点信息例如可以是针对第一脸部区域的多个关键点在该第一脸部区域图像上的坐标信息。
在操作S204,获取目标图像的第二关键点信息,第二关键点信息与目标图像中的第二脸部区域相关。
在本公开实施例中,可以先对目标图像进行人脸检测和提取,得到第二脸部区域。并对第二脸部区域进行关键点定位处理,得到第二关键点信息。第二关键点信息例如可以是针对第二脸部区域的多个关键点在该第二脸部区域图像上的坐标信息。
根据本公开实施例,目标图像例如可以是用户选定的模板图像。本公开实施例可以仅对模板图像进行一次提取和关键点定位处理,然后存储得到的第二关键点信息。在用户选择该模板图像时,可以直接获取该模板图像的第二关键点信息。
在本公开实施例中,第一脸部区域例如可以是用户输入的用户图像中人物的脸部区域,第二脸部区域例如可以是模板图像中人物的脸部区域。例如,第一脸部区域可以是用户的脸部区域,第二脸部区域可以是原始模板中的脸部区域。
在操作S205,基于第一关键点信息和第二关键点信息,对第一脸部区域的各像素进行调整,得到第三脸部区域,其中,第三脸部区域对应第三关键点信息。
根据本公开实施例,可以基于第一关键点信息和第二关键点信息确定变换矩阵,通过变换矩阵对第一脸部区域的各像素进行调整。
可以理解,用户图像中的人脸姿态和目标图像中的人脸姿态可能不同。因此,本公开实施例可以将用户图像中的人脸姿态与目标图像中的人脸姿态进行配准。
例如,可以基于用户图像的第一关键点信息和目标图像的第二关键点信息通过奇异值分解得到仿射变换矩阵。例如,在第一关键点信息中选取眼睛鼻子和嘴巴对应的关键点信息组成坐标集合P1∈RN×2,在第二关键点信息中选取眼睛鼻子和嘴巴对应的关键点信息组成坐标集合P2∈RN×2。则仿射变换矩阵的计算方式如下:
Pi=Pi-mean(Pi),i=1,2
si=std(Pi),i=1,2
U,E,V=svd(P1 TP2)
T=mean(P2)T-Rmean(P1)T
其中,M表示仿射变换矩阵,mean()表示求集合中所有点的平均值,std()表示求集合中所有点的标准差,svd()表示奇异值分解。
然后,基于仿射变换矩阵将第一脸部区域上的各像素坐标点进行转换得到第三脸部区域。例如,第一脸部区域上的像素i的坐标点表示为(xi,yi),则该像素点i在第三脸部区域的坐标点(xi′,yi′)表示为:、
例如,图5示意性示出了根据本公开实施例的对第一脸部区域进行调整得到第三脸部区域的示意图。如图5所示,可以基于第一脸部区域510的部分关键点的信息和第二脸部区域520的部分关键点的信息确定变换矩阵,然后通过变换矩阵将第一脸部区域510的各个像素坐标进行处理,得到第三脸部区域530。
在本公开实施例中,在通过变换矩阵对第一脸部区域的各像素坐标进行变换时,第一脸部区域中的各关键点的坐标也随之变换,则变换后的第三脸部区域对应第三关键点信息。第三关键点信息例如可以是针对第三脸部区域的多个关键点在该第三脸部区域图像上的坐标信息。
根据本公开实施例,可以调整第三脸部区域中眉毛部分和眼睛部分之间的间距。由于换脸时,眉毛和眼睛部位需要配准,否则容易造成五官缺失。因此,本公开实施例可以针对第三脸部区域,使用移动最小二乘法(Moving Least Squares,简称MLS)微调眉毛部位对应的关键点,使得第三脸部区域中的眉毛和眼睛部分之间的间距足够大,提供充分的融合空间。
在本公开实施例中,还可以调整第三脸部区域中鼻子部分的角度。由于有些用户输入图片中的人脸可能为微侧脸,最明显的表现是鼻子与图片平面不垂直,造成人脸融合后图像不自然。因此,本公开实施例使用MLS算法将第三脸部区域中与鼻子部分对应的关键点移动到目标图像中与鼻子部分对应的关键点的位置,使得用户输入图像的鼻子变正,和目标图像的脸型融合得更加自然。
根据本公开实施例,还可以对第三脸部区域进行美白处理。例如,可以使用非线性映射,将第三脸部区域图像的像素值0~255映射到另一个分布,非线性映射例如可以表示为:
其中,a、b、c为超参数,p为图像像素值,p′为美白后的像素值,w∈[0,1]表示美白的程度。
例如,图6A和6B示意性示出了根据本公开实施例的对第三脸部区域进行美白处理的示意图。图6A示出了映射函数的曲线,可以看出,通过该映射函数对第三脸部区域的像素值进行处理,可以使得第三脸部区域的像素值有一个整体的提升。图6B示出了第三脸部区域610和进行美白处理后的第三脸部区域620。
在本公开实施例中,可以在对第三脸部区域进行美白处理前,先判断该第三脸部区域是否需要美白处理。可以理解,由于用户图像可能已经进行过美颜处理,如果在此基础上再进行美白处理,可能会使图像变得不够真实。因此,本公开实施例可以先判断第三脸部区域的像素值是否超过预设阈值,如果超过,可以认为该第三脸部区域的图像不需要再进行美白处理,否则,可以继续对第三脸部区域的图像进行美白处理。本公开实施例通过对第三脸部区域进行美白处理,然后再将第三脸部区域与目标图像进行融合,可以减少融合过程中产生的白斑现象。
根据本公开实施例,还可以对第三脸部区域进行磨皮处理、亮眼处理和红唇处理中的至少一个。例如,本公开实施例可以通过双边滤波和高斯滤波对第三脸部区域进行磨皮处理。例如,记需要磨皮的图像为I,磨皮之后的图像为I′,磨皮处理过程如下:
BI=BilateralFilter(I)-I+a
GI=b*GaussianBlur(BI)+I-c
其中,BilateralFilter表示双边滤波,GaussianBlur表示高斯滤波,a、b、c表示超参数。
本公开实施例中的亮眼处理和红唇处理例如可以是对局部区域的颜色进行锐化处理。
根据本公开实施例,还可以对第三脸部区域进行颜色矫正,以使第三脸部区域与目标图像的颜色相匹配,使得融合效果更加自然。
例如,可以通过高斯模糊方法和/或颜色直方图匹配方法对第三脸部区域进行颜色校正。例如,可以先通过高斯模糊方法对第三脸部区域进行第一次颜色校正,再通过颜色直方图匹配方法对经过一次校正后的第三脸部区域进行第二次颜色校正。
在本公开实施例中,高斯模糊方法主要是计算两张图像的局部高斯值,然后根据两张图像的局部高斯值来校正第三脸部区域图像的颜色。例如,记第三脸部区域的图像为I1,目标图像为I2,则颜色校正之后的图像I1′的计算方式可以表示为:I1*GaussianBlur(I2)/GaussianBlur(I1)。颜色直方图匹配方法主要是分别将第三脸部区域的图像的R、G、B通道的颜色直方图匹配到目标图像的三通道直方图,使两幅图像的色调保持一致。
根据本公开实施例,可以先对用户图像做美白处理、颜色校正处理,再对处理后的用户图像进行人脸提取、关键点定位和仿射变换处理。也可以先对用户图像进行人脸提取、关键点定位和仿射变换处理,再做美白和颜色校正处理。
在本公开实施例中,可以先对用户图像或者第三脸部区域图像做美白处理,然后在此基础上再做颜色校正处理,可以减少融合过程中产生的白斑现象。
在操作S206,基于第三关键点信息和/或第二关键点信息生成掩码。
在本公开一实施例中,可以基于第三脸部图像对应的第三关键点信息生成掩码(mask)。例如,可以基于第三关键点信息和第三脸部图像中的头发遮挡位置生成mask,从而可以有效地解决头发遮挡的问题。
在本公开另一实施例中,也可以基于目标图像的第二关键点信息生成mask。
在本公开又一实施例中,还可以基于第三脸部图像对应的第三关键点信息生成mask1,基于目标图像的第二关键点信息生成mask2,取mask1和mask2的交集作为本公开实施例的掩码。
在操作S207,基于掩码和第二脸部区域,将第三脸部区域与目标图像相融合。
根据本公开实施例,可以使用泊松融合(Possion Matting)的方法将第三脸部区域与目标图像进行融合。例如,可以先给第三脸部区域的图像添加上掩码,该掩码可以将五官区域置为前景,其余区域置为背景。然后使用泊松融合方法将掩码前景部分的图像融合到目标图像上,实现人脸交换。
在本公开实施例中,还可以显示融合后的图像。例如,可以在完成图像融合后,将融合后的图像显示给用户,以便用户可以观看到融合后的图像效果。
根据本公开实施例,还可以响应于用户指令,存储该融合后的图像。例如,用户可以根据融合后的图像的效果,选择保存该图像或者删除该图像。可以响应于用户的保存指令,存储该融合后的图像。
本公开实施例仅需要用户提供一张用户图像,并选定一张目标图像,即可自动实现将用户图像中的人脸融合到目标图像中的目的,提高用户体验感。
本公开实施例通过算法自动实现将用户图像中的人脸融合到目标图像中的目的,相对于相关技术中的神经网络换脸技术,需要更少训练时间和预测时间,提高了处理速度,可以更快地响应用户的需求,提高用户体验感。
本公开实施例通过先对用户的脸部区域进行美白处理,再进行颜色校正处理,可以减少融合过程中的白斑现象。
图7示意性示出了根据本公开实施例的图像处理装置700的框图。
如图7所示,该装置700包括第一获取模块710、提取模块720、第一处理模块730、第二获取模块740、第一调整模块750、生成模块760和融合模块770。
第一获取模块710用于获取用户图像。
提取模块720用于从所述用户图像中提取第一脸部区域。
第一处理模块730用于对所述第一脸部区域进行关键点定位处理,得到第一关键点信息。
第二获取模块740用于获取目标图像的第二关键点信息,所述第二关键点信息与所述目标图像中的第二脸部区域相关。
第一调整模块750用于基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,得到第三脸部区域,其中,所述第三脸部区域对应第三关键点信息。
生成模块760用于基于所述第三关键点信息和/或所述第二关键点信息生成掩码。
融合模块770用于基于所述掩码和所述第二脸部区域,将所述第三脸部区域与所述目标图像相融合。
根据本公开实施例,所述从所述用户图像中提取第一脸部区域,包括:通过经训练的神经网络检测所述用户图像中的人脸框信息,对所述人脸框信息进行扩大处理,得到提取信息,基于所述提取信息从所述用户图像中提取所述第一脸部区域。
根据本公开实施例,所述基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,包括:基于所述第一关键点信息和所述第二关键点信息确定变换矩阵,通过所述变换矩阵对所述第一脸部区域的各像素进行调整。
根据本公开实施例,所述装置700还包括:第二调整模块和/或第三调整模块(图中未示)。其中,第二调整模块用于调整所述第三脸部区域中眉毛部分和眼睛部分之间的间距。第三调整模块用于调整所述第三脸部区域中鼻子部分的角度。
根据本公开实施例,所述装置700还包括:第二处理模块(图中未示),用于对所述第三脸部区域进行美白处理。
根据本公开实施例,所述装置700还包括:颜色校正模块(图中未示),用于对所述第三脸部区域进行颜色校正。
根据本公开实施例,所述对所述第三脸部区域进行颜色校正,包括:通过高斯模糊方法和/或颜色直方图匹配方法对所述第三脸部区域进行颜色校正。
根据本公开的实施例,所述装置还包括:显示模块,用于显示融合后的图像。
根据本公开的实施例,所述装置还包括:存储模块,用于响应于用户指令,存储所述融合后的图像。
根据本公开实施例,装置700例如可以执行上文参考图2描述的方法,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块710、提取模块720、第一处理模块730、第二获取模块740、第一调整模块750、生成模块760和融合模块770可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,第一获取模块710、提取模块720、第一处理模块730、第二获取模块740、第一调整模块750、生成模块760和融合模块770中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以以对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式的适当组合来实现。或者,第一获取模块710、提取模块720、第一处理模块730、第二获取模块740、第一调整模块750、生成模块760和融合模块770中的至少一个可以至少被部分地实现为计算机程序模块,当该程序被计算机运行时,可以执行相应模块的功能。
图8示意性示出了根据本公开实施例的电子设备的方框图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行参考图2描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有系统800操作所需的各种程序和数据。处理器801、ROM 802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行如上所述的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行如上所述的各种操作。
根据本公开的实施例,系统800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。系统800还可以包括连接至I/O接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
根据本公开的实施例,上文参考流程图描述的方法可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。根据本公开的实施例,计算机可读介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备执行如上所述的方法。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (12)
1.一种图像处理方法,包括:
获取用户图像;
从所述用户图像中提取第一脸部区域;
对所述第一脸部区域进行关键点定位处理,得到第一关键点信息;
获取目标图像的第二关键点信息,所述第二关键点信息与所述目标图像中的第二脸部区域相关;
基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,得到第三脸部区域,其中,所述第三脸部区域对应第三关键点信息;
基于所述第三关键点信息和/或所述第二关键点信息生成掩码;以及
基于所述掩码和所述第二脸部区域,将所述第三脸部区域与所述目标图像相融合。
2.根据权利要求1所述的方法,其中,所述从所述用户图像中提取第一脸部区域,包括:
通过经训练的神经网络检测所述用户图像中的人脸框信息;
对所述人脸框信息进行扩大处理,得到提取信息,基于所述提取信息从所述用户图像中提取所述第一脸部区域。
3.根据权利要求1所述的方法,其中,所述基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,包括:
基于所述第一关键点信息和所述第二关键点信息确定变换矩阵;
通过所述变换矩阵对所述第一脸部区域的各像素进行调整。
4.根据权利要求1所述的方法,还包括:
调整所述第三脸部区域中眉毛部分和眼睛部分之间的间距;和/或
调整所述第三脸部区域中鼻子部分的角度。
5.根据权利要求1所述的方法,还包括:
对所述第三脸部区域进行美白处理。
6.根据权利要求1或5所述的方法,还包括:
对所述第三脸部区域进行颜色校正。
7.根据权利要求6所述的方法,其中,所述对所述第三脸部区域进行颜色校正,包括:
通过高斯模糊方法和/或颜色直方图匹配方法对所述第三脸部区域进行颜色校正。
8.根据权利要求1所述的方法,还包括:显示融合后的图像。
9.根据权利要求8所述的方法,还包括:
响应于用户指令,存储所述融合后的图像。
10.一种图像处理装置,包括:
第一获取模块,用于获取用户图像;
提取模块,用于从所述用户图像中提取第一脸部区域;
第一处理模块,用于对所述第一脸部区域进行关键点定位处理,得到第一关键点信息;
第二获取模块,用于获取目标图像的第二关键点信息,所述第二关键点信息与所述目标图像中的第二脸部区域相关;
第一调整模块,用于基于所述第一关键点信息和所述第二关键点信息,对所述第一脸部区域的各像素进行调整,得到第三脸部区域,其中,所述第三脸部区域对应第三关键点信息;
生成模块,用于基于所述第三关键点信息和/或所述第二关键点信息生成掩码;以及
融合模块,用于基于所述掩码和所述第二脸部区域,将所述第三脸部区域与所述目标图像相融合。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~7中任一项所述的方法。
12.一种计算机可读介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010482378.5A CN112330527A (zh) | 2020-05-29 | 2020-05-29 | 图像处理方法、装置、电子设备和介质 |
PCT/CN2021/085327 WO2021238410A1 (zh) | 2020-05-29 | 2021-04-02 | 图像处理方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010482378.5A CN112330527A (zh) | 2020-05-29 | 2020-05-29 | 图像处理方法、装置、电子设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112330527A true CN112330527A (zh) | 2021-02-05 |
Family
ID=74302919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010482378.5A Pending CN112330527A (zh) | 2020-05-29 | 2020-05-29 | 图像处理方法、装置、电子设备和介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112330527A (zh) |
WO (1) | WO2021238410A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991208A (zh) * | 2021-03-11 | 2021-06-18 | Oppo广东移动通信有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
CN113658035A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 脸部变换方法、装置、设备、存储介质以及产品 |
WO2021238410A1 (zh) * | 2020-05-29 | 2021-12-02 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、电子设备和介质 |
CN113781359A (zh) * | 2021-09-27 | 2021-12-10 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN116596752A (zh) * | 2023-07-19 | 2023-08-15 | 腾讯科技(深圳)有限公司 | 脸部图像替换方法、装置、设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565506B (zh) * | 2022-01-17 | 2023-04-18 | 北京新氧科技有限公司 | 图像颜色迁移方法、装置、设备及存储介质 |
CN115018696B (zh) * | 2022-06-08 | 2024-05-03 | 东北师范大学 | 基于OpenCV仿射变换的人脸口罩数据生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738595A (zh) * | 2019-09-30 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 图片处理方法、装置和设备及计算机存储介质 |
CN111008927A (zh) * | 2019-08-07 | 2020-04-14 | 深圳华侨城文化旅游科技集团有限公司 | 一种人脸替换方法、存储介质及终端设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9940695B2 (en) * | 2016-08-26 | 2018-04-10 | Multimedia Image Solution Limited | Method for ensuring perfect stitching of a subject's images in a real-site image stitching operation |
CN108133220A (zh) * | 2016-11-30 | 2018-06-08 | 北京市商汤科技开发有限公司 | 模型训练、关键点定位及图像处理方法、系统及电子设备 |
CN110033420B (zh) * | 2018-01-12 | 2023-11-07 | 京东科技控股股份有限公司 | 一种图像融合的方法和装置 |
CN108682030B (zh) * | 2018-05-21 | 2022-04-26 | 北京微播视界科技有限公司 | 脸皮替换方法、装置及计算机设备 |
CN109801249A (zh) * | 2018-12-27 | 2019-05-24 | 深圳豪客互联网有限公司 | 图像融合方法、装置、计算机设备和存储介质 |
CN110458781B (zh) * | 2019-08-14 | 2022-07-19 | 北京百度网讯科技有限公司 | 用于处理图像的方法和装置 |
CN112330527A (zh) * | 2020-05-29 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、电子设备和介质 |
-
2020
- 2020-05-29 CN CN202010482378.5A patent/CN112330527A/zh active Pending
-
2021
- 2021-04-02 WO PCT/CN2021/085327 patent/WO2021238410A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008927A (zh) * | 2019-08-07 | 2020-04-14 | 深圳华侨城文化旅游科技集团有限公司 | 一种人脸替换方法、存储介质及终端设备 |
CN110738595A (zh) * | 2019-09-30 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 图片处理方法、装置和设备及计算机存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021238410A1 (zh) * | 2020-05-29 | 2021-12-02 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、电子设备和介质 |
CN112991208A (zh) * | 2021-03-11 | 2021-06-18 | Oppo广东移动通信有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
CN112991208B (zh) * | 2021-03-11 | 2024-05-07 | Oppo广东移动通信有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
CN113658035A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 脸部变换方法、装置、设备、存储介质以及产品 |
CN113658035B (zh) * | 2021-08-17 | 2023-08-08 | 北京百度网讯科技有限公司 | 脸部变换方法、装置、设备、存储介质以及产品 |
CN113781359A (zh) * | 2021-09-27 | 2021-12-10 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN116596752A (zh) * | 2023-07-19 | 2023-08-15 | 腾讯科技(深圳)有限公司 | 脸部图像替换方法、装置、设备及存储介质 |
CN116596752B (zh) * | 2023-07-19 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 脸部图像替换方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021238410A1 (zh) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112330527A (zh) | 图像处理方法、装置、电子设备和介质 | |
CN106682632B (zh) | 用于处理人脸图像的方法和装置 | |
US20230081645A1 (en) | Detecting forged facial images using frequency domain information and local correlation | |
CN113327278B (zh) | 三维人脸重建方法、装置、设备以及存储介质 | |
WO2021008166A1 (zh) | 用于虚拟试衣的方法和装置 | |
CN111369427B (zh) | 图像处理方法、装置、可读介质和电子设备 | |
CN109344762B (zh) | 图像处理方法和装置 | |
US20160328825A1 (en) | Portrait deformation method and apparatus | |
CN110517214B (zh) | 用于生成图像的方法和装置 | |
CN113287118A (zh) | 用于面部再现的系统和方法 | |
EP3992919B1 (en) | Three-dimensional facial model generation method and apparatus, device, and medium | |
CN109711508B (zh) | 图像处理方法和装置 | |
US11455765B2 (en) | Method and apparatus for generating virtual avatar | |
CN107220652B (zh) | 用于处理图片的方法和装置 | |
CN110782515A (zh) | 虚拟形象的生成方法、装置、电子设备及存储介质 | |
CN110796721A (zh) | 虚拟形象的颜色渲染方法、装置、终端及存储介质 | |
CN111340865B (zh) | 用于生成图像的方法和装置 | |
CN113221767B (zh) | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 | |
CN114049290A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN109241930B (zh) | 用于处理眉部图像的方法和装置 | |
US20220207917A1 (en) | Facial expression image processing method and apparatus, and electronic device | |
CN108256477B (zh) | 一种用于检测人脸的方法和装置 | |
CN111260756A (zh) | 用于发送信息的方法和装置 | |
CN113223128B (zh) | 用于生成图像的方法和装置 | |
CN115578614A (zh) | 图像处理模型的训练方法、图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |