CN108985241A - 图像处理方法、装置、计算机设备及存储介质 - Google Patents
图像处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN108985241A CN108985241A CN201810814349.7A CN201810814349A CN108985241A CN 108985241 A CN108985241 A CN 108985241A CN 201810814349 A CN201810814349 A CN 201810814349A CN 108985241 A CN108985241 A CN 108985241A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- user
- key point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本申请涉及一种图像处理方法、装置、计算机设备及存储介质,该方法包括:获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。本申请的方案提高了图像处理的准确性。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种图像处理方法、装置、计算机设备及存储介质。
背景技术
随着科学技术的飞速发展,图像处理技术领域也在不断的壮大和发展。在人们的生活和工作中,通常会涉及到图像处理方面的需求,比如,换脸(即改变图像中的面部信息)。
传统改变图像中的面部信息的方法中,是直接将一个图像中的人脸A用另一个图像中的人脸B来替换。这样一来,当人脸A和人脸B不是同一个人的脸时,就会造成替换后的图像中的人脸丧失了原有的面部特征。然而,有些时候,用户是想在保留图像的原有面部特征的前提下,来改变图像的面部信息,比如,用户对图像中的面部表情并不满意,希望改变表情,但并不想改变原有面部特征。显然,传统方法并不能解决在保留图像的原有面部特征的前提下改变表情的问题。
发明内容
基于此,有必要针对传统方法并不能解决在保留图像的原有面部特征的前提下改变表情的问题,提供一种图像处理方法、装置、计算机设备及存储介质。
一种图像处理方法,所述方法包括:
获取处于基准表情状态的第一目标面部图像;
获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
一种图像处理装置,所述装置包括:
获取模块,用于获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
调整模块,用于按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
处理模块,用于在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
获取处于基准表情状态的第一目标面部图像;
获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
一种存储有计算机程序的存储介质,所述计算机程序被处理器执行时,使得处理器执行如下步骤:
获取处于基准表情状态的第一目标面部图像;
获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
上述图像处理方法、装置、计算机设备和存储介质,通过获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量;按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。这样一来,调整后的第一目标面部图像中的表情纹理图像中的表情就属于目标表情。在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。由于在待处理图像中的第二目标面部图像处贴合了调整后的第一目标面部图像的表情纹理图像,即在保留第二目标面部图像中原有的面部特征的情况下,实现了通过用户面部的表情改变待处理图像中目标面部的表情,提高了图像处理的准确性。
附图说明
图1为一个实施例中图像处理方法的流程示意图;
图2为一个实施例中面部图像的示意图;
图3为一个实施例中用户面部关键点偏移信息的示意图;
图4为一个实施例中表情纹理图像贴合的示意图;
图5为一个实施例中调整第一目标面部图像的面部关键点的示意图;
图6为一个实施例中图像处理方法的原理示意图;
图7为另一个实施例中的图像处理方法的原理示意图;
图8为一个实施例中图像处理装置的框图;
图9为一个实施例中图像处理方法的应用环境图;
图10为一个实施例中计算机设备的内部结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,本申请各实施例中的“第一”和“第二”仅用作区分,而并不用于大小、先后、从属等方面的限定。
图1为一个实施例中图像处理方法的流程示意图。本实施例主要以该图像处理方法应用于计算机设备中进行举例说明,该计算机设备可以为终端或服务器。参照图1,该方法具体包括如下步骤:
S102,获取处于基准表情状态的第一目标面部图像。
其中,基准表情状态,是呈现基准表情的状态。基准表情,是调整前的作为调整基础的表情。可以理解,计算机设备是在基准表情的基础上进行表情调整的。
面部图像,是体现面部信息的图像。目标面部图像,是体现目标面部信息的面部图像。目标面部,是需要进行表情调整处理的面部,即需要对目标面部的表情进行调整。
在一个实施例中,面部信息包括面部轮廓和面部关键点。面部关键点,是将面部轮廓内的面部器官的点状表现形式,即用点的形式表示出面部轮廓内的面部器官。可以理解,面部关键点,可以用于表示面部轮廓内的面部器官的位置。比如,面部关键点用于表示眉、眼、鼻子和嘴巴这些面部器官的位置。
在一个实施例中,面部轮廓可以是从额头到下巴的一个完整面部的轮廓。然而,由于额头在体现人的表情这一方面起不到作用,即人的表情发生变化时,额头通常不会产生变化,比如,笑和不笑这两种表情下,额头基本上不会产生变化。在一些情况下,额头即使产生变化也是一些不够美观的变化(比如抬头纹),所以,在另一个实施例中,面部轮廓,也可以是从完整面部的轮廓中除去额头轮廓后剩余的轮廓。
图2为一个实施例中面部图像的示意图。参照图2,202所对应的一圈即为面部轮廓(可见该面部轮廓不包括额头轮廓)。其中,面部轮廓202内的眉毛、眼睛、鼻子和嘴巴这些面部器官的位置,则可以用面部关键点进行表示。
需要说明的是,本申请各实施例中的“第一”和“第二”仅用作区分,而并不用于大小、先后、从属等方面的限定。
在一个实施例中,获取处于基准表情状态的第一目标面部图像包括:从包括处于基准表情状态的第一目标面部图像的图像中,提取该第一目标面部图像。
比如,一张包括没有带笑容的人脸的照片(即照片中除了人脸图像以外,还有别的其他的环境和背景图像,比如,树或花等),该照片即相当于包括处于基准表情状态的第一目标面部图像的图像,照片中的人脸即属于处于基准表情状态的第一目标面部图像,没有带笑容的表情,即属于基准表情,后续是在该基准表情的基础上进行表情调整的。
在另一个实施例中,第一目标面部图像,可以是预先存储的独立的体现目标面部信息的面部图像。计算机设备可以直接获取预先存储的独立的第一目标面部图像。可以理解,该预先存储的独立的第一目标面部图像,可以是从包括该第一目标面部图像的图像中预先提取出来之后,进行独立存储的。
S104,获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。
其中,面部关键点,是面部轮廓内的面部器官的点状呈现,即用点的形式表示出面部轮廓内的面部器官。可以理解,面部关键点,可以用于表示面部轮廓内的面部器官的位置。比如,面部关键点用于表示眉、眼、鼻子和嘴巴这些面部器官的位置。
目标表情状态,是指所呈现的表情为目标表情的状态。目标表情,是指需要将基准表情调整到的表情。可以理解,计算机设备是在基准表情的基础上进行表情调整,并将表情调整到目标表情。
用户面部,是通过计算机设备对目标面部的表情进行调整的用户的面部。可以理解,计算机设备可以根据用户面部中所呈现的目标表情,来将目标面部中的基准表情调整到该目标表情。比如,目标面部的基准表情是不带笑容的表情,用户可以做出大笑的表情,该大笑的表情即为目标表情,用户可以通过计算机设备将目标面部的表情由不带笑容的表情,调整到用户所做出的大笑表情。
用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。可以理解,在不同表情状态下,面部关键点的位置会有所不同,所以,用户面部关键点偏移信息,即表示用户面部的面部关键点在目标表情状态时的位置相较于在基准表情状态时的位置之间的偏移量。
为了更加直观地理解用户面部关键点偏移信息,现举例说明。图3为一个实施例中用户面部关键点偏移信息的示意图。图3中一系列的点都为关键点,可以理解,关键点是能够体现特征的点。其中,关键点1~17为面部轮廓的轮廓关键点,关键点18~68则为面部轮廓内的面部关键点。用户面部关键点偏移信息可以包括眼睛上眼帘的关键点38,39向上偏移10%,下眼帘关键点42,41向下偏移10%(即做出睁大眼睛的表情)。可以理解,用户面部关键点偏移信息可以包括一种或多种面部器官的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。
在一个实施例中,计算机设备可以直接获取预先设置的用户面部关键点偏移信息。具体地,预先设置的用户面部关键点偏移信息可以有一个或多个。当有多个预先设置的用户面部关键点偏移信息时,用户可以从中选择一个用户面部关键点偏移信息,计算机设备可以获取所选择的用户面部关键点偏移信息。
在另一个实施例中,获取用户面部关键点偏移信息包括:确定用于表示用户面部处于基准表情状态的第一表情模板;获取用于表示用户面部处于目标表情状态的第二表情模板;根据第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
其中,表情模板,是预先设置的用于表示表情的模板。
具体地,计算机设备中可以预先设置多个表情模板。计算机设备可以从预先设置的表情模板中,确定用于表示用户面部处于基准表情状态的第一表情模板。
在一个实施例中,用户可以从设置的表情模板中,选定处于基准表情状态的表情模板(即选定所表示的表情为基准表情的表情模板),计算机设备可以获取选定的表情模板作为用于表示用户面部处于基准表情状态的第一表情模板。可以理解,这里的基准表情状态,是指第一目标面部图像所处于的基准表情状态。这里的基准表情,是指第一目标面部图像所处于的基准表情状态所呈现的基准表情。
在另一个实施例中,计算机设备也可以将设置的表情模板与第一目标面部图像所处于的基准表情状态进行匹配,将匹配到的表情模板作为用于表示用户面部处于基准表情状态的第一表情模板。可以理解,匹配到的表情模板所表示的表情为目标表情。
在一个实施例中,计算机设备可以获取通过用户的选择操作所选中的第二表情模板,该第二表情模板用于表示用户面部处于目标表情状态。可以理解,在其他实施例中,计算机设备也可以从预先设置的表情模板中,获取对应于第一表情模板所配置的表情模板,并将获取的表情模板作为用于表示用户面部处于目标表情状态的第二表情模板。比如,对应于没有笑容的表情模板配置带笑容和/或哭的表情模板。
可以理解,每个表情模板都有对应的面部关键点,计算机设备可以获取第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点,并确定第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
上述实施例中,通过对预先设置对应于面部关键点的表情模板进行选择,来得到用户面部关键点偏移信息,而不需要调用图像采集资源来实时采集不同表情状态下的用户面部图像,节省了在图像采集方面所耗用的系统资源。
S106,按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。
具体地,计算机设备可以按照用户面部关键点偏移信息,对处于基准表情状态的第一目标面部图像的面部关键点的位置进行调整。可以理解,调整后的面部关键点的位置发生变化的同时,可以改变第一目标面部图像中的表情。
S108,在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
可以理解,待处理图像中的第二目标面部图像和第一目标面部图像属于相同目标,是指第二目标面部图像和第一目标面部图像都是同一目标的面部图像。比如,目标为汤姆,那么第二目标面部图像和第一目标面部图像都属于汤姆的面部图像。
需要说明的是,第二目标面部图像和第一目标面部图像可以是属于同一目标的不同表情的面部图像。此外,第二目标面部图像和第一目标面部图像也可以是属于同一目标的相同表情的面部图像,即第二目标面部图像和第一目标面部图像可以完全相同。可以理解,当第二目标面部图像与第一目标面部图像相同时,可以用第一目标面部图像替换掉第二目标面部图像的表述。
在一个实施例中,获取处于基准表情状态的第一目标面部图像可以包括:获取待处理图像中处于基准表情状态的第一目标面部图像。在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处包括:在待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至该待处理图像的第一目标面部图像处。
待处理图像,是待进行图像处理的图像。待处理图像中包括第二目标面部图像。需要说明的是,待处理图像为至少一个。这里仅描述的是这对一个待处理图像所采用的图像处理方法。每个待处理图像所采用的图像处理方法相同。待处理图像可以是一张独立的图片,也可以是视频中的图像帧。
纹理,是反映对象表面细节的信息,包括对象表面的纹路、颜色或图案等中的至少一种信息。表情纹理,是指反映面部图像中的表情的信息。纹理图像,是包括纹理的图像,即包括反映对象表面细节的信息的图像。表情纹理图像,是指包括表情纹理的图像。即表情纹理图像中包括反映面部图像中表情的信息。
在一个实施例中,表情纹理图像可以是经过调整的第一目标面部图像的面部轮廓内的纹理图像。可以理解,面部轮廓内的纹理图像中包括眼睛、鼻子、嘴巴、眉毛等面部器官,这些面部器官的位置能够反映第一目标面部图像中的表情,所以,经过调整的第一目标面部图像的面部轮廓内的纹理图像可以作为表情纹理图像。以图2进行举例说明,假设图2中的面部图像为经过调整的第一目标面部图像,202这一圈即为面部轮廓,该面部轮廓202内的图像即可以作为表情纹理图像。
在其他实施例中,表情纹理图像也可以是仅包括面部器官的图像。可以理解,表情纹理图像中可以仅包括面部器官而不包括其他面部皮肤,因为仅包括面部器官也能够反映出表情。比如,表情纹理图像中仅包括面部器官,其余的面部皮肤处则为透明或空白图像。
计算机设备可以从按照用户面部关键点偏移信息进行面部关键点调整后的第一目标面部图像中,裁剪表情纹理图像,并将裁剪的表情纹理图像贴合至待处理图像中的第二目标面部图像处。
可以理解,由于第二目标面部图像和第一目标面部图像属于相同目标,所以将经过调整的第一目标面部图像的表情纹理图像贴合至待处理图像中的第二目标面部图像处,并不会改变第二目标面部图像的面部特征。
在一个实施例中,计算机设备可以将待处理图像的第二目标面部图像中对应于第一目标面部图像的表情纹理图像的区域裁剪掉,并将经过调整的第一目标面部图像的表情纹理图像对应贴合至裁剪掉的该区域,从而形成新的图片。在另一个实施例中,计算机设备也可以直接用经过调整的第一目标面部图像的表情纹理图像覆盖贴合至待处理图像的第二目标面部图像中的相应区域。
为了便于理解,现对这两种情况进行举例说明。比如,待处理图像为A,待处理图像A中第二目标面部图像为a,第一目标面部图像为b,在将b中的表情纹理图像贴合至A时,可以先在图像A中确定用来贴合的区域,并将这个区域裁剪掉,然后再将b中的表情纹理图像贴合填充至这个裁剪掉的区域处,从而可以得到新的图片。此外,也可以不对图像A进行裁剪,直接将b中的表情纹理图像覆盖至这个用来贴合的区域处。
图4为一个实施例中表情纹理图像贴合的示意图。图4中是以待处理图像所包括的第二目标面部图像与第一目标面部图像相同的情况来进行解释说明。参照图4,待处理图像402中包括处于基准表情状态的第一目标面部图像404,按照用户面部关键点偏移信息,调整第一目标面部图像404的面部关键点后,从经过调整的第一目标面部图像中裁剪的表情纹理图像为406,计算机设备可以将表情纹理图像为406贴合至待处理图像中,即得到具有目标表情的图像408。
在一个实施例中,该方法还包括:从贴合表情纹理图像的待处理图像中,确定与贴合的表情纹理图像的边缘区域交接的图像区域;分别提取边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据;根据第一肤色数据和第二肤色数据进行肤色融合处理。
可以理解,表情纹理图像贴合至待处理图像中之后,待处理图像中存在与贴合的表情纹理图像的边缘区域交接的图像区域,这个交接的图像区域和贴合的表情纹理图像的边缘区域之间可能存在肤色差异,所以,计算机设备可以分别提取边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据。计算机设备可以根据第一肤色数据和第二肤色数据进行肤色融合处理,以使得贴合的表情纹理图像的边缘区域与交接的图像区域之间的肤色过渡自然,从而提高图像处理的质量和效果。
在一个实施例中,计算机设备可以提供针对第一肤色数据和第二肤色数据进行求均值的方式,实现肤色融合处理。
上述图像处理方法,通过获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量;按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。这样一来,调整后的第一目标面部图像中的表情纹理图像中的表情就属于目标表情。在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。由于在待处理图像中的第二目标面部图像处贴合了调整后的第一目标面部图像的表情纹理图像,即在保留第二目标面部图像中原有的面部特征的情况下,实现了通过用户面部的表情改变待处理图像中目标面部的表情。
在一个实施例中,获取用户面部关键点偏移信息包括:获取处于基准表情状态的用户面部图像中的第一面部关键点;识别处于目标表情状态的用户面部图像中的第二面部关键点;确定第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
其中,处于基准表情状态的用户面部图像,是指体现基准表情的用户面部图像。用户面部图像,是体现用户面部信息的面部图像。需要说明的是,用户面部图像所处的基准表情状态与第一目标面部图像所处的基准表情状态一致。比如,第一目标面部图像所处的基准表情状态,为不笑的正常表情,那么,用户面部图像所处的基准表情状态也为该不笑的正常表情。
在一个实施例中,计算机设备可以获取处于基准表情状态的用户面部图像,并从中提取第一面部关键点。计算机设备可以直接获取已经存在的处于基准表情状态的用户面部图像,也可以采集处于基准表情状态的用户面部图像。可以理解,用户可以对着图像采集装置做出基准表情,图像采集装置对做出基准表情的用户进行面部图像采集,采集到处于基准表情状态的用户面部图像。计算机设备可以从采集的处于基准表情状态的用户面部图像中,识别第一面部关键点。
计算机设备也可以直接获取预先存储的处于基准表情状态的用户面部图像中的第一面部关键点。可以理解,预先存储的处于基准表情状态的用户面部图像中的第一面部关键点,可以是在从处于基准表情状态的用户面部图像中提取第一面部关键点后,将提取的第一面部关键点进行存储的。
在一个实施例中,计算机设备可以获取处于目标表情状态的用户面部图像,并从处于目标表情状态的用户面部图像中,识别第二面部关键点。具体地,计算机设备可以获取预先存在的处于目标表情状态的用户面部图像。计算机设备也可以调用图像采集装置采集处于目标表情状态的用户面部图像,即用户可以对着图像采集装置做出目标表情,图像采集装置对做出目标表情的用户进行面部图像采集,得到处于目标表情状态的用户面部图像。
计算机设备可以确定所述第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。可以理解,第一面部关键点和第二面部关键点之间的位置偏移信息,可以是由第一面部关键点的位置到达相对应第二面部关键点的位置的偏移量,也可以是由第二面部关键点的位置到达相对应第一面部关键点的位置的偏移量。
可以理解,计算机设备可以根据第一面部关键点的位置与第二面部关键点的位置之间的差值,得到偏移量。其中,第一面部关键点的位置和第二面部关键点的位置都参照于同一参照对象进行确定。
在一个实施例中,计算机设备可以将第一面部关键点和第二面部关键点所对应的面部器官的中心点或中心线作为参照对象,分别确定第一面部关键点相较于该参照对象的位置和第二面部关键点相较于该参照对象的位置。进而,计算机设备可以根据第一面部关键点的位置与第二面部关键点的位置之间的差值,得到偏移量。
可以理解,同一个人的面部器官的中心点或中心线的位置不会随着表情的不同发生变化,比如,眼睛的中心线始终是保持不变的,随着表情发生变化的只是上下眼皮的张开程度。假设眼睛中心线处表示眼睛睁开角度为0度,第一面部关键点为眼睛关键点A,其相较于眼睛中心线的睁开角度为向上5度,与眼睛关键点A对应的第二面部关键点为眼睛关键点A’,其相较于眼睛中心线的睁开角度为向上15度,那么眼睛关键点A的位置与眼睛关键点A’的位置的偏移量则可以为向上15度。
在另一个实施例中,计算机设备也可以将处于目标表情状态的用户面部图像和处于基准表情状态的用户面部图像中的同一顶点作为参照对象。计算机设备可以将该顶点作为坐标原点建立二维平面直角坐标系。比如,可以以用户面部图像的左上角的顶点作为坐标原点建立二维平面直角坐标系。计算机设备可以确定第一面部关键点在该二维平面直角坐标系中的位置坐标,以及确定第二面部关键点在该二维平面直角坐标系中的位置坐标。计算机设备可以根据第一面部关键点的位置坐标和第二面部关键点的位置坐标之间的差值,得到偏移量。
可以理解,表示面部器官的同一地方的第一面部关键点和第二面部关键点相对应。以图3为例,图3中示出的处于基准表情状态的用户面部图像中表示右眼上眼帘的关键点有38和39两个关键点,其中,关键点39离鼻子的关键点相较于关键点38离鼻子的关键点近,那么,该关键点39,则与处于目标表情状态的用户面部图像中表示右眼上眼帘的两个关键点中离鼻子较近的关键点相对应。
图5为一个实施例中调整第一目标面部图像的面部关键点的示意图。图5中是以待处理图像所包括的第二目标面部图像与第一目标面部图像相同的情况来进行解释说明。参照图5,502为待处理图像,502a为待处理图像中的处于基准表情状态的第一目标面部图像,504a为处于该基准表情状态的用户面部图像,从图5中可以看见,502a和504a都属于不带笑容的正常放松表情。504b为处于目标表情状态的用户面部图像,根据504a中的第一面部关键点和504b中的第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。计算机设备可以按照得到的用户面部关键点偏移信息,调整502a中的面部关键点,并将调整后的第一目标面部图像中的表情纹理图像502b贴合至待处理图像502中的第一目标面部图像502a处,得到新的图像506。
上述实施例中,通过获取处于基准表情状态的用户面部图像中的第一面部关键点,以及识别处于目标表情状态的用户面部图像中的第二面部关键点,并确定二者之间的位置偏移信息,得到用户面部关键点偏移信息。能够实现灵活地根据用户面部来调整待处理图像中的面部表情,提高了图像处理的灵活性,此外,直接根据用户面部来调整待处理图像中的面部表情,避免了复杂的处理,提高了图像处理的效率。
在一个实施例中,待处理图像为视频中的图像帧;获取处于基准表情状态的第一目标面部图像包括:从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像。识别处于目标表情状态的用户面部图像中的第二面部关键点包括:播放视频,并针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
可以理解,视频的图像帧中可以有至少一个图像帧为待处理图像。当有多个图像帧都为待处理图像时,针对每个待处理图像都可以采用本申请各实施例所提供的图像处理方法。
其中,基准图像帧,是视频中的包括处于基准表情状态的第一目标面部图像的图像帧。基准图像帧可以是从视频中选定的一个默认固定的图像帧。即视频中不同的待处理图像都对应于一个基准图像帧。在一个实施例中,基准表情状态,可以是正常表情状态。正常表情状态,是指不带任何喜怒哀乐的表情状态。在其他实施例中,基准表情状态可以是基准图像帧所处的表情状态,即基准图像帧所处的表情状态即认定为基准表情状态,而并不限定某一种表情状态为基准表情状态。
基准图像帧也可以是视频中的待处理图像。即基准图像帧可以是动态变化的,当视频中待处理图像发生变化时,由于基准图像帧是待处理图像本身,所以基准图像帧也会发生变化。这种情况下,基准表情状态则为待处理图像在未做调整时所处的表情状态。
在一个实施例中,可以在视频处于播放状态时,从视频的图像帧中选定基准图像帧。具体地,用户可以在播放视频时,对视频输入图像帧指定指令,计算机设备可以响应于该图像帧指定指令,从视频的图像帧中选定所指定的基准图像帧。即基准图像帧,可以通过响应于在播放视频时接收到的图像帧指定指令从视频中的图像帧中选定。
在一个实施例中,在视频处于播放状态时,计算机设备生成提示信息,以提示用户选取基准图像帧。计算机设备可以接收并响应于用户针对提示信息输入的图像帧指定指令,从视频的图像帧中选定所指定的基准图像帧。
在另一个实施例中,也可以在图像帧选取界面中,从视频的图像帧中选定基准图像帧。用户可以触发进入图像帧选取界面,该界面中可以呈现视频的图像帧,用户可以从中指定基准图像帧,计算机设备可以将用户指定的基准图像帧进行选定。图像帧选取界面,是专门用于选取视频中基准图像帧的界面。
计算机设备可以从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像,并执行获取处于基准表情状态的用户面部图像中的第一面部关键点的步骤。本申请实施例中,识别处于目标表情状态的用户面部图像中的第二面部关键点包括:播放视频,并针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
具体地,计算机设备可以播放视频,用户可以在播放视频的过程中,针对视频的各图像帧做出对应的目标表情,计算机设备可以采集处于与该图像帧对应的目标表情状态的用户面部图像。可以理解,处于视频的图像帧所对应的目标表情状态的用户面部图像,呈现的即为与该图像帧对应的目标表情。计算机设备即针对各图像帧采集有相应的处于目标表情状态的用户面部图像,不同图像帧所对应的用户面部图像所处的目标表情状态可以相同或不同。比如,图像帧A对应的用户面部图像所处的目标表情状态所呈现的目标表情为微笑,下一帧图像帧B对应的用户面部图像所处的目标表情状态所呈现的目标表情可以为不笑。
计算机设备可以从采集的处于各目标表情状态的用户面部图像中,识别第二面部关键点,并执行确定所述第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息的步骤,以及执行后续的步骤S106~S108。可以理解,由于待处理图像为视频中的图像帧,所以本实施例中,步骤S108中的待处理图像可以用视频的图像帧替换表述,即为在包括第二目标面部图像的视频的图像帧中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
可以理解,贴合表情纹理图像后的待处理图像,即为表情发生变化的新的目标图像。这样一来,播放的视频画面直接显示为贴合表情纹理图像后生成的新的目标图像。
上述实施例中,在播放视频时,可以直接根据用户面部来调整视频的图像帧中的面部表情,避免了复杂的处理,提高了针对视频进行图像处理的效率。此外,用户面部的表情比较灵活,因而也提高了针对视频进行图像处理的灵活性。然后,可以实现通过用户面部来调整视频的其他人的脸的表情,使得对视频进行图像处理更加便捷、多样。
在一个实施例中,提供了一种图像处理方法,该图像处理方法应用于计算机设备中,该方法具体包括以下步骤:
(1)在播放视频的过程中,生成用于选取基准图像帧的提示信息。
(2)接收基于该提示信息输入的图像帧指定指令。
可以理解,用户可以基于该提示信息,从视频中选取基准图像帧,以输入图像帧指定指令。
(3)响应于图像帧指定指令,从该视频的图像帧中选定基准图像帧。其中,选定的基准图像帧中包括处于基准表情状态的第一目标面部图像。
(4)从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像。
(5)检测基准图像帧中的第一目标面部图像的面部关键点,并保存该基准图像帧中第一目标面部图像的面部轮廓及面部关键点的位置。
(6)通过图像采集设备采集处于基准表情状态的用户面部图像,并从采集的处于基准表情状态的用户面部图像中,识别第一面部关键点。
(7)再次播放视频,并提示用户做表情;针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像。
可以理解,在播放视频过程中用户边做表情,计算机设备可以采集用户做的表情,那么,在播放每帧图像帧时用户所做的表情则为针对该图像帧的目标表情。这样一来,针对视频的各图像帧,就采集了相应的处于目标表情状态用户面部图像。其中,不同图像帧所对应的用户面部图像所处的目标表情状态可以相同或不同。
(8)分别识别各个处于目标表情状态的用户面部图像中的第二面部关键点。
(9)分别确定各第二面部关键点和第一面部关键点之间的位置偏移信息,得到与各处于目标表情状态的用户面部图像对应的用户面部关键点偏移信息;其中,各用户面部关键点偏移信息,与所对应的处于目标表情状态的用户面部图像所针对的图像帧相对应。
可以理解,根据第二面部关键点确定出的用户面部关键点偏移信息,与第二面部关键点所提取自的处于目标表情状态的用户面部图像对应。
(10)分别按照各用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点的位置;从经过调整后的各个第一目标面部图像中,裁剪出面部轮廓内的表情纹理图像。
可以理解,按照不同的用户面部关键点偏移信息调整处于基准表情状态的第一目标面部图像的面部关键点,可以得到不同的调整后的第一目标面部图像。
(11)在视频中的各个包括第二目标面部图像的图像帧中,将相对应的表情纹理图像贴合至该图像帧中的第二目标面部图像处,得到新的各个图像帧;第二目标面部图像和第一目标面部图像属于相同目标。
通俗点讲,第二目标面部图像和第一目标面部图像属于同一个目标的脸。
可以理解,视频中的各个包括第二目标面部图像的图像帧则相当于被替换为新的图像帧,这样一来,就可以得到一个新的视频。
图6为一个实施例中图像处理方法的原理示意图。参照图6,用户可以选择视频进行播放,计算机设备可以在播放视频的过程中,提示用户选取视频中包括处于正常表情状态的目标人物的基准图像帧。即基准图像帧中包括处于正常表情状态(即处于基准表情状态)的第一目标面部图像。计算机设备可以检测该基准图像帧中目标人物的面部关键点(即检测该基准图像帧中第一目标面部图像中的面部关键点),如果检测到基准图像帧中的目标人脸(即第一目标面部图像),则保存该基准图像帧中目标人脸的面部轮廓及面部关键点的位置。计算机设备打开摄像头,采集用户面部图像,并获取处于正常表情状态下的用户面部图像(即获取处于基准表情状态的用户面部图像),保存处于正常表情状态下的用户面部图像的第一面部关键点的位置。计算机设备可以重新播放该视频,并提示用户做表情,其中,用户做的表情即为目标表情,计算机设备可以通过摄像头针对视频的各图像帧分别采集处于相应目标表情状态下的用户面部图像,根据处于目标表情状态下的用户面部图像中的第二面部关键点和第一面部关键点之间的位置偏移信息,确定用户面部关键点偏移信息。计算机设备可以将目标人脸(即第一目标面部图像)中的面部关键点的位置按照该用户面部关键点偏移信息进行调整,将调整后的目标人脸的表情纹理(即经过调整的第一目标面部图像的表情纹理图像)贴回视频中相对应的图像帧中。用户可以实时预览结果。
在一个实施例中,该方法还包括:当第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行获取用户面部关键点偏移信息的步骤;当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
可以理解,第一目标面部图像与处于目标表情状态的用户面部图像不匹配,则说明第一目标面部图像所属于的目标与处于目标表情状态的用户面部图像所属于的用户不同。即第一目标面部图像和处于目标表情状态的用户面部图像表示的是不同人的脸。反之,第一目标面部图像与处于目标表情状态的用户面部图像匹配,则说明第一目标面部图像所属于的目标与处于目标表情状态的用户面部图像所属于的用户相同。即第一目标面部图像和处于目标表情状态的用户面部图像表示的是同一个人的脸。
具体地,当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则说明第一目标面部图像和处于目标表情状态的用户面部图像表示的是同一个人不同表情状态下的脸,那么,第一目标面部图像和用户面部图像的基本面部特征相同,而第二目标面部图像和第一目标面部图像属于相同目标,即也属于同一个人的脸,所以就可以直接在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处,而不需要进行面部关键点的位置方面的调整。
可以理解,将处于目标表情状态的用户面部图像中的表情特征映射至待处理图像中的第二目标面部图像处后,待处理图像中的第二目标面部图像中的表情即为目标表情。
需要说明的是,待处理图像中的第二目标面部图像和第一目标面部图像可以是属于同一目标的不同表情的面部图像。此外,第二目标面部图像和第一目标面部图像也可以是属于同一目标的相同表情的面部图像,即第二目标面部图像和第一目标面部图像可以完全相同。
可以理解,当第二目标面部图像与第一目标面部图像相同时,可以用第一目标面部图像替换掉第二目标面部图像的表述。比如,在包括所述第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处,则可以替换为在包括所述第一目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第一目标面部图像处。
上述实施例中,当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处,提高了图像处理的效率。
在一个实施例中,在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处,包括:确定处于目标表情状态的用户面部图像中的面部轮廓;从用户面部图像中裁剪出面部轮廓内的纹理图像;在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
具体地,计算机设备可以检测处于目标表情状态的用户面部图像中的面部轮廓,并从用户面部图像中裁剪出面部轮廓内的纹理图像。可以理解,面部轮廓内的纹理图像能够反映用户面部图像中的目标表情。因此,计算机设备在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。这样一来,贴合纹理图像后的待处理图像中贴合纹理图像后的面部图像的表情即为目标表情。
同样可以结合图4进行举例说明。参照图4,第一目标面部图像与处于目标表情状态的用户面部图像表示同一个人的不同表情状态下的脸。待处理图像402中包括处于基准表情状态的第一目标面部图像404,直接从处于目标表情状态的用户面部图像中裁剪出面部轮廓内的纹理图像406,计算机设备可以将表情纹理图像为406贴合至待处理图像中,即得到具有目标表情的图像408。
在一个实施例中,在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内包括:检测面部轮廓的第一轮廓关键点;识别待处理图像中的第二目标面部图像中第二轮廓关键点;将第二轮廓关键点与第一轮廓关键点进行匹配,以将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
轮廓关键点,是面部轮廓的的点状呈现。即把面部轮廓以点的形式进行表现。如图3中的关键点1~17为面部轮廓的轮廓关键点。
具体地,计算机设备可以检测面部轮廓的第一轮廓关键点。其中,面部轮廓是处于目标表情状态的用户面部图像中的面部轮廓。计算机设备可以识别待处理图像中的第二目标面部图像中第二轮廓关键点。可以理解,由于第一目标面部图像与处于目标表情状态的用户面部图像匹配,即第一目标面部图像与处于目标表情状态的用户面部图像表示同一个人的脸,而第二目标面部图像和第一目标面部图像属于相同目标,那么,第二目标面部图像中的第二轮廓关键点和用户面部图像的第一轮廓关键点的位置就相同,因此,可以将第二轮廓关键点与第一轮廓关键点进行匹配,以实现定位,从而将裁剪的纹理图像贴合至待处理图像的第二目标脸部图像中的面部轮廓内,能够将裁剪的纹理图像准确地贴合至第二目标脸部图像中的面部轮廓内,提高了图像处理的准确性。
在一个实施例中,待处理图像为视频中的图像帧。当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,该方法还包括:播放所述视频,并针对所述视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;所述在包括所述第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处包括:在视频中的包括所述第二目标面部图像的待处理图像中,将处于对应目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处,以改变视频的图像帧,得到相应的目标图像,以在视频的播放过程中直接显示为各个目标图像。可以理解,与视频的各图像帧对应的目标图像即为视频的新的图像帧。
上述实施例中,在播放视频时,可以直接根据用户面部来调整视频的图像帧中的面部表情,避免了复杂的处理,提高了针对视频进行图像处理的效率。此外,用户面部的表情比较灵活,因而也提高了图像处理的灵活性。
在一个实施例中,待处理图像也可以为独立的图片。那么,映射将处于目标表情状态的用户面部图像中的表情特征映射至待处理图像的第二目标面部图像处后,能够得到一个新的目标表情的图片。
在一个实施例中,该方法还包括:从贴合纹理图像的待处理图像中,确定与贴合的纹理图像的边缘区域交接的图像区域;分别提取所述边缘区域中皮肤的肤色数据和交接的图像区域中皮肤的肤色数据;根据提取的肤色数据进行肤色融合处理。
图7为另一个实施例中的图像处理方法的原理示意图。需要说明的是,图7示出的是第一目标面部图像与处于目标表情状态的用户面部图像匹配时,图像处理方法的原理示意图。图7中是以第二目标面部图像与第一目标面部图像完全相同的情况进行说明的,因此,第二目标面部图像就由第一目标面部图像替换进行表述。参照图7,用户可以通过计算机设备从图库中打开一个包括人脸的图片(即包括第一目标面部图像的待处理图像),计算机设备可以开启摄像头采集处于目标表情状态的用户面部图像,保存用户面部图像中的面部轮廓内的纹理图像,并记录相应的第一轮廓关键点。计算机设备可以检测打开的图片中的面部轮廓,并记录相应的第二轮廓关键点。计算机设备可以将第一轮廓关键点与第二轮廓关键点匹配,以将纹理图像覆盖贴合至该图片上。计算机设备可以将图片和贴合的纹理图像交接的区域的肤色做融合处理,得到新合成的图片。计算机设备可以实时预览合成的图片,在确认保存后,保存该图片。
如图8所示,在一个实施例中,提供了一种图像处理装置800,该装置800包括:获取模块802、调整模块804以及处理模块806,其中:
获取模块802,用于获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。
调整模块804,用于按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。
处理模块806,用于在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,获取模块802还用于获取处于基准表情状态的用户面部图像中的第一面部关键点;识别处于目标表情状态的用户面部图像中的第二面部关键点;确定第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,待处理图像为视频中的图像帧;获取模块802还用于从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像;播放视频,并针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
在一个实施例中,基准图像帧,通过响应于在播放视频时接收到的图像帧指定指令从视频中的图像帧中选定;获取模块802还用于采集处于基准表情状态的用户面部图像;从采集的处于基准表情状态的用户面部图像中,识别第一面部关键点。
在一个实施例中,获取模块802还用于当第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行获取用户面部关键点偏移信息的步骤;当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则通知处理模块806在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,处理模块806还用于确定处于目标表情状态的用户面部图像中的面部轮廓;从用户面部图像中裁剪出面部轮廓内的纹理图像;在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,处理模块806还用于检测面部轮廓的第一轮廓关键点;识别待处理图像中的第二目标面部图像中第二轮廓关键点;将第二轮廓关键点与第一轮廓关键点进行匹配,以将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,获取模块802还用于确定用于表示用户面部处于基准表情状态的第一表情模板;获取用于表示用户面部处于目标表情状态的第二表情模板;根据第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,处理模块806还用于从贴合表情纹理图像的待处理图像中,确定与贴合的表情纹理图像的边缘区域交接的图像区域;分别提取边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据;根据第一肤色数据和第二肤色数据进行肤色融合处理。
图9为一个实施例中图像处理方法的应用环境图。该应用环境图中包括用户902和计算机设备904。计算机设备904可以是终端或服务器。终端可以是智能电视机、台式计算机或移动终端,移动终端可以包括手机、平板电脑、笔记本电脑、个人数字助理和穿戴式设备等中的至少一种。服务器可以用独立的服务器或者是多个物理服务器组成的服务器集群来实现。图9是以计算机设备904为终端进行举例说明,当计算机设备904为终端时,该计算机设备904可以包括图像采集装置904a和显示器904b。
计算机设备904可以获取处于基准表情状态的第一目标面部图像,并获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。比如,计算机设备904可以通过图像采集装置904a采集用户902在基准表情状态时的用户面部图像,并提取其中的面部关键点,以及采集用户902在目标表情状态时的用户面部图像,并提取其中的面部关键点。计算机设备904可以根据用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量得到用户面部关键点偏移信息。计算机设备904可以按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。计算机设备904可以通过显示器904b显示包括第二目标面部图像的待处理图像,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
图10为一个实施例中计算机设备的内部结构示意图。参照图10,该计算机设备可以是终端或服务器。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质可存储操作系统和计算机程序。该计算机程序被执行时,可使得处理器执行一种图像处理方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行一种图像处理方法。计算机设备的网络接口用于进行网络通信。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的图像处理装置可以实现为一种计算机程序的形式,计算机程序可在如图10所示的计算机设备上运行,计算机设备的非易失性存储介质可存储组成该图像处理装置的各个程序模块,比如,图8所示的获取模块802、调整模块804以及处理模块806。各个程序模块所组成的计算机程序用于使该计算机设备执行本说明书中描述的本申请各个实施例的图像处理方法中的步骤,例如,计算机设备可以通过如图8所示的图像处理装置800中的获取模块802获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量。计算机设备可以通过调整模块804按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点。计算机设备可以通过处理模块806在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,计算机程序被处理器执行时,使得处理器执行如下步骤:获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量;按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点;在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,获取用户面部关键点偏移信息包括:获取处于基准表情状态的用户面部图像中的第一面部关键点;识别处于目标表情状态的用户面部图像中的第二面部关键点;确定第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,待处理图像为视频中的图像帧;获取处于基准表情状态的第一目标面部图像包括:从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像;识别处于目标表情状态的用户面部图像中的第二面部关键点包括:播放视频,并针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
在一个实施例中,基准图像帧,通过响应于在播放视频时接收到的图像帧指定指令从视频中的图像帧中选定;获取处于基准表情状态的用户面部图像中的第一面部关键点包括:采集处于基准表情状态的用户面部图像;从采集的处于基准表情状态的用户面部图像中,识别第一面部关键点。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行如下步骤:当第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行获取用户面部关键点偏移信息的步骤;当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处,包括:确定处于目标表情状态的用户面部图像中的面部轮廓;从用户面部图像中裁剪出面部轮廓内的纹理图像;在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,在包括第一目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第一目标脸部图像中的面部轮廓内包括:检测面部轮廓的第一轮廓关键点;识别待处理图像中的第二目标面部图像中第二轮廓关键点;将第二轮廓关键点与第一轮廓关键点进行匹配,以将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,获取用户面部关键点偏移信息包括:确定用于表示用户面部处于基准表情状态的第一表情模板;获取用于表示用户面部处于目标表情状态的第二表情模板;根据第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行如下步骤:从贴合表情纹理图像的待处理图像中,确定与贴合的表情纹理图像的边缘区域交接的图像区域;分别提取边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据;根据第一肤色数据和第二肤色数据进行肤色融合处理。
一种存储有计算机程序的存储介质,所述计算机程序被处理器执行时,使得处理器执行如下步骤:获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于基准表情状态时的偏移量;按照用户面部关键点偏移信息,调整处于基准表情状态的第一目标面部图像的面部关键点;在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,获取用户面部关键点偏移信息包括:获取处于基准表情状态的用户面部图像中的第一面部关键点;识别处于目标表情状态的用户面部图像中的第二面部关键点;确定第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,待处理图像为视频中的图像帧;获取处于基准表情状态的第一目标面部图像包括:从视频的基准图像帧中提取处于基准表情状态的第一目标面部图像;识别处于目标表情状态的用户面部图像中的第二面部关键点包括:播放视频,并针对视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
在一个实施例中,基准图像帧,通过响应于在播放视频时接收到的图像帧指定指令从视频中的图像帧中选定;获取处于基准表情状态的用户面部图像中的第一面部关键点包括:采集处于基准表情状态的用户面部图像;从采集的处于基准表情状态的用户面部图像中,识别第一面部关键点。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行如下步骤:当第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行获取用户面部关键点偏移信息的步骤;当第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处;第二目标面部图像和第一目标面部图像属于相同目标。
在一个实施例中,在包括第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至第二目标面部图像处,包括:确定处于目标表情状态的用户面部图像中的面部轮廓;从用户面部图像中裁剪出面部轮廓内的纹理图像;在包括第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,在包括第一目标面部图像的待处理图像中,将裁剪的纹理图像贴合至第一目标脸部图像中的面部轮廓内包括:检测面部轮廓的第一轮廓关键点;识别待处理图像中的第二目标面部图像中第二轮廓关键点;将第二轮廓关键点与第一轮廓关键点进行匹配,以将裁剪的纹理图像贴合至第二目标脸部图像中的面部轮廓内。
在一个实施例中,获取用户面部关键点偏移信息包括:确定用于表示用户面部处于基准表情状态的第一表情模板;获取用于表示用户面部处于目标表情状态的第二表情模板;根据第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行如下步骤:从贴合表情纹理图像的待处理图像中,确定与贴合的表情纹理图像的边缘区域交接的图像区域;分别提取边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据;根据第一肤色数据和第二肤色数据进行肤色融合处理。
应该理解的是,虽然本申请各实施例中的各个步骤并不是必然按照步骤标号指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种图像处理方法,所述方法包括:
获取处于基准表情状态的第一目标面部图像;
获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
2.根据权利要求1所述的方法,其特征在于,所述获取用户面部关键点偏移信息包括:
获取处于所述基准表情状态的用户面部图像中的第一面部关键点;
识别处于目标表情状态的用户面部图像中的第二面部关键点;
确定所述第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
3.根据权利要求2所述的方法,其特征在于,所述待处理图像为视频中的图像帧;所述获取处于基准表情状态的第一目标面部图像包括:
从所述视频的基准图像帧中提取处于基准表情状态的第一目标面部图像;
所述识别处于目标表情状态的用户面部图像中的第二面部关键点包括:
播放所述视频,并针对所述视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;
识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
4.根据权利要求3所述的方法,其特征在于,所述基准图像帧,通过响应于在播放所述视频时接收到的图像帧指定指令从所述视频中的图像帧中选定;
获取处于所述基准表情状态的用户面部图像中的第一面部关键点包括:
采集处于所述基准表情状态的用户面部图像;
从采集的处于所述基准表情状态的用户面部图像中,识别第一面部关键点。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行所述获取用户面部关键点偏移信息的步骤;
当所述第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则在包括所述第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
6.根据权利要求5所述的方法,其特征在于,所述在包括所述第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处,包括:
确定处于目标表情状态的用户面部图像中的面部轮廓;
从用户面部图像中裁剪出所述面部轮廓内的纹理图像;
在包括所述第二目标面部图像的待处理图像中,将裁剪的纹理图像贴合至所述第二目标脸部图像中的面部轮廓内。
7.根据权利要求6所述的方法,其特征在于,所述在包括所述第一目标面部图像的待处理图像中,将裁剪的纹理图像贴合至所述第一目标脸部图像中的面部轮廓内包括:
检测所述面部轮廓的第一轮廓关键点;
识别待处理图像中的所述第二目标面部图像中第二轮廓关键点;
将所述第二轮廓关键点与所述第一轮廓关键点进行匹配,以将裁剪的纹理图像贴合至所述第二目标脸部图像中的面部轮廓内。
8.根据权利要求1所述的方法,其特征在于,所述获取用户面部关键点偏移信息包括:
确定用于表示用户面部处于所述基准表情状态的第一表情模板;
获取用于表示用户面部处于目标表情状态的第二表情模板;
根据第一表情模板所对应的面部关键点和第二表情模板所对应的面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述方法还包括:
从贴合表情纹理图像的待处理图像中,确定与贴合的表情纹理图像的边缘区域交接的图像区域;
分别提取所述边缘区域中皮肤的第一肤色数据和交接的图像区域中皮肤的第二肤色数据;
根据所述第一肤色数据和第二肤色数据进行肤色融合处理。
10.一种图像处理装置,其特征在于,所述装置包括:
获取模块,用于获取处于基准表情状态的第一目标面部图像;获取用户面部关键点偏移信息;用户面部关键点偏移信息,表示用户面部的面部关键点在目标表情状态时相较于所述基准表情状态时的偏移量;
调整模块,用于按照所述用户面部关键点偏移信息,调整所述处于基准表情状态的第一目标面部图像的面部关键点;
处理模块,用于在包括第二目标面部图像的待处理图像中,将经过调整的第一目标面部图像的表情纹理图像贴合至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
11.根据权利要求10所述的装置,其特征在于,所述获取模块还用于获取处于所述基准表情状态的用户面部图像中的第一面部关键点;识别处于目标表情状态的用户面部图像中的第二面部关键点;确定所述第一面部关键点和第二面部关键点之间的位置偏移信息,得到用户面部关键点偏移信息。
12.根据权利要求11所述的装置,其特征在于,述待处理图像为视频中的图像帧;所述获取模块还用于从所述视频的基准图像帧中提取处于基准表情状态的第一目标面部图像;播放所述视频,并针对所述视频的各图像帧,采集处于对应的目标表情状态的用户面部图像;识别采集的处于各目标表情状态的用户面部图像中的第二面部关键点。
13.根据权利要求11所述的装置,其特征在于,所述获取模块还用于当所述第一目标面部图像与处于目标表情状态的用户面部图像不匹配时,则执行所述获取用户面部关键点偏移信息的步骤;当所述第一目标面部图像与处于目标表情状态的用户面部图像匹配时,则通知所述处理模块在包括所述第二目标面部图像的待处理图像中,将处于目标表情状态的用户面部图像中的表情特征映射至所述第二目标面部图像处;所述第二目标面部图像和所述第一目标面部图像属于相同目标。
14.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至9中任一项所述方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至9中任一项所述方法的步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810814349.7A CN108985241B (zh) | 2018-07-23 | 2018-07-23 | 图像处理方法、装置、计算机设备及存储介质 |
JP2020560185A JP7052079B2 (ja) | 2018-07-23 | 2019-06-18 | 画像処理方法、装置、コンピュータ装置及びコンピュータプログラム |
PCT/CN2019/091682 WO2020019904A1 (zh) | 2018-07-23 | 2019-06-18 | 图像处理方法、装置、计算机设备及存储介质 |
EP19841233.0A EP3742333A4 (en) | 2018-07-23 | 2019-06-18 | IMAGE PROCESSING PROCESS AND APPARATUS, COMPUTER DEVICE AND STORAGE MEDIA |
US16/995,343 US11455729B2 (en) | 2018-07-23 | 2020-08-17 | Image processing method and apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810814349.7A CN108985241B (zh) | 2018-07-23 | 2018-07-23 | 图像处理方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985241A true CN108985241A (zh) | 2018-12-11 |
CN108985241B CN108985241B (zh) | 2023-05-02 |
Family
ID=64550712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810814349.7A Active CN108985241B (zh) | 2018-07-23 | 2018-07-23 | 图像处理方法、装置、计算机设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11455729B2 (zh) |
EP (1) | EP3742333A4 (zh) |
JP (1) | JP7052079B2 (zh) |
CN (1) | CN108985241B (zh) |
WO (1) | WO2020019904A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934766A (zh) * | 2019-03-06 | 2019-06-25 | 北京市商汤科技开发有限公司 | 一种图像处理方法及装置 |
CN110266973A (zh) * | 2019-07-19 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机可读存储介质和计算机设备 |
CN110322416A (zh) * | 2019-07-09 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110490897A (zh) * | 2019-07-30 | 2019-11-22 | 维沃移动通信有限公司 | 模仿视频生成的方法和电子设备 |
WO2020019904A1 (zh) * | 2018-07-23 | 2020-01-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN111445417A (zh) * | 2020-03-31 | 2020-07-24 | 维沃移动通信有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111507142A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 人脸表情图像处理方法、装置和电子设备 |
CN112218034A (zh) * | 2020-10-13 | 2021-01-12 | 北京字节跳动网络技术有限公司 | 视频处理方法、系统、终端和存储介质 |
CN112817503A (zh) * | 2021-01-18 | 2021-05-18 | 陈林斌 | 电子相框的智能显示方法、电子相框及可读存储介质 |
CN112862936A (zh) * | 2021-03-16 | 2021-05-28 | 网易(杭州)网络有限公司 | 表情模型处理方法及装置、电子设备、存储介质 |
CN113763517A (zh) * | 2020-06-05 | 2021-12-07 | 华为技术有限公司 | 人脸表情编辑方法及电子设备 |
JP2022020054A (ja) * | 2020-11-09 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
WO2022174826A1 (zh) * | 2021-02-22 | 2022-08-25 | 维沃移动通信有限公司 | 图片处理方法、装置、设备及存储介质 |
US11941854B2 (en) | 2019-08-28 | 2024-03-26 | Beijing Sensetime Technology Development Co., Ltd. | Face image processing method and apparatus, image device, and storage medium |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428390B (zh) * | 2019-07-18 | 2022-08-26 | 北京达佳互联信息技术有限公司 | 一种素材展示方法、装置、电子设备和存储介质 |
EP3971820A4 (en) * | 2019-09-30 | 2022-08-10 | Beijing Sensetime Technology Development Co., Ltd. | IMAGE PROCESSING METHOD, DEVICE AND ELECTRONIC DEVICE |
CN111652123B (zh) * | 2020-06-01 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 图像处理和图像合成方法、装置和存储介质 |
CN112613459B (zh) * | 2020-12-30 | 2022-07-15 | 深圳艾摩米智能科技有限公司 | 一种人脸敏感区域检测方法 |
CN113408495B (zh) * | 2021-07-30 | 2021-11-05 | 广州汇图计算机信息技术有限公司 | 一种用于安保的安全警备系统 |
US11792506B2 (en) * | 2022-02-09 | 2023-10-17 | Motorola Mobility Llc | Electronic devices and corresponding methods for defining an image orientation of captured images |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037836A1 (en) * | 2006-08-09 | 2008-02-14 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
CN106250813A (zh) * | 2016-07-18 | 2016-12-21 | 海信集团有限公司 | 一种面部表情迁移方法及设备 |
CN107610209A (zh) * | 2017-08-17 | 2018-01-19 | 上海交通大学 | 人脸表情合成方法、装置、存储介质和计算机设备 |
CN108229239A (zh) * | 2016-12-09 | 2018-06-29 | 武汉斗鱼网络科技有限公司 | 一种图像处理的方法及装置 |
CN108256505A (zh) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6828972B2 (en) * | 2002-04-24 | 2004-12-07 | Microsoft Corp. | System and method for expression mapping |
CN101021943A (zh) * | 2007-04-06 | 2007-08-22 | 北京中星微电子有限公司 | 一种图像调整的方法和系统 |
JP5206366B2 (ja) * | 2008-11-27 | 2013-06-12 | カシオ計算機株式会社 | 3次元データ作成装置 |
JP2010271955A (ja) * | 2009-05-21 | 2010-12-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
CN104657974A (zh) * | 2013-11-25 | 2015-05-27 | 腾讯科技(上海)有限公司 | 一种图像处理方法及装置 |
CN105991916A (zh) * | 2015-02-05 | 2016-10-05 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105184249B (zh) | 2015-08-28 | 2017-07-18 | 百度在线网络技术(北京)有限公司 | 用于人脸图像处理的方法和装置 |
CN106341696A (zh) * | 2016-09-28 | 2017-01-18 | 北京奇虎科技有限公司 | 一种直播视频流处理方法和装置 |
CN106649712B (zh) * | 2016-12-20 | 2020-03-03 | 北京小米移动软件有限公司 | 输入表情信息的方法及装置 |
US10860841B2 (en) * | 2016-12-29 | 2020-12-08 | Samsung Electronics Co., Ltd. | Facial expression image processing method and apparatus |
CN107146199B (zh) * | 2017-05-02 | 2020-01-17 | 厦门美图之家科技有限公司 | 一种人脸图像的融合方法、装置及计算设备 |
CN107316020B (zh) * | 2017-06-26 | 2020-05-08 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
CN107507216B (zh) * | 2017-08-17 | 2020-06-09 | 北京觅己科技有限公司 | 图像中局部区域的替换方法、装置及存储介质 |
CN108985241B (zh) * | 2018-07-23 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
-
2018
- 2018-07-23 CN CN201810814349.7A patent/CN108985241B/zh active Active
-
2019
- 2019-06-18 EP EP19841233.0A patent/EP3742333A4/en active Pending
- 2019-06-18 JP JP2020560185A patent/JP7052079B2/ja active Active
- 2019-06-18 WO PCT/CN2019/091682 patent/WO2020019904A1/zh unknown
-
2020
- 2020-08-17 US US16/995,343 patent/US11455729B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037836A1 (en) * | 2006-08-09 | 2008-02-14 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
CN106250813A (zh) * | 2016-07-18 | 2016-12-21 | 海信集团有限公司 | 一种面部表情迁移方法及设备 |
CN108229239A (zh) * | 2016-12-09 | 2018-06-29 | 武汉斗鱼网络科技有限公司 | 一种图像处理的方法及装置 |
CN107610209A (zh) * | 2017-08-17 | 2018-01-19 | 上海交通大学 | 人脸表情合成方法、装置、存储介质和计算机设备 |
CN108256505A (zh) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020019904A1 (zh) * | 2018-07-23 | 2020-01-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
US11455729B2 (en) | 2018-07-23 | 2022-09-27 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, and storage medium |
CN111507142A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 人脸表情图像处理方法、装置和电子设备 |
CN109934766A (zh) * | 2019-03-06 | 2019-06-25 | 北京市商汤科技开发有限公司 | 一种图像处理方法及装置 |
US11244449B2 (en) | 2019-03-06 | 2022-02-08 | Beijing Sensetime Technology Development Co., Ltd. | Image processing methods and apparatuses |
CN110322416B (zh) * | 2019-07-09 | 2022-11-18 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110322416A (zh) * | 2019-07-09 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110266973A (zh) * | 2019-07-19 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机可读存储介质和计算机设备 |
CN110490897A (zh) * | 2019-07-30 | 2019-11-22 | 维沃移动通信有限公司 | 模仿视频生成的方法和电子设备 |
US11941854B2 (en) | 2019-08-28 | 2024-03-26 | Beijing Sensetime Technology Development Co., Ltd. | Face image processing method and apparatus, image device, and storage medium |
CN111445417A (zh) * | 2020-03-31 | 2020-07-24 | 维沃移动通信有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111445417B (zh) * | 2020-03-31 | 2023-12-19 | 维沃移动通信有限公司 | 图像处理方法、装置、电子设备及介质 |
CN113763517A (zh) * | 2020-06-05 | 2021-12-07 | 华为技术有限公司 | 人脸表情编辑方法及电子设备 |
WO2021244040A1 (zh) * | 2020-06-05 | 2021-12-09 | 华为技术有限公司 | 人脸表情编辑方法及电子设备 |
CN113763517B (zh) * | 2020-06-05 | 2024-04-12 | 华为技术有限公司 | 人脸表情编辑方法及电子设备 |
WO2022078066A1 (zh) * | 2020-10-13 | 2022-04-21 | 北京字节跳动网络技术有限公司 | 视频处理方法、系统、终端和存储介质 |
CN112218034A (zh) * | 2020-10-13 | 2021-01-12 | 北京字节跳动网络技术有限公司 | 视频处理方法、系统、终端和存储介质 |
JP2022020054A (ja) * | 2020-11-09 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
JP7212741B2 (ja) | 2020-11-09 | 2023-01-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 3次元アバタ生成方法、装置、電子機器及び記憶媒体 |
US11587300B2 (en) | 2020-11-09 | 2023-02-21 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for generating three-dimensional virtual image, and storage medium |
CN112817503B (zh) * | 2021-01-18 | 2024-03-26 | 陈林斌 | 电子相框的智能显示方法、电子相框及可读存储介质 |
CN112817503A (zh) * | 2021-01-18 | 2021-05-18 | 陈林斌 | 电子相框的智能显示方法、电子相框及可读存储介质 |
WO2022174826A1 (zh) * | 2021-02-22 | 2022-08-25 | 维沃移动通信有限公司 | 图片处理方法、装置、设备及存储介质 |
CN112862936B (zh) * | 2021-03-16 | 2023-08-08 | 网易(杭州)网络有限公司 | 表情模型处理方法及装置、电子设备、存储介质 |
CN112862936A (zh) * | 2021-03-16 | 2021-05-28 | 网易(杭州)网络有限公司 | 表情模型处理方法及装置、电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3742333A1 (en) | 2020-11-25 |
JP2021519995A (ja) | 2021-08-12 |
CN108985241B (zh) | 2023-05-02 |
JP7052079B2 (ja) | 2022-04-11 |
US20200380682A1 (en) | 2020-12-03 |
EP3742333A4 (en) | 2021-08-25 |
WO2020019904A1 (zh) | 2020-01-30 |
US11455729B2 (en) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108985241A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
KR102169918B1 (ko) | 인물 얼굴 모델의 표정 애니메이션 생성 방법 및 장치 | |
KR101635730B1 (ko) | 몽타주 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체 | |
CN110390632B (zh) | 基于妆容模板的图像处理方法、装置、存储介质及终端 | |
CN110503703A (zh) | 用于生成图像的方法和装置 | |
CN112598785B (zh) | 虚拟形象的三维模型生成方法、装置、设备及存储介质 | |
CN105791692A (zh) | 一种信息处理方法及终端 | |
CN102567716B (zh) | 一种人脸合成系统及实现方法 | |
JPH10255066A (ja) | 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜 | |
TW202109359A (zh) | 人臉圖像處理方法、圖像設備及儲存介質 | |
CN103873768B (zh) | 3d数码形象输出装置及方法 | |
CN109614983A (zh) | 训练数据的生成方法、装置及系统 | |
WO2017177259A1 (en) | System and method for processing photographic images | |
KR20120070985A (ko) | 얼굴 특징 기반의 가상 체험 시스템 및 그 방법 | |
CN109410119A (zh) | 面具图像变形方法及其系统 | |
US10874196B2 (en) | Makeup part generating apparatus and makeup part generating method | |
CN107742273A (zh) | 一种2d发型虚拟试戴方法及装置 | |
US11587288B2 (en) | Methods and systems for constructing facial position map | |
US11562536B2 (en) | Methods and systems for personalized 3D head model deformation | |
CN106709886A (zh) | 自动修图方法及装置 | |
CN109886144A (zh) | 虚拟试发方法、装置、计算机设备和存储介质 | |
CN109949207A (zh) | 虚拟对象合成方法、装置、计算机设备和存储介质 | |
CN109784180A (zh) | 基于增强现实的绘图方法、装置、计算机设备及存储介质 | |
CN106327588B (zh) | 智能终端及其图像处理方法和装置 | |
CN108833772A (zh) | 基于深度相机的拍照引导系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |