CN109345636A - 获取虚拟人脸图的方法和装置 - Google Patents
获取虚拟人脸图的方法和装置 Download PDFInfo
- Publication number
- CN109345636A CN109345636A CN201810796128.1A CN201810796128A CN109345636A CN 109345636 A CN109345636 A CN 109345636A CN 201810796128 A CN201810796128 A CN 201810796128A CN 109345636 A CN109345636 A CN 109345636A
- Authority
- CN
- China
- Prior art keywords
- face
- characteristic point
- face characteristic
- line
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 210000004709 eyebrow Anatomy 0.000 claims description 64
- 210000001747 pupil Anatomy 0.000 claims description 18
- 210000001508 eye Anatomy 0.000 description 29
- 238000012545 processing Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 241000209140 Triticum Species 0.000 description 2
- 235000021307 Triticum Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000009394 selective breeding Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6009—Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种获取虚拟人脸图的方法和装置,属于网络技术领域。所述方法包括:在基准人脸图像中,确定多个预设的人脸特征点的位置信息;根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。采用本发明,可以提高捏脸的效率。
Description
技术领域
本发明涉及网络技术领域,特别涉及一种获取虚拟人脸图的方法和装置。
背景技术
目前一些三维游戏中,用户可以对虚拟角色的五官和脸型进行调整,如调整五官的大小、位置等,使其看上去与某个真实人物(用户自己或某个明星)的脸相似,这个过程可以称为捏脸。
在实现本发明的过程中,发明人发现现有技术至少存在以下问题:
为了使五官和脸型可以进行细致的调节,技术人员需要设置很多调整参数,以眼睛为例,用户需要调整两眼之间的间距、上眼睑的高度、下眼睑的高度、内眼角的大小、双眼皮的大小等调整参数。在用户进行捏脸时,需要手动调整很多调整参数,浪费了很多时间,导致捏脸的效率降低。
发明内容
为了解决现有技术的问题,本发明实施例提供了一种获取虚拟人脸图的方法和装置。所述技术方案如下:
第一方面,提供了一种获取虚拟人脸图的方法,所述方法包括:
在基准人脸图像中,确定多个预设的人脸特征点的位置信息;
根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;
根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;
基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
可选地,所述多个人脸特征线段,包括:
与左瞳孔特征点水平对应的左侧人脸特征点和与所述右瞳孔特征点水平对应的右侧人脸特征点的第一连线;
与鼻翼底部特征点水平对应的左侧人脸特征点和与所述鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;
与下唇最高特征点水平对应的左侧人脸特征点和与所述下唇最高特征点水平对应的右侧人脸特征点的第三连线;
与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;
左侧下颌底部特征点和右侧下颌底部特征点的第五连线;
所述第一连线的中点和所述下颌最低特征点的第六连线;
左眼内眼角特征点与右眼内眼角特征点的连线的中点和所述鼻翼底部特征点的第七连线;
鼻翼左侧特征点和鼻翼右侧特征点的第八连线;
上唇最高特征点和上唇最低特征点的第九连线;
下唇最高特征点和下唇最低特征点的第十连线;
嘴角左侧特征点和嘴角右侧特征点的第十一连线。
可选地,所述基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,包括:
根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;
根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
可选地,所述根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值,包括:
根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定所述至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;
对于每个人脸特征比值,基于所述人脸特征比值在所属的人脸特征比值范围中的位置,在所述人脸特征比值范围对应的所述目标人脸参数的目标参数取值范围中,选取所述人脸特征比值对应的所述目标人脸参数的目标参数取值。
可选地,所述方法还包括:
根据所述多个预设的人脸特征点的位置信息,截取所述基准人脸图像中的眉毛图像或胡子图像;
确定所述眉毛图像或胡子图像对应的类别标识;
根据所述类别标识获取对应的基准眉毛图像或基准胡子图像;
将所述基准眉毛图像或基准胡子图像添加到所述调整后的虚拟人脸图中。
第二方面,提供了一种获取虚拟人脸图的装置,所述装置包括:
确定模块,用于在基准人脸图像中,确定多个预设的人脸特征点的位置信息;
确定模块,还用于根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;
确定模块,还用于根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;
调整模块,用于基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
可选地,所述多个人脸特征线段,包括:
与左瞳孔特征点水平对应的左侧人脸特征点和与所述右瞳孔特征点水平对应的右侧人脸特征点的第一连线;
与鼻翼底部特征点水平对应的左侧人脸特征点和与所述鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;
与下唇最高特征点水平对应的左侧人脸特征点和与所述下唇最高特征点水平对应的右侧人脸特征点的第三连线;
与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;
左侧下颌底部特征点和右侧下颌底部特征点的第五连线;
所述第一连线的中点和所述下颌最低特征点的第六连线;
左眼内眼角特征点与右眼内眼角特征点的连线的中点和所述鼻翼底部特征点的第七连线;
鼻翼左侧特征点和鼻翼右侧特征点的第八连线;
上唇最高特征点和上唇最低特征点的第九连线;
下唇最高特征点和下唇最低特征点的第十连线;
嘴角左侧特征点和嘴角右侧特征点的第十一连线。
可选地,所述调整模块,用于:
根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;
根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
可选地,所述调整模块,用于:
根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定所述至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;
对于每个人脸特征比值,基于所述人脸特征比值在所属的人脸特征比值范围中的位置,在所述人脸特征比值范围对应的所述目标人脸参数的目标参数取值范围中,选取所述人脸特征比值对应的所述目标人脸参数的目标参数取值。
可选地,所述装置还包括:
截取模块,用于根据所述多个预设的人脸特征点的位置信息,截取所述基准人脸图像中的眉毛图像或胡子图像;
确定模块,还用于确定所述眉毛图像或胡子图像对应的类别标识;
获取模块,用于根据所述类别标识获取对应的基准眉毛图像或基准胡子图像;
添加模块,用于将所述基准眉毛图像或基准胡子图像添加到所述调整后的虚拟人脸图中。
第三方面,提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述第一方面所述的获取虚拟人脸图的方法。
第四方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述第一方面所述的获取虚拟人脸图的方法。
本发明实施例提供的技术方案带来的有益效果至少包括:
本发明实施例中,终端可以在用户输入的基准人脸图像中确定基准人脸图像的人脸特征点的位置信息,根据人脸特征点的位置信息确定出多个人脸特征线段的长度,根据人脸特征线段的长度确定人脸特征比值,根据确定的人脸特征比值对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图,即为用户输入的基准人脸图像对应的虚拟人脸图。这样,无需用户手动调整虚拟人脸图,终端可以自动生成用户想要生成的虚拟人脸图,节省了很多时间,因此可以提高捏脸的效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种获取虚拟人脸图的方法的流程图;
图2是本发明实施例提供的一种获取虚拟人脸图的方法的界面示意图;
图3是本发明实施例提供的一种获取虚拟人脸图的方法的界面示意图;
图4是本发明实施例提供的一种获取虚拟人脸图的方法的界面示意图;
图5是本发明实施例提供的一种获取虚拟人脸图的方法的界面示意图;
图6是本发明实施例提供的一种获取虚拟人脸图的装置的结构示意图;
图7是本发明实施例提供的一种获取虚拟人脸图的装置的结构示意图;
图8是本发明实施例提供的一种终端结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种获取虚拟人脸图的方法,该方法可以由终端实现。
终端可以包括处理器、存储器、屏幕等部件。处理器,可以为CPU(CentralProcessing Unit,中央处理单元)等,可以用于确定人脸特征点的位置信息、确定人脸特征线段的长度、确定人脸特征比值、对虚拟人脸图进行调整等处理。存储器,可以为RAM(Random Access Memory,随机存取存储器),Flash(闪存)等,可以用于存储接收到的数据、处理过程所需的数据、处理过程中生成的数据等,如基准人脸图像、多个人脸特征点的位置信息、人脸特征线段的长度、人脸特征比值、虚拟人脸图。屏幕可以用于显示基准人脸图像以及虚拟人脸图。终端还可以包括收发器、图像检测部件、音频输出部件和音频输入部件等。收发器,可以用于与其它设备进行数据传输,可以包括天线、匹配电路、调制解调器等。图像检测部件可以是摄像头。音频输出部件可以是音箱、耳机等。音频输入部件可以是麦克风等。
一个可能的实施例中,一些现有的三维游戏支持用户人为设定虚拟人物的人脸图像(即虚拟人脸图),如通过一些调整参数,对虚拟人脸图的五官或脸型进行调整。为了可以对虚拟人脸图进行细致的调整,技术人员需要设置很多调整参数,以脸型为例,用户需要下颌长度、下颌宽度、上脸颊宽度、下脸颊宽度等调整参数,如图1所示。用户需要调整很多参数,会浪费很多时间。这样,发明人意识到,通过用户的手动调整虚拟人脸图的调整参数,会导致捏脸的效率降低。
进而,发明人想到,可以通过算法自动生成与用户提供的基准人脸图像比较相像的虚拟人脸图,这样,无需用户手动调整虚拟人脸图,节省了很多时间,可以提高捏脸的效率。
如图2所示,该方法的处理流程可以包括如下的步骤:
在步骤201中,在基准人脸图像中,确定多个预设的人脸特征点的位置信息。
一个可能的实施例中,当用户想要根据自己提供的图像(即基准人脸图像)对虚拟人脸图进行调整时,用户可以操作终端上传基准人脸图像,终端接收到用户上传的基准人脸图像后,将基准人脸图像发送给服务器。服务器接收到基准人脸图像后,存储基准人脸图像,并根据预设的人脸特征点定位算法,在基准人脸图像中,确定多个预设的人脸特征点以及每个人脸特征点的位置信息,如图3所示。
需要说明的是,预设的人脸特征点表示通过预设的人脸特征点定位算法确定的人脸特征点的数目是固定的,且每个人脸特征点表示的含义是固定的,例如,假设人脸特征点定位算法为基于局部二值特征的人脸特征点定位方法,则通过该算法可以在基准人脸图像中,确定88个人脸特征点,每个人脸特征点表示固定的含义,如第n个人脸特征点表示的含义为与左瞳孔特征点水平对应的左侧人脸特征点,则在每个基准人脸图像提取到的88个人脸特征点中,第n个人脸特征点表示的含义都是与左瞳孔特征点水平对应的左侧人脸特征点。这样,在后续使用人脸特征点时,直接根据需要的人脸特征点的标号获取人脸特征点的位置信息即可。
需要说明的是,上述预设的人脸特征点定位算法可以是基于局部二值特征的人脸特征点定位算法。对于用户输入的一张基准人脸图像,先给定一组初始人脸特征点坐标,该初始人脸特征点坐标组为技术人员预先设定并存储的,优选为技术人员根据已有的训练数据集中的真实人脸特征点坐标得到的,训练数据集可以选择AFW(Annotated Faces in theWild,自然注释人脸数据集)、LFPW(一种人脸数据集)、HELEN(一种人脸数据集)、IBUG(一种人脸数据集)等数据集。例如每个初始人脸特征点坐标可以是训练数据集中表示同一含义的人脸特征点坐标的平均值。然后,根据预先存储的线性变换矩阵Wt和特征映射函数基于下述公式(1)得到坐标偏移ΔSt:
然后求得偏移后的人脸特征点的新坐标:St=St-1+ΔSt。重复t次上述步骤,直到得到符合标准的人脸特征点的坐标信息。
需要说明的是,上述人脸特征点的位置信息可以是以坐标形式表示,或者其他形式表示,本发明不做限定。
在步骤202中,根据多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段。
一个可能的实施例中,通过上述步骤确定预设的人脸特征点的位置信息后,服务器根据人脸特征点的位置信息,计算多个人脸特征线段的长度,人脸特征线段是根据指定的人脸特征点确定的连接线段,每条人脸特征线段都代表一定的含义。
需要说明的是,人脸特征点的位置信息可以是人脸特征点在基准人脸图像中的坐标信息,在确定人脸特征线段的长度的时候,可以先确定该人脸特征线段与哪些人脸特征点有关,人脸特征线段可以是两个人脸特征点的连接线段,也可以是根据人脸特征点的连接线段间接确定的连接线段,如图4所示,如可以是一个人脸特征点与一个连接线段的中点确定的连接线段。
假设某人脸特征线段为第一人脸特征点与第二人脸特征点的连接线段,则确定第一人脸特征点的坐标信息和第二人脸特征点的坐标信息,然后按照基于两个点的坐标信息计算两个点连线的长度的计算方法,计算得到该人脸特征线段的长度。假设第一人脸特征点的坐标为(x1,y1),第二人脸特征点的坐标为(x2,y2),则第一人脸特征点与第二人脸特征点的连接线段的长度L的计算公式可以如下公式(2):
例如,第一人脸特征点的坐标为(40,80),第二人脸特征点的坐标为(120,80),则根据公式可以计算第一人脸特征点和第二人脸特征点的连接线段的长度为即第一人脸特征点和第二人脸特征点的连接线段的长度为80个单位。
可选地,上述人脸特征线段可以是通过下述人脸特征点进行连接得到的连线:与左瞳孔特征点水平对应的左侧人脸特征点和与右瞳孔特征点水平对应的右侧人脸特征点的第一连线;与鼻翼底部特征点水平对应的左侧人脸特征点和与鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;与下唇最高特征点水平对应的左侧人脸特征点和与下唇最高特征点水平对应的右侧人脸特征点的第三连线;与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;左侧下颌底部特征点和右侧下颌底部特征点的第五连线;第一连线的中点和下颌最低特征点的第六连线;左眼内眼角特征点与右眼内眼角特征点的连线的中点和鼻翼底部特征点的第七连线;鼻翼左侧特征点和鼻翼右侧特征点的第八连线;上唇最高特征点和上唇最低特征点的第九连线;下唇最高特征点和下唇最低特征点的第十连线;嘴角左侧特征点和嘴角右侧特征点的第十一连线。
一个可能的实施例中,连接两个表示特定含义的特征点得到的连线可以表示某种特定的含义,本发明中例举了下面一些连线,每条连线的长度有特定的含义。
第一连线是与左瞳孔特征点水平对应的左侧人脸特征点和与右瞳孔特征点水平对应的右侧人脸特征点的第一连线,该第一连线的长度可以表示人脸在眼睛处水平方向的宽度。
第二连线是与鼻翼底部特征点水平对应的左侧人脸特征点和与鼻翼底部特征点水平对应的右侧人脸特征点的连线,该第二连线的长度可以表示人脸在鼻子底部水平方向的宽度。
第三连线是与下唇最高特征点水平对应的左侧人脸特征点和与下唇最高特征点水平对应的右侧人脸特征点的连线,该第三连线的长度可以表示人脸在嘴巴中部水平方向的宽度。
第四连线是与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的连线,该第四连线的长度可以表示人脸在下巴中部水平方向的宽度。
第五连线是左侧下颌底部特征点和右侧下颌底部特征点的连线,该第五连线的长度可以表示人脸在下巴底部水平方向的宽度。
第六连线是第一连线的中点和下颌最低特征点的连线,该第六连线的长度可以表示眼睛的水平方向距离下巴底部的长度。
第七连线是左眼内眼角特征点与右眼内眼角特征点的连线的中点和鼻翼底部特征点的连线,该第七连线的长度可以表示鼻子的长度。
第八连线是鼻翼左侧特征点和鼻翼右侧特征点的连线,该第八连线的长度可以表示鼻子的宽度。
第九连线是上唇最高特征点和上唇最低特征点的连线,该第九连线的长度可以表示上唇的厚度。
第十连线是下唇最高特征点和下唇最低特征点的连线,该第十连线的长度可以表示下唇的厚度。
第十一连线是嘴角左侧特征点和嘴角右侧特征点的连线,该第十一连线的长度可以表示嘴唇的宽度。
需要说明的是,上述十一条连线只是本发明例举的十一条连线,还可以根据应用的具体情况,根据其他含义的特征点得到其他的连线,本发明对此不做限制。
在步骤203中,根据多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值。
一个可能的实施例中,通过上述步骤202确定多个人脸特征线段的长度后,获取预先存储的至少一个人脸特征比值的计算公式,每个人脸特征比值对应一种人脸参数,每个计算公式为指定的两个人脸特征线段的长度比值计算公式。举例来说,计算人脸在眼睛到下颌的特征线段长度(即双眼中间特征点与下颌中间特征点的线段长度)与人脸在眼睛处的特征线段长度(即与左瞳孔对应的左脸颊特征点以及与右瞳孔对应的右脸颊特征点的人脸特征线段)的长度比值,得到的长度比值对应的人脸参数的含义为下颌长度。
然后,计算上述得到的人脸特征比值,确定对应的人脸参数的参数取值,然后,根据每个人脸参数的参数取值,对预设人脸参数进行调整,上述目标参数可以是调整值,举例来说,目标参数是上唇厚度为8,则在对预设人脸参数进行调整时,将预设人脸参数中下颌长度的参数取值,对上唇厚度进行调整,将上唇厚度调整为8。或者,上唇厚度的调整值为8,则将上唇的厚度增加8个单位,这样,就可以得到与基准人脸图像比较相像的五官。
需要说明的是,预先存储的人脸参数可以是技术人员预先根据多个样本基准人脸图像,手动捏脸得到每个样本基准人脸图像对应的样本虚拟人脸图,然后在得到的样本虚拟人脸图中,获取多组人脸特征比值和对应的人脸参数的参数取值,其中,一个虚拟人脸图对应的所有人脸参数可称为一组人脸参数。
然后,将每组人脸特征比值中代表含义相同的人脸特征比值分成一组,并对每组人脸特征比值按照数值的大小进行排序,得到有序的人脸特征比值组,并根据该人脸特征比值组,获取该人脸特征比值组中每个人脸特征比值对应的人脸参数的参数取值,生成参数取值组,对应存储每个人脸特征比值组和参数取值组。
例如,在根据多个样本虚拟人脸图中提取得到的多组人脸特征比值和对应的人脸参数的参数取值中,获取人脸参数为上唇厚度的人脸特征比值An和对应的参数取值Vn,将人脸特征比值按照数值大小排序并生成一组数值A:[A0,A1,A2,…An],然后,根据数组A生成参数取值数组V:[V0,V1,V2,…Vn]。然后将人脸特征比值数组A与参数取值数组V对应存储。
在步骤204中,基于至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
一个可能的实施例中,通过上述步骤203计算得到至少一个人脸特征比值后,获取技术人员预先存储的虚拟人脸图的预设人脸参数,该虚拟人脸图的预设人脸参数可以是技术人员根据多次试验得到多个虚拟人脸图的样本人脸参数的数值,计算每种人脸参数的数值平均值得到并预先存储的。
基于上述步骤计算得到的人脸特征比值,确定其对应的人脸参数的目标参数取值,然后,根据每个人脸参数的目标参数取值,对预设人脸参数进行调整。上述目标参数取值可以是调整值,例如,下颌长度的目标参数取值为+3,则在对预设人脸参数进行调整时,将预设人脸参数中下颌长度的参数取值增加三个单位;目标参数取值也可以是目标值,例如,下颌长度的目标参数取值为16,则在对预设人脸参数进行调整时,将预设人脸参数中下颌长度的参数取值调整为16。
依照上述步骤得到的每个目标参数取值对虚拟人脸图的预设人脸参数进行调整后,得到调整后的虚拟人脸图,如图5所示,即为用户输入的基准人脸图像对应的虚拟人脸图,将该虚拟人脸图发送给用户的终端,使终端将该虚拟人脸图显示给用户。
需要说明的是,当用户通过终端查看得到的虚拟人脸图时,还可以通过终端对该虚拟人脸图进行调整处理,本发明对比不做限定。
可选地,上述根据基于至少一个人脸特征比值确定其对应的人脸参数的目标参数取值的处理步骤可以如下:根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
一个可能的实施例中,根据上述步骤得到多个样本虚拟人脸图的多组人脸特征比值和对应的人脸参数的参数取值后,在进行存储时,可以将每个人脸参数对应的人脸特征比值和对应的取值参数以一张对应关系表的形式进行存储,以人脸参数上唇厚度为例,对应关系表可以如下表1所示。
表1
人脸特征比值 | 人脸参数 | 预设人脸取值参数 |
A<sub>0</sub> | 上唇厚度 | V<sub>0</sub> |
A<sub>1</sub> | 上唇厚度 | V<sub>1</sub> |
A<sub>2</sub> | 上唇厚度 | V<sub>2</sub> |
…… | 上唇厚度 | …… |
A<sub>n</sub> | 上唇厚度 | V<sub>n</sub> |
根据得到的人脸特征比值,在对比关系表中进行查询,得到该人脸特征比值对应的目标参数取值,然后根据得到的目标参数取值,对虚拟人脸图中虚拟人脸图像的每个目标人脸参数进行调整。
可选地,上述根据对应关系表确定人脸特征比值对应的目标参数取值的处理步骤可以如下:根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;对于每个人脸特征比值,基于人脸特征比值在所属的人脸特征比值范围中的位置,在人脸特征比值范围对应的目标人脸参数的目标参数取值范围中,选取人脸特征比值对应的目标人脸参数的目标参数取值。
一个可能的实施例中,在上述表1所示的对应关系表中,连续的两个人脸特征比值可以形成一个人脸特征比值范围,如[A0,A1];这两个人脸特征比值对应的两个参数取值可以形成一个参数取值范围,如[V0,V1]。在根据对应关系表查询人脸特征比值对应的目标参数取值时,确定该人脸特征比值所属的人脸特征比值范围,以及该人脸特征比值范围对应的目标人脸参数的目标参数取值范围。
然后,根据该人脸特征比值在所属的人脸特征比值范围的位置,在对应的目标参数取值范围中选取该人脸特征比值对应的目标参数取值。这个过程中,可以采用插值的方法选取目标参数取值。
举例来说,假设存储的上唇厚度的对应关系表的具体数值如下表2所示。
表2
人脸特征比值 | 人脸参数 | 预设人脸参数取值 |
2 | 上唇厚度 | 5 |
3 | 上唇厚度 | 10 |
4 | 上唇厚度 | 15 |
…… | 上唇厚度 | …… |
A<sub>n</sub> | 上唇厚度 | V<sub>n</sub> |
通过上述步骤得到基准人脸图像中的上唇厚度对应的人脸特征比值为2.2,则可以确定该人脸特征比值所属的人脸特征比值范围是[2,3],对应的目标人脸参数取值范围为[5,10]。先计算插值参数a:a=(2.2-2)/(3-2)=0.2
然后根据插值参数进行插值计算:(10-5)×0.2+5=6
这样,得到该人脸特征比值对应的目标人脸参数取值为6。
可选地,上述根据特征线段比值确定人脸参数时,由于眉毛和胡子的形状不能根据特征线段比值很好的体现出来,因此,为了使得到的虚拟人脸图与基准人脸图像更相像,在确定虚拟人脸图的眉毛或胡子时,可以先确定基准人脸图像中的眉毛或胡子的类别,然后获取相同类别的眉毛或胡子,添加到预设的虚拟人脸图中。相应的处理步骤可以如下:根据多个预设的人脸特征点的位置信息,截取基准人脸图像中的眉毛图像或胡子图像;确定眉毛图像或胡子图像对应的类别标识;根据类别标识获取对应的基准眉毛图像或基准胡子图像;将基准眉毛图像或基准胡子图像添加到调整后的虚拟人脸图中。
一个可能的实施例中,通过上述预设的人脸特征点定位算法得到的人脸特征点的个数是有限的,如人脸特征点定位算法为基于局部二值特征的人脸特征点定位方法,则通过该算法可以确定88个人脸特征点。通过较少的特征点可以得到的关于眉毛的特征线段比值也比较少,因此根据特征线段比值很难将预设的虚拟人脸图中的眉毛调整到与基准人脸图像中的眉毛较为相像的形状,胡子也是同样的道理。
由于上述原因,为了使得到的虚拟人脸图与基准人脸图像更相像,在确定虚拟人脸图中的眉毛或胡子时,可以采用下述方式。
针对眉毛和胡子,根据特定的人脸特征点,确定出基准人脸图像中的两条眉毛或胡子的形状,然后根据这些人脸特征点的位置信息,从基准人脸图像中截取出两条眉毛的图像。然后,将截取出的眉毛的图像输入到预先训练好的眉毛分类模型中,眉毛分类模型通过算法,确定该眉毛对应的类别标识。
根据得到的类别标识,服务器在预先存储的各类别对应的眉毛图像中,获取该类别标识对应的眉毛图像,然后,按照在预设的虚拟人脸图中预设的眉毛位置信息,将获取的眉毛图像添加到虚拟人脸图中。
需要说明的是,上述获取眉毛或胡子图像的处理过程,可以发生在上述步骤201-203调整其它人脸参数的处理过程之前,在这种情况下,预设的眉毛位置信息可以是预设的虚拟人脸图中特定的坐标信息;也可以发生在上述调整其它人脸参数的处理过程之后,在这种情况下,预设的眉毛位置信息可以是基于其他人脸特征确定的位置信息,如眉毛位置信息中的竖直方向信息为眼睛上方3个单位,水平方向信息分别为对应的眼睛的内眼角特征点的横坐标。上述例举的只是可实施方案的其中一种,预设的眉毛位置信息还可以采用其它的方式,本发明对此不做限制。
需要说明的是,上述预先训练好的眉毛分类模型优选为基于神经网络的分类模型,为了减少训练过程的处理量和所需的样本数据,通常的做法是选择合适的、已经训练好的模型进行微调,得到本发明所需的眉毛分类模型。优选地,合适的、已经训练好的模型可以是Inception v3(谷歌出品的一种卷积神经网络)模型。在该模型最后的softmax层之前接入一个卷积层,即组成本发明所需要的、未经训练的眉毛分类模型。
在训练时,属于原本的Inception v3模型的各层参数无需训练,只需要训练新接入的卷积层的参数即可。将人工捏脸的样本眉毛照片作为样本数据,输入到初始眉毛分类模型中,得到样本眉毛照片的眉毛对应的样本类别标识,将各样本类别标识与人工选择的样本眉毛照片的眉毛对应的基准类别标识进行对比,计算误差值,并将误差值与误差值阈值进行对比,如果得到的误差值大于误差值阈值,则根据误差值调整初始眉毛分类模型中的卷积层的参数。然后,再次输入样本眉毛照片对初始眉毛分类模型进行训练,直到得到的误差值小于误差值阈值,停止训练,则当前的眉毛分类模型即为训练好的眉毛分类模型。
需要说明的是,上述步骤以眉毛作为例子进行说明,对胡子的处理步骤与上述对眉毛的处理步骤大致相同,因此,在训练胡子分类模型以及确定基准人脸图像对应的基准胡子图像时,可以参照上述处理步骤进行处理,本发明在此不做赘述。
本发明实施例中,终端可以在用户输入的基准人脸图像中确定基准人脸图像的人脸特征点的位置信息,根据人脸特征点的位置信息确定出多个人脸特征线段的长度,根据人脸特征线段的长度确定人脸特征比值,根据确定的人脸特征比值对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图,即为用户输入的基准人脸图像对应的虚拟人脸图。这样,无需用户手动调整虚拟人脸图,终端可以自动生成用户想要生成的虚拟人脸图,节省了很多时间,因此可以提高捏脸的效率。
基于相同的技术构思,本发明实施例还提供了一种获取虚拟人脸图的装置,该装置可以为上述实施例中的终端,如图6所示,该装置包括:确定模块610和调整模块620。
该确定模块610,被配置为在基准人脸图像中,确定多个预设的人脸特征点的位置信息;
该确定模块610,还被配置为根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;
该确定模块610,还被配置为根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;
该调整模块620,被配置为基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
可选地,所述多个人脸特征线段,包括:
与左瞳孔特征点水平对应的左侧人脸特征点和与所述右瞳孔特征点水平对应的右侧人脸特征点的第一连线;
与鼻翼底部特征点水平对应的左侧人脸特征点和与所述鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;
与下唇最高特征点水平对应的左侧人脸特征点和与所述下唇最高特征点水平对应的右侧人脸特征点的第三连线;
与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;
左侧下颌底部特征点和右侧下颌底部特征点的第五连线;
所述第一连线的中点和所述下颌最低特征点的第六连线;
左眼内眼角特征点与右眼内眼角特征点的连线的中点和所述鼻翼底部特征点的第七连线;
鼻翼左侧特征点和鼻翼右侧特征点的第八连线;
上唇最高特征点和上唇最低特征点的第九连线;
下唇最高特征点和下唇最低特征点的第十连线;
嘴角左侧特征点和嘴角右侧特征点的第十一连线。
可选地,所述调整模块620,被配置为:
根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;
根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
可选地,所述调整模块620,被配置为:
根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定所述至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;
对于每个人脸特征比值,基于所述人脸特征比值在所属的人脸特征比值范围中的位置,在所述人脸特征比值范围对应的所述目标人脸参数的目标参数取值范围中,选取所述人脸特征比值对应的所述目标人脸参数的目标参数取值。
可选地,如图7所示,所述装置还包括:
截取模块630,被配置为根据所述多个预设的人脸特征点的位置信息,截取所述基准人脸图像中的眉毛图像或胡子图像;
确定模块610,还被配置为确定所述眉毛图像或胡子图像对应的类别标识;
获取模块640,被配置为根据所述类别标识获取对应的基准眉毛图像或基准胡子图像;
添加模块650,被配置为将所述基准眉毛图像或基准胡子图像添加到所述调整后的虚拟人脸图中。
本发明实施例中,终端可以在用户输入的基准人脸图像中确定基准人脸图像的人脸特征点的位置信息,根据人脸特征点的位置信息确定出多个人脸特征线段的长度,根据人脸特征线段的长度确定人脸特征比值,根据确定的人脸特征比值对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图,即为用户输入的基准人脸图像对应的虚拟人脸图。这样,无需用户手动调整虚拟人脸图,终端可以自动生成用户想要生成的虚拟人脸图,节省了很多时间,因此可以提高捏脸的效率。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
需要说明的是:上述实施例提供的获取虚拟人脸图的装置在获取虚拟人脸图时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将终端的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的获取虚拟人脸图的装置与获取虚拟人脸图的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8是本发明实施例提供的一种终端的结构框图。该终端800可以是便携式移动终端,比如:智能手机、平板电脑。终端800还可能被称为用户设备、便携式终端等其他名称。
通常,终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中提供的获取虚拟人脸图的方法。
在一些实施例中,终端800还可选包括有:外围设备接口803和至少一个外围设备。具体地,外围设备包括:射频电路804、触摸显示屏805、摄像头806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏805还具有采集在触摸显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。触摸显示屏805用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,触摸显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,触摸显示屏805还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏805可以采用LCD(LiquidCrystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807用于提供用户和终端800之间的音频接口。音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或触摸显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器813设置在触摸显示屏805的下层时,可以根据用户对触摸显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制触摸显示屏805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏805的显示亮度;当环境光强度较低时,调低触摸显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的正面。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制触摸显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制触摸显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本发明实施例中,终端可以在用户输入的基准人脸图像中确定基准人脸图像的人脸特征点的位置信息,根据人脸特征点的位置信息确定出多个人脸特征线段的长度,根据人脸特征线段的长度确定人脸特征比值,根据确定的人脸特征比值对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图,即为用户输入的基准人脸图像对应的虚拟人脸图。这样,无需用户手动调整虚拟人脸图,终端可以自动生成用户想要生成的虚拟人脸图,节省了很多时间,因此可以提高捏脸的效率。
在示例性实施例中,还提供了一种计算机可读存储介质,存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述实施例中的识别动作类别的方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种获取虚拟人脸图的方法,其特征在于,所述方法包括:
在基准人脸图像中,确定多个预设的人脸特征点的位置信息;
根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;
根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;
基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
2.根据权利要求1所述的方法,其特征在于,所述多个人脸特征线段,包括:
与左瞳孔特征点水平对应的左侧人脸特征点和与右瞳孔特征点水平对应的右侧人脸特征点的第一连线;
与鼻翼底部特征点水平对应的左侧人脸特征点和与所述鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;
与下唇最高特征点水平对应的左侧人脸特征点和与所述下唇最高特征点水平对应的右侧人脸特征点的第三连线;
与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;
左侧下颌底部特征点和右侧下颌底部特征点的第五连线;
所述第一连线的中点和所述下颌最低特征点的第六连线;
左眼内眼角特征点与右眼内眼角特征点的连线的中点和所述鼻翼底部特征点的第七连线;
鼻翼左侧特征点和鼻翼右侧特征点的第八连线;
上唇最高特征点和上唇最低特征点的第九连线;
下唇最高特征点和下唇最低特征点的第十连线;
嘴角左侧特征点和嘴角右侧特征点的第十一连线。
3.根据权利要求1所述的方法,其特征在于,所述基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,包括:
根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;
根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
4.根据权利要求3所述的方法,其特征在于,所述根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值,包括:
根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定所述至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;
对于每个人脸特征比值,基于所述人脸特征比值在所属的人脸特征比值范围中的位置,在所述人脸特征比值范围对应的所述目标人脸参数的目标参数取值范围中,选取所述人脸特征比值对应的所述目标人脸参数的目标参数取值。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述多个预设的人脸特征点的位置信息,截取所述基准人脸图像中的眉毛图像或胡子图像;
确定所述眉毛图像或胡子图像对应的类别标识;
根据所述类别标识获取对应的基准眉毛图像或基准胡子图像;
将所述基准眉毛图像或基准胡子图像添加到所述调整后的虚拟人脸图中。
6.一种获取虚拟人脸图的装置,其特征在于,所述装置包括:
确定模块,用于在基准人脸图像中,确定多个预设的人脸特征点的位置信息;
确定模块,还用于根据所述多个预设的人脸特征点的位置信息,确定多个人脸特征线段的长度,其中,每个人脸特征线段是根据指定的人脸特征点确定的连接线段;
确定模块,还用于根据所述多个人脸特征线段的长度,确定至少一个人脸特征比值,其中,每个人脸特征比值是两个指定的人脸特征线段的长度比值;
调整模块,用于基于所述至少一个人脸特征比值,对虚拟人脸图的预设人脸参数进行调整,得到调整后的虚拟人脸图。
7.根据权利要求6所述的装置,其特征在于,所述多个人脸特征线段,包括:
与左瞳孔特征点水平对应的左侧人脸特征点和与所述右瞳孔特征点水平对应的右侧人脸特征点的第一连线;
与鼻翼底部特征点水平对应的左侧人脸特征点和与所述鼻翼底部特征点水平对应的右侧人脸特征点的第二连线;
与下唇最高特征点水平对应的左侧人脸特征点和与所述下唇最高特征点水平对应的右侧人脸特征点的第三连线;
与下唇最低特征点和下颌最低特征点的连线的中点水平对应的左侧人脸特征点和右侧人脸特征点的第四连线;
左侧下颌底部特征点和右侧下颌底部特征点的第五连线;
所述第一连线的中点和所述下颌最低特征点的第六连线;
左眼内眼角特征点与右眼内眼角特征点的连线的中点和所述鼻翼底部特征点的第七连线;
鼻翼左侧特征点和鼻翼右侧特征点的第八连线;
上唇最高特征点和上唇最低特征点的第九连线;
下唇最高特征点和下唇最低特征点的第十连线;
嘴角左侧特征点和嘴角右侧特征点的第十一连线。
8.根据权利要求6所述的装置,其特征在于,所述调整模块,用于:
根据预先存储的人脸特征比值、人脸参数和参数取值之间的对应关系,确定所述至少一个人脸特征比值中每个人脸特征比值对应的目标人脸参数和目标参数取值;
根据确定出的每个目标人脸参数和对应的目标参数取值,对虚拟人脸图像的每个目标人脸参数进行调整。
9.根据权利要求8所述的装置,其特征在于,所述调整模块,用于:
根据预先存储的人脸特征比值范围、人脸参数和参数取值范围之间的对应关系,确定所述至少一个人脸特征比值中的每个人脸特征比值所属的人脸特征比值范围对应的目标人脸参数以及目标参数取值范围;
对于每个人脸特征比值,基于所述人脸特征比值在所属的人脸特征比值范围中的位置,在所述人脸特征比值范围对应的所述目标人脸参数的目标参数取值范围中,选取所述人脸特征比值对应的所述目标人脸参数的目标参数取值。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
截取模块,用于根据所述多个预设的人脸特征点的位置信息,截取所述基准人脸图像中的眉毛图像或胡子图像;
确定模块,还用于确定所述眉毛图像或胡子图像对应的类别标识;
获取模块,用于根据所述类别标识获取对应的基准眉毛图像或基准胡子图像;
添加模块,用于将所述基准眉毛图像或基准胡子图像添加到所述调整后的虚拟人脸图中。
11.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至5任一所述的获取虚拟人脸图的方法。
12.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至5任一所述的获取虚拟人脸图的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796128.1A CN109345636B (zh) | 2018-07-19 | 2018-07-19 | 获取虚拟人脸图的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796128.1A CN109345636B (zh) | 2018-07-19 | 2018-07-19 | 获取虚拟人脸图的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109345636A true CN109345636A (zh) | 2019-02-15 |
CN109345636B CN109345636B (zh) | 2023-10-24 |
Family
ID=65296717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810796128.1A Active CN109345636B (zh) | 2018-07-19 | 2018-07-19 | 获取虚拟人脸图的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109345636B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112764649A (zh) * | 2021-01-29 | 2021-05-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、设备及存储介质 |
US11403874B2 (en) | 2019-05-15 | 2022-08-02 | Beijing Sensetime Technology Development Co., Ltd. | Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847268A (zh) * | 2010-04-29 | 2010-09-29 | 北京中星微电子有限公司 | 一种基于人脸图像的卡通人脸图形生成方法和装置 |
CN103631370A (zh) * | 2012-08-28 | 2014-03-12 | 腾讯科技(深圳)有限公司 | 一种控制虚拟形象的方法及装置 |
CN104063842A (zh) * | 2014-05-30 | 2014-09-24 | 小米科技有限责任公司 | 处理图像的方法、装置及终端 |
CN104751408A (zh) * | 2015-03-26 | 2015-07-01 | 广东欧珀移动通信有限公司 | 人脸头像的调整方法和装置 |
JP2017147621A (ja) * | 2016-02-17 | 2017-08-24 | 株式会社メイクソフトウェア | 画像処理装置、画像処理方法及びコンピュータプログラム |
CN107730444A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
CN107833177A (zh) * | 2017-10-31 | 2018-03-23 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
-
2018
- 2018-07-19 CN CN201810796128.1A patent/CN109345636B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847268A (zh) * | 2010-04-29 | 2010-09-29 | 北京中星微电子有限公司 | 一种基于人脸图像的卡通人脸图形生成方法和装置 |
CN103631370A (zh) * | 2012-08-28 | 2014-03-12 | 腾讯科技(深圳)有限公司 | 一种控制虚拟形象的方法及装置 |
CN104063842A (zh) * | 2014-05-30 | 2014-09-24 | 小米科技有限责任公司 | 处理图像的方法、装置及终端 |
CN104751408A (zh) * | 2015-03-26 | 2015-07-01 | 广东欧珀移动通信有限公司 | 人脸头像的调整方法和装置 |
JP2017147621A (ja) * | 2016-02-17 | 2017-08-24 | 株式会社メイクソフトウェア | 画像処理装置、画像処理方法及びコンピュータプログラム |
CN107730444A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
CN107833177A (zh) * | 2017-10-31 | 2018-03-23 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403874B2 (en) | 2019-05-15 | 2022-08-02 | Beijing Sensetime Technology Development Co., Ltd. | Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium |
CN112764649A (zh) * | 2021-01-29 | 2021-05-07 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109345636B (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034102A (zh) | 人脸活体检测方法、装置、设备及存储介质 | |
CN110189340A (zh) | 图像分割方法、装置、电子设备及存储介质 | |
CN107835367A (zh) | 一种图像处理方法、装置及移动终端 | |
CN110059744A (zh) | 训练神经网络的方法、图像处理的方法、设备及存储介质 | |
CN110141857A (zh) | 虚拟角色的面部显示方法、装置、设备及存储介质 | |
CN108304265A (zh) | 内存管理方法、装置及存储介质 | |
CN109086713B (zh) | 眼部识别方法、装置、终端及存储介质 | |
CN109977775B (zh) | 关键点检测方法、装置、设备及可读存储介质 | |
CN108062400A (zh) | 基于智能镜的试妆方法、智能镜及存储介质 | |
CN108900858A (zh) | 一种赠送虚拟礼物的方法和装置 | |
CN110222551A (zh) | 识别动作类别的方法、装置、电子设备及存储介质 | |
CN110059685A (zh) | 文字区域检测方法、装置及存储介质 | |
CN111028144B (zh) | 视频换脸方法及装置、存储介质 | |
CN110263617B (zh) | 三维人脸模型获取方法及装置 | |
CN107833177A (zh) | 一种图像处理方法及移动终端 | |
CN110956580B (zh) | 图像换脸的方法、装置、计算机设备以及存储介质 | |
CN110059652A (zh) | 人脸图像处理方法、装置及存储介质 | |
CN110796083B (zh) | 图像显示方法、装置、终端及存储介质 | |
CN109583370A (zh) | 人脸结构网格模型建立方法、装置、电子设备及存储介质 | |
CN109840584A (zh) | 卷积神经网络模型、数据处理方法及装置 | |
CN110163160A (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN110136236A (zh) | 三维角色的个性化脸部显示方法、装置、设备及存储介质 | |
CN109978996A (zh) | 生成表情三维模型的方法、装置、终端及存储介质 | |
CN109325924A (zh) | 图像处理方法、装置、终端及存储介质 | |
CN109886208A (zh) | 物体检测的方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230907 Address after: 621B, 6th Floor, No. 55 Donganmen Street, Dongcheng District, Beijing, 100000 Applicant after: Beijing Yongxing Interactive Technology Co.,Ltd. Address before: 100013 Building 1, building a, Yonghe palace one center, No. 51 Hepingli West Street, Dongcheng District, Beijing Applicant before: BEIJING YONGHANG TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |