CN110189404B - 基于真实人脸图像的虚拟面部建模方法 - Google Patents

基于真实人脸图像的虚拟面部建模方法 Download PDF

Info

Publication number
CN110189404B
CN110189404B CN201910469527.1A CN201910469527A CN110189404B CN 110189404 B CN110189404 B CN 110189404B CN 201910469527 A CN201910469527 A CN 201910469527A CN 110189404 B CN110189404 B CN 110189404B
Authority
CN
China
Prior art keywords
face
expression
head model
facial
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910469527.1A
Other languages
English (en)
Other versions
CN110189404A (zh
Inventor
宋永端
沈志熙
刘鹏
曾海林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201910469527.1A priority Critical patent/CN110189404B/zh
Publication of CN110189404A publication Critical patent/CN110189404A/zh
Application granted granted Critical
Publication of CN110189404B publication Critical patent/CN110189404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于真实人脸图像的虚拟面部建模方法,包括步骤:一)制作头部模型;二)制作面部表情动作贴图集;三)在Unity 3D中,使用Unity 3D自带的帧动画机将获得的各种表情动作贴图集制作成相应的表情动画;四)制作表情动画控制器;五)给3D头部模型装饰上头发配饰,对面部进行修饰;六)编写脚本控制除面部以外的3D头部模型的位移,使其跟随面部位移做相对应的移动;本发明采用真实人的面部表情图像修饰所建立的3D虚拟头模的面部,使得所建立的虚拟人物头部模型的面部与真人的面部相识度极高;且建模过程不需要像现有采用3D软件建模时那样进行复杂的空间设计,建模耗时更短,成本更低。

Description

基于真实人脸图像的虚拟面部建模方法
技术领域
本发明涉及三维建模技术领域,特别涉及一种基于真实人脸图像的虚拟面部建模方法。
背景技术
随着科技的不断发展,人们对于生活质量有着更高的追求,交流型机器人的出现让人们眼前一亮。而VR技术的兴起,则使其更具体验感与科技感,体验者在佩戴VR设备后,能够在计算机生成的模拟环境中,与虚拟机器人亲切互动。虚拟机器人的未来市场已经开始向主持行业,迎宾行业等渗透,预计在不久的将来,虚拟机器人将广泛的应用于各类服务业当中。
Unity 3D是使用最为广泛的支撑虚拟交互的平台,为了使交互更真实,导入Unity3D中的人物模型的仿人性能也成为人们关注的一个重点。而其中最关键的则是面部建模,只有3D模型对真实人物面部的还原度高,辨识度高,才能使体验者在虚拟交互过程中具有沉溺感和满足感。
目前,各类3D人物模型的面部建模都是通过3Ds Max,Zbrush等建模软件完成,所建立人物模型的面部与真人的面部相差度较高,并且建模存在耗用时间长,成本高等问题。
发明内容
有鉴于此,本发明的目的是提供一种基于真实人脸图像的虚拟面部建模方法,以解决现有技术中采用3D软件建立虚拟人物头部模型的面部,存在所建虚拟面部与真人的面部相差度较高、建模耗时长等技术问题。
本发明基于真实人脸图像的虚拟面部建模方法,包括以下步骤:
一)制作头部模型,其又包括如下步骤:
a)采集真人面部的正面照片,利用Insight 3D将真人面部的正面照片转换为3D头部模型;
b)在Insight 3D中将3D头部模型的人面部分与3D头部模型的其余部分分离,并将分离出的人面部分进行平滑化,做成椭球面;
二)制作面部表情动作贴图集,具体操作步骤如下:
1)拍摄与虚拟人物所需面部表情相应的真人面部表情动作视频;
2)利用视频编辑软件,对表情动作视频进行逐帧截取,获取表情图片;
3)在Insight 3D中对步骤b)中分离出来的椭球面进行展UV操作,将三维面部模型转换为平面图片;
4)将步骤3)中获取的面部UV展开图导入到PhotoShop软件中,再将步骤2)中获取的某种表情动作视频的所有表情图片逐张贴合在面部UV展开图上,然后导出贴图,得到一种表情动作贴图集;
5)重复步骤4)得到虚拟人物所需面部表情的所有表情动作贴图集;
三)在Unity 3D中,使用Unity 3D自带的帧动画机将获得的各种表情动作贴图集制作成相应的表情动画;
四)制作表情动画控制器,具体步骤如下:
a)将步骤一)中制得的人面部分与其余部分相分离的3D头部模型导入到Unity 3D中,选中分离出来的椭球面状的面部模型,选择Create添加AnimatorController动画控制器;
b)在动画控制器中选择Create State中的子选项From New Blend Tree创建状态树,将状态树的状态Blend Type改为2D Freeform Directional,并将其Parameters改为X和Y;
c)在Blend Tree的Motion中选择添加与制作好的表情动画数量相等的Motion,并逐个导入表情动画;其中X,Y为每个表情动画的坐标位置。
五)给3D头部模型装饰上头发配饰,对面部进行修饰。
六)编写脚本控制除面部以外的3D头部模型的位移,使其跟随面部位移做相对应的移动,具体步骤如下:
a)确定每个表情动画中各帧图片面部动作的大致角度,包括面部绕X轴的上下旋转角θk和面部绕Y轴的左右旋转角
Figure BDA0002080431010000031
b)编写脚本,在脚本中定义两个容器,分别用于存放各帧图片面部动作的大致角度θk
Figure BDA0002080431010000032
c)编写脚本控制除面部以外的3D头部模型旋转,使其旋转角度与表情动画中各帧图片面部动作角度θk
Figure BDA0002080431010000033
保持一致。
本发明的有益效果:
本发明基于真实人脸图像的虚拟面部建模方法,其采用真实人的面部表情图像修饰所建立的3D虚拟头模的面部,使得所建立的虚拟人物头部模型的面部与真人的面部相识度极高;且建模过程不需要像现有采用3D软件建模时那样进行复杂的空间设计,建模耗时更短,成本更低。
附图说明
图1为表情状态Blend Tree结构图;
图2为3D头部模型以及将人面部分从3D头部模型中分离出来的示意图;
图3为椭球面状的人面部分其UV展开图;
图4为表情动作的连续帧贴图效果。
具体实施方式
下面结合附图和实施例对本发明作进一步描述。
本实施例基于真实人脸图像的虚拟面部建模方法,包括以下步骤:
一)制作头部模型,其又包括如下步骤:
a)采集真人面部的正面照片,利用Insight 3D将真人面部的正面照片转换为3D头部模型;
b)在Insight 3D中将3D头部模型的人面部分与3D头部模型的其余部分分离,并将分离出的人面部分进行平滑化,做成椭球面;本步骤在Insight 3D中的具体操作过程为:先选中头部模型,将模型转换为可编辑多边形,再选中头模面部部分,在编辑几何体的选项中选择分离选项,至此面部便于与头模其余部分分离;然后再选中面部部分,同样转换为可编辑多边形,并将其平滑化为椭球面状。
二)制作面部表情动作贴图集,具体操作步骤如下:
1)拍摄与虚拟人物所需面部表情相应的真人面部表情动作视频,如惊讶表情动作视频,大笑表情动作视频,说话表情动作视频等;
2)利用视频编辑软件,对表情动作视频进行逐帧截取,获取表情图片;本实施例中具体采用Adobe Premiere视频编辑软件获取表情图片,当然在不同实施例中还可采用其它现有的视频编辑软件;
3)在Insight 3D中对步骤b)中分离出来的椭球面进行展UV操作,将三维面部模型转换为平面图片;本步骤在Insight 3D中的具体操作过程为:选中面部模型,将其转换为可编辑多边形,然后在修改器列表中选择UVW展开;然后在“剥”选项中选择毛皮贴图,进而选择毛皮UV,开始松弛,直到将其松弛为平面图形,得到UV展开图并保存;
4)将步骤3)中获取的面部UV展开图导入到PhotoShop软件中,再将步骤2)中获取的某种表情动作视频的所有表情图片逐张贴合在面部UV展开图上,然后导出贴图,得到一种表情动作贴图集;
5)重复步骤4)得到虚拟人物所需面部表情的所有表情动作贴图集。
三)在Unity 3D中,使用Unity 3D自带的帧动画机将获得的各种表情动作贴图集制作成相应的表情动画。
四)制作表情动画控制器,具体步骤如下:
a)将步骤一)中制得的人面部分与其余部分相分离的3D头部模型导入到Unity 3D中,选中分离出来的椭球面状的面部模型,选择Create添加AnimatorController动画控制器;
b)在动画控制器中选择Create State中的子选项From New Blend Tree创建状态树,将状态树的状态Blend Type改为2D Freeform Directional,并将其Parameters改为X和Y;
c)在Blend Tree的Motion中选择添加与制作好的表情动画数量相等的Motion,并逐个导入表情动画;其中X,Y为每个表情动画的坐标位置。例如,伤心表情动画坐标位置为(0,0),大笑表情动画为(0,1),当表情动画的坐标位置由(0,0)向(0,1)移动时,人物模型表情就会由伤心逐渐转变为大笑。
五)给3D头部模型装饰上头发配饰,对面部进行修饰。
六)编写脚本控制除面部以外的3D头部模型的位移,使其跟随面部位移做相对应的移动,具体步骤如下:
a)确定每个表情动画中各帧图片面部动作的大致角度,包括面部绕X轴的上下旋转角θk和面部绕Y轴的左右旋转角
Figure BDA0002080431010000051
面部的横向与X轴平行,面部的纵向与Y轴平行;
b)编写脚本,在脚本中定义两个容器,分别用于存放各帧图片面部动作的大致角度θk
Figure BDA0002080431010000052
c)编写脚本控制除面部以外的3D头部模型旋转,使其旋转角度与表情动画中各帧图片面部动作角度θk
Figure BDA0002080431010000053
保持一致。
在具体实施中,还可通过对虚拟人系统编写语音控制脚本实现用语音控制3D头部模型的面部表情,具体实现方式如下:
1)在Unity 3D控制脚本中定义一个语音录入插件AudioRecorder,通过语音录入插件AudioRecorder判断外置麦克风是否有语音输入给虚拟人系统;
2)当有语音输入虚拟人系统时,通过百度语音识别接口对输入的语音进行识别,将外部输入语音转换为文本值;
3)将步骤2)中获取的文本值传到百度理解与交互技术平台(UNIT),通过UNIT预置的自然语言理解功能,对传入的文本值进行处置,并返回相应的答复内容,返回内容格式仍为文本形式。
4)根据返回的文本内容来确定表情状态,并向动画控制器输出控制指令,动画控制器执行相应的表情动作。例如返回的文本内容中包含字符串“大笑”,那么语音控制脚本就会向动画控制器发出控制命令,动画控制器就播放已经制作好的“大笑”表情动画,虚拟人物面部相应做出“大笑”表情动作。
同时在具体实施中,还可通过对虚拟人系统编写控制脚本控制面部说话表情。具体实施方式为在控制脚本中定义一个Unity 3D自带的语音播放插件AudioSource,外部输入语音经过上述1)、2)、3)步骤后,虚拟人系统会返回一个文本格式的答复内容,经过百度语音合成接口合成后,将此答复内容由文本形式转换为语音形式,并由AudioSource控制播放,将AudioSource的状态与虚拟人说话的表情动画绑定,当语音播放时,即当AudioSource处于IsPlaying的状态时,动画控制器同时播放说话表情动画,虚拟人面部即产生说话表情变化。
本实施例基于真实人脸图像的虚拟面部建模方法,其采用真实人的面部表情图像修饰所建立的3D虚拟头模的面部,使得所建立的虚拟人物头部模型的面部与真人的面部相识度极高;且建模过程不需要像现有采用3D软件建模时那样进行复杂的空间设计,建模耗时更短,成本更低。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.基于真实人脸图像的虚拟面部建模方法,其特征在于:包括以下步骤:
一)制作头部模型,其又包括如下步骤:
a)采集真人面部的正面照片,利用Insight3D将真人面部的正面照片转换为3D头部模型;
b)在Insight3D中将3D头部模型的人面部分与3D头部模型的其余部分分离,并将分离出的人面部分进行平滑化,做成椭球面;
二)制作面部表情动作贴图集,具体操作步骤如下:
1)拍摄与虚拟人物所需面部表情相应的真人面部表情动作视频;
2)利用视频编辑软件,对表情动作视频进行逐帧截取,获取表情图片;
3)在Insight3D中对步骤b)中分离出来的椭球面进行展UV操作,将三维面部模型转换为平面图片;
4)将步骤3)中获取的面部UV展开图导入到PhotoShop软件中,再将步骤2)中获取的某种表情动作视频的所有表情图片逐张贴合在面部UV展开图上,然后导出贴图,得到一种表情动作贴图集;
5)重复步骤4)得到虚拟人物所需面部表情的所有表情动作贴图集;
三)在Unity3D中,使用Unity3D自带的帧动画机将获得的各种表情动作贴图集制作成相应的表情动画;
四)制作表情动画控制器,具体步骤如下:
a)将步骤一)中制得的人面部分与其余部分相分离的3D头部模型导入到Unity3D中,选中分离出来的椭球面状的面部模型,选择Create添加Animator Controller动画控制器;
b)在动画控制器中选择Create State中的子选项From New Blend Tree创建状态树,将状态树的状态Blend Type改为2D Freeform Directional,并将其Parameters改为X和Y;
c)在Blend Tree的Motion中选择添加与制作好的表情动画数量相等的Motion,并逐个导入表情动画;其中X,Y为每个表情动画的坐标位置;
五)给3D头部模型装饰上头发配饰,对面部进行修饰;
六)编写脚本控制除面部以外的3D头部模型的位移,使其跟随面部位移做相对应的移动,具体步骤如下:
a)确定每个表情动画中各帧图片面部动作的大致角度,包括面部绕X轴的上下旋转角θk和面部绕Y轴的左右旋转角
b)编写脚本,在脚本中定义两个容器,分别用于存放各帧图片面部动作的大致角度θk
c)编写脚本控制除面部以外的3D头部模型旋转,使其旋转角度与表情动画中各帧图片面部动作角度θk保持一致。
CN201910469527.1A 2019-05-31 2019-05-31 基于真实人脸图像的虚拟面部建模方法 Active CN110189404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910469527.1A CN110189404B (zh) 2019-05-31 2019-05-31 基于真实人脸图像的虚拟面部建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910469527.1A CN110189404B (zh) 2019-05-31 2019-05-31 基于真实人脸图像的虚拟面部建模方法

Publications (2)

Publication Number Publication Date
CN110189404A CN110189404A (zh) 2019-08-30
CN110189404B true CN110189404B (zh) 2023-04-07

Family

ID=67719502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910469527.1A Active CN110189404B (zh) 2019-05-31 2019-05-31 基于真实人脸图像的虚拟面部建模方法

Country Status (1)

Country Link
CN (1) CN110189404B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124386B (zh) * 2019-12-23 2023-08-29 上海米哈游天命科技有限公司 基于Unity的动画事件处理方法、装置、设备和存储介质
CN114723860B (zh) * 2022-06-08 2022-10-04 深圳智华科技发展有限公司 虚拟形象的生成方法、装置、设备及存储介质
CN115908655B (zh) * 2022-11-10 2023-07-14 北京鲜衣怒马文化传媒有限公司 一种虚拟人物面部表情处理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法
WO2017141223A1 (en) * 2016-02-20 2017-08-24 Vats Nitin Generating a video using a video and user image or video
CN108564642A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的无标记表演捕捉系统
CN108734757A (zh) * 2017-04-14 2018-11-02 北京佳士乐动漫科技有限公司 一种声音与表情捕捉实现三维人脸动画的方法
CN109410298A (zh) * 2018-11-02 2019-03-01 北京恒信彩虹科技有限公司 一种虚拟模型的制作方法及表情变化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555347B1 (ko) * 2009-04-09 2015-09-24 삼성전자 주식회사 비디오 기반 얼굴 애니메이션 생성 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法
WO2017141223A1 (en) * 2016-02-20 2017-08-24 Vats Nitin Generating a video using a video and user image or video
CN108734757A (zh) * 2017-04-14 2018-11-02 北京佳士乐动漫科技有限公司 一种声音与表情捕捉实现三维人脸动画的方法
CN108564642A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的无标记表演捕捉系统
CN109410298A (zh) * 2018-11-02 2019-03-01 北京恒信彩虹科技有限公司 一种虚拟模型的制作方法及表情变化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
何钦政 ; 王运巧 ; .基于Kinect的人脸表情捕捉及动画模拟系统研究.图学学报.2016,(03),全文. *
叶艳芳 ; 黄席樾 ; 沈志熙 ; .一种基于肤色和模板匹配的人脸检测方法.重庆工学院学报(自然科学版).2007,(12),全文. *
钱鲲.视频分析的三维表情动画生成系统.《中国优秀硕士论文库》.2013,全文. *

Also Published As

Publication number Publication date
CN110189404A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
EP1354298B1 (en) Character animation system
Orvalho et al. A Facial Rigging Survey.
JP5344358B2 (ja) 演技から作り出される顔アニメーション
CN110189404B (zh) 基于真实人脸图像的虚拟面部建模方法
JP2020529694A (ja) リアルタイムの複雑なキャラクタアニメーションおよび相互作用のためのシステムおよび方法
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
CN113781610B (zh) 一种虚拟人脸的生成方法
CN113272870A (zh) 用于逼真的实时人像动画的系统和方法
KR102509666B1 (ko) 텍스트 및 오디오 기반 실시간 얼굴 재연
WO2015112376A1 (en) Animated delivery of electronic messages
US11005796B2 (en) Animated delivery of electronic messages
JP2022531057A (ja) インタラクティブ対象の駆動方法、装置、デバイス、及び記録媒体
CN111724457A (zh) 基于ue4的真实感虚拟人多模态交互实现方法
Wan et al. Photo-realistic expressive text to talking head synthesis.
CN111383642B (zh) 基于神经网络的语音应答方法、存储介质以终端设备
KR20240038941A (ko) 텍스트 기반 아바타 생성 방법 및 시스템
KR20200069786A (ko) 리깅 캐릭터를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법
Tang et al. Real-time conversion from a single 2D face image to a 3D text-driven emotive audio-visual avatar
KR100813034B1 (ko) 캐릭터 형성방법
Perng et al. Image talk: a real time synthetic talking head using one single image with chinese text-to-speech capability
JP2007299300A (ja) アニメーション作成装置
Lin et al. A speech driven talking head system based on a single face image
Theobald et al. 2.5 D Visual Speech Synthesis Using Appearance Models.
Yang et al. A multimodal approach of generating 3D human-like talking agent
WO2022195818A1 (ja) 画像生成システムおよび画像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant