CN115797523B - 一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 - Google Patents
一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 Download PDFInfo
- Publication number
- CN115797523B CN115797523B CN202310009789.6A CN202310009789A CN115797523B CN 115797523 B CN115797523 B CN 115797523B CN 202310009789 A CN202310009789 A CN 202310009789A CN 115797523 B CN115797523 B CN 115797523B
- Authority
- CN
- China
- Prior art keywords
- point
- eyebrow
- mouth
- main
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于人脸动作捕捉技术的虚拟角色处理系统及方法,属于虚拟角色处理技术领域;根据计算获取的眼迁值可以获取到眼部的变化以及变化程度,可以为不同笑容的状态分析提供可靠的数据支持;根据计算获取的眉迁值可以获取到眉部在竖直方向的变化以及变化程度,可以为不同异常表情的状态分析提供可靠的数据支持;根据计算获取的嘴迁值可以获取到嘴部在不同方向的变化以及变化程度,可以从另一方面为不同笑容的状态分析提供可靠的数据支持;本发明用于解决现有方案中不能将捕捉的人脸动作通过虚拟角色进行应用以及动态展示,导致虚拟角色处理应用的整体效果不佳的技术问题。
Description
技术领域
本发明涉及虚拟角色处理技术领域,具体涉及一种基于人脸动作捕捉技术的虚拟角色处理系统及方法。
背景技术
随着互联网技术的发展,元宇宙的概念不断被人们所提及;数字虚拟人作为元宇宙的重要组成部分,已逐渐成为一个非常流行的概念。数字虚拟人在广义上被定义为具有数字外观的虚拟人;目前,数字虚拟人的生产涉及到许多技术领域,其生产方法尚未完全确定;《数字虚拟人通用系统框架》对《2020年数字虚拟人发展白皮书》进行了总结,包括任务图像、语音生成模块、动画生成模块、音视频合成显示模块和交互模块。
现有的虚拟角色处理方案在实施时,大多数是对虚拟角色的显示情况进行优化,使得虚拟角色演示更加生动自然,但是,在现有的网络沟通技术方案中,没有对真实人物的面部动作进行捕捉以及处理和动态应用展示,使得网络沟通的双方不能更直观的了解到对方的心情变化,以便及时调整沟通方式,使得网络沟通的整体状态不佳,导致虚拟角色处理应用的整体效果不佳。
发明内容
本发明的目的在于提供一种基于人脸动作捕捉技术的虚拟角色处理系统及方法,用于解决现有方案中不能将捕捉的人脸动作通过虚拟角色进行应用以及动态展示,导致虚拟角色处理应用的整体效果不佳的技术问题。
本发明的目的可以通过以下技术方案实现:
一种基于人脸动作捕捉技术的虚拟角色处理系统,包括:
特征捕捉模块,用于对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集并上传至服务器和数据库;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
特征处理模块包含第一特征处理单元、第二特征处理单元和第三特征处理单元,用于从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集并上传至服务器和数据库;
其中,获取人脸轮廓的中点并将其设定为坐标原点,根据预设的坐标距离以及坐标方向建立二维坐标系;
根据二维坐标系分别对眼睛轮廓、眉毛轮廓和嘴巴轮廓进行数字化处理,得到包含眼部数字数据、眉毛数字数据和嘴巴数字数据的特征数字集;
表情分析模块包含第一表情分析单元、第二表情分析单元和第三表情分析单元,用于根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,得到包含眼睛分析数据、眉毛分析数据和嘴巴分析数据的应用分析集并上传至服务器和数据库;
虚拟应用模块,用于根据应用分析集向网聊的对方展示人物的表情变化并动态提示。
优选地,通过第一特征处理单元对眼睛轮廓进行数字化处理时,根据二维坐标系将两只眼睛的上眼皮中点和下眼皮中点分别设定为第一主眼点和第二主眼点;
将第一主眼点与左眼角和右眼角之间的中点分别设定为第一副眼点和第二副眼点;以及,将第二主眼点与左眼角和右眼角之间的中点分别设定为第三副眼点和第四副眼点;第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点以及各个点对应的点坐标构成眼部数字数据;
通过第二特征处理单元对眉毛轮廓进行数字化处理时,根据二维坐标系将两条眉毛的中点分别设定为第一主眉点和第二主眉点,以及,将两条眉毛靠近眉心的两个端点分别设定为第三主眉点和第四主眉点;
第一主眉点、第二主眉点、第三主眉点和第四主眉点以及各个点对应的点坐标构成眉毛数字数据;
通过第三特征处理单元对嘴巴进行数字化处理时,根据二维坐标系数将嘴巴的上嘴唇中点和下嘴唇中点分别设定为第一主嘴点和第二主嘴点;
以及,将嘴巴的两个端点分别设定为第三主嘴点和第四主嘴点;
第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点以及各个点对应的点坐标构成嘴巴数字数据。
优选地,通过第一表情分析单元获取眼部数字数据中第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点;
将面部正常情况下第一主眼点和第二主眼点之间的垂直距离设定为第一眼距,以及,将第一副眼点和第三副眼点以及第二副眼点和第四副眼点之间的垂直距离分别设定为第二眼距和第三眼距;
提取三者的数值并联立获取眼睛变化的眼迁值;根据眼迁值从眼部对人物的表情变化进行分析,得到包含眼中信号、眼轻信号和眼正信号的眼睛分析数据。
优选地,通过第二表情分析单元获取眉毛数字数据中第一主眉点、第二主眉点、第三主眉点和第四主眉点各个点对应的点坐标并分别标记;
将各个主眉点之间的坐标变化情况进行整合获取眉毛变化的眉迁值;根据眉迁值从眉部对人物的表情变化进行分析,得到包含眉正信号、眉轻信号和眉中信号的眉毛分析数据。
优选地,通过第三表情分析单元获取面部正常情况下嘴巴数字数据中第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记;
获取面部实时情况下第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记;
通过距离公式将面部实时情况下计算得到的第一主嘴点以及第二主嘴点的变化距离分别设定为第一变化值和第二变化值;以及通过距离公式将计算得到的第三主嘴点以及第四主嘴点的变化距离分别设定为第三变化值和第四变化值;
将第一变化值、第二变化值、第三变化值和第四变化值进行联立来获取嘴巴变化的嘴迁值;根据嘴迁值从嘴部对人物的表情变化进行分析,得到包含嘴正信号、嘴轻信号和嘴中信号的嘴巴分析数据。
优选地,虚拟应用模块的工作步骤包括:
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据;
若嘴巴分析数据中包含嘴轻信号,则表示人物的表情为微笑状态并生成第一微笑指令;若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼轻信号,则表示人物的表情为轻笑状态并生成第二微笑指令;若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼中信号,则表示人物的表情为大笑状态并生成第三微笑指令;
第一微笑指令、第二微笑指令和第三微笑指令构成微笑表情数据。
优选地,若眉毛分析数据中包含眉轻信号,则表示人物的表情为轻度异常状态并生成第一异常指令;若眉毛分析数据中包含眉中信号,则表示人物的表情为中度异常状态并生成第二异常指令;第一异常指令和第二异常指令构成异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令将人物的表情变化应用到虚拟角色上并向网聊的对方进行动态展示和提示。
优选地,大笑状态的面部特征变化大于轻笑状态的面部特征变化,轻笑状态的面部特征变化大于微笑状态的面部特征变化;异常状态包括但不限于疑问、纠结以及厌恶。
为了解决问题,本发明还公开了一种基于人脸动作捕捉技术的虚拟角色处理方法,包括:
对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集;
根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,得到包含眼睛分析数据、眉毛分析数据和嘴巴分析数据的应用分析集;
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据中不同的信号进行联立整合获取微笑表情数据和异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令通过虚拟角色向网聊的对方展示人物的表情变化并动态提示。
相比于现有方案,本发明实现的有益效果:
本发明通过人脸动作捕捉技术获取网络沟通时双方的人物面部特征,通过对提取的面部特征进行筛选和数字化处理,从眼睛、眉毛和嘴巴方面来进行定位点的设置和标记,来从不同的维度为后续虚拟人物面部表情的动态展示提供数据支持;
根据计算获取的眼迁值可以获取到眼部的变化以及变化程度,可以为不同笑容的状态分析提供可靠的数据支持;根据计算获取的眉迁值可以获取到眉部在竖直方向的变化以及变化程度,可以为不同异常表情的状态分析提供可靠的数据支持;根据计算获取的嘴迁值可以获取到嘴部在不同方向的变化以及变化程度,可以从另一方面为不同笑容的状态分析提供可靠的数据支持;
通过将获取的面部不同位置的特征变化情况进行整合来获取到人物处于哪种表情状态,使得沟通的对象可以参考虚拟角色展示的面部表情变化自适应的动态调整聊天方式,可以有效提高网络沟通的整体效果,以及虚拟角色应用的整体效果。
附图说明
下面结合附图对本发明作进一步的说明。
图1为本发明一种基于人脸动作捕捉技术的虚拟角色处理系统的模块框图。
图2为本发明一种基于人脸动作捕捉技术的虚拟角色处理方法的流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例一
如图1所示,本发明为一种基于人脸动作捕捉技术的虚拟角色处理系统,包括特征捕捉模块、特征处理模块、表情分析模块、虚拟应用模块、服务器和数据库;
本发明实施例中的应用场景可以为网络沟通,现有的网络沟通场景中,只能通过文字、语音以及表情来表达,双方无法获取到对方沟通时的面部表情状态和变化,导致网络沟通的整体状态存在一定的缺陷;本发明实施例通过获取沟通双方的面部特征变化来分析评估人物的表情状态,并将评估得到的表情状态通过虚拟角色向对方进行展示和提示,以便沟通时对方及时调整沟通的方式来提高网络沟通的整体效果;
特征捕捉模块,用于对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集并上传至服务器和数据库;包括:
通过摄像装置获取人物的人脸图像并通过人脸识别算法获取人脸特征集;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
其中,摄像装置可以为智能手机或者是可以摄像的电脑;通过人脸识别算法来实现人脸动作捕捉为现有的常规技术手段,具体的步骤这里不做赘述;
特征处理模块包含第一特征处理单元、第二特征处理单元和第三特征处理单元,用于从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集并上传至服务器和数据库;包括:
获取人脸轮廓的中点并将其设定为坐标原点,根据预设的坐标距离以及坐标方向建立二维坐标系;预设的坐标距离和坐标方向可以根据实际情况进行自定义;
根据二维坐标系分别对眼睛轮廓、眉毛轮廓和嘴巴轮廓进行数字化处理,得到眼部数字数据、眉毛数字数据和嘴巴数字数据;
眼部数字数据、眉毛数字数据和嘴巴数字数据构成特征数字集;
其中,第一特征处理单元,用于对眼睛轮廓进行数字化处理,根据二维坐标系将两只眼睛的上眼皮中点和下眼皮中点分别设定为第一主眼点和第二主眼点;
将第一主眼点与左眼角和右眼角之间的中点分别设定为第一副眼点和第二副眼点;
以及,将第二主眼点与左眼角和右眼角之间的中点分别设定为第三副眼点和第四副眼点;第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点以及各个点对应的点坐标构成眼部数字数据;
第二特征处理单元,用于对眉毛轮廓进行数字化处理,根据二维坐标系将两条眉毛的中点分别设定为第一主眉点和第二主眉点,以及,将两条眉毛靠近眉心的两个端点分别设定为第三主眉点和第四主眉点;
第一主眉点、第二主眉点、第三主眉点和第四主眉点以及各个点对应的点坐标构成眉毛数字数据;
第三特征处理单元,用于对嘴巴进行数字化处理,根据二维坐标系数将嘴巴的上嘴唇中点和下嘴唇中点分别设定为第一主嘴点和第二主嘴点;
以及,将嘴巴的两个端点分别设定为第三主嘴点和第四主嘴点;
第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点以及各个点对应的点坐标构成嘴巴数字数据;
本发明实施例中,通过对提取的面部特征进行筛选和数字化处理,从眼睛、眉毛和嘴巴方面来进行定位点的设置和标记,来从不同的维度为后续虚拟人物面部表情的动态展示提供数据支持;
表情分析模块包含第一表情分析单元、第二表情分析单元和第三表情分析单元,用于根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,包括:
第一表情分析单元,获取眼部数字数据中第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点;
将面部正常情况下第一主眼点和第二主眼点之间的垂直距离设定为第一眼距YJ,以及,将第一副眼点和第三副眼点以及第二副眼点和第四副眼点之间的垂直距离设定为第二眼距EJ和第三眼距SJ;各个眼距的单位均为厘米;
提取三者的数值并联立,通过计算获取眼睛变化的眼迁值YQ;眼迁值YQ的计算公式为:
YQ=f1×YJ+f2×EJ+f3×SJ
式中,f1、f2、f3为预设的均大于零的比例系数,且0<f2≤f3<f1,f1可以取值为2.473,f2可以取值为1.253,f3可以取值为1.614;
需要说明的是,眼迁值是用于将不同眼部定位点的坐标数据进行整合来对眼部的变化进行整体评估的数值;根据眼迁值可以获取到眼部的变化以及变化程度,可以为不同笑容的状态分析提供可靠的数据支持;
根据眼迁值从眼部对人物的表情变化进行分析,得到眼睛分析数据;
获取预设的眼迁范围,并将眼迁值与眼迁范围进行匹配分析;
若眼迁值小于眼迁范围的最小值,则判定人物眼部的变化处于中度状态并生成眼中信号;
若眼迁值不小于眼迁范围的最小值且不大于眼迁范围的最大值,则判定人物眼部的变化处理轻度状态并生成眼轻信号;
若眼迁值大于眼迁范围的最大值,则判定人物眼部的变化正常并生成眼正信号;
眼中信号、眼轻信号和眼正信号构成眼睛分析数据;
本发明实施例中,眼迁值越大,表示眼部的变化越小,对应的表情波动也越小,眼迁值越小时,表示眼部的变化越大,对应的表情波动也越大,比如开心时笑弯了眼;此外,微笑以及大笑时,对应的眼部变化不同,基于眼迁值来分析眼部变化的状态,本发明实施例中将眼部变化分为了三类,可以根据实际情况进行拓展增加;
第二表情分析单元,获取眉毛数字数据中第一主眉点、第二主眉点、第三主眉点和第四主眉点各个点对应的点坐标并分别标记为(xm1,ym1)、(xm2,ym2)、(xm3,ym3)和(xm4,ym4);
将各个主眉点之间的坐标变化情况进行整合,通过计算获取眉毛变化的眉迁值MQ;眉迁值MQ的计算公式为:
式中,g1、g2为预设的均大于零的比例系数,且g1+g2=1,g1可以取值为0.436,g2可以取值为0.564;
需要说明的是,眉迁值是用于将不同眉部定位点的坐标数据进行整合来对眉部的变化进行整体评估的数值;根据眉迁值可以获取到眉部在竖直方向的变化以及变化程度,可以为不同异常表情的状态分析提供可靠的数据支持;
根据眉迁值从眉部对人物的表情变化进行分析,得到眉毛分析数据;
获取预设的眉迁阈值,将眉迁值与眉迁阈值进行匹配分析;
若眉迁值小于眉迁阈值,则判定人物眉部的变化正常并生成眉正信号;
若眉迁值不小于眉迁阈值且不大于眉迁阈值的P%,P为大于一百的实数,则判定人物眉部的变化处于轻度状态并生成眉轻信号;
若眉迁值大于眉迁阈值的P%,则判定人物眉部的变化处于中度状态并生成眉中信号;
眉正信号、眉轻信号和眉中信号构成眉毛分析数据;
本发明实施例中,眉迁值越大,表示眼部的变化越大,对应的表情波动也越大,眼迁值越小时,表示眼部的变化越小,对应的表情波动也越小,本发明实施例中同样将眉部变化分为了三类,可以根据实际情况进行拓展增加;
第三表情分析单元,获取面部正常情况下嘴巴数字数据中第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记为(xz1,yz1)、(xz2,yz2)、(xz3,yz3)和(xz4,yz4);
获取面部实时情况下第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记为(xz1’,yz1’)、(xz2’,yz2’)、(xz3’,yz3’)和(xz4’,yz4’);
通过距离公式将面部实时情况下计算得到的第一主嘴点以及第二主嘴点的变化距离分别设定为第一变化值YB1和第二变化值YB2;以及通过距离公式将计算得到的第三主嘴点和第四主嘴点的变化距离分别设定为第三变化值SB1和第四变化值SB2;
需要注意的是,这里的变化距离是指不同情况下各个主嘴点坐标与面部正常情况下对应的初始主嘴点坐标之间的直线距离;
将第一变化值YB1、第二变化值YB2、第三变化值SB1和第四变化值SB2进行联立来计算获取嘴巴变化的嘴迁值ZQ;嘴迁值ZQ的计算公式为:
ZQ=α×[z1×(YB1+YB2)+z2×(SB1+SB2)]
式中,z1、z2为预设的均大于零的比例系数,且0<z1<z2,z1可以取值为0.365,z2可以取值为0.635;α为预设的补偿因子,取值范围为(0,5),可以取值为1.3174;
需要说明的是,嘴迁值是用于将不同嘴部定位点的坐标数据进行整合来对嘴部的变化进行整体评估的数值;根据嘴迁值可以获取到嘴部在不同方向的变化以及变化程度,可以为从另一方面为不同笑容的状态分析提供可靠的数据支持;
根据嘴迁值ZQ从嘴部对人物的表情变化进行分析,得到嘴巴分析数据;
获取预设的第一嘴巴阈值YZY和第二嘴巴阈值EZY,并将嘴迁值ZQ分别与第一嘴巴阈值YZY和第二嘴巴阈值EZY进行匹配分析;其中,第一嘴巴阈值YZY小于第二嘴巴阈值EZY;
若ZQ<YZY,则判定人物嘴部的变化正常并生成嘴正信号;
若YZY≤ZQ≤EZY,则判定人物嘴部的变化处于轻度状态并生成嘴轻信号;
若ZQ>EZY,则判定人物嘴部的变化处于中度状态并生成嘴中信号;
嘴正信号、嘴轻信号和嘴中信号构成嘴巴分析数据;
本发明实施例中,嘴迁值越大,表示嘴部的变化越大,对应的表情波动也越大,嘴迁值越小时,表示嘴部的变化越小,对应的表情波动也越小,本发明实施例中同样将嘴部变化分为了三类,可以根据实际情况进行拓展增加;
眼睛分析数据、眉毛分析数据和嘴巴分析数据构成应用分析集并上传至服务器和数据库;
虚拟应用模块,用于根据应用分析集向网聊的对方展示人物的表情变化并动态提示,包括:
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据;
若嘴巴分析数据中包含嘴轻信号,则表示人物的表情为微笑状态并生成第一微笑指令;
若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼轻信号,则表示人物的表情为轻笑状态并生成第二微笑指令;
若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼中信号,则表示人物的表情为大笑状态并生成第三微笑指令;
其中,大笑状态的面部特征变化大于轻笑状态的面部特征变化,轻笑状态的面部特征变化大于微笑状态的面部特征变化;
第一微笑指令、第二微笑指令和第三微笑指令构成微笑表情数据;
若眉毛分析数据中包含眉轻信号,则表示人物的表情为轻度异常状态并生成第一异常指令;异常状态包括但不限于疑问、纠结以及厌恶;
若眉毛分析数据中包含眉中信号,则表示人物的表情为中度异常状态并生成第二异常指令;
第一异常指令和第二异常指令构成异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令将人物的表情变化时不同面部特征定位点对应的坐标应用到虚拟角色上,并向网聊的对方进行动态展示和提示,以便对方可以及时获取到人物的心情变化,可以及时调整沟通方式来提高沟通质量;
此外,基于虚拟角色来进行面部表情变化的展示,除了起到辅助参考来提高沟通质量的作用外,还可以起到对人物真实面部进行保护的目的;
本发明实施例中,通过将获取的面部不同位置的特征变化情况进行整合来获取到人物处于哪种表情状态,使得沟通的对象可以参考虚拟角色展示的面部表情变化自适应的动态调整聊天方式,可以有效提高网络沟通的整体效果,以及虚拟角色应用的整体效果;
此外,上述中涉及的公式均是去除量纲取其数值计算,是由采集大量数据进行软件模拟得到最接近真实情况的一个公式,公式中的比例系数以及分析过程中各个预设的阈值由本领域的技术人员根据实际情况设定或者大量数据通过机器学习算法训练获得。
实施例二
如图2所示,本发明为一种基于人脸动作捕捉技术的虚拟角色处理方法,包括:
对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集;
根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,得到包含眼睛分析数据、眉毛分析数据和嘴巴分析数据的应用分析集;
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据中不同的信号进行联立整合获取微笑表情数据和异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令通过虚拟角色向网聊的对方展示人物的表情变化并动态提示。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,可以通过其它的方式实现。例如,以上所描述的发明实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的基本特征的情况下,能够以其他的具体形式实现本发明。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,包括特征捕捉模块,用于对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集并上传至服务器和数据库;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
特征处理模块包含第一特征处理单元、第二特征处理单元和第三特征处理单元,用于从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集并上传至服务器和数据库;
其中,获取人脸轮廓的中点并将其设定为坐标原点,根据预设的坐标距离以及坐标方向建立二维坐标系;
根据二维坐标系分别对眼睛轮廓、眉毛轮廓和嘴巴轮廓进行数字化处理,得到包含眼部数字数据、眉毛数字数据和嘴巴数字数据的特征数字集;其中,通过第一特征处理单元对眼睛轮廓进行数字化处理时,根据二维坐标系将两只眼睛的上眼皮中点和下眼皮中点分别设定为第一主眼点和第二主眼点;
将第一主眼点与左眼角和右眼角之间的中点分别设定为第一副眼点和第二副眼点;以及,将第二主眼点与左眼角和右眼角之间的中点分别设定为第三副眼点和第四副眼点;第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点以及各个点对应的点坐标构成眼部数字数据;
表情分析模块包含第一表情分析单元、第二表情分析单元和第三表情分析单元,用于根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,得到包含眼睛分析数据、眉毛分析数据和嘴巴分析数据的应用分析集并上传至服务器和数据库;
其中,通过第一表情分析单元获取眼部数字数据中第一主眼点、第二主眼点、第一副眼点、第二副眼点、第三副眼点和第四副眼点;
将面部正常情况下第一主眼点和第二主眼点之间的垂直距离设定为第一眼距YJ,以及,将第一副眼点和第三副眼点以及第二副眼点和第四副眼点之间的垂直距离设定为第二眼距EJ和第三眼距SJ;各个眼距的单位均为厘米;提取三者的数值并联立,通过计算获取眼睛变化的眼迁值YQ;眼迁值YQ的计算公式为:YQ=f1×YJ+f2×EJ+f3×SJ;
式中,f1、f2、f3为预设的均大于零的比例系数,且0<f2≤f3<f1;根据眼迁值从眼部对人物的表情变化进行分析,得到包含眼中信号、眼轻信号或眼正信号的眼睛分析数据;眼中信号、眼轻信号或眼正信号分别表示人物眼部的变化处于中度状态、轻度状态或正常;
虚拟应用模块,用于根据应用分析集向网聊的对方展示人物的表情变化并动态提示。
2.根据权利要求1所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,通过第二特征处理单元对眉毛轮廓进行数字化处理时,根据二维坐标系将两条眉毛的中点分别设定为第一主眉点和第二主眉点,以及,将两条眉毛靠近眉心的两个端点分别设定为第三主眉点和第四主眉点;
第一主眉点、第二主眉点、第三主眉点和第四主眉点以及各个点对应的点坐标构成眉毛数字数据;
通过第三特征处理单元对嘴巴进行数字化处理时,根据二维坐标系数将嘴巴的上嘴唇中点和下嘴唇中点分别设定为第一主嘴点和第二主嘴点;
以及,将嘴巴的两个端点分别设定为第三主嘴点和第四主嘴点;
第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点以及各个点对应的点坐标构成嘴巴数字数据。
3.根据权利要求2所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,获取眉毛数字数据中第一主眉点、第二主眉点、第三主眉点和第四主眉点各个点对应的点坐标并分别标记为(xm1,ym1)、(xm2,ym2)、(xm3,ym3)和(xm4,ym4);
将各个主眉点之间的坐标变化情况进行整合,通过计算获取眉毛变化的眉迁值MQ;眉迁值MQ的计算公式为:
式中,g1、g2为预设的均大于零的比例系数,且g1+g2=1;根据眉迁值从眉部对人物的表情变化进行分析,得到包含眉正信号、眉轻信号或眉中信号的眉毛分析数据,眉正信号、眉轻信号或眉中信号分别表示人物眉部的变化处于正常、轻度状态或中度状态。
4.根据权利要求3所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,通过第三表情分析单元获取面部正常情况下嘴巴数字数据中第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记为(xz1,yz1)、(xz2,yz2)、(xz3,yz3)和(xz4,yz4);
获取面部实时情况下第一主嘴点、第二主嘴点、第三主嘴点和第四主嘴点各个点对应的点坐标并分别标记为(xz1’,yz1’)、(xz2’,yz2’)、(xz3’,yz3’)和(xz4’,yz4’);
通过距离公式将面部实时情况下计算得到的第一主嘴点以及第二主嘴点的变化距离分别设定为第一变化值YB1和第二变化值YB2;以及通过距离公式将计算得到的第三主嘴点和第四主嘴点的变化距离分别设定为第三变化值SB1和第四变化值SB2;
将第一变化值YB1、第二变化值YB2、第三变化值SB1和第四变化值SB2进行联立来计算获取嘴巴变化的嘴迁值ZQ;嘴迁值ZQ的计算公式为:
ZQ=α×[z1×(YB1+YB2)+z2×(SB1+SB2)]
式中,z1、z2为预设的均大于零的比例系数,且0<z1<z2;α为预设的补偿因子,取值范围为(0,5);根据嘴迁值从嘴部对人物的表情变化进行分析,得到包含嘴正信号、嘴轻信号或嘴中信号的嘴巴分析数据,嘴正信号、嘴轻信号和嘴中信号分别表示人物嘴部的变化处于正常、轻度状态或中度状态。
5.根据权利要求4所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,虚拟应用模块的工作步骤包括:
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据;
若嘴巴分析数据中包含嘴轻信号,则表示人物的表情为微笑状态并生成第一微笑指令;若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼轻信号,则表示人物的表情为轻笑状态并生成第二微笑指令;若嘴巴分析数据中包含嘴中信号且眼睛分析数据中包含眼中信号,则表示人物的表情为大笑状态并生成第三微笑指令;
第一微笑指令、第二微笑指令和第三微笑指令构成微笑表情数据。
6.根据权利要求5所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,若眉毛分析数据中包含眉轻信号,则表示人物的表情为轻度异常状态并生成第一异常指令;若眉毛分析数据中包含眉中信号,则表示人物的表情为中度异常状态并生成第二异常指令;第一异常指令和第二异常指令构成异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令将人物的表情变化应用到虚拟角色上并向网聊的对方进行动态展示和提示。
7.根据权利要求6所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,大笑状态的面部特征变化大于轻笑状态的面部特征变化,轻笑状态的面部特征变化大于微笑状态的面部特征变化;异常状态包括但不限于疑问、纠结以及厌恶。
8.一种基于人脸动作捕捉技术的虚拟角色处理方法,应用于权利要求1-7任一项所述的一种基于人脸动作捕捉技术的虚拟角色处理系统,其特征在于,包括:
对网络沟通一方人物的人脸特征进行捕捉以及特征提取,得到人脸特征集;人脸特征集包括人脸轮廓、眼睛轮廓、眉毛轮廓、鼻子轮廓和嘴巴轮廓;
从不同的方面对人脸特征集中不同的面部特征进行数字化处理,得到特征数字集;
根据特征数字集来从不同的方面对人物的表情变化进行数字化分析,得到包含眼睛分析数据、眉毛分析数据和嘴巴分析数据的应用分析集;
获取应用分析集中的嘴巴分析数据、眉毛分析数据和眼睛分析数据中不同的信号进行联立整合获取微笑表情数据和异常表情数据;
根据微笑表情数据和异常表情数据中不同的指令通过虚拟角色向网聊的对方展示人物的表情变化并动态提示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310009789.6A CN115797523B (zh) | 2023-01-05 | 2023-01-05 | 一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310009789.6A CN115797523B (zh) | 2023-01-05 | 2023-01-05 | 一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115797523A CN115797523A (zh) | 2023-03-14 |
CN115797523B true CN115797523B (zh) | 2023-04-18 |
Family
ID=85428512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310009789.6A Active CN115797523B (zh) | 2023-01-05 | 2023-01-05 | 一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115797523B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724838A (zh) * | 2020-08-19 | 2021-11-30 | 陈霄 | 基于大数据的情绪鉴定系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130083052A1 (en) * | 2011-09-30 | 2013-04-04 | Erik Dahlkvist | Method for using virtual facial and bodily expressions |
CN104217454B (zh) * | 2014-08-21 | 2017-11-03 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN108229239B (zh) * | 2016-12-09 | 2020-07-10 | 武汉斗鱼网络科技有限公司 | 一种图像处理的方法及装置 |
CN107657651B (zh) * | 2017-08-28 | 2019-06-07 | 腾讯科技(上海)有限公司 | 表情动画生成方法和装置、存储介质及电子装置 |
CN109711362B (zh) * | 2018-12-29 | 2020-02-14 | 深圳有咖互动科技有限公司 | 人脸表情提取方法、电子设备以及存储介质 |
CN111382648A (zh) * | 2018-12-30 | 2020-07-07 | 广州市百果园信息技术有限公司 | 人脸动态表情的检测方法、装置、设备及存储介质 |
CN110363124B (zh) * | 2019-07-03 | 2022-05-13 | 广州多益网络股份有限公司 | 基于人脸关键点与几何形变的快速表情识别及应用方法 |
CN110427110B (zh) * | 2019-08-01 | 2023-04-18 | 广州方硅信息技术有限公司 | 一种直播方法、装置以及直播服务器 |
CN115205933A (zh) * | 2022-06-29 | 2022-10-18 | 中国科学院深圳理工大学(筹) | 面部表情识别方法、装置、设备及可读存储介质 |
-
2023
- 2023-01-05 CN CN202310009789.6A patent/CN115797523B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724838A (zh) * | 2020-08-19 | 2021-11-30 | 陈霄 | 基于大数据的情绪鉴定系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115797523A (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
JP4449723B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN110446000B (zh) | 一种生成对话人物形象的方法和装置 | |
WO2023119557A1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
US20220084275A1 (en) | Method and system for generating data to provide an animated visual representation | |
US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
CN107911644A (zh) | 基于虚拟人脸表情进行视频通话的方法及装置 | |
CN112541422B (zh) | 光照和头部姿态鲁棒的表情识别方法、设备及存储介质 | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
CN111583415B (zh) | 信息处理方法、装置和电子设备 | |
CN112069863B (zh) | 一种面部特征的有效性判定方法及电子设备 | |
JP6796762B1 (ja) | 仮想人物対話システム、映像生成方法、映像生成プログラム | |
CN115049016B (zh) | 基于情绪识别的模型驱动方法及设备 | |
CN112669846A (zh) | 交互系统、方法、装置、电子设备及存储介质 | |
CN115797523B (zh) | 一种基于人脸动作捕捉技术的虚拟角色处理系统及方法 | |
CN116452712A (zh) | 一种基于动作捕捉技术的数字人形象驱动方法及系统 | |
CN108399358B (zh) | 一种在视频聊天的表情显示方法及系统 | |
CN111476903A (zh) | 虚拟交互实现控制方法、装置、计算机设备及存储介质 | |
CN115019223A (zh) | 一种基于特征标记训练策略的图像换脸方法 | |
WO2021155666A1 (zh) | 用于生成图像的方法和装置 | |
JP2021086474A (ja) | アバター制御システム | |
CN111008577A (zh) | 一种基于虚拟人脸的评分方法、系统、装置和存储介质 | |
KR102717071B1 (ko) | 다중 정보를 이용하여 사용자의 감정을 인식하는 전자 장치 및 동작 방법 | |
CN117893649B (zh) | 一种相框、基于相框的展览方法 | |
CN117830898A (zh) | 基于人脸识别的数字人客服模拟方法及数字人客服系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |