CN111045582B - 一种个性化虚拟人像活化互动系统及方法 - Google Patents
一种个性化虚拟人像活化互动系统及方法 Download PDFInfo
- Publication number
- CN111045582B CN111045582B CN201911193278.4A CN201911193278A CN111045582B CN 111045582 B CN111045582 B CN 111045582B CN 201911193278 A CN201911193278 A CN 201911193278A CN 111045582 B CN111045582 B CN 111045582B
- Authority
- CN
- China
- Prior art keywords
- user
- virtual portrait
- model
- voice
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种个性化虚拟人像活化互动系统及方法,包括:虚拟人像建模模块,用于根据用户选择或上传的照片构建出该照片中所含的人物的虚拟人像模型;识别模块,用于对用户当前的语音和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;语音合成模块,根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人像用于应答互动的语音;智能活化模块,基于所述用于应答用户的语音驱动所述虚拟人像构建模块构建的虚拟人像模型对用户进行应答互动。由上,本申请可应用于智能化交互中,有利于丰富智能交互体验。
Description
技术领域
本发明实施例涉及人机交互,互动系统领域,特别涉及一种个性化虚拟人像活化互动系统及方法。
背景技术
目前,传统的人机交互系统一般是,以智能语音为主要交互方式的系统设计,交互过程中用户通过语音方式向计算机传达指令或提出问题,计算机也用语音以及多媒体图像显示的方式反馈用户。现有技术的缺点是,用户不能改变设计好的交互方式,很少能够通过选择想听的声音,来更换计算机的声音,更缺少真实的交流感,往往用户面对的是一个机器人外形或者显示器。因此,会有用户在交互媒介和交互方式上希望追求更佳个性化、更佳拟人化的交互体验。
因此,目前亟需一种个性化虚拟人像活化互动系统及方法,满足人机交互过程中用户对于个性化、拟人化的强烈需求,以改善大众用户对于人机交互的刻板影响,促进人机交互系统得到更广泛的使用。
发明内容
有鉴于此,本申请提供一种个性化虚拟人像活化互动系统及方法,以使得用户可以根据自己的需要选择或自定义构虚拟模特,从而改善人机交互的套路式交互流程,丰富交互方式,从而提高用户对于人机交互过程中的体验。
本申请提供一种个性化虚拟人像活化互动系统,包括:
虚拟人像自动建模模块,用于根据用户选择或上传的照片构建出该照片中所含的人物的虚拟人像模型;
识别模块,用于对用户当前的语音和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;
语音合成模块,用于根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人像用于应答互动的语音;
智能活化模块,用于合成基于所述虚拟人像模型的视频影像,并驱动所述视频影像中的虚拟人像模型表达所述语音合成模块合成的所述用于应答用户的语音,以对用户进行应答互动。
由上,可以根据用户自己选择创建虚拟人物形象,进一步的提供与用户地互动,从而可以提升交互过程中的用户体验,丰富交互方式的种类,推动人机交互技术的应用。
优选地,所述系统,还包括:可视化交互模块,其用于:提供用于上传或选择照片的选项,以及提供用于为虚拟人像选择声音模型的选项。
由上,可以为虚拟人像选择声音模型,有利于满足用户的不同的多样化地需求。
优选地,声音模型合成模块,用于通过人工智能技术建模以生成不同类型的声音模型。
由上,声音模型合成模块提前预生成不同类型的声音模型,有利于提供给用户选择,有利于满足用户的不同的多样化地需求。
优选地,所述声音模型的声音素材来自真实授课教师的讲话或者网络素材;
其中,不同类型的声音模型包含由不同的语音、语调和语气构成的完整语句。
优选地,所述虚拟人像自动建模模块对照片中的人物进行三维人脸轮廓和纹理重建,将照片中人脸面部信息转化为三维模型;并保留照片中人脸的面部细节信息和纹理颜色信息;
其中,所构建的虚拟人像模型保留的照片中人脸面部信息中的特征,至少包括以下其一:
额头,眼睛,鼻子,嘴巴,下巴,脸颊,胡须,眉毛,睫毛,眼球颜色,唇色,眼影,肤色以及面部局部皱纹。
优选地,所述智能活化模块用于驱动虚拟人像模型完成的应答互动,至少包括以下其一:根据语音内容按照发音口型说话、点头、摇头、头部自然晃动、眨眼、皱眉、面部肌肉自然变化。
所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气。
由上,智能活化模块可驱动虚拟人像模型完成的多种应答互动包括但不限于上述的举例。
优选地,所述智能活化模块驱动所述虚拟人像模型可同时完成两个或2个以上的非冲突动作。
本申请还提供一种个性化虚拟人像活化互动方法,基于上述的系统,包括:
A、根据用户选择或上传的照片构建出该照片所含的人物的虚拟人像模型;
B、对用户当前的语音识别和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;
C、根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人物用于应答互动的语音;
D、基于所述用于应答用户的语音驱动虚拟人像模型对用户进行应答互动。
优选地,所述步骤A还包括:
A、根据用户选择的声音模型将其应用于所述虚拟人像模型。
综上所述,本申请提供一种个性化虚拟人像活化互动系统及方法,以使得用户可以根据自己的个性化需求定制虚拟人物模型以及选择声音,从而改善人机交互的套路式交互流程,丰富交互方式,从而提高用户对于人机交互过程中的体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的提供的一种个性化虚拟人像活化互动系统的结构示意图;
图2为本发明实施例的提供的一种个性化虚拟人像活化互动方法的流程示意图.
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的区间。
实施例一
本申请提供一种个性化虚拟人像活化互动系统,包括:
可视化交互模块101,其用于:提供用于上传或选择照片的选项,以及提供用于为虚拟人像选择声音模型的选项,用户可以选择其中的一个作为之后与之交互的虚拟人像。其中,所述照片为单张真人照片或者可为多人照片;其中,当所述照片为多人照片时,需确定虚拟建模人像为照片中的具体人物。用户也可以自己上传人物照片。同时,用户可以从若干声音样本中选择自己喜欢的声音模型,该声音为之后虚拟交互过程中的声音。其中,本申请还包括:声音模型合成模块106,用于通过人工智能技术建模预先提前生成不同类型的声音模型。其中,所述声音模型的声音素材来自真实授课教师的讲话或者网络素材;其中,不同类型的声音模型包含由不同的语音、语调和语气构成的完整语句。
虚拟人像自动建模模块102,该模块将用户选择或上传的人物照片进行三维构建,最大化的保留照片中的轮廓信息和纹理颜色。该建模方案使用的是即时建模技术,所需时间在3秒内,速度快,精度高。其中,所构建的虚拟人像模型保留的照片中人脸面部信息中特征,至少包括以下其一:额头,眼睛,鼻子,嘴巴,下巴,脸颊,胡须,眉毛,睫毛,眼球颜色,唇色,眼影,肤色以及面部局部皱纹。
识别模块103,用于交互过程中用户的语音识别和面部表情识别,提取用户语音信息和面部状态信息;捕捉用户的语音和面部特征。其中,用户语料信息识别主要通过语义识别技术完成,用户表情识别主要通过计算机视觉技术完成。
语音合成模块104,根据识别模块103采集到的用户当前状态和语音内容,合成出应答的语音。该技术主要采用智能语音问答系统中的相关技术,用于回答交互过程中用户的问题,实时合成,实时播放。
智能活化模块105,合成出可动的基于虚拟人像三维模型的视频影像,并能说出合成的语音,同步发音口型。在交互过程中,合成的虚拟人像于用户互动交流,回答用户的问题,同时可以自然的头部摆动,以及做出不同的表情。其中,所述智能活化模块用于驱动虚拟人像模型完成的应答互动,至少包括以下其一:根据语音内容按照发音口型说话、点头、摇头、头部自然晃动、眨眼、皱眉、面部肌肉自然变化。
其中,智能活化模块对虚拟人物模型地头部姿态的驱动控制由欧拉角参数{αyaw,βpitch,γroll}三维坐标偏向角度控制,则目标头部姿态旋转矩阵为:
对于人像模型Lmk(x,y,z)中任意一点P(x,y,z),P(x,y,z)∈Lmk(x,y,z),其新位置为:
其中,dx,dy,dz为三维平移方向向量,R(α,β,γ)表示目标头部姿态在三维空间坐标下的旋转矩阵。
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气。表情切换过度算法设计如下:
其中,Ev(x,y,z)是目标表情的特征点,v代表具体的表情类别,μ为系数,Dv表示当前脸部轮廓和目标表情的相关系数,e表示自然对数,具体为:
其中,Sv表示相关表情设计面部特征点的数量。
其中,本申请还包括:声音模型合成模块106,用于通过人工智能技术建模预先提前生成不同类型的声音模型。其中,所述声音模型的声音素材来自真实授课教师的讲话或者网络素材;其中,不同类型的声音模型包含由不同的语音、语调和语气构成的完整语句。
实施二
基于实施例一中的系统,本申请还提供一种个性化虚拟人像活化互动方法,包括步骤:
S201,根据用户选择或上传的照片构建出该照片所含的人物的虚拟人像模型。
S202,对用户当前的语音识别和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;其中,用户语料信息识别主要通过语义识别技术完成,用户表情识别主要通过计算机视觉技术完成。
S203,根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人物用于应答互动的语音;
S204,合成基于所述虚拟人像模型的视频影像,并驱动所述视频影像中的虚拟人像模型表达所述语音合成模块合成的所述用于应答用户的语音,以对用户进行应答互动。
其中,所述S101还包括:根据用户选择的声音模型将其应用于所述虚拟人像模型。
其中,所述智能活化模块用于驱动虚拟人像模型完成的应答互动,至少包括以下其一:根据语音内容按照发音口型说话、点头、摇头、头部自然晃动、眨眼、皱眉、面部肌肉自然变化。
其中,智能活化模块对虚拟人物模型地头部姿态的驱动控制由欧拉角参数{αyaw,βpitch,γroll}三维坐标偏向角度控制,则目标头部姿态旋转矩阵为:
对于人像模型Lmk(x,y,z)中任意一点P(x,y,z),P(x,y,z)∈Lmk(x,y,z),其新位置为:
其中,dx,dy,dz为三维平移方向向量。
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气。表情切换过度算法设计如下:
其中,Ev(x,y,z)是目标表情的特征点,v代表具体的表情类别,μ为系数,Dv表示当前脸部轮廓和目标表情的相关系数,具体为:
其中,Sv表示相关表情设计面部特征点的数量。
综上所述,本申请提供一种个性化虚拟人像活化互动系统及方法,以使得用户可以根据自己的个性化需求定制虚拟人物模型以及选择声音,从而改善人机交互的套路式交互流程,丰富交互方式,从而提高用户对于人机交互过程中的体验。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种个性化虚拟人像活化互动系统,其特征在于,包括:
虚拟人像自动建模模块,用于根据用户选择或上传的照片构建出该照片中所含的人物的虚拟人像模型;
识别模块,用于对用户当前的语音和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;
语音合成模块,用于根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人像用于应答互动的语音;
智能活化模块,用于合成基于所述虚拟人像模型的视频影像,并驱动所述视频影像中的虚拟人像模型表达所述语音合成模块合成的所述用于应答用户的语音,以对用户进行应答互动;
所述智能活化模块用于驱动虚拟人像模型完成的应答互动,至少包括以下其一:根据语音内容按照发音口型说话、点头、摇头、头部自然晃动、眨眼、皱眉、面部肌肉自然变化;
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气;
所述智能活化模块对虚拟人物模型地头部姿态的驱动控制由欧拉角参数{αyaw,βpitch,γroll}三维坐标偏向角度控制,则目标头部姿态旋转矩阵为:
对于人像模型Lmk(x,y,z)中任意一点P(x,y,z),P(x,y,z)∈Lmk(x,y,z),其新位置为:
其中,dx,dy,dz为三维平移方向向量,R(α,β,γ)表示目标头部姿态在三维空间坐标下的旋转矩阵;
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气;表情切换过度算法设计如下:
其中,Ev(x,y,z)是目标表情的特征点,v代表具体的表情类别,μ为系数,Dv表示当前脸部轮廓和目标表情的相关系数,e表示自然对数,具体为:
其中,Sv表示相关表情设计面部特征点的数量。
2.根据权利要求1所述的系统,其特征在于,还包括:可视化交互模块,其用于:提供用于上传或选择照片的选项,以及提供用于为虚拟人像选择声音模型的选项。
3.根据权利要求2所述的系统,其特征在于,还包括:
声音模型合成模块,用于通过人工智能技术建模以生成不同类型的声音模型。
4.根据权利要求3所述的系统,其特征在于,所述声音模型的声音素材来自真实授课教师的讲话或者网络素材;
其中,不同类型的声音模型包含由不同的语音、语调和语气构成的完整语句。
5.根据权利要求1所述的系统,其特征在于,所述照片为单张真人照片或者可为多人照片;其中,当所述照片为多人照片时,需确定虚拟建模人像为照片中的具体人物。
6.根据权利要求1所述的系统,其特征在于,所述虚拟人像自动建模模块对照片中的人物进行三维人脸轮廓和纹理重建,将照片中人脸面部信息转化为三维模型;并保留照片中人脸的面部细节信息和纹理颜色信息;
其中,所构建的虚拟人像模型保留的照片中人脸面部信息中特征,至少包括以下其一:
额头,眼睛,鼻子,嘴巴,下巴,脸颊,胡须,眉毛,睫毛,眼球颜色,唇色,眼影,肤色以及面部局部皱纹。
7.根据权利要求1所述的系统,其特征在于,所述智能活化模块驱动所述虚拟人像模型可同时完成两个或2个以上的非冲突动作。
8.一种个性化虚拟人像活化互动方法,基于权利要求1-7任一项所述的系统,其特征在于,包括:
A、根据用户选择或上传的照片构建出该照片所含的人物的虚拟人像模型;
B、对用户当前的语音识别和面部表情进行识别,并提取出用户当前的语音信息和头面部状态信息;
C、根据所述用户当前的语音信息和头面部状态信息,合成出虚拟人物用于应答互动的语音;
D、基于所述用于应答用户的语音驱动虚拟人像模型对用户进行应答互动;
其中,所述驱动虚拟人像模型对用户进行应答互动,至少包括以下其一:根据语音内容按照发音口型说话、点头、摇头、头部自然晃动、眨眼、皱眉、面部肌肉自然变化;
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气;
所述智能活化模块对虚拟人物模型地头部姿态的驱动控制由欧拉角参数{αyaw,βpitch,γroll}三维坐标偏向角度控制,则目标头部姿态旋转矩阵为:
对于人像模型Lmk(x,y,z)中任意一点P(x,y,z),P(x,y,z)∈Lmk(x,y,z),其新位置为:
其中,dx,dy,dz为三维平移方向向量,R(α,β,γ)表示目标头部姿态在三维空间坐标下的旋转矩阵;
其中,所述虚拟人像模型的表情变化,至少包括以下其一:微笑,高兴,悲伤,忧郁,生气;表情切换过度算法设计如下:
其中,Ev(x,y,z)是目标表情的特征点,v代表具体的表情类别,μ为系数,Dv表示当前脸部轮廓和目标表情的相关系数,e表示自然对数,具体为:
其中,Sv表示相关表情设计面部特征点的数量。
9.根据权利要求8所述的方法,其特征在于,所述步骤A还包括:
A、根据用户选择的声音模型将其应用于所述虚拟人像模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911193278.4A CN111045582B (zh) | 2019-11-28 | 2019-11-28 | 一种个性化虚拟人像活化互动系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911193278.4A CN111045582B (zh) | 2019-11-28 | 2019-11-28 | 一种个性化虚拟人像活化互动系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111045582A CN111045582A (zh) | 2020-04-21 |
CN111045582B true CN111045582B (zh) | 2023-05-23 |
Family
ID=70233087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911193278.4A Active CN111045582B (zh) | 2019-11-28 | 2019-11-28 | 一种个性化虚拟人像活化互动系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111045582B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111966221B (zh) * | 2020-08-10 | 2024-04-26 | 广州汽车集团股份有限公司 | 车内互动处理方法及装置 |
CN112527983A (zh) * | 2020-11-27 | 2021-03-19 | 长威信息科技发展股份有限公司 | 一种个性化政务人机自然交互服务系统 |
CN112652041B (zh) * | 2020-12-18 | 2024-04-02 | 北京大米科技有限公司 | 虚拟形象的生成方法、装置、存储介质及电子设备 |
CN113192161B (zh) * | 2021-04-22 | 2022-10-18 | 清华珠三角研究院 | 一种虚拟人形象视频生成方法、系统、装置及存储介质 |
CN113194348B (zh) * | 2021-04-22 | 2022-07-22 | 清华珠三角研究院 | 一种虚拟人讲课视频生成方法、系统、装置及存储介质 |
CN113344770A (zh) * | 2021-04-30 | 2021-09-03 | 螳螂慧视科技有限公司 | 虚拟模型及其构建方法、交互方法以及电子设备 |
CN113506360A (zh) * | 2021-07-12 | 2021-10-15 | 北京顺天立安科技有限公司 | 一种虚拟人物表情驱动方法和系统 |
CN113946209B (zh) * | 2021-09-16 | 2023-05-09 | 南昌威爱信息科技有限公司 | 一种基于虚拟人的交互方法及系统 |
CN114422740A (zh) * | 2021-12-25 | 2022-04-29 | 在秀网络科技(深圳)有限公司 | 一种用于即时通讯及视频的虚似场景互动方法与系统 |
CN115942067A (zh) * | 2022-12-14 | 2023-04-07 | 优玖科技(深圳)有限公司 | 一种视频软件制作方法 |
CN116400806B (zh) * | 2023-04-03 | 2023-10-17 | 中国科学院心理研究所 | 个性化虚拟人的生成方法及系统 |
CN117793442B (zh) * | 2023-12-29 | 2024-07-09 | 深圳市木愚科技有限公司 | 基于点集合的图像视频遮罩方法、装置、设备及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105304081A (zh) * | 2015-11-09 | 2016-02-03 | 上海语知义信息技术有限公司 | 一种智能家居的语音播报系统及语音播报方法 |
CN107248185A (zh) * | 2017-05-31 | 2017-10-13 | 珠海金山网络游戏科技有限公司 | 一种虚拟仿真偶像实时直播方法及系统 |
WO2018006370A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN107765852A (zh) * | 2017-10-11 | 2018-03-06 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN107797663A (zh) * | 2017-10-26 | 2018-03-13 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN107894833A (zh) * | 2017-10-26 | 2018-04-10 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN109116981A (zh) * | 2018-07-03 | 2019-01-01 | 北京理工大学 | 一种被动触觉反馈的混合现实交互系统 |
CN110362666A (zh) * | 2019-07-09 | 2019-10-22 | 邬欣霖 | 应用虚拟人物的交互处理方法、装置、存储介质和设备 |
-
2019
- 2019-11-28 CN CN201911193278.4A patent/CN111045582B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105304081A (zh) * | 2015-11-09 | 2016-02-03 | 上海语知义信息技术有限公司 | 一种智能家居的语音播报系统及语音播报方法 |
WO2018006370A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN107248185A (zh) * | 2017-05-31 | 2017-10-13 | 珠海金山网络游戏科技有限公司 | 一种虚拟仿真偶像实时直播方法及系统 |
CN107765852A (zh) * | 2017-10-11 | 2018-03-06 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN107797663A (zh) * | 2017-10-26 | 2018-03-13 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN107894833A (zh) * | 2017-10-26 | 2018-04-10 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN109116981A (zh) * | 2018-07-03 | 2019-01-01 | 北京理工大学 | 一种被动触觉反馈的混合现实交互系统 |
CN110362666A (zh) * | 2019-07-09 | 2019-10-22 | 邬欣霖 | 应用虚拟人物的交互处理方法、装置、存储介质和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111045582A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111045582B (zh) | 一种个性化虚拟人像活化互动系统及方法 | |
WO2022048403A1 (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN110688911B (zh) | 视频处理方法、装置、系统、终端设备及存储介质 | |
CN111145282B (zh) | 虚拟形象合成方法、装置、电子设备和存储介质 | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
Hong et al. | Real-time speech-driven face animation with expressions using neural networks | |
US7663628B2 (en) | Apparatus and method for efficient animation of believable speaking 3D characters in real time | |
CN113781610B (zh) | 一种虚拟人脸的生成方法 | |
US20120130717A1 (en) | Real-time Animation for an Expressive Avatar | |
WO2021212733A1 (zh) | 视频调整方法、装置、电子设备及存储介质 | |
KR102098734B1 (ko) | 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말 | |
WO2023284435A1 (zh) | 生成动画的方法及装置 | |
CN108942919A (zh) | 一种基于虚拟人的交互方法及系统 | |
CN111724457A (zh) | 基于ue4的真实感虚拟人多模态交互实现方法 | |
CN114357135A (zh) | 交互方法、交互装置、电子设备以及存储介质 | |
CN113835375A (zh) | 一种辅助治疗焦虑障碍的人工智能系统 | |
Tang et al. | Real-time conversion from a single 2D face image to a 3D text-driven emotive audio-visual avatar | |
Perng et al. | Image talk: a real time synthetic talking head using one single image with chinese text-to-speech capability | |
Verma et al. | Animating expressive faces across languages | |
Wolfe et al. | Exploring localization for mouthings in sign language avatars | |
Lin et al. | A speech driven talking head system based on a single face image | |
Chollet et al. | Multimodal human machine interactions in virtual and augmented reality | |
Fanelli et al. | Acquisition of a 3d audio-visual corpus of affective speech | |
Kaneko et al. | Automatic synthesis of moving facial images with expression and mouth shape controlled by text | |
Mittal et al. | CARES (Computerized Avatar for Rhetorical & Emotional Supervision) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |