CN113946209B - 一种基于虚拟人的交互方法及系统 - Google Patents
一种基于虚拟人的交互方法及系统 Download PDFInfo
- Publication number
- CN113946209B CN113946209B CN202111085693.5A CN202111085693A CN113946209B CN 113946209 B CN113946209 B CN 113946209B CN 202111085693 A CN202111085693 A CN 202111085693A CN 113946209 B CN113946209 B CN 113946209B
- Authority
- CN
- China
- Prior art keywords
- emotion
- virtual
- analysis
- model
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Analysis (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Optimization (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术领域,具体是一种基于虚拟人的交互方法及系统。包括:虚拟人形象设计、虚拟人情感模型、情感词库分析、交互软件设计;所述虚拟人形象设计具有相关性和吸引性,有二维和三维之分,主要技术有基于照片的虚拟人重建方法、基于模型的三维重建方法、基于OpenGL的虚拟人形象技术、基于Agent的虚拟人形象技术;所述虚拟人情感模型包括情感分类中纬度表达、情感模型的维度观分析;所述情感词库分析为层次分析法:所述交互软件设计为一个以智能家居为应用背景的机交互软件平台。本发明提供一种能进行情感交互能力的一种基于虚拟人的交互方法及系统。
Description
技术领域
本发明涉及人工智能技术领域,具体是一种基于虚拟人的交互方法及系统。
背景技术
在现实生活中,为了满足人们日益增长的针对家庭环境提出的便利性要求、安全性需要和舒适性体验,智能家居系统作为物联网应用之一的引起了广泛关注。这是因为在物联网的背景下,传统的人机交互环境已经不能满足人们的高要求。因此如何构筑一个和谐人机交互的智能家居管理系统,成为了物联网中智能家居管理系统中的热点问题。
为了更好地实现和谐的人机交互,本文利用虚拟人与用户进行交互。这种交互的方法可以更好适应家中有儿童和老人的用户,适用范围更广泛,也能够提升用户舒适度。基于智能家居向人性化、智能化发展的方向,本发明进行了有关虚拟人交互方法及系统,使得虚拟人具有智能,关键是实现虚拟人的情感功能。因此在智能家居中研究情感的模型,以及虚拟人与用户的交互方式是整个管理系统中的重点。研究智能家居的必要性以及核心和关键点,拥有情感交流能力的智能家居管理系统,重点针对文本进行情感分析,其载体是虚拟人,具有情感交互能力的智能家居管理系统。
发明内容
本发明提供一种能进行情感交互能力的一种基于虚拟人的交互方法及系统。
本发明所采用的技术方案为:一种基于虚拟人的交互方法,其特征在于,所述虚拟人在智能设备运行,包括:虚拟人形象设计、虚拟人情感模型、情感词库分析、交互软件设计;
所述虚拟人形象设计具有相关性和吸引性,有二维和三维之分,主要技术有基于照片的虚拟人重建方法、基于模型的三维重建方法、基于OpenGL的虚拟人形象技术、基于Agent的虚拟人形象技术;
所述虚拟人情感模型包括情感分类中纬度表达、情感模型的维度观分析;
所述情感词库分析为层次分析法:
所述交互软件设计为一个以智能家居为应用背景的机交互软件平台。
所述虚拟人形象设计的相关性从符号的角度看,一个优秀的虚拟形象的全部符号:每一个图像、每一种色彩、每一根线条、每一个动作、每一分性格等等,都应该是通过综合分析,从情感的角度,虚拟形象扮演着向用户传递情感的重要角色;虚拟形象要与用户契合,实现与用户的交流、沟通;
所述虚拟人形象设计的吸引性具有三个方面:独特的、可识别的符号特征,专属的、讨喜的性格与故事背景设定,特色的、幽默的动作设定。
所述基于照片的虚拟人重建方法具体流程如下:
S1:像机的投影矩阵;
S2:标准人体三维模型的二维正交投影图像;
S3:真人的正交照片图像;
S4:对应特征点的变形关系;
S5:标准的和真人的三维虚拟人模型对应的三维特;
S6:坐标变换和提取真人的纹理信息;
S7:三维虚拟人模型;
所述基于模型的三维重建方法的具体流程如下:
S1:三维扫描仪器;
S2:模型点云;
S3:构建网络状模型;
S4:对模型进行变形。
所述情感词库分析所提出的基于情感词库的分层的文本情感分析具有以下特征:采用词性作为文本分类的属性,并根据粗糙集属性约简法对众多标注的词性进行约简;构建情感词库;属于特征词性的情感词与构建的情感词库进行匹配,判断情感词的情感状态;按照层次分析法,根据表达式的计算方法,计算句子的情感状态,进而计算文本的情感状态。
一种基于虚拟人的交互系统,其特征在于,包括:情感模型的维度观数据分析、情感词的纬度管分析;
所述情感模型的维度观数据分析通过收集尾速管的问卷调查数据,然后通过建立模型,对其进行主成分分析,所述主成分分析具体步骤如下:
S1:PCA的数据模型:
假设存在n个样本,这n个样本中每一个样本都有P个变量,记为X1,X2,…,XP,那么定义原始数据矩阵如下:
S2:PCA的主成分选取:
通过基本的介绍,可以理解为PCA分析方法实质是把P个随机变量的总差进行了分解;被分解的是r个随机变量,这些随机变量是不相关的,且方差之和的表达式是λ1+λ2+…λr;那么当方差λi的值越大时,主成分综合原始变量的能力越强;将方差按照大小的顺序进行重新地排列,这样可以选取几个方差值较大的成分;wk是称主成分F(1),F(2),…,F(k)的积累贡献率,表达式如下:
S3:SPSS进行主成分分析:
使用SPSS进行数据分析时,首先按照之前介绍的方法调入所需的数据,然后点击分析——降维——因子分析;然后将所有的变量选中,调入之后进行逐项的设置。
所述文本分类计算包括输入、输出、步骤。
所述文本分类计算的输入为待标注情感类别的文本;所述文本分类计算的输出为文本的情感分析结果步骤;所述文本分类计算的步骤具体如下:
S1:输入一个待分类文本text,将抽取出的句子总个数赋值给S;
S2:将每个句子进行词性的分析;若句子未出现这几种词性,则该句子标记情感倾向为中性;如果句子包含所出现的词性,则进行下一步的工作;
S3:j=1,如果j<S,则j=j+1;
S5:计算ο(sentencej);
S6:计算β(sentencej);
S7:标注文本text的情感类别;
S8:算法结束。
本发明的有益效果:
本发明通过关键词判断问句的分类,再进行多种句子规则的匹配,从而实现多种问句模式与答句的映射,然后通过文本的二维情感表达计算公式,得到用户的情感状态。当用户的情感状态是正向情感时,虚拟人的表情表现为微笑,反之则变现为生气。另外,在此系统中,通过对情感模型的分析,还对基于维度和基于离散的两种情感模型进行了程序实现。
具体实施方式
下面对本发明作进一步说明。
一种基于虚拟人的交互方法,其特征在于,所述虚拟人在智能设备运行,包括:虚拟人形象设计、虚拟人情感模型、情感词库分析、交互软件设计;
所述虚拟人形象设计具有相关性和吸引性,有二维和三维之分,主要技术有基于照片的虚拟人重建方法、基于模型的三维重建方法、基于OpenGL的虚拟人形象技术、基于Agent的虚拟人形象技术;
所述虚拟人情感模型包括情感分类中纬度表达、情感模型的维度观分析;
表1情感的纬度表达
所述情感词库分析为层次分析法:
所述交互软件设计为一个以智能家居为应用背景的机交互软件平台。
所述虚拟人形象设计的相关性从符号的角度看,一个优秀的虚拟形象的全部符号:每一个图像、每一种色彩、每一根线条、每一个动作、每一分性格等等,都应该是通过综合分析,从情感的角度,虚拟形象扮演着向用户传递情感的重要角色;虚拟形象要与用户契合,实现与用户的交流、沟通;
所述虚拟人形象设计的吸引性具有三个方面:独特的、可识别的符号特征,专属的、讨喜的性格与故事背景设定,特色的、幽默的动作设定。
所述基于照片的虚拟人重建方法具体流程如下:
S1:像机的投影矩阵;
S2:标准人体三维模型的二维正交投影图像;
S3:真人的正交照片图像;
S4:对应特征点的变形关系;
S5:标准的和真人的三维虚拟人模型对应的三维特;
S6:坐标变换和提取真人的纹理信息;
S7:三维虚拟人模型;
所述基于模型的三维重建方法的具体流程如下:
S1:三维扫描仪器;
S2:模型点云;
S3:构建网络状模型;
S4:对模型进行变形。
所述情感词库分析所提出的基于情感词库的分层的文本情感分析具有以下特征:采用词性作为文本分类的属性,并根据粗糙集属性约简法对众多标注的词性进行约简;构建情感词库;属于特征词性的情感词与构建的情感词库进行匹配,判断情感词的情感状态;按照层次分析法,根据表达式的计算方法,计算句子的情感状态,进而计算文本的情感状态。
一种基于虚拟人的交互系统,其特征在于,包括:情感模型的维度观数据分析、情感词的纬度管分析;
所述情感模型的维度观数据分析通过收集尾速管的问卷调查数据,然后通过建立模型,对其进行主成分分析,所述主成分分析具体步骤如下:
S1:PCA的数据模型:
假设存在n个样本,这n个样本中每一个样本都有P个变量,记为X1,X2,…,XP,那么定义原始数据矩阵如下:
S2:PCA的主成分选取:
通过基本的介绍,可以理解为PCA分析方法实质是把P个随机变量的总差进行了分解;被分解的是r个随机变量,这些随机变量是不相关的,且方差之和的表达式是λ1+λ2+…λr;那么当方差λi的值越大时,主成分综合原始变量的能力越强;将方差按照大小的顺序进行重新地排列,这样可以选取几个方差值较大的成分;wk是称主成分F(1),F(2),…,F(k)的积累贡献率,表达式如下:
S3:SPSS进行主成分分析:
使用SPSS进行数据分析时,首先按照之前介绍的方法调入所需的数据,然后点击分析——降维——因子分析;然后将所有的变量选中,调入之后进行逐项的设置。
表2主成分分析值
主成分 | 各成分的方差解释率 | 累计方差解释率 |
1 | 37.55 | 37.55 |
2 | 26.33 | 66.87 |
3 | 4.51 | 70.33 |
4 | 4.25 | 74.36 |
5 | 3.55 | 78.03 |
从表2的结果可以看出,第一组和第二组的情感维度的值是相当高的,接近百分之七十,也就是说这两组的维度可以表达情感的大部分讯息;同时,第三组和第四组的维度的值相对来说是非常小的,也就是说它们对情感的表达的贡献不算高;这个结果表明了情感的维度与情感的表达之间的关系;通过分析我们可以认为,人类的情感可以由三维或四维的情感维度来表示,而为了降低情感模型的复杂性,也可选取两维的情感模型来表示人类的情感。
上述具有以下特性:
(1)具有高度相关性
第一组具有高度相关性的维度是:冲动性、活跃性、激动度、强度、力度和激活度;
第二组具有高度相关性的维度是:紧张度、快乐度、评价、愉快度、愉悦度、正负性、和趋向性;
第三组相关性相对较低的是:确信度;第四组相关性低的是:优势度;
第五组相关性最低的是:注意。
(2)所占比重越来越小
前两个维度对情感的刻画比重较大,差不多有百分之七十,后面三个维度对情感的刻画比重较小。
(3)维度的选择
系统的复杂度和精度一直是两难的选择,根据本系统的情况,通过本章的数据分析,针对文本的情感分析,选定两维的情感模型,这样既能够保证获取更多的情感信息,又能够保证系统不太复杂。
所述文本分类计算包括输入、输出、步骤。
所述文本分类计算的输入为待标注情感类别的文本;所述文本分类计算的输出为文本的情感分析结果步骤;所述文本分类计算的步骤具体如下:
S1:输入一个待分类文本text,将抽取出的句子总个数赋值给S;
S2:将每个句子进行词性的分析;若句子未出现这几种词性,则该句子标记情感倾向为中性;如果句子包含所出现的词性,则进行下一步的工作;
S3:j=1,如果j<S,则j=j+1;
S5:计算ο(sentencej);
S6:计算β(sentencej);
S7:标注文本text的情感类别;
S8:算法结束。
本发明通过关键词判断问句的分类,再进行多种句子规则的匹配,从而实现多种问句模式与答句的映射,然后通过文本的二维情感表达计算公式,得到用户的情感状态。当用户的情感状态是正向情感时,虚拟人的表情表现为微笑,反之则变现为生气。另外,在此系统中,通过对情感模型的分析,还对基于维度和基于离散的两种情感模型进行了程序实现。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。
Claims (7)
1.一种基于虚拟人的交互方法,其特征在于,所述虚拟人在智能设备运行,包括:虚拟人形象设计、虚拟人情感模型、情感词库分析、交互软件设计;
所述虚拟人形象设计具有相关性和吸引性,有二维和三维之分,主要技术有基于照片的虚拟人重建方法、基于模型的三维重建方法、基于OpenGL的虚拟人形象技术、基于Agent的虚拟人形象技术;
所述虚拟人情感模型包括情感分类中纬度表达、情感模型的维度观分析;
所述情感模型的维度观数据分析通过收集尾速管的问卷调查数据,然后通过建立模型,对其进行主成分分析,所述主成分分析具体步骤如下:
S1:PCA的数据模型:
假设存在n个样本,这n个样本中每一个样本都有P个变量,记为X1,X2,…,XP,那么定义原始数据矩阵如下:
S2:PCA的主成分选取:
通过介绍,可以理解为PCA分析方法实质是把P个随机变量的总差进行了分解;被分解的是r个随机变量,这些随机变量是不相关的,且方差之和的表达式是λ1+λ2+…λr;那么当方差λi的值越大时,主成分F(i)=[A(i)]T综合原始变量的能力越强;将方差按照大小的顺序进行重新地排列,这样可以选取几个方差值较大的成分;wk是称主成分F(1),F(2),…,F(k)的积累贡献率,表达式如下:
S3:SPSS进行主成分分析:
使用SPSS进行数据分析时,首先按照之前介绍的方法调入所需的数据,然后点击分析——降维——因子分析;然后将所有的变量选中,调入之后进行逐项的设置;
所述情感词库分析为层次分析法;
所述交互软件设计为一个以智能家居为应用背景的机交互软件平台。
2.根据权利要求1所述的一种基于虚拟人的交互方法,其特征在于:所述虚拟人形象设计的相关性从符号的角度看,一个优秀的虚拟形象的全部符号:每一个图像、每一种色彩、每一根线条、每一个动作、每一分性格,都应该是通过综合分析,从情感的角度,虚拟形象扮演着向用户传递情感的重要角色;虚拟形象要与用户契合,实现与用户的交流、沟通;
所述虚拟人形象设计的吸引性具有三个方面:独特的、可识别的符号特征,专属的、讨喜的性格与故事背景设定,特色的、幽默的动作设定。
3.根据权利要求1所述的一种基于虚拟人的交互方法,其特征在于:所述基于照片的虚拟人重建方法具体流程如下:
S1:像机的投影矩阵;
S2:标准人体三维模型的二维正交投影图像;
S3:真人的正交照片图像;
S4:对应特征点的变形关系;
S5:标准的和真人的三维虚拟人模型对应的三维特;
S6:坐标变换和提取真人的纹理信息;
S7:三维虚拟人模型;
所述基于模型的三维重建方法的具体流程如下:
S1:三维扫描仪器;
S2:模型点云;
S3:构建网络状模型;
S4:对模型进行变形。
4.根据权利要求1所述的一种基于虚拟人的交互方法,其特征在于:所述情感词库分析所提出的基于情感词库的分层的文本情感分析具有以下特征:采用词性作为文本分类的属性,并根据粗糙集属性约简法对众多标注的词性进行约简;构建情感词库;属于特征词性的情感词与构建的情感词库进行匹配,判断情感词的情感状态;按照层次分析法,根据表达式的计算方法,计算句子的情感状态,进而计算文本的情感状态。
5.一种基于虚拟人的交互系统,其特征在于,包括:情感模型的维度观数据分析、情感词的维度观分析;
所述情感模型的维度观数据分析通过收集尾速管的问卷调查数据,然后通过建立模型,对其进行主成分分析,所述主成分分析具体步骤如下:
S1:PCA的数据模型:
假设存在n个样本,这n个样本中每一个样本都有P个变量,记为X1,X2,…,XP,那么定义原始数据矩阵如下:
S2:PCA的主成分选取:
通过介绍,可以理解为PCA分析方法实质是把P个随机变量的总差进行了分解;被分解的是r个随机变量,这些随机变量是不相关的,且方差之和的表达式是λ1+λ2+…λr;那么当方差λi的值越大时,主成分F(i)=[A(i)]T综合原始变量的能力越强;将方差按照大小的顺序进行重新地排列,这样可以选取几个方差值较大的成分;wk是称主成分F(1),F(2),…,F(k)的积累贡献率,表达式如下:
S3:SPSS进行主成分分析:
使用SPSS进行数据分析时,首先按照之前介绍的方法调入所需的数据,然后点击分析——降维——因子分析;然后将所有的变量选中,调入之后进行逐项的设置。
7.根据权利要求6所述的一种基于虚拟人的交互系统,其特征在于:所述文本分类计算的输入为待标注情感类别的文本;所述文本分类计算的输出为文本的情感分析结果步骤;所述文本分类计算的步骤具体如下:
S1:输入一个待分类文本text,将抽取出的句子总个数赋值给S;
S2:将每个句子进行词性的分析;若句子未出现这几种词性,则该句子标记情感倾向为中性;如果句子包含所出现的词性,则进行下一步的工作;
S3:j=1,如果j<S,则j=j+1;
S5:计算o(sentencej);
S6:计算β(sentencej);
S7:标注文本text的情感类别;
S8:算法结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085693.5A CN113946209B (zh) | 2021-09-16 | 2021-09-16 | 一种基于虚拟人的交互方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085693.5A CN113946209B (zh) | 2021-09-16 | 2021-09-16 | 一种基于虚拟人的交互方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113946209A CN113946209A (zh) | 2022-01-18 |
CN113946209B true CN113946209B (zh) | 2023-05-09 |
Family
ID=79328621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111085693.5A Active CN113946209B (zh) | 2021-09-16 | 2021-09-16 | 一种基于虚拟人的交互方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113946209B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109917917A (zh) * | 2019-03-06 | 2019-06-21 | 南京七奇智能科技有限公司 | 一种虚拟人交互软件总线系统及其实现方法 |
CN110874557A (zh) * | 2018-09-03 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 一种语音驱动虚拟人脸的视频生成方法以及装置 |
CN111045582A (zh) * | 2019-11-28 | 2020-04-21 | 深圳市木愚科技有限公司 | 一种个性化虚拟人像活化互动系统及方法 |
CN112270764A (zh) * | 2020-09-30 | 2021-01-26 | 北京理工大学 | 一种用于合影的虚拟人姿态生成方法 |
CN112700523A (zh) * | 2020-12-31 | 2021-04-23 | 魔珐(上海)信息科技有限公司 | 虚拟对象面部动画生成方法及装置、存储介质、终端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112286366B (zh) * | 2020-12-30 | 2022-02-22 | 北京百度网讯科技有限公司 | 用于人机交互的方法、装置、设备和介质 |
-
2021
- 2021-09-16 CN CN202111085693.5A patent/CN113946209B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874557A (zh) * | 2018-09-03 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 一种语音驱动虚拟人脸的视频生成方法以及装置 |
CN109917917A (zh) * | 2019-03-06 | 2019-06-21 | 南京七奇智能科技有限公司 | 一种虚拟人交互软件总线系统及其实现方法 |
CN111045582A (zh) * | 2019-11-28 | 2020-04-21 | 深圳市木愚科技有限公司 | 一种个性化虚拟人像活化互动系统及方法 |
CN112270764A (zh) * | 2020-09-30 | 2021-01-26 | 北京理工大学 | 一种用于合影的虚拟人姿态生成方法 |
CN112700523A (zh) * | 2020-12-31 | 2021-04-23 | 魔珐(上海)信息科技有限公司 | 虚拟对象面部动画生成方法及装置、存储介质、终端 |
Also Published As
Publication number | Publication date |
---|---|
CN113946209A (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
Tan et al. | Diverse semantic image synthesis via probability distribution modeling | |
CN109783817A (zh) | 一种基于深度强化学习的文本语义相似计算模型 | |
CN110555896B (zh) | 一种图像生成方法、装置以及存储介质 | |
CN111259154B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
JP6076425B1 (ja) | 対話インターフェース | |
CN110543553B (zh) | 问题生成方法、装置、计算机设备及存储介质 | |
Estevez-Velarde et al. | AutoML strategy based on grammatical evolution: A case study about knowledge discovery from text | |
CN111694941A (zh) | 一种回复信息确定方法、装置、存储介质及电子设备 | |
CN110489552B (zh) | 一种微博用户自杀风险检测方法及装置 | |
Pan et al. | A quantitative model for identifying regions of design visual attraction and application to automobile styling | |
CN114282592A (zh) | 一种基于深度学习的行业文本匹配模型方法及装置 | |
CN113946209B (zh) | 一种基于虚拟人的交互方法及系统 | |
JP6034459B1 (ja) | 対話インターフェース | |
Shrivastava et al. | CLIP-Lite: Information Efficient Visual Representation Learning with Language Supervision | |
CN108804416B (zh) | 基于机器学习的影评情感倾向性分析的训练方法 | |
JP6080137B1 (ja) | 対話インターフェース | |
Wang et al. | A multibias-mitigated and sentiment knowledge enriched transformer for debiasing in multimodal conversational emotion recognition | |
CN113821610A (zh) | 信息匹配方法、装置、设备及存储介质 | |
Li et al. | Seq-CNN: A lightweight and efficient neural network for sentimental analysis of text | |
Osathanunkul et al. | Semantic similarity measures for the development of thai dialog system | |
Kaneko et al. | Facial expression system using Japanese emotional linked data built from knowledge on the web | |
Shrivastava et al. | CLIP-Lite: Information Efficient Visual Representation Learning with Language Supervision | |
CN116484004B (zh) | 一种对话情绪识别分类方法 | |
Chou et al. | Chinese font recommendation based on emotional adjectives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |