CN111383326A - 一种多维虚拟人物实现的方法及其装置 - Google Patents
一种多维虚拟人物实现的方法及其装置 Download PDFInfo
- Publication number
- CN111383326A CN111383326A CN201910000142.0A CN201910000142A CN111383326A CN 111383326 A CN111383326 A CN 111383326A CN 201910000142 A CN201910000142 A CN 201910000142A CN 111383326 A CN111383326 A CN 111383326A
- Authority
- CN
- China
- Prior art keywords
- elements
- human body
- virtual
- language
- virtual character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及虚拟VR技术领域,尤其公开了一种多维虚拟人物实现的方法,包括:获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素;根据所述多个要素特征,建立要素数据库;从所述要素数据库中选取多个要素特征,并组合后建立虚拟人物模型;通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物;本发明实施例还公开了一种装置,用于实现上述方法,本发明使虚拟人物形象赋予特定的人格、语言、习惯动作以及相应的场景等。通过AI智能技术,对大数据进行处理后,存储在装置上,通过VR设备展现出来。
Description
技术领域
本发明涉及虚拟VR技术领域,尤其涉及一种多维虚拟人物实现的方法及其装置。
背景技术
虚拟现实技术(VR)是近年来兴起的新兴体验方式,在该技术的帮助下,可以让用户跨越时空,沉浸在数字场景中,获得身临其境的体验。
但是目前,VR实现的方法及设备在人物交互方面的内容,只支持外观形象和简单的语音对话,达不到记录人的一系列性格特征、逻辑思维特征,导致呈现的虚拟人物虽然可以外观上形象各异,但在交互逻辑上同质化,不具备个性,拟人化程度不够,另外,针对VR应用内容的存储和使用也没有特定的介质,不便于个人存储和携带以及安全管理。
发明内容
为了克服现有技术中VR中人物的特征更加不够真实的技术缺陷,本发明实施例一方面提供了一种多维虚拟人物实现的方法,包括:
获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素;
根据所述多个要素特征,建立要素数据库;
从所述要素数据库中选取多个要素特征,并组合后建立虚拟人物模型;
通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物。
本发明实施例另一方面提供了一种装置,用于实现上述的多维虚拟人物实现的方法。
本发明实施例提供的多维虚拟人物实现的方法及其终端与现有技术相比:通过预先输入设置或者通过采集装置采集,获取人体的语言要素、行为要素、形象要素和场景要素等,再选取多个要素特征,并自由组合,建立人物新模型,通过VR设备还原至虚拟人物上,使虚拟人物形象赋予特定的人格、语言、习惯动作以及相应的场景等。通过AI智能技术,对大数据进行处理后,存储在装置上,通过VR设备展现出来。
附图说明
下面结合附图对本发明作详细的说明:
图1为本发明所述一种多维虚拟人物实现的方法实施例的流程示意图;
图2为本发明所述一种多维虚拟人物实现的方法实施例的步骤S14的流程示意图;
图3为本发明所述一种多维虚拟人物实现的方法实施例的步骤S14的另一方式的流程示意图;
图4为本发明所述一种多维虚拟人物实现的方法实施例的步骤S11的另一方式的流程示意图。
具体实施方式
为了使本发明所解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
当本发明实施例提及“第一”、“第二”等序数词时,除非根据上下文其确实表达顺序之意,应当理解为仅仅是起区分之用。
如图1所示,为本发明所述一种多维虚拟人物实现的方法实施例一的结构示意图,本实施例的多维虚拟人物实现的方法,包括:
步骤S11,获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素;
示例性的,本实施例中,所述获取多个要素特征包括:
通过预先存储的视频片段,采集人体的多个要素特征;
即可通过预先存储下关于某个人物的视频片段,在通过视频片段中,人物的语言、行为、表情等,提取人物的要素特征。
本实施例中,还可通过采集设备在预设时间段内,采集人体的多个要素特征。例如通过录像设备或者录音设备,记录特定人物的生活、工作等视频片段,或者说话录音等,再根据视频片段或者录音来分析提取人物的要素特征。
作为优选的技术方案,本实施例中,所述获取多个要素特征,所述要素特征包括人体的语言、行为、形象和场景的步骤,包括:
采集预设时间段内,人体的说话时的平均语速、平均语调和习惯性用语;
采集人体的面部表情,所述面部表情包括开心、伤心、愤怒、恐惧、厌恶、惊讶时的表情;
采集人体的常用动作,所述常用动作包括皱眉、扶额头、咬唇、抖腿、摸鼻、戴眼镜;
其中,对人体的语言要素、行为要素和形象要素的采集,是通过麦克风、摄像装置、扫描仪和传感器进行采集。
因此,本实施例中,通过麦克风、摄像装置、扫描仪和传感器等,对特定人物的生活工作片段进行拍摄录音,再根据数据分析,分析出人物平时说话时的平均语速、平均语调和习惯性用语等语言要素特征,表情特征、动作特征等。
作为另一种优选的实施方式,所述获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素的步骤,还包括:
预先存储多个人体的多个语言要素、行为要素、形象要素和场景要素;
所述要素数据库还包括性格要素、方言要素。
示例性的,如下表所示:
步骤S12,根据所述多个要素特征,建立要素数据库;
本实施例中,将步骤S11所获取的人物的各要素特征,建立要素数据库,便于后续访问。
步骤S13,从所述要素数据库中选取多个要素特征,并组合后建立虚拟人物模型;
本步骤中,将从步骤S12的要素数据库中选取部分要素特征,再将选取的要素特征进行组合,组合后建立虚拟人物模型,在选取要素特征时,分别从语言要素、行为要素和形象要素中选取一个或多个的要素特征,再选取一定的场景要素,最后组合层虚拟人物模型。
步骤S14,通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物。
本步骤中,将步骤S13所建立的虚拟人物模型,通过VR虚拟设备展现出来,即可展现出二维或者三维的动画虚拟人物形象。
因此,本实施例中,首先实时行为信息采集,即要素特征的采集,是通过语音设备仪、人体扫描仪、多种传感器,对人体的语音、表情、动作、包括嗅觉等,通过数据采集模块,将人体日常行为数据进行实时采集。本发明收集要素特征包括但不限于以上几种。
本实施例中,要素特征的采集,可将人的连贯性动作、表情、语言进行拆分建库,不同要素特征的自由组合就构成了不同的人物形象,要素特征的建模是行为动作转化为研究个体性格、思维逻辑的重要手段和前提,剖析行为的因果关系或相互关系。
建模采集的信息可进行更加详细的类别细分,具体如下:
语言:语速,快、中、慢。音量,高、中、低;习惯性用词或方言等;
表情:愤怒、恐惧、快乐、伤心、厌恶、惊讶、轻蔑等;
动作:皱眉、摸鼻子、扶额头/眼镜、咬嘴唇/咬指甲、撕嘴唇上的皮、撩头发/摸头、摸耳朵、摸下巴、抖脚/摇腿等;
还可以获取嗅觉特征因素:例如人物是喜欢哪种味道,如芬芳味、木香味/树脂味、薄荷味、甜味、化学物味、爆米花味、柠檬味、非柑橘类的水果味、刺鼻味、腐味等;
最后可将人物合成多种性格:完美型、助人型、成就型、艺术型、理智型、忠诚型、活跃型、领袖型、和平型等。
因此,本发明实施例提供的多维虚拟人物实现的方法及其终端与现有技术相比:通过预先输入设置或者通过采集装置采集,获取人体的语言要素、行为要素、形象要素和场景要素等,再选取多个要素特征,并自由组合,建立人物新模型,通过VR设备还原至虚拟人物上,使虚拟人物形象赋予特定的人格、语言、习惯动作以及相应的场景等。通过AI智能技术,对大数据进行处理后,存储在装置上,通过VR设备展现出来。
如图2所示,为本发明所述一种多维虚拟人物实现的方法实施例的步骤S14的流程示意图;作为优选的实施方式,所述通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物的步骤,包括:
S141,从所述语言要素、行为要素、形象要素和场景要素中,分别获取要素特征;
S142,获取人体的语言要素、行为要素、形象要素的优先级;
S143,根据优先级级别,设置场景要素后,将所获取的要素特征通过虚拟VR设备还原为虚拟人物。
因此,本实施方式中,将人体的语言要素、行为要素、形象要素进行了优先级别设置,可通过视频片段或者采集设备,获取特定人物各要素特征的常见或者通常的优选顺序,如先说话,还是先有表情,还是先有动作等等。获取了人物的要素特征优先顺序后,在建立虚拟人物模型时,可将要素特征的优选顺序安装进去后进行还原。
如图3所示,为本发明所述一种多维虚拟人物实现的方法实施例的步骤S14的另一方式的流程示意图;作为另一种优选的实施方式,通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物的步骤,还包括:
S144,预先存储或者采集多个外观人体造型;
S145,选取外观人体造型;
S146,根据优先级级别,设置场景要素后,将所获取的要素特征通过虚拟VR设备还原至所选取的外观人体造型。
需要说明的是,S141至S146步骤,为本发明实施例的优选步骤,也可放置在S11、S12或是13步骤中。
因此,本实施方式中,在还原成具体人物形象之前,可先预设一定的外观造型,可根据特定人物的照片肖像,或者预设的图画等生成外观人体造型;在还原虚拟人物时,可先选取外观人体造型,再将要素特征加入在该外观人体造型上,形成最后的虚拟人物形象。
如图4所示,为本发明所述一种多维虚拟人物实现的方法实施例的步骤S11的另一方式的流程示意图;作为另一种实施方式,步骤S11:获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素,还包括如下步骤:
S111,定期或不定期获取新的人体的语言要素、行为要素、形象要素和场景要素;
S112,将所述新的人体的语言要素、行为要素、形象要素和场景要素更新至所述要素数据库中;
S113,将所述虚拟人物与实际人物进行对比,将所对比结果中,虚拟人物与实际人物不相同的要素特征进行修正。
因此,本实施方式中,可实行人工抽检的方式,通过将带要素特征的虚拟人于实际的真实人物形象,进行比较或进行实景交互,对应答结果,进行验证。
对于交互校验不通过的个性结果,反馈回建模分析,进行二次颗粒组合或修复,例如,定期或者不定期的重新获取人物的要素特征,对最新获取的要素特征,与已储存在要素特征库中的要素特征进行更新。
需要说明的是,S111至113,为本发明实施例的优选步骤,也可放置在S12、S13或是S14步骤中,因此,本实施方式中,通过对特征要素进行定期或者不定期更新,并且将还原出的虚拟人物与实际人物形象进行对比,找出区别特征要素,并进行修正,使得虚拟人物的形象更加充实、更贴合实际。
本发明的实施例包括一种装置,用于实现上述实施例所述的多维虚拟人物实现的方法。示例性的,所述装置为一种VR芯片。
本发明实施例中的VR芯片或者其他终端,提供标准接口以及调用该接口的客户端,且能直接的被VR终端设备所读取调用,也非常的便于携带及扩展到其它渠道。该VR芯片或者其他设备,包括:
逻辑处理模块:作为智能交互的统一对外接口,逻辑处理层将实现统一对外接口,通过模型中与之相匹配的声音、动作等进行思维逻辑表达,达到思维的拟人化目的。
数据模块:数据层存储着系统所有数据,主要为各单元颗粒、匹配颗粒。各单元颗粒库包括了对用户所有语言、动作、形象、场景的基础素材,匹配颗粒为更加精细的单元,可供自由匹配组合。数据挖掘用户行为(时间性、地域性、场景性的综合考虑)实现逼真交互。通过实时监控网络热点,对用户的新词汇、新的行为动作做出准确判断,自主学习能力,使系统自我迭代,与时俱进。
分析建模模块:通过该功能模块,让系统以最自然的方式表达自己的思想,并能在交互中及时拟人的回复。在与用户的交互中,本系统采用了三层分析法:即自然语言理解、表情动作理解、外观形象的理解。同时,对上述用户的分析理解,以进一步增强特定场景下理解用户意图的准确性。为了让系统更加智能,加入了智能交互功能。该功能由上下文前后场景分析、流程引导、逻辑推理等技术合成,可以模拟出各种交互场景、加强用户体验感。
采集库模块:对人的语言、动作、形象、场景等要素采集收录,进行合理化管理。其中包括对这些个性化特征进行模版化管理,支持对各要素的自由调用;支持各项要素的统计报表;具备一般系统的基本功能,例如用户管理、角色管理、用户权限管理、日志查看和分析等。要素库管理由各智能终端自由抓取、系统收录,统一存储于要素库当中。要素库对收录的个性化特征进行加工,支持细颗粒分析建模,另一方面利用这些要素全面支撑各渠道、各场景的应用。
以上内容是结合具体实施例对本发明的进一步详细说明,不能认定为具体的实施方案只局限于这些说明。如:可以在理解本发明意图的前提下自由调整金属框各断点的位置,第一接地点和第二连接点的位置及各耦合分支长度进行天线的优化。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,本发明的具体实施方式不拘泥于上述实例,在本发明的具体实施过程中,具体实施方式还可以做出若干推演或优化,这些推演或优化都应当视为属于本发明的保护范围。
Claims (10)
1.一种多维虚拟人物实现的方法,包括:
获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素;
根据所述多个要素特征,建立要素数据库;
从所述要素数据库中选取多个要素特征,并组合后建立虚拟人物模型;
通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物。
2.根据权利要求1所述的方法,其特征在于,所述获取多个要素特征包括:
通过预先存储的视频片段,采集人体的多个要素特征;
通过采集设备在预设时间段内,采集人体的多个要素特征。
3.根据权利要求2所述的方法,其特征在于,所述获取多个要素特征,所述要素特征包括人体的语言、行为、形象和场景的步骤,包括:
采集预设时间段内,人体的说话时的平均语速、平均语调和习惯性用语;
采集人体的面部表情,所述面部表情包括开心、伤心、愤怒、恐惧、厌恶、惊讶时的表情;
采集人体的常用动作,所述常用动作包括皱眉、扶额头、咬唇、抖腿、摸鼻、戴眼镜;
其中,对人体的语言要素、行为要素和形象要素的采集,是通过麦克风、摄像装置、扫描仪和传感器进行采集。
4.根据权利要求1所述的方法,其特征在于,所述通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物的步骤,包括:
从所述语言要素、行为要素、形象要素和场景要素中,分别获取要素特征;
获取人体的语言要素、行为要素、形象要素的优先级;
根据优先级级别,设置场景要素后,将所获取的要素特征通过虚拟VR设备还原为虚拟人物。
5.根据权利要求4所述的方法,其特征在于,所述获取多个要素特征,所述要素特征包括人体的语言要素、行为要素、形象要素和场景要素的步骤,还包括:
预先存储多个人体的多个语言要素、行为要素、形象要素和场景要素;
所述要素数据库还包括性格要素、方言要素。
6.根据权利要求3或4所述的方法,其特征在于,通过虚拟VR设备,将所述虚拟人物模型还原为虚拟人物的步骤,还包括:
预先存储或者采集多个外观人体造型;
选取外观人体造型;
根据优先级级别,设置场景要素后,将所获取的要素特征通过虚拟VR设备还原至所选取的外观人体造型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
定期或不定期获取新的人体的语言要素、行为要素、形象要素和场景要素;
将所述新的人体的语言要素、行为要素、形象要素和场景要素更新至所述要素数据库中。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
将所述虚拟人物与实际人物进行对比,将所对比结果中,虚拟人物与实际人物不相同的要素特征进行修正。
9.一种装置,其特征在于,所述装置用于实现根据权利要求1至9任一项所述的多维虚拟人物实现的方法,包括逻辑处理模块、数据模块、分析建模模块、和采集库模块。
10.根据权利要求9所述的装置,其特征在于,所述装置为一种VR芯片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000142.0A CN111383326A (zh) | 2019-01-01 | 2019-01-01 | 一种多维虚拟人物实现的方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000142.0A CN111383326A (zh) | 2019-01-01 | 2019-01-01 | 一种多维虚拟人物实现的方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111383326A true CN111383326A (zh) | 2020-07-07 |
Family
ID=71215050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910000142.0A Pending CN111383326A (zh) | 2019-01-01 | 2019-01-01 | 一种多维虚拟人物实现的方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383326A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114870407A (zh) * | 2022-04-29 | 2022-08-09 | 深圳市中视典数字科技有限公司 | 一种基于虚拟现实的数字人体数据采集系统及方法 |
-
2019
- 2019-01-01 CN CN201910000142.0A patent/CN111383326A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114870407A (zh) * | 2022-04-29 | 2022-08-09 | 深圳市中视典数字科技有限公司 | 一种基于虚拟现实的数字人体数据采集系统及方法 |
CN114870407B (zh) * | 2022-04-29 | 2023-02-14 | 深圳市中视典数字科技有限公司 | 一种基于虚拟现实的数字人体数据采集系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11321385B2 (en) | Visualization of image themes based on image content | |
US20190188903A1 (en) | Method and apparatus for providing virtual companion to a user | |
US20210012777A1 (en) | Context acquiring method and device based on voice interaction | |
CN110488975B (zh) | 一种基于人工智能的数据处理方法及相关装置 | |
CN109766759A (zh) | 情绪识别方法及相关产品 | |
CN109658923A (zh) | 基于人工智能的语音质检方法、设备、存储介质及装置 | |
CN113709384A (zh) | 基于深度学习的视频剪辑方法、相关设备及存储介质 | |
EP4099709A1 (en) | Data processing method and apparatus, device, and readable storage medium | |
CN112148922A (zh) | 会议记录方法、装置、数据处理设备及可读存储介质 | |
CN109240786B (zh) | 一种主题更换方法及电子设备 | |
CN111144360A (zh) | 多模信息识别方法、装置、存储介质及电子设备 | |
CN111967770A (zh) | 基于大数据的问卷调查数据处理方法、装置及存储介质 | |
CN113392273A (zh) | 视频播放方法、装置、计算机设备及存储介质 | |
CN112911192A (zh) | 视频处理方法、装置和电子设备 | |
CN107943811A (zh) | 内容的发布方法和装置 | |
CN109934097A (zh) | 一种基于人工智能的表情和心理健康管理系统 | |
CN107451185B (zh) | 录音方法、朗读系统、计算机可读存储介质和计算机装置 | |
CN111383326A (zh) | 一种多维虚拟人物实现的方法及其装置 | |
US11157549B2 (en) | Emotional experience metadata on recorded images | |
CN111768729A (zh) | 一种vr场景自动解说方法、系统和存储介质 | |
Suryani et al. | Multi-modal asian conversation mobile video dataset for recognition task | |
CN115484474A (zh) | 视频剪辑处理方法、装置、电子设备及存储介质 | |
CN114492579A (zh) | 情绪识别方法、摄像装置、情绪识别装置及存储装置 | |
CN112449249A (zh) | 视频流处理方法及装置、电子设备及存储介质 | |
CN115376512B (zh) | 一种基于人物画像的语音识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |