CN107392783A - 基于虚拟现实的社交方法及装置 - Google Patents
基于虚拟现实的社交方法及装置 Download PDFInfo
- Publication number
- CN107392783A CN107392783A CN201710545583.XA CN201710545583A CN107392783A CN 107392783 A CN107392783 A CN 107392783A CN 201710545583 A CN201710545583 A CN 201710545583A CN 107392783 A CN107392783 A CN 107392783A
- Authority
- CN
- China
- Prior art keywords
- destination virtual
- scene
- virtual
- virtual scene
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000000694 effects Effects 0.000 claims abstract description 32
- 210000000988 bone and bone Anatomy 0.000 claims description 66
- 230000008921 facial expression Effects 0.000 claims description 37
- 238000003860 storage Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 10
- 238000007405 data analysis Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 239000011800 void material Substances 0.000 description 3
- 210000000216 zygoma Anatomy 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000010086 Hypertelorism Diseases 0.000 description 1
- 206010020771 Hypertelorism of orbit Diseases 0.000 description 1
- 241000222712 Kinetoplastida Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 210000004279 orbit Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000014860 sensory perception of taste Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种基于虚拟现实的社交方法及装置。该方法包括:接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交。通过本申请,解决了相关技术中的社交方式用户体验度较低的问题。
Description
技术领域
本申请涉及虚拟现实技术领域,具体而言,涉及一种基于虚拟现实的社交方法及装置。
背景技术
目前的社交应用程序均以电子设备为载体,以平面列表方式实现用户和用户间的文字聊天、语音和表情图标。这种社交方式虽然满足了当前用户便捷的沟通方式,但不够生动,缺乏立体场景和虚拟人物的3D效果展现,用户体验度较低。
针对相关技术中的社交方式用户体验度较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种基于虚拟现实的社交方法及装置,以解决相关技术中的社交方式用户体验度较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种基于虚拟现实的社交方法。该方法包括:接收场景请求消息,其中,所述场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,所述场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于所述当前时间信息对所述待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,所述目标虚拟人物模型是预先基于所述用户的信息创建的虚拟人物模型;将所述目标虚拟人物模型添加至所述目标虚拟场景,其中,所述虚拟人物模型用于在所述目标虚拟场景下进行社交。
进一步地,在将所述目标虚拟人物模型添加至所述目标虚拟场景之前,所述方法还包括:统计所述目标虚拟场景中虚拟人物模型的数量;判断所述目标虚拟场景中虚拟人物模型的数量是否超过预设数量;若所述目标虚拟场景中虚拟人物模型的数量超过所述预设数量,创建所述目标虚拟场景对应的副本场景;将所述目标虚拟人物模型添加至所述目标虚拟场景包括:将所述目标虚拟人物模型添加至所述目标虚拟场景对应的副本场景,其中,所述虚拟人物模型用于所述目标虚拟场景对应的副本场景下进行社交。
进一步地,在将所述目标虚拟人物模型添加至所述目标虚拟场景之后,所述方法还包括:采集所述用户的语音信号,其中,所述语音信号用于控制所述目标虚拟场景中目标虚拟人物模型的表情;识别所述语音信号对应的文本信息;基于所述文本信息分析所述用户的表情信息;基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情。
进一步地,基于所述文本信息分析所述用户的表情信息包括:将所述文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数;基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情包括:基于所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
进一步地,基于所述文本信息分析所述用户的表情信息包括:获取所述语音信号中携带的音量数据;基于所述语音信号对应的文本信息和所述音量数据分析所述用户的表情信息。
进一步地,基于所述语音信号对应的文本信息和所述音量数据分析所述用户的表情信息包括:判断所述音量数据是否超过预设音量值;若所述音量数据超过预设音量值,将所述语音信号对应的文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与所述活动部位的系数;调整所述目标骨骼系数表中活动部位的系数;基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情包括:基于所述目标虚拟人物模型的面部表情的活动部位与调整后的活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
进一步地,将所述目标虚拟人物模型添加至所述目标虚拟场景之后,所述方法还包括:获取所述目标虚拟场景中每个虚拟人物模型的位置坐标;基于每个虚拟人物模型的位置坐标调整虚拟人物模型之间相互交流的音量大小。
进一步地,将所述目标虚拟人物模型添加至所述目标虚拟场景之后,所述方法还包括:在所述目标虚拟场景中加载直播视频,其中,所述直播视频用于所述目标虚拟场景中的虚拟人物模型观看。
进一步地,在所述目标虚拟场景中加载直播视频之后,所述方法还包括:检测所述目标虚拟场景中的交互键是否已开启;若检测到所述目标虚拟场景中的交互键已开启,采集所述目标虚拟场景中目标虚拟人物模型的发言信息;将所述目标虚拟人物模型的发言信息传输至所述直播视频的应用程序。
进一步地,在所述目标虚拟场景中加载直播视频之后,所述方法还包括:检测所述目标虚拟场景中是否接收到交流指令,其中,所述交流指令为所述直播视频中的人物触发请求与所述目标虚拟场景中虚拟人物模型的进行交流的指令;若所述目标虚拟场景中接收到所述交流指令,通过所述直播视频的应用程序与所述目标虚拟场景中虚拟人物模型的进行交流。
进一步地,在所述目标虚拟场景中加载直播视频之后,所述方法还包括:采集所述目标虚拟场景中虚拟人物模型的信息;将所述目标虚拟场景中虚拟人物模型的信息反馈至所述直播视频的应用程序,以便所述直播视频中的人物与所述所述目标虚拟场景中虚拟人物模型进行交流。
为了实现上述目的,根据本申请的另一方面,提供了一种基于虚拟现实的社交装置。该装置包括:接收单元,用于接收场景请求消息,其中,所述场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,所述场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;生成单元,用于基于所述当前时间信息对所述待进入的虚拟场景进行渲染,生成目标虚拟场景;获取单元,用于获取目标虚拟人物模型,其中,所述目标虚拟人物模型是预先基于所述用户的信息创建的虚拟人物模型;添加单元,用于将所述目标虚拟人物模型添加至所述目标虚拟场景,其中,所述虚拟人物模型用于在所述目标虚拟场景下进行社交。
进一步地,所述装置还包括:统计单元,用于在将所述目标虚拟人物模型添加至所述目标虚拟场景之前,统计所述目标虚拟场景中虚拟人物模型的数量;判断单元,用于判断所述目标虚拟场景中虚拟人物模型的数量是否超过预设数量;创建单元,用于若所述目标虚拟场景中虚拟人物模型的数量超过所述预设数量,创建所述目标虚拟场景对应的副本场景;所述添加单元还用于将所述目标虚拟人物模型添加至所述目标虚拟场景对应的副本场景,其中,所述虚拟人物模型用于所述目标虚拟场景对应的副本场景下进行社交。
进一步地,所述装置还包括:采集单元,用于在将所述目标虚拟人物模型添加至所述目标虚拟场景之后,采集所述用户的语音信号,其中,所述语音信号用于控制所述目标虚拟场景中目标虚拟人物模型的表情;识别单元,用于识别所述语音信号对应的文本信息;分析单元,用于基于所述文本信息分析所述用户的表情信息;调整单元,用于基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情。
进一步地,所述分析单元包括:匹配模块,用于将所述文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;第一获取模块,用于若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;第二获取模块,用于获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数;所述调整单元还用于基于所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
进一步地,所述分析单元包括:第三获取模块,用于获取所述语音信号中携带的音量数据;分析模块,用于基于所述语音信号对应的文本信息和所述音量数据分析所述用户的表情信息。
为了实现上述目的,根据本申请的另一方面,提供了一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序执行上述任意一项所述的基于虚拟现实的社交方法。
为了实现上述目的,根据本申请的另一方面,提供了一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行上述任意一项所述的基于虚拟现实的社交方法。
通过本申请,采用以下步骤:接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交,解决了相关技术中的社交方式用户体验度较低的问题。通过场景请求消息中携带的当前时间信息对待进入的虚拟场景进行渲染,得到目标虚拟场景,然后以用户的信息创建的虚拟人物模型在目标虚拟场景下进行社交,进而达到了提升用户的体验度的效果。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的基于虚拟现实的社交方法的流程图;
图2是根据本申请实施例提供的基于虚拟现实的社交方法的虚拟场景中虚拟人物模型位置的示意图;
图3是根据本申请实施例提供的基于虚拟现实的社交方法中虚拟空间与直播端信息交互的示意图;以及
图4是根据本申请实施例提供的基于虚拟现实的社交装置的示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,以下对本申请实施例涉及的部分名词或术语进行说明:
虚拟现实技术(Virtual Reality,简称VR),是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。虚拟现实技术是仿真技术的一个重要方向,是仿真技术与计算机图形学人机接口技术多媒体技术传感技术网络技术等多种技术的集合,是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术主要包括模拟环境、感知、自然技能和传感设备等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的VR应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入做出实时响应,并分别反馈到用户的五官。
根据本申请的实施例,提供了一种基于虚拟现实的社交方法。
图1是根据本申请实施例的基于虚拟现实的社交方法的流程图。如图1所示,该方法包括以下步骤:
步骤S101,接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景。
例如,北京时间2017年6月20日早上9:43分,用户触发请求进入虚拟场景A的消息,接收携带当前时间信息和待进入的虚拟场景的场景请求消息。
步骤S102,基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景。
为了提升用户的体验度,在此步骤中为了保证虚拟场景中的时间与真实世界同步,基于场景请求消息中的当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景。在目标虚拟场景下会让用户有更好的身临其境的感觉,提升用户的体验度。例如,以海边场景为例,虚拟场景具备与全世界各个时区同步的时钟。如在北京时间的早晨7点,海边虚拟场景是日出。但在美国中部时间,海边虚拟场景是日落。通过本地GPS定位当地坐标,再通过网络时间服务器判断该地区的时间,从而在虚拟场景中加载不同时间段的场景特效。本申请中的场景特效是根据不同虚拟场景的主题、时间段(例如早上、中午、傍晚等)提前预设的一组效果,并保存于服务器中。场景特效的更新与读取方法可以如下,场景特效按一定的ID号存放于服务器端。每个场景可以有多个场景特效。如下表1所示:
表1
场景ID | 场景特效ID | 启动时间 | 特效地址 |
ScenesID001 | effectsID001 | 07:10:00 | Animation-Sunrise |
ScenesID001 | effectsID002 | 12:00:00 | Animation-Waves |
ScenesID001 | effectsID003 | 19:15:00 | Animation-Sunset |
步骤S103,获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型。
本申请中提及的用户的信息可以为用户在电子终端的社交软件上注册时采集到的用户的信息,例如,采集到用户的信息如下:性别:女,年龄23,体重55Kg,身高167cm,喜好颜色:紫色;喜好发型:短发;喜好穿着:连衣裙等等。基于以上信息创建用户对应的虚拟人物模型。
步骤S104,将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交。
在上述步骤生成的目标虚拟场景中添加目标虚拟人物模型,目标虚拟人物模型在目标虚拟场景下与目标虚拟场景中的其它虚拟人物模型进行社交。从而实现多个虚拟人物模型在多个虚拟场景下相互社交。
步骤S101至步骤S104通过场景请求消息中携带的当前时间信息对待进入的虚拟场景进行渲染,得到目标虚拟场景,然后以用户的信息创建的虚拟人物模型在目标虚拟场景下进行社交,进而达到了提升用户的体验度的效果。
可选地,为了保证虚拟人物模型在目标虚拟场景中的社交活动体验,在本申请实施例提供的基于虚拟现实的社交方法中,在将目标虚拟人物模型添加至目标虚拟场景之前,该方法还包括:统计目标虚拟场景中虚拟人物模型的数量;判断目标虚拟场景中虚拟人物模型的数量是否超过预设数量;若目标虚拟场景中虚拟人物模型的数量超过预设数量,创建目标虚拟场景对应的副本场景;将目标虚拟人物模型添加至目标虚拟场景包括:将目标虚拟人物模型添加至目标虚拟场景对应的副本场景,其中,虚拟人物模型用于目标虚拟场景对应的副本场景下进行社交。
由于在3D世界中需实时渲染对GPU功耗较高,VR应用的功耗是普通3D游戏渲染功耗的2倍,所以一个虚拟场景不能加载太多用户。进一步地,由于群体社交需要建立比较好的沟通性,因此不适合加载太多用户。为了保证虚拟人物模型在目标虚拟场景中的社交活动体验,例如,在本申请实施例提供的基于虚拟现实的社交方法中,一个虚拟场景最多加载7个用户(对应上述的预设数量)。通过对虚拟场景中人数的限制,基于同一虚拟场景创建对应的多个副本场景(一模一样的场景)。例如,海边虚拟场景A中的虚拟人物模型的数量超过预设数量,若仍有用户想进入海边虚拟场景A。则创建一个海边虚拟场景的副本场景01,以此类推。需要说明的是,副本场景的产生会消化服务器的内存、GPU、CPU等资源。需要独立程序对其进行管理,并以网络服务器集群的形式,在不同的服务器(或VPS虚拟服务器)间派生。副本场景派生后,通知管理程序其状态(存活、人数爆满、无人、内存消耗、CPU消耗、GPU消耗等信息)。并存储副本场景ID表,如下表2所示:
表2
可选地,在将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:根据目标虚拟场景与目标虚拟场景中的虚拟人物模型,建立关系表,其中,关系表中包括:目标虚拟场景、目标虚拟场景中的虚拟人物模型,以及目标虚拟场景与每个虚拟人物模型的映射关系。
对进入虚拟场景的虚拟人物模型和虚拟场景建立一个临时的关系表,通过关系表中的虚拟场景ID,在同一虚拟场景中的用户可同时看相同的场景特效。例如,临时的关系表如下表3所示:
表3
场景ID | 用户ID |
ScenesID001 | User0948424 |
ScenesID001 | User1338421 |
ScenesID001 | User0856743 |
为了在虚拟场景中增强虚拟人物社交的真实感,在本申请实施例提供的基于虚拟现实的社交方法中,在将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:采集用户的语音信号,其中,语音信号用于控制目标虚拟场景中目标虚拟人物模型的表情;识别语音信号对应的文本信息;基于文本信息分析用户的表情信息;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情。
上述方案通过用户发出的语音信号,调整目标虚拟场景中目标虚拟人物模型的表情。从而增强虚拟场景中虚拟人物社交的真实感。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,基于文本信息分析用户的表情信息包括:将文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
例如,本申请实施例中关键词与表情信息的映射关系表,如下表4所示:
表4
表情 | 心情 | 关键词 |
微笑 | 愉快 | 好开心、呵呵、美极啦 |
微笑 | 认同、同意 | 嗯、是啊、同意、赞成 |
皱眉 | 焦虑 | 烦、讨厌、不痛快、想不出、愁 |
需要说明的是,在本申请实施例中的虚拟人物模型采用3D真实模型,在各个模型内添加骨骼。上述的骨骼是对于五官的控制点,如:面部肌肉的骨骼。将骨骼总用在面部区域,并切分为颧骨、下颚、嘴角、眼角四个控制点。每个控制点都有一定幅度的偏移。当一个微笑表情出现时,面部的嘴角、眼角上的肌肉和皮肤随之联动。例如,控制虚拟人物面部表情的活动点及个数等如下表5所示:
表5
活动点 | 个数 | 活动点 | 活动范围(毫米) |
额头 | 2 | 额头皮肤 | 5mm |
眉毛 | 2 | 眉梢周围 | 2mm |
眼脚 | 6 | 眼睛、上下眼皮、眼窝周围 | 3mm |
鼻子 | 1 | 鼻头下方 | 2mm |
颧骨 | 1 | 颧骨周围 | 5mm |
下颚 | 3 | 下巴左下方、右下方、正下方 | 4mm |
嘴 | 6 | 上下嘴唇,左右嘴角,牙齿、人中 | 7mm |
通过获取与文本信息匹配成功的关键词对应的表情信息,基于表情信息对应的骨骼系数表中的目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。本申请中活动部位的系数用于表示活动点位移的毫米数,如下表6所示:
表6
由于不同的音量大小反映了用户说话的语气,为了更加准确的分析用户的表情信息,可选地,在本申请实施例提供的基于虚拟现实的社交方法中,基于文本信息分析用户的表情信息包括:获取语音信号中携带的音量数据;基于语音信号对应的文本信息和音量数据分析用户的表情信息。
上述技术方案,通过根据获取语音信号中携带的音量数据和语音信号对应的文本信息分析用户的表情信息,从而提升分析用户的表情信息的准确性。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,基于语音信号对应的文本信息和音量数据分析用户的表情信息包括:判断音量数据是否超过预设音量值;若音量数据超过预设音量值,将语音信号对应的文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;调整目标骨骼系数表中活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与调整后的活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
通过上述方案,语音引擎及时捕捉用户说话的音量的大小、突高或突低这种明显的、差异较大的动态变化,及时调整虚拟人物模型的面部表情。例如,在一段语音信号中,音量差突然大于50%时(对应上述的超过预设音量值),可能暗示该用户生气了。捕捉音量数据的同时,通过匹配分词引擎匹配是否有关键字。如果有关键字匹配上,对应到相应的表情。并把活动部位的系数提高1.4倍(对应上述的调整目标骨骼系数表中活动部位的系数),使得虚拟人物模型的面部表情更加夸大,增强虚拟人物社交的真实感。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:获取目标虚拟场景中每个虚拟人物模型的位置坐标;基于每个虚拟人物模型的位置坐标调整虚拟人物模型之间相互交流的音量大小。
在虚拟场景中,每个虚拟人物模型都有一个坐标,这个坐标信息是在地图上的绝对位置。这是通过3D场景中X、Y轴的位置得到的。例如,如图2所示,这是一个15x15的方阵,虚拟人物A处于(9,4)位置,虚拟人物B处于(9,6)位置。虚拟人物F处于(12,12)位置。在3D模型中,可以按照米、厘米、毫米等不同的度量单位建立模型的大小,并调整其精度。在虚拟场景中,一般都是以米作为度量单位。也就是说,虚拟空间和现实空间可产生一一对应的映射关系。从而实现了虚拟空间的位置模拟和距离的测量。图2中15x15的方阵是以米为单位的虚拟空间。通过判断两虚拟人物坐标的距离,若在2米以内,他们之间的交流彼此是可以听到的。如:虚拟人物A(9,4),虚拟人物B(9,6),他们的X、Y距离都在2米内。故此两虚拟人物间时的语音交流是可以清晰听到的。若他们距离超过5米,彼此说话就听不到了。如:虚拟人物A(9,4),虚拟人物F(12,12),这两个虚拟人物的距离过远,他们就听不到彼此的对话。若两人正在聊天,其中一个虚拟人物一边说,一边渐渐远走。语音引擎实时跟踪两虚拟人物的位置,并计算当前距离差值是否大于5米,且小于2米。如果小于2米,则双方音量以100%传递给对方。如果大于5米则双方听不到对方声音。如果大于2米且小于5米,声音以90%、80%、60%、40%、20%在2.5米、3米、3.5米、4米、4.5米距离处逐渐衰减。那么另一个虚拟人物听到的声音逐渐减弱,直到超过5米,双方就听不到对方的声音了。上述技术方案符合现实生活中虚拟人物与虚拟人物的空间位置和实际交流的体验,从而在虚拟场景中得到还原和模拟。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:在目标虚拟场景中加载直播视频,其中,直播视频用于目标虚拟场景中的虚拟人物模型观看。
在虚拟场景中,可以任意定义银幕大小,可以是16:9或是4:3的任意比例和尺寸的银幕贴图。把视频流控件设置在银幕贴图上。视频流控件从服务器端实时读取直播视频的数据信息,目标虚拟场景中的虚拟人物模型可以观看到直播视频。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中的交互键是否已开启;若检测到目标虚拟场景中的交互键已开启,采集目标虚拟场景中目标虚拟人物模型的发言信息;将目标虚拟人物模型的发言信息传输至直播视频的应用程序。
上述的交互键可以设置在虚拟场景中银幕前方,通过虚拟场景中的交互键,可以开启虚拟空间中的用户与在现实世界中的播主和演员进行交流的通道,也即,虚拟空间中的用户可以在银幕前方触发交互键与在现实世界中的播主和演员进行交流。比如:进行语音通话,或者相互发送发表情符号等等。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中是否接收到交流指令,其中,交流指令为直播视频中的人物触发请求与目标虚拟场景中虚拟人物模型的进行交流的指令;若目标虚拟场景中接收到交流指令,通过直播视频的应用程序与目标虚拟场景中虚拟人物模型的进行交流。
当现实世界中的播主和演员通过直播端软件,选择与虚拟人物进行语音交流时,目标虚拟场景中会接收到交流指令,从而现实世界中的播主和演员通过直播端软件(应用程序)与虚拟空间中的用户(虚拟人物模型)进行交流。
可选地,在本申请实施例提供的基于虚拟现实的社交方法中,在目标虚拟场景中加载直播视频之后,该方法还包括:采集目标虚拟场景中虚拟人物模型的信息;将目标虚拟场景中虚拟人物模型的信息反馈至直播视频的应用程序。
在虚拟场景中的银幕上方设置虚拟摄像机,用于实时捕捉虚拟空间中的虚拟人物位置、表情,并反馈至直播视频的应用程序,在个人直播的电子设备的屏幕上,或者演唱会台下的显示屏上需安装一个连接器软件。播主和台上的演员就可以实时看到虚拟世界中的人物形态。如图3所示,“连接器”软件可以一方面接收虚拟空间中场景摄像机传输的场景视频,还可以另一方面管理虚拟空间正在收看直播的虚拟用户列表(例如:屏蔽发言,踢出直播等等),并把它映射给直播软件。
综上,本申请实施例提供的基于虚拟现实的社交方法,通过接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交,解决了相关技术中的社交方式用户体验度较低的问题。通过场景请求消息中携带的当前时间信息对待进入的虚拟场景进行渲染,得到目标虚拟场景,然后以用户的信息创建的虚拟人物模型在目标虚拟场景下进行社交,进而达到了提升用户的体验度的效果。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例还提供了一种基于虚拟现实的社交装置,需要说明的是,本申请实施例的基于虚拟现实的社交装置可以用于执行本申请实施例所提供的用于基于虚拟现实的社交方法。以下对本申请实施例提供的基于虚拟现实的社交装置进行介绍。
图4是根据本申请实施例的基于虚拟现实的社交装置的示意图。如图4所示,该装置包括:接收单元10、生成单元20、获取单元30和添加单元40。
具体地,接收单元10,用于接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景。
生成单元20,用于基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景。
获取单元30,用于获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型。
添加单元40,用于将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交。
本申请实施例提供的基于虚拟现实的社交装置,通过接收单元10接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;生成单元20基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取单元30获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;添加单元40将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交,解决了相关技术中的社交方式用户体验度较低的问题,通过场景请求消息中携带的当前时间信息对待进入的虚拟场景进行渲染,得到目标虚拟场景,然后以用户的信息创建的虚拟人物模型在目标虚拟场景下进行社交,进而达到了提升用户的体验度的效果。
可选地,在本申请实施例提供的基于虚拟现实的社交装置中,该装置还包括:统计单元,用于在将目标虚拟人物模型添加至目标虚拟场景之前,统计目标虚拟场景中虚拟人物模型的数量;判断单元,用于判断目标虚拟场景中虚拟人物模型的数量是否超过预设数量;创建单元,用于若目标虚拟场景中虚拟人物模型的数量超过预设数量,创建目标虚拟场景对应的副本场景;添加单元还用于将目标虚拟人物模型添加至目标虚拟场景对应的副本场景,其中,虚拟人物模型用于目标虚拟场景对应的副本场景下进行社交。
可选地,在本申请实施例提供的基于虚拟现实的社交装置中,该装置还包括:采集单元,用于在将目标虚拟人物模型添加至目标虚拟场景之后,采集用户的语音信号,其中,语音信号用于控制目标虚拟场景中目标虚拟人物模型的表情;识别单元,用于识别语音信号对应的文本信息;分析单元,用于基于文本信息分析用户的表情信息;调整单元,用于基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情。
可选地,在本申请实施例提供的基于虚拟现实的社交装置中,该分析单元包括:匹配模块,用于将文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;第一获取模块,用于若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;第二获取模块,用于获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;调整单元还用于基于目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
可选地,在本申请实施例提供的基于虚拟现实的社交装置中,该分析单元包括:第三获取模块,用于获取语音信号中携带的音量数据;分析模块,用于基于语音信号对应的文本信息和音量数据分析用户的表情信息。
所述基于虚拟现实的社交装置包括处理器和存储器,上述接收单元10、生成单元20、获取单元30和添加单元40等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来基于虚拟现实进行社交。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述基于虚拟现实的社交方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述基于虚拟现实的社交方法。
本发明实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交。
在将目标虚拟人物模型添加至目标虚拟场景之前,该方法还包括:统计目标虚拟场景中虚拟人物模型的数量;判断目标虚拟场景中虚拟人物模型的数量是否超过预设数量;若目标虚拟场景中虚拟人物模型的数量超过预设数量,创建目标虚拟场景对应的副本场景;将目标虚拟人物模型添加至目标虚拟场景包括:将目标虚拟人物模型添加至目标虚拟场景对应的副本场景,其中,虚拟人物模型用于目标虚拟场景对应的副本场景下进行社交。
在将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:采集用户的语音信号,其中,语音信号用于控制目标虚拟场景中目标虚拟人物模型的表情;识别语音信号对应的文本信息;基于文本信息分析用户的表情信息;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情。
基于文本信息分析用户的表情信息包括:将文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
基于文本信息分析用户的表情信息包括:获取语音信号中携带的音量数据;基于语音信号对应的文本信息和音量数据分析用户的表情信息。
基于语音信号对应的文本信息和音量数据分析用户的表情信息包括:判断音量数据是否超过预设音量值;若音量数据超过预设音量值,将语音信号对应的文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;调整目标骨骼系数表中活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与调整后的活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:获取目标虚拟场景中每个虚拟人物模型的位置坐标;基于每个虚拟人物模型的位置坐标调整虚拟人物模型之间相互交流的音量大小。
将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:在目标虚拟场景中加载直播视频,其中,直播视频用于目标虚拟场景中的虚拟人物模型观看。
在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中的交互键是否已开启;若检测到目标虚拟场景中的交互键已开启,采集目标虚拟场景中目标虚拟人物模型的发言信息;将目标虚拟人物模型的发言信息传输至直播视频的应用程序。
在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中是否接收到交流指令,其中,交流指令为直播视频中的人物触发请求与目标虚拟场景中虚拟人物模型的进行交流的指令;若目标虚拟场景中接收到交流指令,通过直播视频的应用程序与目标虚拟场景中虚拟人物模型的进行交流。
在目标虚拟场景中加载直播视频之后,该方法还包括:采集目标虚拟场景中虚拟人物模型的信息;将目标虚拟场景中虚拟人物模型的信息反馈至直播视频的应用程序。本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:接收场景请求消息,其中,场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;基于当前时间信息对待进入的虚拟场景进行渲染,生成目标虚拟场景;获取目标虚拟人物模型,其中,目标虚拟人物模型是预先基于用户的信息创建的虚拟人物模型;将目标虚拟人物模型添加至目标虚拟场景,其中,虚拟人物模型用于在目标虚拟场景下进行社交。
在将目标虚拟人物模型添加至目标虚拟场景之前,该方法还包括:统计目标虚拟场景中虚拟人物模型的数量;判断目标虚拟场景中虚拟人物模型的数量是否超过预设数量;若目标虚拟场景中虚拟人物模型的数量超过预设数量,创建目标虚拟场景对应的副本场景;将目标虚拟人物模型添加至目标虚拟场景包括:将目标虚拟人物模型添加至目标虚拟场景对应的副本场景,其中,虚拟人物模型用于目标虚拟场景对应的副本场景下进行社交。
在将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:采集用户的语音信号,其中,语音信号用于控制目标虚拟场景中目标虚拟人物模型的表情;识别语音信号对应的文本信息;基于文本信息分析用户的表情信息;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情。
基于文本信息分析用户的表情信息包括:将文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
基于文本信息分析用户的表情信息包括:获取语音信号中携带的音量数据;基于语音信号对应的文本信息和音量数据分析用户的表情信息。
基于语音信号对应的文本信息和音量数据分析用户的表情信息包括:判断音量数据是否超过预设音量值;若音量数据超过预设音量值,将语音信号对应的文本信息与第一数据表中的关键词进行匹配,其中,第一数据表中存储有多个关键词;若匹配成功,获取与文本信息匹配成功的关键词对应的表情信息;获取目标骨骼系数表,其中,目标骨骼系数表为表情信息对应的骨骼系数表,目标骨骼系数表中包括调整目标虚拟人物模型的面部表情的活动部位与活动部位的系数;调整目标骨骼系数表中活动部位的系数;基于用户的表情信息调整目标虚拟场景中目标虚拟人物模型的表情包括:基于目标虚拟人物模型的面部表情的活动部位与调整后的活动部位的系数调整目标虚拟场景中目标虚拟人物模型的面部表情。
将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:获取目标虚拟场景中每个虚拟人物模型的位置坐标;基于每个虚拟人物模型的位置坐标调整虚拟人物模型之间相互交流的音量大小。
将目标虚拟人物模型添加至目标虚拟场景之后,该方法还包括:在目标虚拟场景中加载直播视频,其中,直播视频用于目标虚拟场景中的虚拟人物模型观看。
在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中的交互键是否已开启;若检测到目标虚拟场景中的交互键已开启,采集目标虚拟场景中目标虚拟人物模型的发言信息;将目标虚拟人物模型的发言信息传输至直播视频的应用程序。
在目标虚拟场景中加载直播视频之后,该方法还包括:检测目标虚拟场景中是否接收到交流指令,其中,交流指令为直播视频中的人物触发请求与目标虚拟场景中虚拟人物模型的进行交流的指令;若目标虚拟场景中接收到交流指令,通过直播视频的应用程序与目标虚拟场景中虚拟人物模型的进行交流。
在目标虚拟场景中加载直播视频之后,该方法还包括:采集目标虚拟场景中虚拟人物模型的信息;将目标虚拟场景中虚拟人物模型的信息反馈至直播视频的应用程序。本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种基于虚拟现实的社交方法,其特征在于,包括:
接收场景请求消息,其中,所述场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,所述场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;
基于所述当前时间信息对所述待进入的虚拟场景进行渲染,生成目标虚拟场景;
获取目标虚拟人物模型,其中,所述目标虚拟人物模型是预先基于所述用户的信息创建的虚拟人物模型;
将所述目标虚拟人物模型添加至所述目标虚拟场景,其中,所述虚拟人物模型用于在所述目标虚拟场景下进行社交。
2.根据权利要求1所述的方法,其特征在于,在将所述目标虚拟人物模型添加至所述目标虚拟场景之前,所述方法还包括:
统计所述目标虚拟场景中虚拟人物模型的数量;
判断所述目标虚拟场景中虚拟人物模型的数量是否超过预设数量;
若所述目标虚拟场景中虚拟人物模型的数量超过所述预设数量,创建所述目标虚拟场景对应的副本场景;
将所述目标虚拟人物模型添加至所述目标虚拟场景包括:将所述目标虚拟人物模型添加至所述目标虚拟场景对应的副本场景,其中,所述虚拟人物模型用于所述目标虚拟场景对应的副本场景下进行社交。
3.根据权利要求1所述的方法,其特征在于,在将所述目标虚拟人物模型添加至所述目标虚拟场景之后,所述方法还包括:
采集所述用户的语音信号,其中,所述语音信号用于控制所述目标虚拟场景中目标虚拟人物模型的表情;
识别所述语音信号对应的文本信息;
基于所述文本信息分析所述用户的表情信息;
基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情。
4.根据权利要求3所述的方法,其特征在于,基于所述文本信息分析所述用户的表情信息包括:
将所述文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;
若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;
获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数;
基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情包括:基于所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
5.根据权利要求3所述的方法,其特征在于,基于所述文本信息分析所述用户的表情信息包括:
获取所述语音信号中携带的音量数据;
基于所述语音信号对应的文本信息和所述音量数据分析所述用户的表情信息。
6.根据权利要求5所述的方法,其特征在于,基于所述语音信号对应的文本信息和所述音量数据分析所述用户的表情信息包括:
判断所述音量数据是否超过预设音量值;
若所述音量数据超过预设音量值,将所述语音信号对应的文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;
若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;
获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与所述活动部位的系数;
调整所述目标骨骼系数表中活动部位的系数;
基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情包括:基于所述目标虚拟人物模型的面部表情的活动部位与调整后的活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
7.根据权利要求1所述的方法,其特征在于,将所述目标虚拟人物模型添加至所述目标虚拟场景之后,所述方法还包括:
在所述目标虚拟场景中加载直播视频,其中,所述直播视频用于所述目标虚拟场景中的虚拟人物模型观看。
8.根据权利要求1所述的方法,其特征在于,在所述目标虚拟场景中加载直播视频之后,所述方法还包括:
采集所述目标虚拟场景中虚拟人物模型的信息;
将所述目标虚拟场景中虚拟人物模型的信息反馈至所述直播视频的应用程序,以便所述直播视频中的人物与所述目标虚拟场景中虚拟人物模型进行交流。
9.一种基于虚拟现实的社交装置,其特征在于,包括:
接收单元,用于接收场景请求消息,其中,所述场景请求消息为用户请求进入电子设备提供虚拟场景而产生的消息,所述场景请求消息中至少携带以下信息:当前时间信息和待进入的虚拟场景;
生成单元,用于基于所述当前时间信息对所述待进入的虚拟场景进行渲染,生成目标虚拟场景;
获取单元,用于获取目标虚拟人物模型,其中,所述目标虚拟人物模型是预先基于所述用户的信息创建的虚拟人物模型;
添加单元,用于将所述目标虚拟人物模型添加至所述目标虚拟场景,其中,所述虚拟人物模型用于在所述目标虚拟场景下进行社交。
10.根据权利要求9所述的装置,其特征在于,所述装置还包括:
统计单元,用于在将所述目标虚拟人物模型添加至所述目标虚拟场景之前,统计所述目标虚拟场景中虚拟人物模型的数量;
判断单元,用于判断所述目标虚拟场景中虚拟人物模型的数量是否超过预设数量;
创建单元,用于若所述目标虚拟场景中虚拟人物模型的数量超过所述预设数量,创建所述目标虚拟场景对应的副本场景;
所述添加单元还用于将所述目标虚拟人物模型添加至所述目标虚拟场景对应的副本场景,其中,所述虚拟人物模型用于所述目标虚拟场景对应的副本场景下进行社交。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
采集单元,用于在将所述目标虚拟人物模型添加至所述目标虚拟场景之后,采集所述用户的语音信号,其中,所述语音信号用于控制所述目标虚拟场景中目标虚拟人物模型的表情;
识别单元,用于识别所述语音信号对应的文本信息;
分析单元,用于基于所述文本信息分析所述用户的表情信息;
调整单元,用于基于所述用户的表情信息调整所述目标虚拟场景中目标虚拟人物模型的表情。
12.根据权利要求14所述的装置,其特征在于,所述分析单元包括:
匹配模块,用于将所述文本信息与第一数据表中的关键词进行匹配,其中,所述第一数据表中存储有多个关键词;
第一获取模块,用于若匹配成功,获取与所述文本信息匹配成功的关键词对应的表情信息;
第二获取模块,用于获取目标骨骼系数表,其中,所述目标骨骼系数表为所述表情信息对应的骨骼系数表,所述目标骨骼系数表中包括调整所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数;
所述调整单元还用于基于所述目标虚拟人物模型的面部表情的活动部位与活动部位的系数调整所述目标虚拟场景中目标虚拟人物模型的面部表情。
13.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序执行权利要求1至8中任意一项所述的基于虚拟现实的社交方法。
14.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至8中任意一项所述的基于虚拟现实的社交方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710545583.XA CN107392783B (zh) | 2017-07-05 | 2017-07-05 | 基于虚拟现实的社交方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710545583.XA CN107392783B (zh) | 2017-07-05 | 2017-07-05 | 基于虚拟现实的社交方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107392783A true CN107392783A (zh) | 2017-11-24 |
CN107392783B CN107392783B (zh) | 2020-07-07 |
Family
ID=60335572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710545583.XA Expired - Fee Related CN107392783B (zh) | 2017-07-05 | 2017-07-05 | 基于虚拟现实的社交方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392783B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256972A (zh) * | 2018-01-16 | 2018-07-06 | 上海裕铃信息科技有限公司 | 一种沉浸式社交的商业模式 |
CN108257037A (zh) * | 2018-01-18 | 2018-07-06 | 封玉涛 | 一种以社交场景化为切入点的多应用融合方法及装置 |
CN108961396A (zh) * | 2018-07-03 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 三维场景的生成方法、装置及终端设备 |
CN109448737A (zh) * | 2018-08-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 虚拟形象的创建方法、装置、电子设备与存储介质 |
CN110472099A (zh) * | 2018-05-10 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 互动视频生成方法及装置、存储介质 |
CN111091810A (zh) * | 2019-12-19 | 2020-05-01 | 佛山科学技术学院 | 基于语音信息的vr游戏人物表情控制方法及存储介质 |
CN111277890A (zh) * | 2020-02-25 | 2020-06-12 | 广州华多网络科技有限公司 | 虚拟礼物的获取方法和三维全景直播间的生成方法 |
CN111292856A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN111314730A (zh) * | 2020-02-25 | 2020-06-19 | 广州华多网络科技有限公司 | 视频直播的虚拟资源寻找方法、装置、设备及存储介质 |
CN112379769A (zh) * | 2020-04-10 | 2021-02-19 | 上海湃睿信息科技有限公司 | 虚拟场景业务信息的处理方法、系统以及云管理平台 |
CN112529992A (zh) * | 2019-08-30 | 2021-03-19 | 阿里巴巴集团控股有限公司 | 虚拟形象的对话处理方法、装置、设备及存储介质 |
WO2021093478A1 (zh) * | 2019-11-12 | 2021-05-20 | 苏州心吧人工智能技术研发有限公司 | 一种沉浸式虚拟现实人际关系雕塑心理咨询辅助系统 |
CN113807867A (zh) * | 2021-09-10 | 2021-12-17 | 支付宝(杭州)信息技术有限公司 | 测试处理方法、装置、设备及系统 |
CN114237396A (zh) * | 2021-12-15 | 2022-03-25 | 北京字跳网络技术有限公司 | 动作调整方法、装置、电子设备及可读存储介质 |
CN115396831A (zh) * | 2021-05-08 | 2022-11-25 | 中国移动通信集团浙江有限公司 | 交互模型生成方法、装置、设备及存储介质 |
CN115857704A (zh) * | 2023-03-03 | 2023-03-28 | 北京黑油数字展览股份有限公司 | 一种基于元宇宙的展览系统、交互方法以及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030052965A1 (en) * | 2001-09-18 | 2003-03-20 | Stephen Junkins | Portable virtual reality |
CN103533089A (zh) * | 2013-11-04 | 2014-01-22 | 北京视像元素技术有限公司 | 基于时空标签的信息发现、分享方法和系统 |
US20140280644A1 (en) * | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
CN104793740A (zh) * | 2015-04-02 | 2015-07-22 | 福建省纳金网信息技术有限公司 | 一种基于虚拟旅游实现运动锻炼的方法 |
CN105844714A (zh) * | 2016-04-12 | 2016-08-10 | 广州凡拓数字创意科技股份有限公司 | 基于增强现实的场景显示方法及系统 |
CN106355631A (zh) * | 2016-08-30 | 2017-01-25 | 北京像素软件科技股份有限公司 | 虚拟现实中实时阴影的显示方法 |
CN106504103A (zh) * | 2016-10-31 | 2017-03-15 | 北京小米移动软件有限公司 | 建立好友关系的方法及装置 |
CN106575354A (zh) * | 2014-05-21 | 2017-04-19 | 汤杰宝游戏公司 | 有形界面对象的虚拟化 |
CN106648071A (zh) * | 2016-11-21 | 2017-05-10 | 捷开通讯科技(上海)有限公司 | 虚拟现实社交实现系统 |
CN106774852A (zh) * | 2016-11-25 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于虚拟现实的消息处理方法及装置 |
-
2017
- 2017-07-05 CN CN201710545583.XA patent/CN107392783B/zh not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030052965A1 (en) * | 2001-09-18 | 2003-03-20 | Stephen Junkins | Portable virtual reality |
US20140280644A1 (en) * | 2013-03-15 | 2014-09-18 | John Cronin | Real time unified communications interaction of a predefined location in a virtual reality location |
CN103533089A (zh) * | 2013-11-04 | 2014-01-22 | 北京视像元素技术有限公司 | 基于时空标签的信息发现、分享方法和系统 |
CN106575354A (zh) * | 2014-05-21 | 2017-04-19 | 汤杰宝游戏公司 | 有形界面对象的虚拟化 |
CN104793740A (zh) * | 2015-04-02 | 2015-07-22 | 福建省纳金网信息技术有限公司 | 一种基于虚拟旅游实现运动锻炼的方法 |
CN105844714A (zh) * | 2016-04-12 | 2016-08-10 | 广州凡拓数字创意科技股份有限公司 | 基于增强现实的场景显示方法及系统 |
CN106355631A (zh) * | 2016-08-30 | 2017-01-25 | 北京像素软件科技股份有限公司 | 虚拟现实中实时阴影的显示方法 |
CN106504103A (zh) * | 2016-10-31 | 2017-03-15 | 北京小米移动软件有限公司 | 建立好友关系的方法及装置 |
CN106648071A (zh) * | 2016-11-21 | 2017-05-10 | 捷开通讯科技(上海)有限公司 | 虚拟现实社交实现系统 |
CN106774852A (zh) * | 2016-11-25 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于虚拟现实的消息处理方法及装置 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256972A (zh) * | 2018-01-16 | 2018-07-06 | 上海裕铃信息科技有限公司 | 一种沉浸式社交的商业模式 |
CN108257037A (zh) * | 2018-01-18 | 2018-07-06 | 封玉涛 | 一种以社交场景化为切入点的多应用融合方法及装置 |
CN110472099A (zh) * | 2018-05-10 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 互动视频生成方法及装置、存储介质 |
CN110472099B (zh) * | 2018-05-10 | 2023-07-14 | 腾讯科技(深圳)有限公司 | 互动视频生成方法及装置、存储介质 |
CN108961396A (zh) * | 2018-07-03 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 三维场景的生成方法、装置及终端设备 |
CN109448737B (zh) * | 2018-08-30 | 2020-09-01 | 百度在线网络技术(北京)有限公司 | 虚拟形象的创建方法、装置、电子设备与存储介质 |
CN109448737A (zh) * | 2018-08-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 虚拟形象的创建方法、装置、电子设备与存储介质 |
CN111292856A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 交互方法、装置及计算机设备 |
CN112529992A (zh) * | 2019-08-30 | 2021-03-19 | 阿里巴巴集团控股有限公司 | 虚拟形象的对话处理方法、装置、设备及存储介质 |
WO2021093478A1 (zh) * | 2019-11-12 | 2021-05-20 | 苏州心吧人工智能技术研发有限公司 | 一种沉浸式虚拟现实人际关系雕塑心理咨询辅助系统 |
CN112863643A (zh) * | 2019-11-12 | 2021-05-28 | 苏州心吧人工智能技术研发有限公司 | 一种沉浸式虚拟现实人际关系雕塑心理咨询辅助系统 |
CN112863643B (zh) * | 2019-11-12 | 2024-04-30 | 苏州心吧人工智能技术研发有限公司 | 一种沉浸式虚拟现实人际关系雕塑心理咨询辅助系统 |
GB2604836A (en) * | 2019-11-12 | 2022-09-14 | Suzhou Hb Ai Tech Research&Development Co Ltd | Psychological counseling assistive system employing immersive virtual reality and interpersonal relationship sculpture |
CN111091810A (zh) * | 2019-12-19 | 2020-05-01 | 佛山科学技术学院 | 基于语音信息的vr游戏人物表情控制方法及存储介质 |
CN111314730A (zh) * | 2020-02-25 | 2020-06-19 | 广州华多网络科技有限公司 | 视频直播的虚拟资源寻找方法、装置、设备及存储介质 |
CN111277890A (zh) * | 2020-02-25 | 2020-06-12 | 广州华多网络科技有限公司 | 虚拟礼物的获取方法和三维全景直播间的生成方法 |
CN111277890B (zh) * | 2020-02-25 | 2023-08-29 | 广州方硅信息技术有限公司 | 虚拟礼物的获取方法和三维全景直播间的生成方法 |
CN112379769A (zh) * | 2020-04-10 | 2021-02-19 | 上海湃睿信息科技有限公司 | 虚拟场景业务信息的处理方法、系统以及云管理平台 |
CN115396831A (zh) * | 2021-05-08 | 2022-11-25 | 中国移动通信集团浙江有限公司 | 交互模型生成方法、装置、设备及存储介质 |
CN113807867A (zh) * | 2021-09-10 | 2021-12-17 | 支付宝(杭州)信息技术有限公司 | 测试处理方法、装置、设备及系统 |
CN114237396B (zh) * | 2021-12-15 | 2023-08-15 | 北京字跳网络技术有限公司 | 动作调整方法、装置、电子设备及可读存储介质 |
CN114237396A (zh) * | 2021-12-15 | 2022-03-25 | 北京字跳网络技术有限公司 | 动作调整方法、装置、电子设备及可读存储介质 |
CN115857704A (zh) * | 2023-03-03 | 2023-03-28 | 北京黑油数字展览股份有限公司 | 一种基于元宇宙的展览系统、交互方法以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107392783B (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392783A (zh) | 基于虚拟现实的社交方法及装置 | |
Egliston et al. | Critical questions for Facebook’s virtual reality: data, power and the metaverse | |
Dwyer et al. | Immersive analytics: An introduction | |
KR20170085422A (ko) | 가상 에이전트 동작 방법 및 장치 | |
CN109887095A (zh) | 一种情绪刺激虚拟现实场景自动生成系统及方法 | |
CN107343225B (zh) | 在视频图像中展示业务对象的方法、装置和终端设备 | |
CN106663219A (zh) | 处理与机器人的对话的方法和系统 | |
CN109176535A (zh) | 基于智能机器人的交互方法及系统 | |
CN106648069A (zh) | 一种基于虚拟现实技术的数字化图书馆系统 | |
CN109871450A (zh) | 基于绘本阅读的多模态交互方法及系统 | |
CN108537017A (zh) | 一种用于管理游戏用户的方法与设备 | |
KR102510023B1 (ko) | 사용자의 행동 데이터 또는 입력 데이터를 이용하여 사용자의 심리 상태를 판별하는 방법 및 컴퓨터 프로그램 | |
CN109242043A (zh) | 用于生成信息预测模型的方法和装置 | |
CN106844378A (zh) | 一种应答方式确定方法和装置 | |
Piskioulis et al. | Emotion detection through smartphone's accelerometer and gyroscope sensors | |
CN108549654A (zh) | 一种基于图像处理的大数据分析方法 | |
CN108509041A (zh) | 用于执行操作的方法和装置 | |
CN117271749A (zh) | 一种元宇宙场景非玩家角色的创建方法及计算机 | |
CN107180101A (zh) | 动态信息展示的方法、装置和计算机设备 | |
JP7113570B1 (ja) | 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム | |
Gilroy et al. | An affective model of user experience for interactive art | |
CN110287912A (zh) | 基于深度学习的目标对象情感状态确定方法、装置及介质 | |
CN108932704A (zh) | 图片处理方法、图片处理装置及终端设备 | |
Vinciarelli et al. | Mobile Social Signal Processing: vision and research issues | |
Zheleva et al. | An Extensive Integrative Literature Review of Quality of Experience in Virtual Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200707 Termination date: 20210705 |
|
CF01 | Termination of patent right due to non-payment of annual fee |