CN113946211A - 基于元宇宙的多个对象的交互方法及相关设备 - Google Patents
基于元宇宙的多个对象的交互方法及相关设备 Download PDFInfo
- Publication number
- CN113946211A CN113946211A CN202111199986.6A CN202111199986A CN113946211A CN 113946211 A CN113946211 A CN 113946211A CN 202111199986 A CN202111199986 A CN 202111199986A CN 113946211 A CN113946211 A CN 113946211A
- Authority
- CN
- China
- Prior art keywords
- virtual
- data
- real
- information
- time interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000003993 interaction Effects 0.000 claims abstract description 134
- 230000033001 locomotion Effects 0.000 claims description 98
- 230000009471 action Effects 0.000 claims description 95
- 238000003860 storage Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 14
- 238000003825 pressing Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 238000007654 immersion Methods 0.000 description 5
- 210000003423 ankle Anatomy 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供一种基于元宇宙的多个对象的交互方法及相关设备。该方法包括:获取现实世界中第一对象的第一实时交互信息;基于第一实时交互信息生成在所述虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;向现实世界中的第二对象输出所述第一虚拟数据;获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种基于元宇宙的多个对象的交互方法及相关设备。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
在目前的教育领域中,线上教育一般通过网络传递老师和学生之间图像数据和声音数据,能够实现一定的教学目的,但是并不能为参与课程的老师和同学提供真实的教学氛围,降低了教学过程的投入感,使得教学效率降低。尤其是对于音乐、运动等领域的教学,需要练习不同的动作,老师仅仅通过视频的方式很难对学生的动作做出准确的校正,这更加降低了教学效率和教学互动的沉浸感。
发明内容
有鉴于此,非常需要一种改进的方法,能够有效地改善线上教育中投入感低、教学效率低以及无法实现沉浸式教学的问题。
本公开示例性实施例提供了一种基于虚拟场景的多个对象的交互方法,包括:
获取现实世界中第一对象的第一实时交互信息;
基于第一实时交互信息生成所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;
向现实世界中的第二对象输出所述第一虚拟数据;
获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;
基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
在一些实施例中,基于所述第二实时交互信息向所述第一对象输出相应的反馈信息,包括:
基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,所述第二虚拟对象与所述第二对象相对应;
基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据;
将所述虚拟反馈数据转换为所述反馈信息,并向所述第一对象输出所述反馈信息。
在一些实施例中,所述第二实时交互信息包括第二动作信息,所述第二虚拟数据包括第二虚拟动作数据;
基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,包括:
基于所述第而动作信息生成所述第二对象的第二动画数据;
将所述第二动画数据映射到所述虚拟场景中得到所述第二虚拟动作数据。
在一些实施例中,基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据,包括:
比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据;
或者,基于所述第二虚拟动作数据与所述第一虚拟对象的关系,生成所述虚拟反馈数据。
在一些实施例中,比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据,包括:
分别比较同一人体关键点的第一虚拟动作数据和第二虚拟动作数据,得到每个人体关键点的差值数据;
将所述每个人体关键点的差值数据作为所述虚拟反馈数据。
在一些实施例中,比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据,包括:
基于所有人体关键点的第一虚拟动作数据生成包括所述第一虚拟对象的身体角度的第一整体动作数据,
以及基于所有人体关键点的第二虚拟动作数据生成包括所述第二虚拟对象的身体角度的第二整体动作数据;
比较所述第一整体动作数据和第二整体动作数据,得到身体角度差值数据;
将所述身体角度差值数据作为所述虚拟反馈数据。
在一些实施例中,将所述虚拟反馈数据转换为所述反馈信息,包括:
基于所述虚拟反馈数据生成指示性语句,所述指示性语句用于指示所述第一对象进行动作调整;
或者,
基于虚拟反馈数据确定反馈至所述第一对象的目标部位和目标压力方向;以及将所述目标部位、所述目标压力方向和预设压力值作为所述反馈信息。
在一些实施例中,向所述第一对象输出所述反馈信息,包括:
经由所述第一对象的第一终端设备向所述第一对象显示指示性语句;
或,经由所述第一对象的第一终端设备向所述第一对象的目标部位在目标方向上施加预设压力值的压力,以调整所述第一对象的动作。
在一些实施例中,所述第一实时交互信息包括所述第一对象的第一动作信息,所述第一虚拟数据包括第一虚拟动作数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一动作信息生成所述第一对象的第一动画数据;
将所述第一动画数据映射到所述虚拟场景中得到所述第一虚拟动作数据。
在一些实施例中,所述第一实时交互信息包括所述第一对象的第一图像信息,所述第一虚拟数据包括第一虚拟表情数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一图像信息和所述第一虚拟对象生成所述第一虚拟表情数据。
在一些实施例中,第一实时交互信息包括第一声音信息,所述第一虚拟数据包括第一虚拟声音数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一声音信息和所述第一虚拟对象生成所述第一虚拟对象的第一虚拟声音数据。
在一些实施例中,所述方法还包括:
获取所述第一对象的第二图像信息;
基于所述第二图像信息生成第一对象在虚拟场景中对应的所述第一虚拟对象。
基于同一发明构思,本公开示例性实施例还提供了一种基于虚拟场景的多个对象的交互装置,包括:
获取模块,用于获取现实世界中第一对象的第一实时交互信息;
映射模块,用于基于第一实时交互信息生成所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;
输出模块,用于向现实世界中的第二对象输出所述第一虚拟数据;
所述获取模块,还用于获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;
所述输出模块,还用于基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
基于同一发明构思,本公开示例性实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一项所述的基于元宇宙的多个对象的交互方法。
基于同一发明构思,本公开示例性实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行如上任一项所述的基于元宇宙的多个对象的交互方法。
基于同一发明构思,本公开示例性实施例还提供了一种终端设备,包括:
传感器,用于采集现实世界中第一对象的第一实时交互信息或采集第二对象的第二实时交互信息;
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
将所述第一实时交互信息发送至服务器;
接受来自所述服务器的反馈信息,并向第一对象输出所述反馈信息;
其中,所述服务器获取现实世界中第二对象针对所述第一实时交互信息的第二实时交互信息;以及基于所述第二实时交互信息生成所述反馈信息;
或者,
所述处理器执行所述程序时实现如下步骤:
输出所述元宇宙的虚拟场景中的第一虚拟数据;
将所述第二实时交互信息发送至所述服务器,其中,所述第二实时交互信息基于所述第二对象针对所述第一虚拟数据执行的交互动作得到;
其中,所述服务器获取现实世界中第一对象的第一实时交互信息;以及基于第一实时交互信息生成在所述虚拟场景中第一虚拟对象的所述第一虚拟数据,所述第一虚拟对象与所述第一对象相对应。
从上面所述可以看出,本公开提供的基于元宇宙的多个对象的交互方法及相关设备,通过采集现实世界中一对象的实时交互信息,并将现实世界中另一对象针对该实时交互信息的反馈信息,均体现在元宇宙的虚拟场景中,基于元宇宙中的虚拟场景实现现实世界中多个对象的交互。减少了线上教学的空间限制造成的不真实感,以及线下教学空间、时间及其他客观限制,提高了教学互动的沉浸感,提升了教学效率和学生学习效率。
附图说明
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开示例性实施例的应用场景示意图;
图2为本公开示例性实施例的应用场景示意图;
图3为本公开示例性实施例的基于虚拟场景的多个对象的交互方法的示意性流程图;
图4为本公开示例性实施例的基于虚拟场景的多个对象的交互装置结构示意图;
图5为本公开示例性实施例的终端设备的结构示意图;
图6为本公开示例性实施例的电子设备结构示意图。
具体实施方式
下面将参考若干示例性实施方式来描述本申请的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本申请的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
根据本公开的实施方式,提出了一种基于元宇宙的多个对象的交互方法及相关设备。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
为了方便理解,下面对本公开实施例中涉及的名词进行解释:
元宇宙(Metaverse):一个虚拟时空间的集合,由一系列的增强现实(AR),虚拟现实(VR)和互联网(Internet)所组成。
增强现实(AR,Augmented Reality):利用计算机技术将人为构建的辅助型虚拟信息应用到真实世界,使虚拟的物体信息和真实的环境信息相叠加到同一个画面或空间,同时呈递给用户被用户感知,获得比真实世界更丰富的信息。
虚拟现实(VR,Virtual Reality):利用计算机技术生成现实世界对应的模拟环境,通过多种传感设备,根据用户自身的感觉,使用人的自然技能对虚拟世界的物体进行考察或操作;同时提供视觉、听觉、触觉等多通道的信息,使用户通过视、听、摸等直观而又自然的实时感知,并使参与者沉浸于模拟环境中。
下面参考本公开的若干代表性实施方式,详细阐释本申请的原理和精神。
发明概述
本公开的方案旨在提供基于元宇宙的多个对象的交互方法及相关设备,以实现一种改进的基于元宇宙的多个对象的交互方案。
在目前的线上教育一般通过网络向学生端和老师端展示对方的图像数据和声音数据,能够通过讲述来实现一定的教学目的。在实现本公开的过程中,发明人发现上述现有技术均存在明显不足。传统的线上教育方式不能为参与课程的老师和同学提供较为真实的教学氛围,降低了教学过程的投入感,使得教学效率降低。尤其是对于音乐、运动等领域的教学,需要练习不同的动作,老师仅仅通过视频中的语言描述很难对学生的动作做出准确的校正,这更加降低了教学效率和教学效果。
然而,元宇宙的虚拟现实场景具有多感知性、浸没感和交互性等特点,发明人创造性的发现,虚拟现实场景可以弥补现有的线上教学无法提高教学互动沉浸感的不足。而且随着5G技术的发展,对于虚拟现实技术有很大助力,5G技术极大缩短了数据传输的延迟时间,可以支持虚拟现实的实时性
基于上述元宇宙和虚拟现实技术的特点,以及针对于上述现有技术存在的问题,本公开提供了一种基于元宇宙的多个对象的交互方法及相关设备,通过采集现实世界中一对象的实时交互信息,并将现实世界中另一对象针对该实时交互信息的反馈信息,均体现在元宇宙的虚拟场景中,基于元宇宙中的虚拟场景实现现实世界中多个对象的交互。这减少了线上教学的空间限制造成的不真实感,以及线下教学空间、时间及其他客观限制,提升了教学互动的沉浸感和教学过程的真实感,从而提高了教学效率和学生学习效率。
在介绍了本公开的基本原理之后,下面具体介绍本公开的各种非限制性实施方式。
应用场景总览
参考图1,其为本公开实施例提供的基于元宇宙的多个对象的交互方法的应用场景示意图。该应用场景包括服务器101以及终端设备,例如终端设备102a、终端设备102b、终端设备102c、……、终端设备102n。其中,服务器101与终端设备102a、终端设备102b、终端设备102c、……、终端设备102n之间均可通过有线或无线的通信网络连接。
服务器101可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
终端设备包括但不限于智能可穿戴设备以及配置有智能可穿戴设备的桌面计算机、移动电话、移动电脑、平板电脑、媒体播放器、个人数字助理(personal digitalassistant,PDA)或其它能够实现上述功能的电子设备等。
在一些实施例中,图1中的应用场景还可以包括数据存储系统103,用于为服务器101提供数据存储功能。数据存储系统103也可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。应了解,数据存储系统103可以设置于服务器101内部,也可以独立于服务器101设置,在此不做限制。
参考图2,其为本公开实施例提供的基于元宇宙的多个对象的交互方法的应用场景示意图。结合图1和图2,服务器101可以用于向终端设备102a、终端设备102b、终端设备102c、……、终端设备102n的用户a、用户b、用户c、……、用户n提供各种虚拟场景,例如各种运动(包括篮球、羽毛球、乒乓球、足球等等)教学场景。用户a、用户b、用户c、用户n可以选择同一虚拟场景,例如通过建议同一虚拟场景的会话链接使得用户a、用户b、用户c、用户n分别通过各自的终端设备102a、终端设备102b、终端设备102c、终端设备102n进入同一虚拟场景,以实现用户a、用户b、用户c、用户n在该虚拟场景中的运动教学过程。例如图2中,用户c为教师,其他的用户(如用户a、用户b、用户n)为学生,用户a、用户b、用户c与用户n可以位于不同的地理位置,分别通过终端设备102a、终端设备102b、终端设备102c、终端设备102n与服务器101进行通信,进入元宇宙中的一虚拟场景,如篮球教学虚拟场景。那么,用户a、用户b、用户c、用户n可以经由服务器101在该篮球教学虚拟场景中建立各自对应的虚拟对象a’、虚拟对象b’、虚拟对象c’(图2中未示出)、虚拟对象n’,用户a、用户b、用户n做出各种篮球运动的动作,各自的终端设备102a、终端设备102b、终端设备102n通过采集这些动作的运动数据发送至服务器101,服务器101接收到这些运动数据将其转换为虚拟场景中对应的虚拟动作数据,并基于虚拟动作数据控制虚拟对象a’、虚拟对象b’、虚拟对象n’做出与对应的用户a、用户b、用户n一致的动作,并通过终端设备102c向用户c进行展示。那么,用户c可以通过其终端设备102c观看到虚拟场景中的虚拟对象a’、虚拟对象b’、虚拟对象n’的动作。
由于虚拟对象a’、虚拟对象b’、虚拟对象n’的动作与用户a、用户b、用户n的实际动作是一致的,此时,用户c可以分别针对用户a、用户b、用户n做出相应的反馈动作。终端设备102c可以采集用户c的反馈动作数据,并发送至服务器101。服务器101接收到该反馈动作数据后将其转换为虚拟反馈数据,并基于该虚拟反馈数据控制用户c对应的虚拟对象c’针对虚拟对象a’、虚拟对象b’、虚拟对象n’执行相应的反馈动作。例如,用户c针对虚拟对象a’的动作A’做出一反馈动作C,此时,用户b和用户n可以基于终端设备102b和终端设备102n分别以虚拟对象b’和虚拟对象n’的视角观看到元宇宙的该虚拟场景中虚拟对象c’对虚拟对象a’执行了与反馈动作C一致的反馈动作,而用户a则可以经由终端设备102a以虚拟对象a’的视角观看并感受到虚拟对象c’对自己做出的反馈动作,从而实现了在一虚拟场景中多个对象的交互。应用到教学场景中,能够为教师和学生提供了一种沉浸式的教学环境,减少了线上教学的空间限制造成的不真实感,以及线下教学空间、时间及其他客观限制,让用户能够通过虚拟现实感受到在客观物理世界中所经历教学的"身临其境"的逼真性,提高教学互动的沉浸感,从而提升了教学效率和学生学习效率。
下面结合图1和图2的应用场景,来描述根据本公开示例性实施方式的基于元宇宙的多个对象的交互方法。需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
示例性方法
首先,本公开实施例提供了一种基于元宇宙的多个对象的交互方法,可以由服务器执行,如图1和图2中的服务器101。参考图3,本公开实施例的基于元宇宙的多个对象的交互方法200,包括以下步骤:
在步骤S301处,获取现实世界中第一对象的第一实时交互信息。
其中,对象可以是通过终端设备与服务器之间的通信连接进入元宇宙的虚拟场景的用户,例如图1和图2中的用户a、用户b、用户c和用户n。
在一些实施例中,通过第一对象的第一终端设备来采集第一对象的第一实时交互信息。例如图2中,第一对象可以是用户a、用户b、用户n,第一终端设备可以是终端设备102a、终端设备102b、终端设备102n。
在一些实施例中,第一实时交互信息可以包括如下至少一种:第一对象的第一声音信息、第一图像信息或第一动作信息。具体实施中,第一终端设备(如图2中的终端设备102a、终端设备102b、终端设备102n)采集第一对象(如图2中的用户a、用户b、用户n)的第一实时交互信息,并将该第一实时交互信息发送至服务器101;服务器101从第一终端设备获取该第一实时交互信息。
在一些实施例中,在步骤S301之前,还可以包括:建立所述虚拟场景的会话连接。例如,图1或图2中的任意一个用户均可发起以虚拟场景的会话连接,其他用户可以在任意时刻通过该会话连接进入到该虚拟场景中。
在一些实施例中,方法300还可以包括:
获取所述第一对象的预设图像信息或第一图像信息;
基于所述预设图像信息或所述第一图像信息生成所述第一对象在虚拟场景中对应的所述第一虚拟对象。
具体实施中,预设图像信息可以包括预设卡通形象信息或第一对象的历史图像信息;该预设图像信息可以存储于第一终端设备中,由服务器从第一终端设备中获取;第一图像信息可以包括第一对象通过终端设备进入虚拟场景的实时图像信息。
其中,第一对象可以根据需要选择经由预设卡通形象信息、历史图像信息或第一图像信息来在虚拟场景中建立第一虚拟对象。例如,当第一对象经由预设卡通形象信息来建立第一虚拟对象时,该第一虚拟对象就会以预设卡通形象展示给连接至该虚拟场景中的其他对象,如图2中的虚拟对象a’、虚拟对象b’、虚拟对象n’,这样有利于保护第一对象的隐私信息。再例如,当第一对象经由历史图像信息来建立第一虚拟对象时,该第一虚拟对象就会以历史图像中第一对象的形象展示给其他对象,因为可能第一对象对当前自身的形象不满意,或者由于某些原因(如受伤)无法采用当前实时的图像时,可以基于第一对象的历史图像建立第一虚拟形象,相比于预设卡通形象,采用历史图像信息建立的第一虚拟形象能够反映出第一对象的身份,其他用户可以直观地通过第一虚拟形象就可以识别出第一对象的身份,这样可以进一步增强虚拟教学环境的逼真性。再例如,当第一对象经由实时的第一图像信息来建立第一虚拟对象时,其他对象能够通过虚拟场景观看到第一对象的实时形象,教师用户可以据此统计学生用户的真实出勤情况,以及掌握学生用户的真实水平,有利于提高教学效果。
在一些实施例中,第一虚拟对象的属性与对应的所述第一对象一致。其中,属性可以包括身高、体型、皮肤颜色等等。
应了解,连接至虚拟场景的其他对象也可以采用类似的方法建立各自的虚拟对象,过程与上述实施例中第一虚拟对象的建立类似,在此不再赘述。
在步骤S302处,基于第一实时交互信息生成在所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应。
在一些实施例中,所述第一实时交互信息包括所述第一对象的第一动作信息,所述第一虚拟数据包括第一虚拟动作数据;则步骤S302中,基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一动作信息生成所述第一对象的第一动画数据;
将所述第一动画数据映射到所述虚拟场景中得到所述第一虚拟动作数据。
在一些实施例中,第一动作信息包括第一对象的人体关键点的动作信息。进一步地,第一动作信息可以包括如下至少一种:第一对象的额手部角度、手部高度、手肘角度、手肘高度、腰部角度、膝盖角度、膝盖高度、脚腕角度和脚腕高度。
具体实施中,第一终端设备可以采集第一对象的人体关键点的运动信息作为第一动作信息,如手部、手肘部、腰部、膝盖部、脚腕部等,并将该第一动作信息发送至服务器,服务器基于该第一动作信息和预设的动画合成算法生成第一动画数据,再将该第一动画数据基于预设映射关系映射到虚拟场景中得到第一虚拟对象的第一虚拟动作数据。
在一些实施例中,所述第一实时交互信息包括所述第一对象的第一图像信息,所述第一虚拟数据包括第一虚拟表情数据;则步骤S302中,基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一图像信息和所述第一虚拟对象生成所述第一虚拟表情数据。
这样,其他对象可以观看到第一对象的实时面部表情,有助于教师用户根据学生用户的真实表情判断该学生用户的学习状态,例如表情是否专注、疑惑、不感兴趣等,从而帮助教师及时调整教学方式和教学内容,例如当学生用户的表情是疑惑时,教师用户可以重新示范或对该学生用户进行指导,从而提高教学效果,以及进一步提升教学互动的沉浸感。
具体实施中,当第一对象采用实时采集的第一图像信息建立第一虚拟对象时,第一终端设备可以直接将该第一图像信息基于预设映射关系映射到虚拟场景中得到第一虚拟对象的第一虚拟表情数据。当第一对象采用预设图像信息建立第一虚拟对象时,可以先基于第一图像信息提取人脸表情数据,再基于人脸表情数据和预设图像信息合成第一中间表情数据,在将该第一中间表情数据映射到虚拟场景中得到所述第一虚拟对象的第一虚拟表情数据。
在一些实施例中,第一实时交互信息包括第一声音信息,所述第一虚拟数据包括第一虚拟声音数据;则步骤S302中,基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一声音信息和所述第一虚拟对象生成所述第一虚拟对象的第一虚拟声音数据。
这样,接入虚拟场景中的多个对象都可以听到自己或其他对象的发言,不仅可以实现教师用户与学生用户之间的交流,而且还可以实现学生用户之间的学习交流,将实时的动作和声音数据结合起来,从视觉、听觉和触觉的角度营造更逼真的虚拟教学场景,进一步提升教学互动的沉浸感。
具体实施中,可以直接将第一声音信息映射至虚拟场景中得到第一虚拟对象的第一虚拟声音数据。还可以对第一声音信息进行语音识别,再基于用户预设的第一声纹生成第一中间声音数据,再将该第一中间声音数据映射至虚拟场景中得到第一虚拟对象的第一虚拟声音数据。
在步骤S303处,向现实世界中的第二对象输出所述第一虚拟数据。
在一些实施例中,通过第二对象的第二终端设备来向第二对象的第一虚拟数据。如图1所示,第二对象可以是用户c,可以通过第二终端设备102c向用户c展示第一对象用户a、用户b、用户n的第一虚拟动作数据、第一虚拟表情数据和第一虚拟声音数据中的至少一种。例如,图2中,用户c可以观看到虚拟场景中第一虚拟对象a、第一虚拟对象b、第一虚拟对象n的动作,虚拟场景中的这些动作完全与现实世界中用户a、用户b、用户n的实际动作一致,则为用户c提供了与现实世界完全一致的逼真的虚拟教学场景。应了解,对于用户a、用户b、用户n,其同样能够通过终端设备以各自的视角在虚拟场景中看到其他用户,且其他用户的虚拟对象的动作与现实世界该用户的动作保持同步。
在步骤S304处,获取所述第二对象针对所述第一虚拟数据的第二实时交互信息。
具体实施中,第二对象可以是教师用户,第二对象观看到虚拟场景中第一虚拟对象的第一虚拟数据后,可以在现实世界中作出相应的指导动作,例如,针对用户a、用户b、用户n共同作出的示范动作,或者,对某一用户a当前的动作做校正。
在一些实施例中,通过第二对象的第二终端设备来采集第二对象的第二实时交互信息。
在一些实施例中,第二实时交互信息可以包括如下至少一种:第二对象的第二声音信息、第二图像信息或第二动作信息。具体实施中,第二终端设备(如图2中的102c)采集第二对象(如图2中的用户c)的第二实时交互信息,并将该第二实时交互信息发送至服务器101;服务器101从第二终端设备获取该第二实时交互信息。
在步骤S305处,基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
在一些实施例中,基于所述第二实时交互信息向所述第一对象输出相应的反馈信息,包括:
基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,所述第二虚拟对象与所述第二对象相对应;
基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据;
将所述虚拟反馈数据转换为所述反馈信息,并向所述第一对象输出所述反馈信息。
其中,第二对象在虚拟场景中观看到第一虚拟数据后作出了相应的反馈动作,该反馈动作的信息可以作为第二实时交互信息。将第二实时交互信息映射到虚拟场景中,再经由虚拟场景反馈至第一对象,将虚拟场景作为“动作传递”介质,实现了第一对象和第二对象之间的动作交互,突破了空间上的局限,使得第一对象和第二对象即使在不同的地理位置,当第一对象和第二对象接入该虚拟场景时,能够实现类似于面对面的交流和动作指导的沉浸式教学互动,提升教师和学生的教学效率和教学效果。
应了解,第二虚拟对象的建立与第一虚拟对象的建立类似,可以是通过第二对象的预设图像信息或第二图像信息生成第二虚拟对象。第二虚拟对象也可以采用预设卡通形象、第二对象的历史图像或第二对象的实时图像进行建立。
在一些实施例中,所述第二虚拟数据包括如下至少一种:第二虚拟动作数据、第二虚拟表情数据或第二虚拟声音数据。其中,第二虚拟动作数据可以用于为第一对象提供示范动作或对第一对象的动作进行校正,第二虚拟表情数据可以用于向第一对象直观地显示第二对象的表情,第二虚拟声音数据可以同于与第一对象进行交流,提供语言上的指导。
在一些实施例中,所述第二实时交互信息包括第二声音信息,所述第二虚拟数据包括第二虚拟声音数据,则基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,包括:
基于所述第二声音信息和所述第二虚拟对象生成所述第二虚拟对象的第二虚拟声音数据。
具体实施中,可以直接将第二声音信息映射至虚拟场景中得到第二虚拟对象的第二虚拟声音数据。还可以对第二声音信息进行语音识别,再基于用户预设的第二声纹生成第二中间声音数据,再将该第二中间声音数据映射至虚拟场景中得到第二虚拟对象的第二虚拟声音数据。
进一步地,在一些实施例中,可以直接将第二虚拟声音数据作为所述虚拟声音反馈数据和所述反馈信息。
更进一步地,在一些实施例中,向所述第一对象输出所述反馈信息,可以包括:经由第二终端设备向第二对象输出所述第二虚拟声音数据。
在一些实施例中,所述第二实时交互信息包括第二表情信息,所述第二虚拟数据包括第二虚拟表情数据,则基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,包括:
基于所述第二表情信息和所述第二虚拟对象生成所述第二虚拟对象的第二虚拟表情数据。
具体实施中,当第二对象采用实时采集的第二图像信息建立第二虚拟对象时,第二终端设备可以直接将该第二人图像信息基于预设映射关系映射到虚拟场景中得到第二人虚拟对象的第二虚拟表情数据。当第二对象采用预设图像信息建立第二虚拟对象时,可以先基于第二图像信息提取人脸表情数据,再基于人脸表情数据和预设图像信息合成第二中间表情数据,在将该第二中间表情数据映射到虚拟场景中得到所述第二虚拟对象的第二虚拟表情数据。
进一步地,在一些实施例中,可以直接将第二虚拟表情数据作为所述虚拟表情反馈数据和所述反馈信息。
更进一步地,在一些实施例中,向所述第一对象输出所述反馈信息,可以包括:经由第二终端设备向第二对象输出所述第二虚拟表情数据。
在一些实施例中,所述第二实时交互信息包括第二动作信息,所述第二虚拟数据包括第二虚拟动作数据,则基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,包括:
基于所述第而动作信息生成所述第二对象的第二动画数据;
将所述第二动画数据映射到所述虚拟场景中得到所述第二虚拟动作数据。
在一些实施例中,第二动作信息包括如下至少一种:第二对象的手部角度、手部高度、手肘角度、手肘高度、腰部角度、膝盖角度、膝盖高度、脚腕角度和脚腕高度。
具体实施中,第二终端设备可以采集第二对象的人体关键点的运动信息作为第二动作信息,如手部、手肘部、腰部、膝盖部、脚腕部等,并将该第二动作信息发送至服务器,服务器基于该第二动作信息和预设的动画合成算法生成第二动画数据,再将该第二动画数据基于预设映射关系映射到虚拟场景中得到第二虚拟对象的第二虚拟动作数据。
进一步地,在一些实施例中,基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据,包括:
比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据。
具体实施中,第二对象可以针对所有的第一对象作出一示范动作,该示范动作对应的人体关键点的运动信息可以作为第二动作信息,第二终端设备将该第二动作信息发送至服务器。那么服务器获取了第一对象的第一虚拟动作数据和第二对象的第二虚拟动作数据,可以将第一虚拟动作数据和第二虚拟动作数据两者进行比较,得到人体关键点的差异数据,从而生成虚拟反馈数据。
在一些实施例中,比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据,可以包括:分别比较同一人体关键点的第一虚拟动作数据和第二虚拟动作数据,得到每个人体关键点的差值数据;将所述每个人体关键点的差值数据作为所述虚拟反馈数据。
进一步地,在一些实施例中,将所述虚拟反馈数据转换为所述反馈信息,包括:基于所述虚拟反馈数据生成指示性语句,所述指示性语句用于指示所述第一对象进行动作调整。例如,按照顺时针方向,手部的第一虚拟动作数据与第二虚拟动作数据相差第一角度,即虚拟反馈数据可以是手部角度顺时针相差第一角度,则可以生成对应的指示性语句,可以包括:手部向顺时针方向旋转第一角度。
在一些实施例中,比较所述第二虚拟动作数据与所述第一虚拟动作数据之间的差异,生成所述虚拟反馈数据,可以包括:
基于所有人体关键点的第一虚拟动作数据生成包括所述第一虚拟对象的身体角度的第一整体动作数据,
以及基于所有人体关键点的第二虚拟动作数据生成包括所述第二虚拟对象的身体角度的第二整体动作数据;
比较所述第一整体动作数据和第二整体动作数据,得到身体角度差值数据;
将所述身体角度差值数据作为所述虚拟反馈数据。
进一步地,在一些实施例中,基于所述虚拟反馈数据生成指示性语句,可以例如,按照逆时针方向,第一整体动作数据与第二整体动作数据相差第二角度,即虚拟反馈数据可以是身体角度逆时针相差第二角度,则可以生成对应的指示性语句,可以包括:身体角度向逆时针方向旋转第二角度。
根据本公开实施例,对于不同的第一对象,由于各自的动作不同使得不同的第一对象的第一虚拟数据不同,所以,即使面对相同的第二虚拟数据,每个第一对象的差值数据也不同。也就是说,根据本公开实施例,可以根据不同的第一对象生成各自的虚拟反馈数据和反馈信息,每个第一对象所接收到的反馈信息可以不同。这有助于各个第一对象基于自身情况进行动作调整,不仅实现对学生用户的个性化指导,还可以提高教学效率。
更进一步地,在一些实施例中,向所述第一对象输出所述反馈信息,包括:经由所述第一对象的第一终端设备向所述第一对象显示指示性语句。例如,在虚拟场景中显示该指示性语句,那么每个第一对象所看到的指示性语句不同。
在一些实施例中,基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据,包括:
基于所述第二虚拟动作数据与所述第一虚拟对象的关系,生成所述虚拟反馈数据。
进一步地,在一些实施例中,将所述虚拟反馈数据转换为所述反馈信息,包括:
基于虚拟反馈数据确定反馈至所述第一对象的目标部位和目标压力方向;
将所述目标部位、所述目标压力方向和预设压力值作为所述反馈信息。
更进一步地,在一些实施例中,向所述第一对象输出所述反馈信息,包括:
经由所述第一对象的第一终端设备向所述第一对象的目标部位在目标方向上施加预设压力值的压力,以调整所述第一对象的动作。
具体实施中,第二对象可以直接对第一对象的动作进行调整,那么反映到虚拟场景中就是第二虚拟对象对第一虚拟对象的动作进行调整。此时,在第一对象做的一动作后,第二对象经由第二终端设备观看到在虚拟场景中第一虚拟对象的一动作,第二对象认为该动作需要调整,那么第二对象在现实世界中执行移动动作,该移动动作的动作信息经由第二终端设备采集后发送至服务器,服务器基于移动动作的动作信息生成移动动画,再映射到虚拟场景中,实现第二虚拟对象的移动动作,直至第二虚拟对象移动至第一虚拟对象附近。接着,第二对象在现实世界执行调整动作,该调整动作的动作信息经由第二终端设备采集后发送至服务器,服务器基于调整动作的动作信息生成调整动画,再映射到虚拟场景中得到虚拟调整动画数据。此时,服务器还可以识别第二虚拟动作数据与第一虚拟对象的关系,例如可以通过训练好的行为识别模型识别虚拟调整动画数据的行为是抬高第一虚拟对象的手部,以及基于第二虚拟动作数据提取得到调整动作的方向D,则可以生成向第一虚拟对象的手部在方向D上抬高的虚拟反馈数据。那么,相应地,反馈信息可以包括目标部位为第一对象的手部,目标压力方向为方向D以及预设压力值。服务器将该反馈信息发送至第一终端设备,该第一终端设备可以根据该反馈信息对第一对象施加压力,第一对象感受到压力后抬高其手部,从而实现了对第一对象的动作调整。
示例性设备
参考图4,基于与上述任意基于元宇宙的多个对象的交互方法实施例相同的发明构思,本公开实施例还提供了一种基于元宇宙的多个对象的交互装置。所述的基于元宇宙的多个对象的交互装置,包括:
获取模块,用于获取现实世界中第一对象的第一实时交互信息;
映射模块,用于基于第一实时交互信息生成在所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;
输出模块,用于向现实世界中的第二对象输出所述第一虚拟数据;
所述获取模块,还用于获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;
所述输出模块,还用于基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
上述实施例的装置用于实现前述示例性基于元宇宙的多个对象的交互方法部分中任一实施例中相应的基于元宇宙的多个对象的交互方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
参考图5,基于与上述任意基于元宇宙的多个对象的交互方法实施例相同的发明构思,本公开实施例还提供了一种终端设备,包括:
传感器,用于采集现实世界中第一对象的第一实时交互信息或采集第二对象的第二实时交互信息;
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
将所述第一实时交互信息发送至服务器;
接受来自所述服务器的反馈信息,并向第一对象输出所述反馈信息;
其中,所述服务器获取现实世界中第二对象针对所述第一实时交互信息的第二实时交互信息;以及基于所述第二实时交互信息生成所述反馈信息;
或者,
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
输出所述元宇宙的虚拟场景中的第一虚拟数据;
将所述第二实时交互信息发送至所述服务器,其中,所述第二实时交互信息基于所述第二对象针对所述第一虚拟数据执行的交互动作得到;
其中,所述服务器获取现实世界中第一对象的第一实时交互信息;以及基于第一实时交互信息生成在所述虚拟场景中第一虚拟对象的所述第一虚拟数据,所述第一虚拟对象与所述第一对象相对应。
在一些实施例中,所述传感器包括如下至少一种:图像传感器(例如AR3D相机)、运动传感器(例如陀螺仪)或声音传感器(例如麦克风)。其中,图像传感器可以捕捉用户多个角度的照片数据,形成用户图库,并将用户图库传中的图像数据传输至服务器(如图1和图2中的服务器101),以进行3D算法合成虚拟对象的建立。运动传感器可以设置在智能穿戴设备(例如,VR智能头盔、VR智能眼镜、身体穿戴智能传感设备等)上,用户通过智能穿戴设备将运动传感器固定在身体的各个部位,能够实现对用户运动信息的准确采集,例如前述实施例中对第一对象的第一动作信息和第二对象的第二动作信息的采集。
在一些实施例中,终端设备还可以包括:输入端口,用于将第一实时交互信息或第二实时交互信息传输到服务器。例如,运动传感器可以将捕捉到第一对象或第二对象的不同空间和时间的运动信号传输到服务器,通过相应的动画合成算法合成相应的运动动画,并将合成后的运动动画映射到虚拟环境中,实现用户和虚拟环境的直接交互。
在一些实施例中,终端设备还可以包括:输出端口,用于向第一对象或第二对象输出相应的数据。例如,服务器将第一对象和第二对象各自的运动动画分别映射到智能设备中,给第一对象和第二对象呈现对方的实时运动画面,从而使得第一对象和第二对象能够及时做出动作反应。
需要说明的是,根据本公开实施例的多个对象的交互方法,可以基于本公开实施例中的终端设备实现,也可以与其他智能穿戴设备实现,例如,可以通过SDK的接入方式,定义一个抽象的SDK接入接口实现任意智能穿戴设备接入至元宇宙的虚拟场景中,在此不做限制。
基于与上述任意基于元宇宙的多个对象的交互方法实施例相同的发明构思,本公开实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的基于元宇宙的多个对象的交互方法。
图6示出了本公开示例性实施例的电子设备结构示意图,该设备可以包括:处理器610、存储器620、输入/输出接口630、通信接口640和总线650。其中处理器610、存储器620、输入/输出接口630和通信接口640通过总线650实现彼此之间在设备内部的通信连接。
处理器610可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器620可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器620中,并由处理器610来调用执行。
输入/输出接口630用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口640用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线650包括一通路,在设备的各个组件(例如处理器610、存储器1020、输入/输出接口630和通信接口640)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器610、存储器620、输入/输出接口630、通信接口640以及总线650,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述示例性方法部分中任一实施例中相应的基于元宇宙的多个对象的交互方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
示例性程序产品
基于与上述任意基于元宇宙的多个对象的交互方法实施例相同的发明构思,本公开实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行前述示例性方法部分中任一实施例中相应基于元宇宙的多个对象的交互方法。
上述非暂态计算机可读存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上示例性方法部分中任一实施例所述的基于元宇宙的多个对象的交互方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
本领域技术技术人员知道,本发明的实施方式可以实现为一种系统、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式,本文一般称为“电路”、“模块”或“系统”。此外,在一些实施例中,本发明还可以实现为在一个或多个计算机可读介质中的计算机程序产品的形式,该计算机可读介质中包含计算机可读的程序代码。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是,但不限于,电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举示例)例如可以包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络(包括局域网(LAN)或广域网(WAN))连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合都可以由计算机程序指令实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,这些计算机程序指令通过计算机或其它可编程数据处理装置执行,产生了实现流程图和/或框图中的方框中规定的功能/操作的装置。
也可以把这些计算机程序指令存储在能使得计算机或其它可编程数据处理装置以特定方式工作的计算机可读介质中,这样,存储在计算机可读介质中的指令就产生出一个包括实现流程图和/或框图中的方框中规定的功能/操作的指令装置的产品。
也可以把计算机程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机或其它可编程装置上执行的指令能够提供实现流程图和/或框图中的方框中规定的功能/操作的过程。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
申请文件中提及的动词“包括”、“包含”及其词形变化的使用不排除除了申请文件中记载的那些元素或步骤之外的元素或步骤的存在。元素前的冠词“一”或“一个”不排除多个这种元素的存在。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。所附权利要求的范围符合最宽泛的解释,从而包含所有这样的修改及等同结构和功能。
Claims (16)
1.一种基于虚拟场景的多个对象的交互方法,包括:
获取现实世界中第一对象的第一实时交互信息;
基于第一实时交互信息生成所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;
向现实世界中的第二对象输出所述第一虚拟数据;
获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;
基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
2.根据权利要求1所述的方法,其中,基于所述第二实时交互信息向所述第一对象输出相应的反馈信息,包括:
基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,所述第二虚拟对象与所述第二对象相对应;
基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据;
将所述虚拟反馈数据转换为所述反馈信息,并向所述第一对象输出所述反馈信息。
3.根据权利要求2所述的方法,其中,所述第二实时交互信息包括第二动作信息,所述第二虚拟数据包括第二虚拟动作数据;
基于所述第二实时交互信息生成在所述虚拟场景中第二虚拟对象的第二虚拟数据,包括:
基于所述第而动作信息生成所述第二对象的第二动画数据;
将所述第二动画数据映射到所述虚拟场景中得到所述第二虚拟动作数据。
4.根据权利要求3所述的方法,其中,基于所述第二虚拟数据生成关于所述第一虚拟对象的虚拟反馈数据,包括:
比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据;
或者,基于所述第二虚拟动作数据与所述第一虚拟对象的关系,生成所述虚拟反馈数据。
5.根据权利要求4所述的方法,其中,比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据,包括:
分别比较同一人体关键点的第一虚拟动作数据和第二虚拟动作数据,得到每个人体关键点的差值数据;
将所述每个人体关键点的差值数据作为所述虚拟反馈数据。
6.根据权利要求4所述的方法,其中,比较所述第一虚拟动作数据与所述第二虚拟动作数据之间的差异,生成所述虚拟反馈数据,包括:
基于所有人体关键点的第一虚拟动作数据生成包括所述第一虚拟对象的身体角度的第一整体动作数据,
以及基于所有人体关键点的第二虚拟动作数据生成包括所述第二虚拟对象的身体角度的第二整体动作数据;
比较所述第一整体动作数据和第二整体动作数据,得到身体角度差值数据;
将所述身体角度差值数据作为所述虚拟反馈数据。
7.根据权利要求4所述的方法,其中,将所述虚拟反馈数据转换为所述反馈信息,包括:
基于所述虚拟反馈数据生成指示性语句,所述指示性语句用于指示所述第一对象进行动作调整;
或者,
基于虚拟反馈数据确定反馈至所述第一对象的目标部位和目标压力方向;以及将所述目标部位、所述目标压力方向和预设压力值作为所述反馈信息。
8.根据权利要求7所述的方法,其中,向所述第一对象输出所述反馈信息,包括:
经由所述第一对象的第一终端设备向所述第一对象显示指示性语句;
或,经由所述第一对象的第一终端设备向所述第一对象的目标部位在目标方向上施加预设压力值的压力,以调整所述第一对象的动作。
9.根据权利要求1所述的方法,其中,所述第一实时交互信息包括所述第一对象的第一动作信息,所述第一虚拟数据包括第一虚拟动作数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一动作信息生成所述第一对象的第一动画数据;
将所述第一动画数据映射到所述虚拟场景中得到所述第一虚拟动作数据。
10.根据权利要求1所述的方法,其中,所述第一实时交互信息包括所述第一对象的第一图像信息,所述第一虚拟数据包括第一虚拟表情数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一图像信息和所述第一虚拟对象生成所述第一虚拟表情数据。
11.根据权利要求1所述的方法,其中,第一实时交互信息包括第一声音信息,所述第一虚拟数据包括第一虚拟声音数据;
基于第一实时交互信息生成所述第一对象在所述虚拟场景中的第一虚拟数据,包括:
基于所述第一声音信息和所述第一虚拟对象生成所述第一虚拟对象的第一虚拟声音数据。
12.根据权利要求1所述的方法,还包括:
获取所述第一对象的第二图像信息;
基于所述第二图像信息生成第一对象在虚拟场景中对应的所述第一虚拟对象。
13.一种基于虚拟场景的多个对象的交互装置,包括:
获取模块,用于获取现实世界中第一对象的第一实时交互信息;
映射模块,用于基于第一实时交互信息生成所述元宇宙的虚拟场景中第一虚拟对象的第一虚拟数据,所述第一虚拟对象与所述第一对象相对应;
输出模块,用于向现实世界中的第二对象输出所述第一虚拟数据;
所述获取模块,还用于获取所述第二对象针对所述第一虚拟数据的第二实时交互信息;
所述输出模块,还用于基于所述第二实时交互信息向所述第一对象输出相应的反馈信息。
14.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至12任意一项所述的方法。
15.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行权利要求1至12任一所述方法。
16.一种终端设备,包括:
传感器,用于采集现实世界中第一对象的第一实时交互信息或采集第二对象的第二实时交互信息;
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
将所述第一实时交互信息发送至服务器;
接受来自所述服务器的反馈信息,并向第一对象输出所述反馈信息;
其中,所述服务器获取现实世界中第二对象针对所述第一实时交互信息的第二实时交互信息;以及基于所述第二实时交互信息生成所述反馈信息;
或者,
所述处理器执行所述程序时实现如下步骤:
输出所述元宇宙的虚拟场景中的第一虚拟数据;
将所述第二实时交互信息发送至所述服务器,其中,所述第二实时交互信息基于所述第二对象针对所述第一虚拟数据执行的交互动作得到;
其中,所述服务器获取现实世界中第一对象的第一实时交互信息;以及基于第一实时交互信息生成在所述虚拟场景中第一虚拟对象的所述第一虚拟数据,所述第一虚拟对象与所述第一对象相对应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111199986.6A CN113946211A (zh) | 2021-10-14 | 2021-10-14 | 基于元宇宙的多个对象的交互方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111199986.6A CN113946211A (zh) | 2021-10-14 | 2021-10-14 | 基于元宇宙的多个对象的交互方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113946211A true CN113946211A (zh) | 2022-01-18 |
Family
ID=79330580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111199986.6A Pending CN113946211A (zh) | 2021-10-14 | 2021-10-14 | 基于元宇宙的多个对象的交互方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113946211A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092290A (zh) * | 2022-01-20 | 2022-02-25 | 华中师范大学 | 一种教育元宇宙中教学系统及其工作方法 |
CN114625487A (zh) * | 2022-05-16 | 2022-06-14 | 浙江毫微米科技有限公司 | 在元宇宙中运行应用程序的方法、系统、设备及存储介质 |
CN114666314A (zh) * | 2022-02-14 | 2022-06-24 | 浙江毫微米科技有限公司 | 元宇宙交互方法及装置、电子设备、存储介质 |
CN114721516A (zh) * | 2022-03-29 | 2022-07-08 | 网易有道信息技术(北京)有限公司 | 基于虚拟空间的多对象交互方法及相关设备 |
CN114827075A (zh) * | 2022-04-06 | 2022-07-29 | 上海能链众合科技有限公司 | 一种元宇宙的背景下社交通讯方法 |
CN114973391A (zh) * | 2022-06-30 | 2022-08-30 | 北京万里红科技有限公司 | 应用于元宇宙的眼球跟踪方法、装置、设备 |
CN115170773A (zh) * | 2022-05-24 | 2022-10-11 | 上海锡鼎智能科技有限公司 | 一种基于元宇宙的虚拟课堂动作交互系统和方法 |
CN115439195A (zh) * | 2022-11-07 | 2022-12-06 | 杭州脸脸会网络技术有限公司 | 虚拟账户创建方法、系统、服务器及计算机可读存储介质 |
CN115578541A (zh) * | 2022-09-29 | 2023-01-06 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法及装置、设备、系统、介质和产品 |
CN116129083A (zh) * | 2022-12-23 | 2023-05-16 | 中科计算技术西部研究院 | 基于元宇宙的园区管理系统及方法 |
WO2023155675A1 (zh) * | 2022-02-17 | 2023-08-24 | 李双江 | 一种虚拟数字世界的体验系统 |
CN117014552A (zh) * | 2023-07-31 | 2023-11-07 | 咪咕音乐有限公司 | 一种基于视频彩铃进行元宇宙场景互动的方法及相关设备 |
WO2023246159A1 (zh) * | 2022-06-21 | 2023-12-28 | 腾讯科技(深圳)有限公司 | 一种虚拟现实的交互方法、相关装置、设备以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200105040A1 (en) * | 2015-09-21 | 2020-04-02 | TuringSense Inc. | Method and apparatus for comparing two motions |
CN112102667A (zh) * | 2020-09-27 | 2020-12-18 | 国家电网有限公司技术学院分公司 | 一种基于vr交互的视频教学系统及方法 |
WO2021090817A1 (ja) * | 2019-11-07 | 2021-05-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2021
- 2021-10-14 CN CN202111199986.6A patent/CN113946211A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200105040A1 (en) * | 2015-09-21 | 2020-04-02 | TuringSense Inc. | Method and apparatus for comparing two motions |
WO2021090817A1 (ja) * | 2019-11-07 | 2021-05-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN112102667A (zh) * | 2020-09-27 | 2020-12-18 | 国家电网有限公司技术学院分公司 | 一种基于vr交互的视频教学系统及方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092290A (zh) * | 2022-01-20 | 2022-02-25 | 华中师范大学 | 一种教育元宇宙中教学系统及其工作方法 |
CN114666314A (zh) * | 2022-02-14 | 2022-06-24 | 浙江毫微米科技有限公司 | 元宇宙交互方法及装置、电子设备、存储介质 |
CN114666314B (zh) * | 2022-02-14 | 2024-01-05 | 浙江毫微米科技有限公司 | 元宇宙交互方法及装置、电子设备、存储介质 |
WO2023155675A1 (zh) * | 2022-02-17 | 2023-08-24 | 李双江 | 一种虚拟数字世界的体验系统 |
CN114721516A (zh) * | 2022-03-29 | 2022-07-08 | 网易有道信息技术(北京)有限公司 | 基于虚拟空间的多对象交互方法及相关设备 |
CN114827075A (zh) * | 2022-04-06 | 2022-07-29 | 上海能链众合科技有限公司 | 一种元宇宙的背景下社交通讯方法 |
CN114625487A (zh) * | 2022-05-16 | 2022-06-14 | 浙江毫微米科技有限公司 | 在元宇宙中运行应用程序的方法、系统、设备及存储介质 |
CN114625487B (zh) * | 2022-05-16 | 2022-09-09 | 浙江毫微米科技有限公司 | 在元宇宙中运行应用程序的方法、系统、设备及存储介质 |
CN115170773A (zh) * | 2022-05-24 | 2022-10-11 | 上海锡鼎智能科技有限公司 | 一种基于元宇宙的虚拟课堂动作交互系统和方法 |
WO2023246159A1 (zh) * | 2022-06-21 | 2023-12-28 | 腾讯科技(深圳)有限公司 | 一种虚拟现实的交互方法、相关装置、设备以及存储介质 |
CN114973391A (zh) * | 2022-06-30 | 2022-08-30 | 北京万里红科技有限公司 | 应用于元宇宙的眼球跟踪方法、装置、设备 |
CN115578541A (zh) * | 2022-09-29 | 2023-01-06 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法及装置、设备、系统、介质和产品 |
CN115439195A (zh) * | 2022-11-07 | 2022-12-06 | 杭州脸脸会网络技术有限公司 | 虚拟账户创建方法、系统、服务器及计算机可读存储介质 |
CN116129083B (zh) * | 2022-12-23 | 2023-09-26 | 中科计算技术西部研究院 | 基于元宇宙的园区管理系统及方法 |
CN116129083A (zh) * | 2022-12-23 | 2023-05-16 | 中科计算技术西部研究院 | 基于元宇宙的园区管理系统及方法 |
CN117014552A (zh) * | 2023-07-31 | 2023-11-07 | 咪咕音乐有限公司 | 一种基于视频彩铃进行元宇宙场景互动的方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113946211A (zh) | 基于元宇宙的多个对象的交互方法及相关设备 | |
US11605193B2 (en) | Artificial intelligence-based animation character drive method and related apparatus | |
US10726062B2 (en) | System and method for converting image data into a natural language description | |
US11871109B2 (en) | Interactive application adapted for use by multiple users via a distributed computer-based system | |
EP3889912B1 (en) | Method and apparatus for generating video | |
CN111290568A (zh) | 交互方法、装置及计算机设备 | |
JP2023501832A (ja) | レンズ分割の実現方法、装置および関連製品 | |
CN110174942B (zh) | 眼动合成方法及装置 | |
CN117541445B (zh) | 一种虚拟环境交互的口才训练方法、系统、设备及介质 | |
CN110516749A (zh) | 模型训练方法、视频处理方法、装置、介质和计算设备 | |
CN113750523A (zh) | 三维虚拟对象的动作生成方法、装置、设备及存储介质 | |
CN109190503A (zh) | 美颜方法、装置、计算装置和存储介质 | |
CN113709543A (zh) | 基于虚拟现实的视频处理方法、装置、电子设备和介质 | |
US20220301250A1 (en) | Avatar-based interaction service method and apparatus | |
CN112383721B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN117635383A (zh) | 一种虚拟导师与多人协作口才培训系统、方法及设备 | |
CN113205569A (zh) | 图像绘制方法及装置、计算机可读介质和电子设备 | |
CN112381926A (zh) | 用于生成视频的方法和装置 | |
CN114879877B (zh) | 状态数据同步方法、装置、设备及存储介质 | |
CN112508772B (zh) | 图像生成方法、装置及存储介质 | |
KR20220023005A (ko) | 체험 교구를 사용하는 실감형 인터렉티브 에듀테인먼트 시스템 | |
CN114721516A (zh) | 基于虚拟空间的多对象交互方法及相关设备 | |
KR101771583B1 (ko) | 실시간 의사공유 서비스 제공 방법 | |
CN112712798B (zh) | 私有化数据获取方法及装置 | |
US20240296748A1 (en) | System and method for language skill development using a virtual reality environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |