CN109032339A - 一种实时智能体感同步的方法及系统 - Google Patents

一种实时智能体感同步的方法及系统 Download PDF

Info

Publication number
CN109032339A
CN109032339A CN201810694429.3A CN201810694429A CN109032339A CN 109032339 A CN109032339 A CN 109032339A CN 201810694429 A CN201810694429 A CN 201810694429A CN 109032339 A CN109032339 A CN 109032339A
Authority
CN
China
Prior art keywords
operator
position data
person model
real
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810694429.3A
Other languages
English (en)
Inventor
孙伟
吕云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Wei Ai Education Technology Co Ltd
Original Assignee
Guizhou Wei Ai Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Wei Ai Education Technology Co Ltd filed Critical Guizhou Wei Ai Education Technology Co Ltd
Priority to CN201810694429.3A priority Critical patent/CN109032339A/zh
Publication of CN109032339A publication Critical patent/CN109032339A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Abstract

本发明提供了一种实时智能体感同步的方法及系统,涉及局域网及虚拟现实领域,用以完善基于虚拟现实技术的实时智能体感同步技术。方法包括:获取操作者人物模型头部动作和手臂动作的实时位置数据;根据实时位置数据,测算当前操作者人物模型的全身位置数据。系统包括:头部动作数据获取单元,用于获取操作者人物模型头部动作的实时位置数据;手臂动作数据获取单元,用于获取操作者人物模型手臂动作的实时位置数据;全身位置数据测算单元,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。

Description

一种实时智能体感同步的方法及系统
【技术领域】
本发明涉及局域网及虚拟现实领域,尤其是一种实时智能体感同步的方法及系统。
【背景技术】
虚拟现实技术是仿真技术的一个重要方向,是仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术、等多种技术的集合。是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术(VR)主要包括模拟环境、感知、自然技能和传感设备等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的VR应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入作出实时响应,并分别反馈到用户的五官。传感设备是指三维交互设备。
但是目前基于虚拟现实技术的实时智能体感同步方案还不完善。
【发明内容】
本发明提供了一种实时智能体感同步的方法及系统,用以完善基于虚拟现实技术的实时智能体感同步技术。
本发明的一种实时智能体感同步的方法,包括下列步骤:S1、获取操作者人物模型头部动作和手臂动作的实时位置数据;S2、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。
其中,S2中还包括:对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。
其中,还包括步骤:S3、根据所述的全身位置数据,对操作者人物模型进行实施的动画播放。
其中,S1中所述的获取操作者人物模型头部动作的实时位置数据,具体包括:传感器捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。
其中,S1中所述的获取操作者人物模型手臂动作的实时位置数据,具体包括:手柄传感器捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。
其中,S3中具体包括:根据所述的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。
其中,S3中还包括:对操作者人物模型移动动画的优化,具体包括:获取手柄传感器模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;所述交点的竖直投影点即为操作者人物模型的目的地;直接设置操作者人物模型位置实现移动至所述的目的地。
其中,还包括步骤:S4、加载全景视频或全景图片,并渲染在虚拟现实场景中。
本发明的一种实时智能体感同步的系统,包括:头部动作数据获取单元,用于获取操作者人物模型头部动作的实时位置数据;手臂动作数据获取单元,用于获取操作者人物模型手臂动作的实时位置数据;全身位置数据测算单元,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。
其中,所述的全身位置数据测算单元还用于,对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。
其中,动画播放单元,用于根据所述全身位置数据测算单元测算的全身位置数据,对操作者人物模型进行实施的动画播放。
其中,所述的头部动作数据获取单元具体是捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。
其中,所述的手臂动作数据获取单元具体是捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。
其中,所述的动画播放单元具体是根据所述全身位置数据测算单元测算的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。
其中,所述的动画播放单元还用于对操作者人物模型移动动画的优化,具体是获取手掌模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;所述交点的竖直投影点即为操作者人物模型的目的地;直接设置操作者人物模型位置实现移动至所述的目的地。
其中,还包括:全景单元,用于加载全景视频或全景图片,并渲染在虚拟现实场景中。
本发明的实时智能体感同步的方法及系统,完善基于虚拟现实技术的实时智能体感同步技术,可以用于实现虚拟现实课堂教学中的教学资源播放、师生互动、教学流程管理等功能,支持师生多人在同一虚拟空间中的协同互动,带来了更优的用户体验。
【附图说明】
图1是本发明框架性系统结构示意图;
图2是本发明实施例1的方法步骤流程图;
图3是本发明实施例1中的环境模型示意图;
图4是本发明实施例2的方法步骤流程图;
图5是本发明实施例2中的环境模型示意图;
图6是本发明实施例3的系统结构示意图;
图7是本发明实施例3中的环境模型示意图;
图8本发明是实施例4的系统结构示意图;
图9是本发明实施例4中的环境模型示意图。
【具体实施方式】
发明人经过研究提出了一种实时智能体感同步的方法及系统,在具体实现中整套系统是基于局域网的解决方案,该系统用于但不限于实现虚拟现实课堂教学中的教学资源播放、师生互动、教学流程管理等功能,支持师生多人在同一虚拟空间中的协同互动。具体采用基于Netty(Netty是由JBOSS提供的一个java开源框架)的C/S通信架构,客户端为PCClient和一体机Focus Client,在具体实现中Focus Client端可以采用Focus头盔,操作者戴上Focus头盔后,运行Focus Client程序进入VR场景,人物模型支持头部,手臂,转身活动等动作,所有这些动作都是和真实操作者保持同步的,人物模型可以采用FinalIK技术,模型包含了各种人体关节,支持编程转动,在模型头部处绑定一个U3D摄像头,以此来显示人物模型的视野。服务器为Netty Server。客户端主要采用Unity3D技术,通过Netty服务器转发实时同步各自的状态,系统架构参见图1所示。主要功能如下:(1)VR课件资源管理:教师使用虚拟现实内容制作工具制作的课件上传至云端后,能实现一键从云端的教学资源库下载资源到本地,并通过type-c接口直接推送进教室里所有VR一体机中,本地已经下载的资源可以自动识别排除。能实现一键清空所有VR一体机上的VR教学资源。能显示VR教学资源下载、安装的进度,以及各台一体机的资源安装情况。对于安装包形式的教学资源可以后台静默安装和卸载。(2)师生分组VR互动教学:针对多人数虚拟现实教学场景,实现了师生分组互动方式。学生被按照物理座位分组,可以通过设置每组人数进行自定义分组管理。每组3-8名学生,默认5人,最后一组如果人数不足,自动合并至上一组。某一组人数调整时后续几组的成员自动依次向前补位,但不会影响到前面的小组。教师用户形象可以出现于所有分组,同时给所有组学生讲解。当场景为全景图片或全景视频时,同一个小组的成员进入同一个全景图片和全景视频。学生可通过手柄实现举手向老师提问功能或取消举手功能。学生举手后获得教师许可发言,其形象可以出现在所有分组中,并获得教师操作权限,教师可以终止其发言。此学生发言或者操作完毕后,使此学生编号从举手队列中消失,收回该学生的语音权、模型操作权和每组复制的影像。(3)VR教学资源播放控制:系统支持在虚拟现实教学场景中播放3D模型、3D场景、全景图片/视频、2D视频、第三方VR内容、传统PPT等多种类型的教学资源,实现展示型虚拟现实教学。系统能在75FPS的帧率下播放至少20000片面数的场景和模型,全景视频分辨率至少能达到4096×2160,2D视频分辨至少能达到7680x4320,视频流畅无断帧。支持在VR内用手柄快速切换教学资源,并且可以进行缩放、旋转、拾取操作。(4)VR场景画面传输显示:系统支持将VR里的场景画面传输出来,显示在PC机上和投放到投影仪上,让没有戴上VR一体机的人看到VR里正在发生的事情。以上框架性说明了本发明方法及系统,以下通过实施例描述具体实现方式。
实施例1、本实施例的实时智能体感同步的方法,参见图2所示,包括下列具体步骤:
S101、获取操作者人物模型头部动作和手臂动作的实时位置数据。
具体的头部动作同步技术:Focus传感器捕捉到操作者头部的位置实时移动详细信息,可以是6自由度转动信息,传入到Focus上运行的U3D Client程序中,U3D Client程序根据这些信息调整当前人物模型的头部摄像头位置(可以是6自由度转动信息),同时设置人物模型的头部位置(可以是6自由度转动信息),由此做到了操作者与模型的头部动作同步。
具体的手臂动作同步技术:Focus手柄传感器的实时位置信息,可以是6自由度转动信息,传入到U3D Client程序中,U3D Client程序根据这些信息设置当前人物模型的手掌位置,借助于FinalIK的机制,手掌位置的变化会自动牵拉调整人物模型的整个手臂的姿势,并得到操作者人物模型手臂动作的实时位置数据。
S102、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。
由于Focus传感器只提供头部和手臂位置,不提供躯干,腿部等其他部位位置信息,不能通过Focus传感器来同步人物模型的全身位置信息,因此发明人经过研究提出了全身位置数据测算单元,即VRBody-RLM模型,其原理是结合头部动作同步技术和手臂动作同步技术,可以得到实时的头部和手臂运动向量信息,以当前头部和手臂的实时运动向量等作为基本输入,来智能预测输出当前整个模型的位置信息(躯干转动方向,角度,脚部是否跟随转动等)。
在具体实现中先获取Focus传感器实时数据输入,即上述步骤得到的头部动作和手臂动作的实时位置数据;再将所述的实时位置数据进入全身位置数据测算单元处理,输出预测的全身位置数据;最后优选使用U3D动画技术进行动画播放。
全身位置数据测算单元的处理方式如下:
确定性的policy(Deterministic policy):a=π(s)a=π(s)
随机性的policy(Stochastic policy):π(a|s)=P[At=a|St=t]π(a|s)=P[At=a|St=t]
其中,tt是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合,St代表时刻t的状态,s代表其中某个特定的状态;
At∈A(St)At∈A(St),A(St)A(St)是在状态St下的actions的集合,At代表时刻t的行为,aa代表其中某个特定的行为。
奖励信号(a reward signal)
Reward就是一个标量值,是每个time step中环境根据agent的行为返回给agent的信号,reward定义了在该情景下执行该行为的好坏,agent可以根据reward来调整自己的policy。常用RR来表示。
值函数(value function)
Reward定义的是立即的收益,而value function定义的是长期的收益,它可以看作是累计的reward,常用vv来表示。
环境模型(a model of the environment)参见图3所示,其中,t是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合;
At∈A(St),A(St)是在状态St下的actions的集合;
Rt∈R∈R是数值型的reward
qπ(s,a)qπ(s,a)策略ππ的行动价值方法。
v*(s)v*(s)最优状态价值方法。
q*(s,a)q*(s,a)最优行动价值方法。
在网络传输过程中,实时位置数据由网络传输,当接收到位置同步信息时,首先进行数据包的解析,包括拆包和合包。数据包包括包头和包体,包头包含了本数据包的长度,通过读取长度确定该数据是否是一个完整的数据包。如果收到的信息长度大于从包头读取的数据包长度,则说明已经收到一条完整的数据包,读出该长度的数据包进行解析,否则继续接受下一条数据包,直到收到一条完整的数据包。
全身位置数据测算单元避免了硬性编码带来的阈值选择问题(例如:头部转动多大角度才进行躯干转动),同时也避免了产生各种扭曲的非正常模型姿势,从而得到一个非常自然的模型姿势。
进一步考虑到实际因素,受限于Focus的计算性能与操作者快速运动等情况,实时预测并设置整个模型位置信息是不现实的,会导致模型的位置信息延迟于操作者的实际位置。因此优选的,全身位置数据测算单元对输出的整个模型的位置信息在时间上有超前的预测,即在全身位置数据测算单元输入向量上增加一个时间维度进行训练和预测,进而得到超前操作者人物模型的全身位置数据。
上述得到超前操作者人物模型的全身位置数据具体是在客户端启动时,服务器计算出每个客户端的ping值,当客户端A有移动的操作时,向服务器发送目标点P。服务器收到消息后向每个客户端广播,发送消息中包含时间差(由客户端A和接收消息的客户端的ping值求得),客户端收到移动的消息时,通过时间差求出该时间点客户端A应该所在的位置P0,然后定义一个点P1,该点在P0后P点前,然后计算出A到P1所需的剩余时间,使客户端中的A在该剩余时间中移动到P1点,然后按照A点原来的移动速度移动到P点。旋转角度的计算同理。
ping=(System.DateTime.Now.Millisecond-OriTime)*0.5f;
OriTime表示服务器向客户端发送检测ping值消息时的服务器时间
TimeInterval=pingA+pingB;
TimeInterval表示从A开始移动到B接收到A移动的消息需要的时间
P0=TimeInterval*moveSpeed;
P0表示在这段时间内A已经移动的距离
P1=(P-P0)/2+P0;//自定义
P1是自定义的一个点,表示A从开始移动到B端的A与实际A同步位置的距离
moveSpeedB=P1/TimeInterval;
moveSpeedB表示B端的A移动到P1的速度。
实施例2、本实施例的实时智能体感同步的方法,参见图4所示,包括下列具体步骤:
S201、获取操作者人物模型头部动作和手臂动作的实时位置数据。
具体的头部动作同步技术:Focus传感器捕捉到操作者头部的位置实时移动详细信息,可以是6自由度转动信息,传入到Focus上运行的U3D Client程序中,U3D Client程序根据这些信息调整当前人物模型的头部摄像头位置(可以是6自由度转动信息),同时设置人物模型的头部位置(可以是6自由度转动信息),由此做到了操作者与模型的头部动作同步。
具体的手臂动作同步技术:Focus手柄传感器的实时位置信息,可以是6自由度转动信息,传入到U3D Client程序中,U3D Client程序根据这些信息设置当前人物模型的手掌位置,借助于FinalIK的机制,手掌位置的变化会自动牵拉调整人物模型的整个手臂的姿势,并得到操作者人物模型手臂动作的实时位置数据。
S202、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。
由于Focus传感器只提供头部和手臂位置,不提供躯干,腿部等其他部位位置信息,不能通过Focus传感器来同步人物模型的全身位置信息,因此发明人经过研究提出了全身位置数据测算单元,即VRBody-RLM模型,其原理是结合头部动作同步技术和手臂动作同步技术,可以得到实时的头部和手臂运动向量信息,以当前头部和手臂的实时运动向量等作为基本输入,来智能预测输出当前整个模型的位置信息(躯干转动方向,角度,脚部是否跟随转动等)。
在具体实现中先获取Focus传感器实时数据输入,即上述步骤得到的头部动作和手臂动作的实时位置数据;再将所述的实时位置数据进入全身位置数据测算单元处理,输出预测的全身位置数据;最后优选使用U3D动画技术进行动画播放。
全身位置数据测算单元的处理方式如下:
确定性的policy(Deterministic policy):a=π(s)a=π(s)
随机性的policy(Stochastic policy):π(a|s)=P[At=a|St=t]π(a|s)=P[At=a|St=t]
其中,tt是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合,St代表时刻t的状态,s代表其中某个特定的状态;
At∈A(St)At∈A(St),A(St)A(St)是在状态St下的actions的集合,At代表时刻t的行为,aa代表其中某个特定的行为。
奖励信号(a reward signal)
Reward就是一个标量值,是每个time step中环境根据agent的行为返回给agent的信号,reward定义了在该情景下执行该行为的好坏,agent可以根据reward来调整自己的policy。常用RR来表示。
值函数(value function)
Reward定义的是立即的收益,而value function定义的是长期的收益,它可以看作是累计的reward,常用vv来表示。
环境模型(a model of the environment)参见图5所示,其中,t是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合;
At∈A(St),A(St)是在状态St下的actions的集合;
Rt∈R∈R是数值型的reward
qπ(s,a)qπ(s,a)策略ππ的行动价值方法。
v*(s)v*(s)最优状态价值方法。
q*(s,a)q*(s,a)最优行动价值方法。
在网络传输过程中,实时位置数据由网络传输,当接收到位置同步信息时,首先进行数据包的解析,包括拆包和合包。数据包包括包头和包体,包头包含了本数据包的长度,通过读取长度确定该数据是否是一个完整的数据包。如果收到的信息长度大于从包头读取的数据包长度,则说明已经收到一条完整的数据包,读出该长度的数据包进行解析,否则继续接受下一条数据包,直到收到一条完整的数据包。
全身位置数据测算单元避免了硬性编码带来的阈值选择问题(例如:头部转动多大角度才进行躯干转动),同时也避免了产生各种扭曲的非正常模型姿势,从而得到一个非常自然的模型姿势。
进一步考虑到实际因素,受限于Focus的计算性能与操作者快速运动等情况,实时预测并设置整个模型位置信息是不现实的,会导致模型的位置信息延迟于操作者的实际位置。因此优选的,全身位置数据测算单元对输出的整个模型的位置信息在时间上有超前的预测,即在全身位置数据测算单元输入向量上增加一个时间维度进行训练和预测,进而得到超前操作者人物模型的全身位置数据。
上述得到超前操作者人物模型的全身位置数据具体是在客户端启动时,服务器计算出每个客户端的ping值,当客户端A有移动的操作时,向服务器发送目标点P。服务器收到消息后向每个客户端广播,发送消息中包含时间差(由客户端A和接收消息的客户端的ping值求得),客户端收到移动的消息时,通过时间差求出该时间点客户端A应该所在的位置P0,然后定义一个点P1,该点在P0后P点前,然后计算出A到P1所需的剩余时间,使客户端中的A在该剩余时间中移动到P1点,然后按照A点原来的移动速度移动到P点。旋转角度的计算同理。
ping=(System.DateTime.Now.Millisecond-OriTime)*0.5f;
OriTime表示服务器向客户端发送检测ping值消息时的服务器时间
TimeInterval=pingA+pingB;
TimeInterval表示从A开始移动到B接收到A移动的消息需要的时间
P0=TimeInterval*moveSpeed;
P0表示在这段时间内A已经移动的距离
P1=(P-P0)/2+P0;//自定义
P1是自定义的一个点,表示A从开始移动到B端的A与实际A同步位置的距离
moveSpeedB=P1/TimeInterval;
moveSpeedB表示B端的A移动到P1的速度。
S203、根据所述的全身位置数据,对操作者人物模型进行实施的动画播放。
根据全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放,具体结合U3D的动画状态融合树,动画遮罩技术实现模型的动画播放,当操作者转身时,根据全身位置数据测算单元的输出得到位置变化量大小,由此设置动画播放参数,动画状态机完成动画融合,人物过渡播放移动效果。
在AnimatorController中添加一个空状态Idel,然后设置动画片断为我们的待机动画。
然后再创建一个动画融合树WalToRun:
双击融合树进入编辑状态,在右侧的Inspector面板中的Motion列表中添加两个元素,从上到下依次选择我们的行走动画和奔跑动画。
创建float类型动画参数Run,将融合树的Parameter参数设置为Run:
最后,将待机状态Idel使用Translation连接到融合树,设置Condition参数为RunGreater 0.1,反过来融合树到Idel的连接Condition设置为Run Less 0.1。
遮罩层的基本原理是:能够透过该图层中的对象看到“被遮罩层”中的对象及其属性(包括它们的变形效果),但是遮罩层中的对象中的许多属性如渐变色、透明度、颜色和线条样式等却是被忽略的。比如,我们不能通过遮罩层的渐变色来实现被遮罩层的渐变色变化。要在场景中显示遮罩效果,可以锁定遮罩层和被遮罩层。可以用“Actions”动作语句建立遮罩,但这种情况下只能有一个“被遮罩层”,同时,不能设置_Alpha属性。不能用一个遮罩层试图遮蔽另一个遮罩层。遮罩可以应用在gif动画上。在制作过程中,遮罩层经常挡住下层的元件,影响视线,无法编辑,可以按下遮罩层时间轴面板的显示图层轮廓按钮,使之变成,使遮罩层只显示边框形状,在种情况下,你还可以拖动边框调整遮罩图形的外形和位置。在被遮罩层中不能放置动态文本。通过加入动作动画进行补偿,使得人物与模型动作同步变得非常真实与流畅,增强了用户VR体验。
优选对操作者人物模型移动动画进行优化,具体包括:抛物线的产生使用了线段射线技术,即整条抛物线是由一系列线段连接成的。每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:(终点)Pos=(起点)Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float。抛物线与场景的交点定位借助了U3D的射线+碰撞器机制自动产生,交点的竖直投影点就是人物模型的目的地。线段射线技术算法可以快速定位目的地,而无需借助U3D自带重力系统的作用产生(重力系统作用于物体仿真产生抛物线需要时间),同时使用GL绘制该抛物线可以让操作者快速看见行动轨迹和目的地,为操作者提供了良好的用户体验。目的地确定后,U3D可以直接设置人物模型位置实现移动。这种瞬时移动的方式避免了连续移动时场景变化带来的眩晕感,进一步提升了用户体验。
S204、加载全景视频或全景图片,并渲染在虚拟现实场景中。
具体在VR场景中,整个VR场景是在一个球体内部,将加载的全景视频和全景图片渲染在VR场景环境球体内表面,而Focus操作者的人物模型观察到的就是球体内表面上的全景视频和全景图片,由此达到身临其境的状态。使用U3D的VideoPlayer组件和MovieTexture组件可以对全景视频和全景图片进行加载,同时使用U3D的Shader技术,修改3D网格渲染面,使球体内表面渲染材质,视频流和图片转换为材质贴到球体里面,完成VR内部全景视频和全景图片的播放与展示。
实施例3、本实施例的实时智能体感同步的系统,参见图6所示,包括下列单元:头部动作数据获取单元301,手臂动作数据获取单元302,全身位置数据测算单元303。
头部动作数据获取单元301,用于获取操作者人物模型头部动作的实时位置数据。具体是Focus传感器捕捉到操作者头部的位置实时移动详细信息,可以是6自由度转动信息,传入到Focus上运行的U3D Client程序中,U3D Client程序根据这些信息调整当前人物模型的头部摄像头位置(可以是6自由度转动信息),同时设置人物模型的头部位置(可以是6自由度转动信息),由此做到了操作者与模型的头部动作同步。
手臂动作数据获取单元302,用于获取操作者人物模型手臂动作的实时位置数据。具体是Focus手柄传感器的实时位置信息,可以是6自由度转动信息,传入到U3D Client程序中,U3D Client程序根据这些信息设置当前人物模型的手掌位置,借助于FinalIK的机制,手掌位置的变化会自动牵拉调整人物模型的整个手臂的姿势,并得到操作者人物模型手臂动作的实时位置数据。
全身位置数据测算单元303,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。
由于Focus传感器只提供头部和手臂位置,不提供躯干,腿部等其他部位位置信息,不能通过Focus传感器来同步人物模型的全身位置信息,因此发明人经过研究提出了全身位置数据测算单元303,其原理是结合头部动作同步技术和手臂动作同步技术,可以得到实时的头部和手臂运动向量信息,以当前头部和手臂的实时运动向量等作为基本输入,来智能预测输出当前整个模型的位置信息(躯干转动方向,角度,脚部是否跟随转动等)。
在具体实现中先获取Focus传感器实时数据输入,即上述步骤得到的头部动作和手臂动作的实时位置数据;再将所述的实时位置数据进入全身位置数据测算单元303处理,输出预测的全身位置数据;最后优选使用U3D动画技术进行动画播放。
全身位置数据测算单元303的处理方式如下:
确定性的policy(Deterministic policy):a=π(s)a=π(s)
随机性的policy(Stochastic policy):π(a|s)=P[At=a|St=t]π(a|s)=P[At=a|St=t]
其中,tt是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合,St代表时刻t的状态,s代表其中某个特定的状态;
At∈A(St)At∈A(St),A(St)A(St)是在状态St下的actions的集合,At代表时刻t的行为,aa代表其中某个特定的行为。
奖励信号(a reward signal)
Reward就是一个标量值,是每个time step中环境根据agent的行为返回给agent的信号,reward定义了在该情景下执行该行为的好坏,agent可以根据reward来调整自己的policy。常用RR来表示。
值函数(value function)
Reward定义的是立即的收益,而value function定义的是长期的收益,它可以看作是累计的reward,常用vv来表示。
环境模型(a model of the environment)参见图7所示,其中,t是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合;
At∈A(St),A(St)是在状态St下的actions的集合;
Rt∈R∈R是数值型的reward
qπ(s,a)qπ(s,a)策略ππ的行动价值方法。
v*(s)v*(s)最优状态价值方法。
q*(s,a)q*(s,a)最优行动价值方法。
在网络传输过程中,实时位置数据由网络传输,当接收到位置同步信息时,首先进行数据包的解析,包括拆包和合包。数据包包括包头和包体,包头包含了本数据包的长度,通过读取长度确定该数据是否是一个完整的数据包。如果收到的信息长度大于从包头读取的数据包长度,则说明已经收到一条完整的数据包,读出该长度的数据包进行解析,否则继续接受下一条数据包,直到收到一条完整的数据包。
全身位置数据测算单元303避免了硬性编码带来的阈值选择问题(例如:头部转动多大角度才进行躯干转动),同时也避免了产生各种扭曲的非正常模型姿势,从而得到一个非常自然的模型姿势。
进一步考虑到实际因素,受限于Focus的计算性能与操作者快速运动等情况,实时预测并设置整个模型位置信息是不现实的,会导致模型的位置信息延迟于操作者的实际位置。因此优选的,全身位置数据测算单元303对输出的整个模型的位置信息在时间上有超前的预测,即在全身位置数据测算单元303输入向量上增加一个时间维度进行训练和预测,进而得到超前操作者人物模型的全身位置数据。上述得到超前操作者人物模型的全身位置数据具体是在客户端启动时,服务器计算出每个客户端的ping值,当客户端A有移动的操作时,向服务器发送目标点P。服务器收到消息后向每个客户端广播,发送消息中包含时间差(由客户端A和接收消息的客户端的ping值求得),客户端收到移动的消息时,通过时间差求出该时间点客户端A应该所在的位置P0,然后定义一个点P1,该点在P0后P点前,然后计算出A到P1所需的剩余时间,使客户端中的A在该剩余时间中移动到P1点,然后按照A点原来的移动速度移动到P点。旋转角度的计算同理。
ping=(System.DateTime.Now.Millisecond-OriTime)*0.5f;
OriTime表示服务器向客户端发送检测ping值消息时的服务器时间
TimeInterval=pingA+pingB;
TimeInterval表示从A开始移动到B接收到A移动的消息需要的时间
P0=TimeInterval*moveSpeed;
P0表示在这段时间内A已经移动的距离
P1=(P-P0)/2+P0;//自定义
P1是自定义的一个点,表示A从开始移动到B端的A与实际A同步位置的距离
moveSpeedB=P1/TimeInterval;
moveSpeedB表示B端的A移动到P1的速度。
实施例4、本实施例的实时智能体感同步的系统,参见图8所示,包括下列单元:头部动作数据获取单元401,手臂动作数据获取单元402,全身位置数据测算单元403,动画播放单元404,以及全景单元405。
头部动作数据获取单元401,用于获取操作者人物模型头部动作的实时位置数据。具体是Focus传感器捕捉到操作者头部的位置实时移动详细信息,可以是6自由度转动信息,传入到Focus上运行的U3D Client程序中,U3D Client程序根据这些信息调整当前人物模型的头部摄像头位置(可以是6自由度转动信息),同时设置人物模型的头部位置(可以是6自由度转动信息),由此做到了操作者与模型的头部动作同步。
手臂动作数据获取单元402,用于获取操作者人物模型手臂动作的实时位置数据。具体是Focus手柄传感器的实时位置信息,可以是6自由度转动信息,传入到U3D Client程序中,U3D Client程序根据这些信息设置当前人物模型的手掌位置,借助于FinalIK的机制,手掌位置的变化会自动牵拉调整人物模型的整个手臂的姿势,并得到操作者人物模型手臂动作的实时位置数据。
全身位置数据测算单元403,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。
由于Focus传感器只提供头部和手臂位置,不提供躯干,腿部等其他部位位置信息,不能通过Focus传感器来同步人物模型的全身位置信息,因此发明人经过研究提出了全身位置数据测算单元403,其原理是结合头部动作同步技术和手臂动作同步技术,可以得到实时的头部和手臂运动向量信息,以当前头部和手臂的实时运动向量等作为基本输入,来智能预测输出当前整个模型的位置信息(躯干转动方向,角度,脚部是否跟随转动等)。
在具体实现中先获取Focus传感器实时数据输入,即上述步骤得到的头部动作和手臂动作的实时位置数据;再将所述的实时位置数据进入全身位置数据测算单元403处理,输出预测的全身位置数据;最后优选使用U3D动画技术进行动画播放。
全身位置数据测算单元403的处理方式如下:
确定性的policy(Deterministic policy):a=π(s)a=π(s)
随机性的policy(Stochastic policy):π(a|s)=P[At=a|St=t]π(a|s)=P[At=a|St=t]
其中,tt是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合,St代表时刻t的状态,s代表其中某个特定的状态;
At∈A(St)At∈A(St),A(St)A(St)是在状态St下的actions的集合,At代表时刻t的行为,aa代表其中某个特定的行为。
奖励信号(a reward signal)
Reward就是一个标量值,是每个time step中环境根据agent的行为返回给agent的信号,reward定义了在该情景下执行该行为的好坏,agent可以根据reward来调整自己的policy。常用RR来表示。
值函数(value function)
Reward定义的是立即的收益,而value function定义的是长期的收益,它可以看作是累计的reward,常用vv来表示。
环境模型(a model of the environment)参见图9所示,其中,t是时间点,t=0,1,2,3,......t=0,1,2,3,......
St∈S,S是环境状态的集合;
At∈A(St),A(St)是在状态St下的actions的集合;
Rt∈R∈R是数值型的reward
qπ(s,a)qπ(s,a)策略ππ的行动价值方法。
v*(s)v*(s)最优状态价值方法。
q*(s,a)q*(s,a)最优行动价值方法。
在网络传输过程中,实时位置数据由网络传输,当接收到位置同步信息时,首先进行数据包的解析,包括拆包和合包。数据包包括包头和包体,包头包含了本数据包的长度,通过读取长度确定该数据是否是一个完整的数据包。如果收到的信息长度大于从包头读取的数据包长度,则说明已经收到一条完整的数据包,读出该长度的数据包进行解析,否则继续接受下一条数据包,直到收到一条完整的数据包。
全身位置数据测算单元403避免了硬性编码带来的阈值选择问题(例如:头部转动多大角度才进行躯干转动),同时也避免了产生各种扭曲的非正常模型姿势,从而得到一个非常自然的模型姿势。
进一步考虑到实际因素,受限于Focus的计算性能与操作者快速运动等情况,实时预测并设置整个模型位置信息是不现实的,会导致模型的位置信息延迟于操作者的实际位置。因此优选的,全身位置数据测算单元403对输出的整个模型的位置信息在时间上有超前的预测,即在全身位置数据测算单元403输入向量上增加一个时间维度进行训练和预测,进而得到超前操作者人物模型的全身位置数据。上述得到超前操作者人物模型的全身位置数据具体是在客户端启动时,服务器计算出每个客户端的ping值,当客户端A有移动的操作时,向服务器发送目标点P。服务器收到消息后向每个客户端广播,发送消息中包含时间差(由客户端A和接收消息的客户端的ping值求得),客户端收到移动的消息时,通过时间差求出该时间点客户端A应该所在的位置P0,然后定义一个点P1,该点在P0后P点前,然后计算出A到P1所需的剩余时间,使客户端中的A在该剩余时间中移动到P1点,然后按照A点原来的移动速度移动到P点。旋转角度的计算同理。
ping=(System.DateTime.Now.Millisecond-OriTime)*0.5f;
OriTime表示服务器向客户端发送检测ping值消息时的服务器时间
TimeInterval=pingA+pingB;
TimeInterval表示从A开始移动到B接收到A移动的消息需要的时间
P0=TimeInterval*moveSpeed;
P0表示在这段时间内A已经移动的距离
P1=(P-P0)/2+P0;//自定义
P1是自定义的一个点,表示A从开始移动到B端的A与实际A同步位置的距离
moveSpeedB=P1/TimeInterval;
moveSpeedB表示B端的A移动到P1的速度。
动画播放单元403,用于根据所述全身位置数据测算单元测算的全身位置数据,对操作者人物模型进行实施的动画播放。具体是根据全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放,具体结合U3D的动画状态融合树,动画遮罩技术实现模型的动画播放,当操作者转身时,根据全身位置数据测算单元的输出得到位置变化量大小,由此设置动画播放参数,动画状态机完成动画融合,人物过渡播放移动效果。
在AnimatorController中添加一个空状态Idel,然后设置动画片断为我们的待机动画。
然后再创建一个动画融合树WalToRun:
双击融合树进入编辑状态,在右侧的Inspector面板中的Motion列表中添加两个元素,从上到下依次选择我们的行走动画和奔跑动画。
创建float类型动画参数Run,将融合树的Parameter参数设置为Run:
最后,将待机状态Idel使用Translation连接到融合树,设置Condition参数为RunGreater 0.1,反过来融合树到Idel的连接Condition设置为Run Less 0.1。
遮罩层的基本原理是:能够透过该图层中的对象看到“被遮罩层”中的对象及其属性(包括它们的变形效果),但是遮罩层中的对象中的许多属性如渐变色、透明度、颜色和线条样式等却是被忽略的。比如,我们不能通过遮罩层的渐变色来实现被遮罩层的渐变色变化。要在场景中显示遮罩效果,可以锁定遮罩层和被遮罩层。可以用“Actions”动作语句建立遮罩,但这种情况下只能有一个“被遮罩层”,同时,不能设置_Alpha属性。不能用一个遮罩层试图遮蔽另一个遮罩层。遮罩可以应用在gif动画上。在制作过程中,遮罩层经常挡住下层的元件,影响视线,无法编辑,可以按下遮罩层时间轴面板的显示图层轮廓按钮,使之变成,使遮罩层只显示边框形状,在种情况下,你还可以拖动边框调整遮罩图形的外形和位置。在被遮罩层中不能放置动态文本。通过加入动作动画进行补偿,使得人物与模型动作同步变得非常真实与流畅,增强了用户VR体验。
动画播放单元403优选对操作者人物模型移动动画进行优化,具体包括:抛物线的产生使用了线段射线技术,即整条抛物线是由一系列线段连接成的。每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:(终点)Pos=(起点)Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float。抛物线与场景的交点定位借助了U3D的射线+碰撞器机制自动产生,交点的竖直投影点就是人物模型的目的地。线段射线技术算法可以快速定位目的地,而无需借助U3D自带重力系统的作用产生(重力系统作用于物体仿真产生抛物线需要时间),同时使用GL绘制该抛物线可以让操作者快速看见行动轨迹和目的地,为操作者提供了良好的用户体验。目的地确定后,U3D可以直接设置人物模型位置实现移动。这种瞬时移动的方式避免了连续移动时场景变化带来的眩晕感,进一步提升了用户体验。
全景单元405,用于加载全景视频或全景图片,并渲染在虚拟现实场景中。具体在VR场景中,整个VR场景是在一个球体内部,将加载的全景视频和全景图片渲染在VR场景环境球体内表面,而Focus操作者的人物模型观察到的就是球体内表面上的全景视频和全景图片,由此达到身临其境的状态。使用U3D的VideoPlayer组件和MovieTexture组件可以对全景视频和全景图片进行加载,同时使用U3D的Shader技术,修改3D网格渲染面,使球体内表面渲染材质,视频流和图片转换为材质贴到球体里面,完成VR内部全景视频和全景图片的播放与展示。
这里本发明的描述和应用都只是说明性和示意性的,并非是想要将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是完全可能的,对于那些本领域的普通技术人员来说,实施例的替换和等效的各种部件均是公知的。本领域技术人员还应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现,以及在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。

Claims (16)

1.一种实时智能体感同步的方法,其特征在于,包括下列步骤:
S1、获取操作者人物模型头部动作和手臂动作的实时位置数据;
S2、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。
2.如权利要求1所述的实时智能体感同步的方法,其特征在于,S2中还包括:对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。
3.如权利要求1或2所述的实时智能体感同步的方法,其特征在于,还包括步骤:S3、根据所述的全身位置数据,对操作者人物模型进行实施的动画播放。
4.如权利要求1所述的实时智能体感同步的方法,其特征在于,S1中所述的获取操作者人物模型头部动作的实时位置数据,具体包括:传感器捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。
5.如权利要求1所述的实时智能体感同步的方法,其特征在于,S1中所述的获取操作者人物模型手臂动作的实时位置数据,具体包括:手柄传感器捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。
6.如权利要求3所述的实时智能体感同步的方法,其特征在于,S3中具体包括:根据所述的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。
7.如权利要求3所述的实时智能体感同步的方法,其特征在于,S3中还包括:对操作者人物模型移动动画的优化,具体包括:
获取手柄传感器模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;
所述交点的竖直投影点即为操作者人物模型的目的地;
直接设置操作者人物模型位置实现移动至所述的目的地。
8.如权利要求3所述的实时智能体感同步的方法,其特征在于,还包括步骤:S4、加载全景视频或全景图片,并渲染在虚拟现实场景中。
9.一种实时智能体感同步的系统,其特征在于,包括:
头部动作数据获取单元,用于获取操作者人物模型头部动作的实时位置数据;
手臂动作数据获取单元,用于获取操作者人物模型手臂动作的实时位置数据;
全身位置数据测算单元,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。
10.如权利要求9所述的实时智能体感同步的系统,其特征在于,所述的全身位置数据测算单元还用于,对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。
11.如权利要求9或10所述的实时智能体感同步的系统,其特征在于,动画播放单元,用于根据所述全身位置数据测算单元测算的全身位置数据,对操作者人物模型进行实施的动画播放。
12.如权利要求9所述的实时智能体感同步的系统,其特征在于,所述的头部动作数据获取单元具体是捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。
13.如权利要求9所述的实时智能体感同步的系统,其特征在于,所述的手臂动作数据获取单元具体是捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。
14.如权利要求11所述的实时智能体感同步的系统,其特征在于,所述的动画播放单元具体是根据所述全身位置数据测算单元测算的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。
15.如权利要求11所述的实时智能体感同步的系统,其特征在于,所述的动画播放单元还用于对操作者人物模型移动动画的优化,具体是获取手掌模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;
所述交点的竖直投影点即为操作者人物模型的目的地;
直接设置操作者人物模型位置实现移动至所述的目的地。
16.如权利要求11所述的实时智能体感同步的系统,其特征在于,还包括:全景单元,用于加载全景视频或全景图片,并渲染在虚拟现实场景中。
CN201810694429.3A 2018-06-29 2018-06-29 一种实时智能体感同步的方法及系统 Pending CN109032339A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810694429.3A CN109032339A (zh) 2018-06-29 2018-06-29 一种实时智能体感同步的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810694429.3A CN109032339A (zh) 2018-06-29 2018-06-29 一种实时智能体感同步的方法及系统

Publications (1)

Publication Number Publication Date
CN109032339A true CN109032339A (zh) 2018-12-18

Family

ID=65520946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810694429.3A Pending CN109032339A (zh) 2018-06-29 2018-06-29 一种实时智能体感同步的方法及系统

Country Status (1)

Country Link
CN (1) CN109032339A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633013A (zh) * 2019-10-17 2019-12-31 于生明 一种全方位万向行动平台的控制方法
CN112090076A (zh) * 2020-08-14 2020-12-18 深圳中清龙图网络技术有限公司 游戏角色动作控制方法、装置、设备和介质
CN112650391A (zh) * 2020-12-23 2021-04-13 网易(杭州)网络有限公司 基于虚拟现实的人机交互方法、装置、设备及存储介质
CN115065850A (zh) * 2022-07-05 2022-09-16 中国电信股份有限公司 体感操控方法及装置、存储介质、电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991001778A1 (de) * 1989-08-08 1991-02-21 Österreichisches Forschungszentrum Seibersdorf Ges.M.B.H. Verfahren und vorrichtung zur bestimmung der optimalen wurf-, schuss- bzw. abspieltrainingsgeschwindigkeit bei wurfsportarten bzw. ballspielen
WO2000048129A1 (en) * 1999-02-12 2000-08-17 Duran Method and apparatus for animating two-dimensional and three-dimensional images
KR20070062422A (ko) * 2005-12-12 2007-06-15 혼다 기켄 고교 가부시키가이샤 다리식 이동 로봇 제어장치 및 다리식 이동 로봇, 및,다리식 이동 로봇의 제어 방법
US20080201100A1 (en) * 2004-10-15 2008-08-21 Dimitri Petrov Method and apparatus for locating the trajectory of an object in motion
CN101854986A (zh) * 2007-11-14 2010-10-06 网络体育有限公司 运动动画制作方法和设备
CN103150752A (zh) * 2013-02-02 2013-06-12 浙江大学 一种基于关键标记点的人体姿态稀疏重建方法
CN106774820A (zh) * 2016-11-08 2017-05-31 北京暴风魔镜科技有限公司 人体姿态与虚拟场景叠加的方法、装置和系统
CN107077624A (zh) * 2014-09-23 2017-08-18 微软技术许可有限责任公司 跟踪手部/身体姿势
CN107469343A (zh) * 2017-07-28 2017-12-15 深圳市瑞立视多媒体科技有限公司 虚拟现实交互方法、装置及系统
CN108186042A (zh) * 2018-01-31 2018-06-22 沈阳东软医疗系统有限公司 一种图像重建方法和扫描床

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991001778A1 (de) * 1989-08-08 1991-02-21 Österreichisches Forschungszentrum Seibersdorf Ges.M.B.H. Verfahren und vorrichtung zur bestimmung der optimalen wurf-, schuss- bzw. abspieltrainingsgeschwindigkeit bei wurfsportarten bzw. ballspielen
WO2000048129A1 (en) * 1999-02-12 2000-08-17 Duran Method and apparatus for animating two-dimensional and three-dimensional images
US20080201100A1 (en) * 2004-10-15 2008-08-21 Dimitri Petrov Method and apparatus for locating the trajectory of an object in motion
KR20070062422A (ko) * 2005-12-12 2007-06-15 혼다 기켄 고교 가부시키가이샤 다리식 이동 로봇 제어장치 및 다리식 이동 로봇, 및,다리식 이동 로봇의 제어 방법
CN101854986A (zh) * 2007-11-14 2010-10-06 网络体育有限公司 运动动画制作方法和设备
CN103150752A (zh) * 2013-02-02 2013-06-12 浙江大学 一种基于关键标记点的人体姿态稀疏重建方法
CN107077624A (zh) * 2014-09-23 2017-08-18 微软技术许可有限责任公司 跟踪手部/身体姿势
CN106774820A (zh) * 2016-11-08 2017-05-31 北京暴风魔镜科技有限公司 人体姿态与虚拟场景叠加的方法、装置和系统
CN107469343A (zh) * 2017-07-28 2017-12-15 深圳市瑞立视多媒体科技有限公司 虚拟现实交互方法、装置及系统
CN108186042A (zh) * 2018-01-31 2018-06-22 沈阳东软医疗系统有限公司 一种图像重建方法和扫描床

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FAN JIANG ET AL: "Real-time Full-body Motion Reconstruction and Recognition for Off-the-Shelf VR", 《THE 15TH ACM SIGGPAPH CONFERENCE》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633013A (zh) * 2019-10-17 2019-12-31 于生明 一种全方位万向行动平台的控制方法
CN110633013B (zh) * 2019-10-17 2022-12-20 于生明 一种全方位万向行动平台的控制方法
CN112090076A (zh) * 2020-08-14 2020-12-18 深圳中清龙图网络技术有限公司 游戏角色动作控制方法、装置、设备和介质
CN112090076B (zh) * 2020-08-14 2022-02-01 深圳中清龙图网络技术有限公司 游戏角色动作控制方法、装置、设备和介质
CN112650391A (zh) * 2020-12-23 2021-04-13 网易(杭州)网络有限公司 基于虚拟现实的人机交互方法、装置、设备及存储介质
CN115065850A (zh) * 2022-07-05 2022-09-16 中国电信股份有限公司 体感操控方法及装置、存储介质、电子设备
CN115065850B (zh) * 2022-07-05 2024-01-12 中国电信股份有限公司 体感操控方法及装置、存储介质、电子设备

Similar Documents

Publication Publication Date Title
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
WO2023045144A1 (zh) 一种立体综合教学场系统的工作方法
RU2621644C2 (ru) Мир массового одновременного удаленного цифрового присутствия
US20180356893A1 (en) Systems and methods for virtual training with haptic feedback
CN109032339A (zh) 一种实时智能体感同步的方法及系统
CN106527857A (zh) 一种基于虚拟现实的全景视频交互方法
Sheppard et al. Advancing interactive collaborative mediums through tele-immersive dance (TED) a symbiotic creativity and design environment for art and computer science
KR102186607B1 (ko) 증강현실을 통한 발레 공연 시스템 및 방법
CN111355944B (zh) 生成并用信号传递全景图像之间的转换
JP2022500795A (ja) アバターアニメーション
KR20110045719A (ko) 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템
WO2021246183A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
Joslin et al. Trends in networked collaborative virtual environments
Fu et al. Real-time multimodal human–avatar interaction
Helle et al. Miracle Handbook: Guidelines for Mixed Reality Applications for culture and learning experiences
CN106954092A (zh) 一种基于云计算的虚拟现实自行车实现方法
CN115379278B (zh) 基于扩展现实(xr)技术沉浸式微课的录制方法及系统
Pang et al. Design of Remote Real-time Sharing System Based on Virtual Reality Technology
Cannavò et al. AR-MoCap: Using Augmented Reality to Support Motion Capture Acting
Parker Theater as virtual reality
CN110033654A (zh) 基于虚拟现实的沉浸式语言学习系统
Matos et al. The visorama system: A functional overview of a new virtual reality environment
US20230326161A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
Zhao et al. Application of computer virtual simulation technology in tourism industry
Tollola Procedural animations in interactive art experiences--A state of the art review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 563123 Zunyi university student innovation and entrepreneurship Park, Ping'an Avenue, Xinpu New District, Zunyi City, Guizhou Province

Applicant after: Guizhou weiai Technology Group Co.,Ltd.

Address before: 100064 floor 2, building 3, North Campus of Beijing Open University, Haidian District, Beijing

Applicant before: GUIZHOU WEIAI EDUCATION TECHNOLOGY Co.,Ltd.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181218