CN109116973A - 数据处理方法和装置 - Google Patents

数据处理方法和装置 Download PDF

Info

Publication number
CN109116973A
CN109116973A CN201710486186.XA CN201710486186A CN109116973A CN 109116973 A CN109116973 A CN 109116973A CN 201710486186 A CN201710486186 A CN 201710486186A CN 109116973 A CN109116973 A CN 109116973A
Authority
CN
China
Prior art keywords
scene
user
virtual
default
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710486186.XA
Other languages
English (en)
Other versions
CN109116973B (zh
Inventor
曹壹
晋欢欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710486186.XA priority Critical patent/CN109116973B/zh
Publication of CN109116973A publication Critical patent/CN109116973A/zh
Application granted granted Critical
Publication of CN109116973B publication Critical patent/CN109116973B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本申请公开了数据处理方法和装置。该方法包括:接收预设检测装置发送的佩戴该预设检测装置的用户当前的动作数据;根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,该目标虚拟角色在流体中的下沉深度;根据该下沉深度,确定该虚拟场景的预设虚拟摄像机在该虚拟场景中采集到的子场景,并渲染该子场景,生成三维画面;将该三维画面发送给预设显示器,以使该预设显示器在显示区域展示该三维画面。本申请的实施例能够根据用户的动作数据生成三维画面并发送给显示区域,以使显示区域显示的内容更加丰富。

Description

数据处理方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及数据处理方法和装置。
背景技术
用户在运动或者进行其他活动时,能够产生动作数据给用户以反馈。但是在相关技术中,向用户展示动作数据的展示方式单一,并且只能用于在特定运动场地进行运动的用户,缺乏灵活性。
发明内容
本申请的目的在于提出一种改进的数据处理方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种数据处理方法,该方法包括:接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据;根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度;根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面;将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在一些实施例中,预设检测装置包括陀螺仪传感器;以及接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据,包括:接收佩戴于用户至少一肢的陀螺仪传感器发送的至少一肢的动作的方向。
在一些实施例中,预设检测装置包括陀螺仪传感器和加速度传感器;以及接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据,包括:接收佩戴于用户至少一肢的陀螺仪传感器和加速度传感器发送的至少一肢的动作的方向和加速度。
在一些实施例中,接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据,还包括:接收佩戴于用户头部的陀螺仪传感器发送的用户的头部方向数据,确定用户的脸部朝向。
在一些实施例中,根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面,包括:根据下沉深度和脸部朝向,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面。
在一些实施例中,根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度,包括:根据至少一肢的动作的方向和虚拟场景中流体的预设参数,确定目标虚拟角色的下沉深度,其中,预设参数包括预设密度。
在一些实施例中,在接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据之后,方法还包括:根据获取到的动作数据,确定在虚拟场景中目标虚拟角色是否下沉;响应于确定目标虚拟角色下沉,输出第一预设音频。
在一些实施例中,预设检测装置还包括口鼻气流传感器;以及方法还包括:通过口鼻气流传感器,确定用户当前是否使用口鼻呼吸;响应于检测到用户当前使用口鼻呼吸,根据下沉深度和脸部朝向,确定在虚拟场景中目标虚拟角色的口鼻是否浸没于流体中;响应于确定目标虚拟角色的口鼻浸没于流体中,输出第二预设音频。
第二方面,本申请提供了一种数据处理装置,该装置包括:接收单元,配置用于接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据;确定单元,配置用于根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度;渲染单元,配置用于根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面;发送单元,配置用于将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在一些实施例中,本申请提供了预设检测装置包括陀螺仪传感器;以及接收单元,包括:接收模块,配置用于接收佩戴于用户至少一肢的陀螺仪传感器发送的至少一肢的动作的方向。
在一些实施例中,本申请提供了接收单元,还包括:确定模块,配置用于接收佩戴于用户头部的陀螺仪传感器发送的用户的头部方向数据,确定用户的脸部朝向。
在一些实施例中,渲染单元,进一步配置用于:根据下沉深度和脸部朝向,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面。
在一些实施例中,预设检测装置还包括口鼻气流传感器;以及装置还包括:确定口鼻呼吸单元,配置用于通过口鼻气流传感器,确定用户当前是否使用口鼻呼吸;确定浸没单元,配置用于响应于检测到用户当前使用口鼻呼吸,根据下沉深度和脸部朝向,确定在虚拟场景中目标虚拟角色的口鼻是否浸没于流体中;输出单元,配置用于响应于确定目标虚拟角色的口鼻浸没于流体中,输出第二预设音频。
本申请实施例提供的数据处理方法和装置,通过接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据。之后根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度。而后根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面。最后将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面,从而能够根据用户的动作数据生成三维画面并发送给显示区域,以使显示区域显示的内容更加丰富。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的数据处理方法的一个实施例的流程图;
图3是根据本申请的数据处理方法的一个应用场景的示意图;
图4是根据本申请的数据处理方法的又一个实施例的流程图;
图5是根据本申请的数据处理方法的又一个实施例的流程图;
图6是根据本申请的数据处理装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的终端设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的数据处理方法或数据处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101,预设检测装置102,服务器103和网络104。网络104用以在终端设备101和服务器103之间,以及终端设备101和预设检测装置102之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络104与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种通讯客户端应用,例如VR(Virtual Reality,虚拟现实)应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101可以是具有处理功能的各种电子设备,包括但不限于VR眼镜、智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
预设检测装置102为可以检测用户动作数据的各种检测装置,包括但不限于陀螺仪传感器、加速度传感器和磁感应传感器。
服务器103可以是提供各种服务的服务器,例如对终端设备101上提供支持的后台服务器。
需要说明的是,本申请实施例所提供的数据处理方法一般由终端设备101中执行,相应地,数据处理装置一般设置于终端设备101中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、预设检测装置、网络和服务器。
继续参考图2,示出了根据本申请的数据处理方法的一个实施例的流程200。该数据处理方法,包括以下步骤:
步骤201,接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据。
在本实施例中,数据处理方法运行于其上的电子设备(例如图1所示的终端设备)可以通过有线连接方式或者无线连接方式接收预设检测装置发送的数据。这里的数据是预设检测装置对佩戴预设检测装置的用户进行检测得到的用户当前的动作数据。预设检测装置为预先设置的可以佩戴在用户身上且用以检测用户的动作数据的装置。比如,预设检测装置可以是陀螺仪传感器。此外,预设检测装置还可以包括加速度传感器和磁感应传感器等等。动作数据为由预设检测装置对用户进行检测得到的数据。预设检测装置可以检测到的数据包括方向、加速度等等,这些数据能够反映出用户所做的动作。
步骤202,根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度。
在本实施例中,上述电子设备根据获取到的动作数据,确定在虚拟场景中,目标虚拟角色在流体中的下沉深度。为了能够让用户有身处于流体中的体验,可以预先设置一个虚拟场景。虚拟场景是对虚拟现实中的具体物体进行建模得到的场景模型。在虚拟场景中包括目标虚拟角色和流体,并且目标虚拟角色是浸于流体中的。浸于意为部分浸于或全部浸于流体中。目标虚拟角色为虚拟场景中指定用来体现用户的动作数据的角色。用户可以将该目标虚拟角色想象为用户本人。
虚拟场景中的流体为可以流动的物质。这里的流体通常为水,可以为海水,池水,河水等等。此外,流体也可以是气体,或者可以流动的大量固态物质,比如,流沙或者熔岩等等。
下沉深度是目标虚拟角色在流体中从预设的目标虚拟角色的初始位置下沉到当前位置在竖直方向上改变的数值。目标虚拟角色的初始位置的坐标可以是近似或者等于水平面的位置的坐标。虽然确定得到下沉深度,但是目标虚拟角色可能并没有下沉。下沉深度也可以是0或者负数。这里的目标虚拟角色的初始位置是在场景中,预先设置的目标虚拟角色没有经过位置变动的、浸于流体的最初的位置。
虚拟场景中的流体可以将目标虚拟角色浸没其中,或将目标虚拟角色的一部分浸入流体中,这些可以根据运动数据来确定。可以预先设定目标虚拟角色在场景中的原点坐标值。根据运动数据,能够确定出目标虚拟角色的下沉深度。通过运动数据确定下沉深度,可以通过多种方式。可以预先设置动作数据与下沉深度的对应关系。还可以预先确定下沉深度的计算规则。比如,计算规则可以是对摆动方向的数值和摆动加速度的数值进行加权。举例来说,由动作数据可以得到用户四肢(或者四肢中的一或几肢)的摆动方向和摆动加速度。可以对摆动方向和摆动加速度设置权重:摆动方向权重设为0.02,摆动加速度权重设为0.01。用户的摆动方向如果在预设的一个方向范围内,预设在该方向范围进行摆动的方向数值计为3,则用户的摆动方向的数值计为3。用户的摆动加速度如果在一个加速度范围内,预设在该加速度范围进行摆动的加速度数值计为4,则用户的摆动加速度的数值计为4。之后对摆动方向和摆动加速度进行加权,生成下沉深度0.1。
步骤203,根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面。
在本实施例中,上述电子设备可以根据下沉深度,确定预设虚拟摄像机在上述的虚拟场景中采集到的子场景。之后对该子场景进行渲染,生成三维画面。预设虚拟摄像机是对虚拟场景进行拍摄的虚拟的拍摄装置,用于拍摄虚拟场景中的任意位置。虚拟现实设备向用户展示的三维画面通常是虚拟摄像机拍摄虚拟场景得到的子场景在渲染后的画面。子场景为预设虚拟摄像机采集范围内的虚拟场景,是虚拟场景中的一部分场景,也即视锥区域范围内的虚拟场景。
具体地,可以预先使用Unity构建三维模型。其中,Unity是由Unity Technologies开发的一个让玩家创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的游戏引擎。该三维模型可以用以表征目标虚拟角色的参数与渲染后的三维画面的对应关系。比如根据下沉深度确定目标虚拟角色的坐标(包括高度坐标),之后向三维模型中输入该坐标,可以先得到采集的子场景,之后由该子场景输出渲染后的三维画面。
也可以预先建立下沉深度、子场景所指示区域和三维画面的对应关系表,以得到下沉深度和子场景所对应的三维画面。在该对应关系表中,三维画面是与虚拟场景中的子场景所指示的场景中的区域相关联的,在下沉深度相同的情况下,不同的区域所对应的三维画面不同。
预设虚拟摄像机可以以第一视角或者第三视角进行拍摄。第一视角为目标虚拟角色的视角。第三视角为以目标虚拟角色的视角以外的视角,也是观看目标虚拟角色的视角。
如果虚拟摄像机是以第一视角进行拍摄,那么三维画面就是目标虚拟角色所看到的画面。实时画面之间有改变的内容是水面的高度。这里三维画面中呈现的水面的高度与下沉深度有关。三维画面中呈现的水面的高度可以为:三维画面中的水面初始高度加上所确定的下沉深度得到的实时高度。此外,三维画面中呈现的水面的高度还可以是对下沉深度或者实时高度进行一定的缩放处理得到的。
如果虚拟摄像机是以第三视角进行拍摄。三维画面中可以呈现出目标虚拟角色浸于流体中。实时画面之间有改变的内容是目标虚拟角色与水面的距离。根据下沉深度,上述电子设备确定三维画面呈现的目标虚拟角色与水面的距离。这个距离可以等于下沉深度。如果目标虚拟角色的初始位置不是水面的位置,那么距离也可以等于所确定的下沉深度与目标虚拟角色的初始下沉深度的和。此外,距离还可以是对上述确定的距离进行一定的缩放处理得到的。
步骤204,将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在本实施例中,上述电子设备在得到三维画面之后,将三维画面发送给预设显示器,以使预设显示器在其上的显示区域展示上述三维画面。预设显示器为预先设置的用以显示三维画面的装置。
在实践中,上述电子设备可以是设置于某组合设备中的处理器,预设显示器与上述电子设备可以设置于同一个组合设备中。该组合设备可以是VR眼镜。
继续参见图3,图3是根据本实施例的数据处理方法的应用场景的一个示意图。在图3的应用场景中,电子设备301首先接收陀螺仪传感器306发送的用户的手臂的动作数据302;之后,电子设备301可以根据动作数据302,确定虚拟场景中的男孩在虚拟海中的下沉深度303为1cm;然后,电子设备301根据下沉深度303,确定预设虚拟摄像机在虚拟场景中采集到的子场景,并对子场景渲染得到三维画面304;最后,电子设备301将该三维画面发送给VR眼镜的显示器305,这样,在显示器305上就可以展示该三维画面304。
本实施例提供的方法能够根据用户的动作数据生成三维画面并发送给显示区域,以使显示区域显示的内容更加丰富。并且本实施例能够较为准确地模拟在特定场地运动的场景。
进一步参考图4,其示出了数据处理方法的又一个实施例的流程400。该数据处理方法的流程400,包括以下步骤:
步骤401,接收佩戴于用户至少一肢的陀螺仪传感器发送的至少一肢的动作的方向。
在本实施例中,预设检测装置包括陀螺仪传感器。终端设备接收佩戴于用户四肢中的至少一肢的陀螺仪传感器发送的该一肢的动作的方向。在用户四肢中的任意一肢上可以佩戴陀螺仪传感器,该陀螺仪传感器用于对这一肢检测动作的方向。该陀螺仪传感器得到检测数据,可以发送给上述终端设备。可以对用户的四肢都进行检测,以得到更全面的数据。
步骤402,接收佩戴于用户头部的陀螺仪传感器发送的用户的头部方向数据,确定用户的脸部朝向。
在本实施例中,用户还可以在头部佩戴陀螺仪传感器。上述终端设备则可以接收佩戴于用户头部的陀螺仪传感器的数据,该数据可以为用户的头部方向数据。上述终端设备可以通过该数据确定用户的脸部朝向。该陀螺仪传感器可以设置于用户佩戴的VR眼镜中。用户的脸部可以朝下,朝前等等。
在实践中,佩戴于用户头部的陀螺仪传感器与上述终端设备可以设置于同一个组合设备中。
步骤403,根据至少一肢的动作的方向和虚拟场景中流体的预设参数,确定目标虚拟角色的下沉深度。
在本实施例中,上述终端设备可以根据至少一肢的动作的方向和流体的预设参数,来确定目标虚拟角色的下沉深度。预设参数包括预设密度。此外,预设参数还可以包括水温和水流速度等等。这些都会对目标虚拟角色的下沉深度产生影响。例如,水温低,目标虚拟角色更容易下沉。水流速度大,更容易对目标虚拟角色造成影响,使目标虚拟角色更容易下沉。以上的几种影响因素都可能影响下沉深度。具体的,可以根据预设的动作方向、预设参数和下沉深度的对应关系表确定下沉深度,也可以对上述的影响因素设定权重,之后进行加权,得到下沉深度。
步骤404,根据下沉深度和脸部朝向,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面。
在本实施例中,用户的脸部朝向会影响到预设虚拟摄像机的采集,也即会影响到子场景在虚拟场景中所指示的区域。上述终端设备根据用户脸部朝向的不同,可以得到不同的子场景,能够更准确地模拟游泳的场景。
上述终端设备可以根据下沉深度和脸部朝向,确定预设虚拟摄像机在上述的虚拟场景中采集到的子场景。之后对该子场景进行渲染,生成三维画面。预设虚拟摄像机是对虚拟场景进行拍摄的虚拟的拍摄装置,用于拍摄虚拟场景中的任意位置。虚拟现实设备向用户展示的三维画面通常是虚拟摄像机拍摄虚拟场景得到的子场景在渲染后的画面。子场景为预设虚拟摄像机采集范围内的虚拟场景,是虚拟场景中的一部分场景,也即视锥区域范围内的虚拟场景。
步骤405,将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在本实施例中,在本实施例中,上述终端设备在得到三维画面之后,将三维画面发送给预设显示器,以使预设显示器在其上的显示区域展示上述三维画面。预设显示器为预先设置的用以显示三维画面的装置。这里的预设显示器与上述电子设备可以设置于同一个组合设备中。
本实施例根据用户脸部朝向的不同,可以得到不同的子场景,能够更准确地模拟在特定场地运动(比如游泳)的场景。
进一步参考图5,其示出了数据处理方法的又一个实施例的流程500。该数据处理方法的流程500,包括以下步骤:
步骤501,接收佩戴于用户至少一肢的陀螺仪传感器和加速度传感器发送的至少一肢的动作的方向和加速度。
在本实施例中,预设检测装置包括陀螺仪传感器和加速度传感器。其中陀螺仪传感器用以检测用户的动作的方向,加速度传感器用以检测用户的动作的加速度。终端设备可以接收佩戴于用户身上的陀螺仪传感器和加速度传感器发送的用户的动作的方向和加速度。用户可以在其四肢中的一肢或者几肢上佩戴陀螺仪传感器和加速度传感器。
步骤502,接收佩戴于用户头部的陀螺仪传感器发送的用户的头部方向数据,确定用户的脸部朝向。
在本实施例中,用户还可以在头部佩戴陀螺仪传感器。上述终端设备则可以接收佩戴于用户头部的陀螺仪传感器的数据,该数据可以为用户的头部方向数据。上述终端设备可以通过该数据确定用户的脸部朝向。该陀螺仪传感器可以设置于用户佩戴的VR眼镜中。
在实践中,
步骤503,根据获取到的动作数据,确定在虚拟场景中目标虚拟角色是否下沉;
在本实施例中,上述终端设备可以利用确定下沉深度的影响因素来确定目标虚拟角色是否下沉。具体地,可以对各种动作数据进行加权,得到总值,之后利用该总值与预设的下沉阈值进行比较。若该总值大于预设的下沉阈值,则确定下沉。
步骤504,响应于确定目标虚拟角色下沉,输出第一预设音频。
在本实施例中,上述终端设备若确定目标虚拟角色下沉,则做出响应:输出第一预设音频。这里的第一预设音频可以是气泡声、水流声等等。第一预设音频是预先设置的一段音频。为了让用户能够感受到目标虚拟角色的下沉,终端设备可以向用户输出音频。
步骤505,根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度。
在本实施例中,上述终端设备根据获取到的动作数据,确定在虚拟场景中,目标虚拟角色在流体中的下沉深度。为了能够让用户有身处于流体中的体验,可以预先设置一个虚拟场景。虚拟场景是对虚拟现实中的具体物体进行建模得到的场景模型。在虚拟场景中包括目标虚拟角色和流体,并且目标虚拟角色是浸于流体中的。目标虚拟角色为虚拟场景中指定用来体现用户的动作数据的角色。用户可以将该目标虚拟角色想象为用户本人。
步骤506,通过口鼻气流传感器,确定用户当前是否使用口鼻呼吸。
在本实施例中,预设检测装置还包括口鼻气流传感器。上述终端设备接收佩戴于用户口鼻处的口鼻气流传感器的口鼻气流数据,确定用户当前是否使用口鼻呼吸。
步骤507,响应于检测到用户当前使用口鼻呼吸,根据下沉深度和脸部朝向,确定在虚拟场景中目标虚拟角色的口鼻是否浸没于流体中。
在本实施例中,上述终端设备检测到用户当前使用口鼻呼吸,则做出响应:根据下沉深度和脸部朝向,确定虚拟场景中的目标虚拟角色的口鼻是否浸没于流体中。也就是确定目标虚拟角色的口鼻是否被流体淹没。因为口鼻是否被淹没的影响因素包括目标虚拟角色当前的下沉深度,也就是目标虚拟角色的整体在水中的位置。同时,影响因素还有目标虚拟角色的脸部朝向。如果目标虚拟角色的脸部朝向是向下的,也很容易被流体淹没。
具体地,可以利用下沉深度和脸部朝向,确定目标虚拟角色当前口鼻的位置,该口鼻的位置可以指示目标虚拟用户的高度,也即在竖直方向上的坐标。如果口鼻的位置低于水面的位置,则确定口鼻被浸没,反之亦然。
步骤508,响应于确定目标虚拟角色的口鼻浸没于流体中,输出第二预设音频。
在本实施例中,上述终端设备确定目标虚拟角色的口鼻浸没于流体中,则向用户输出第二预设音频。第二预设音频为预先设置的一段音频。该第二预设音频与第一预设音频可以是相同的,也可以是不同的。需要说明的是,这里的“第一”、“第二”等的描述只是用以区分各段音频,并不指示音频之间的排序。
步骤509,根据下沉深度和脸部朝向,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面。
在本实施例中,用户的脸部朝向会影响到预设虚拟摄像机的采集,也即会影响到子场景在虚拟场景中所指示的区域。根据用户脸部朝向的不同,可以得到不同的子场景,能够更准确地模拟游泳的场景。
步骤510,将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在本实施例中,上述终端设备在得到三维画面之后,将三维画面发送给预设显示器,以使预设显示器在其上的显示区域展示上述三维画面。预设显示器为预先设置的用以显示三维画面的装置。这里的预设显示器与上述电子设备可以设置于同一个组合设备中。
本实施例通过输出音频给用户能够进一步准确地模拟在特定场地运动(比如游泳)的实际场景。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种数据处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的数据处理装置600包括:接收单元601、确定单元602、渲染单元603和发送单元604。其中,接收单元601,配置用于接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据;确定单元602,配置用于根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度;渲染单元603,配置用于根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面;发送单元604,配置用于将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
在本实施例中,接收单元601可以通过有线连接方式或者无线连接方式接收预设检测装置发送的数据。这里的数据是预设检测装置对佩戴预设检测装置的用户进行检测得到的用户当前的动作数据。预设检测装置为预先设置的可以佩戴在用户身上且用以检测用户的运动数据的装置。比如,预设检测装置可以是陀螺仪传感器。此外,预设检测装置还可以包括加速度传感器和磁感应传感器等等。动作数据为由预设检测装置对用户进行检测得到的数据。预设检测装置可以检测到的数据包括方向或加速度等等,这些数据能够反映出用户所做的动作。
在本实施例中,确定单元602上述电子设备根据获取到的动作数据,确定在虚拟场景中,目标虚拟角色在流体中的下沉深度。为了能够让用户有身处于流体中的体验,可以预先设置一个虚拟场景。虚拟场景是对虚拟现实中的具体物体进行建模得到的场景模型。在虚拟场景中包括目标虚拟角色和流体,并且目标虚拟角色是浸于流体中的。目标虚拟角色为虚拟场景中指定用来体现用户的动作数据的角色。用户可以将该目标虚拟角色想象为用户本人。
在本实施例中,渲染单元603可以根据下沉深度,确定预设虚拟摄像机在上述的虚拟场景中采集到的子场景。之后对该子场景进行渲染,生成三维画面。预设虚拟摄像机是对虚拟场景进行拍摄的虚拟的拍摄装置,用于拍摄虚拟场景中的任意位置。虚拟现实设备向用户展示的三维画面通常是虚拟摄像机拍摄虚拟场景得到的子场景在渲染后的画面。
在本实施例中,发送单元604在得到三维画面之后,将三维画面发送给预设显示器,以使预设显示器在其上的显示区域展示上述三维画面。预设显示器为预先设置的用以显示三维画面的装置。这里的预设显示器与上述电子设备可以设置于同一个终端设备中。
在本实施例的一些可选的实现方式中,预设检测装置包括陀螺仪传感器;以及接收单元,包括:接收模块(未示出),配置用于接收佩戴于用户至少一肢的陀螺仪传感器发送的至少一肢的动作的方向。
在本实施例的一些可选的实现方式中,接收单元,还包括:确定模块(未示出),配置用于接收佩戴于用户头部的陀螺仪传感器发送的用户的头部方向数据,确定用户的脸部朝向。
在本实施例的一些可选的实现方式中,渲染单元,进一步配置用于:根据下沉深度和脸部朝向,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景生成三维画面。
在本实施例的一些可选的实现方式中,预设检测装置还包括口鼻气流传感器;以及装置还包括:确定口鼻呼吸单元(未示出),配置用于通过口鼻气流传感器,确定用户当前是否使用口鼻呼吸;确定浸没单元(未示出),配置用于响应于检测到用户当前使用口鼻呼吸,根据下沉深度和脸部朝向,确定在虚拟场景中目标虚拟角色的口鼻是否浸没于流体中;输出单元(未示出),配置用于响应于确定目标虚拟角色的口鼻浸没于流体中,输出第二预设音频。
在本实施例的一些可选的实现方式中,接收单元进一步配置用于:接收佩戴于用户至少一肢的陀螺仪传感器和加速度传感器发送的至少一肢的动作的方向和加速度。
在本实施例的一些可选的实现方式中,确定单元进一步配置用于:根据至少一肢的动作的方向和虚拟场景中流体的预设参数,确定目标虚拟角色的下沉深度,其中,预设参数包括预设密度。
在本实施例的一些可选的实现方式中,该装置进一步配置用于:根据获取到的动作数据,确定在虚拟场景中目标虚拟角色是否下沉;响应于确定目标虚拟角色下沉,输出第一预设音频。
图7示出了适于用来实现本申请实施例的终端设备的计算机装置的结构示意图。如图7所示,计算机装置700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有装置700操作所需的各种程序和数据。CPU701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的装置、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在终端设备中,例如,可以描述为:一种终端设备包括接收单元、确定单元、渲染单元和发送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:接收预设检测装置发送的佩戴预设检测装置的用户当前的动作数据;根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,目标虚拟角色在流体中的下沉深度;根据下沉深度,确定虚拟场景的预设虚拟摄像机在虚拟场景中采集到的子场景,并渲染子场景,生成三维画面;将三维画面发送给预设显示器,以使预设显示器在显示区域展示三维画面。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (15)

1.一种数据处理方法,其特征在于,包括:
接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据;
根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,所述目标虚拟角色在流体中的下沉深度;
根据所述下沉深度,确定所述虚拟场景的预设虚拟摄像机在所述虚拟场景中采集到的子场景,并渲染所述子场景,生成三维画面;
将所述三维画面发送给预设显示器,以使所述预设显示器在显示区域展示所述三维画面。
2.根据权利要求1所述的数据处理方法,其特征在于,所述预设检测装置包括陀螺仪传感器;以及
所述接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据,包括:
接收佩戴于所述用户至少一肢的陀螺仪传感器发送的所述至少一肢的动作的方向。
3.根据权利要求1所述的数据处理方法,其特征在于,所述预设检测装置包括陀螺仪传感器和加速度传感器;以及
所述接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据,包括:
接收佩戴于所述用户至少一肢的陀螺仪传感器和加速度传感器发送的所述至少一肢的动作的方向和加速度。
4.根据权利要求2-3之一所述的数据处理方法,其特征在于,所述接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据,还包括:
接收佩戴于所述用户头部的陀螺仪传感器发送的所述用户的头部方向数据,确定所述用户的脸部朝向。
5.根据权利要求4所述的数据处理方法,其特征在于,根据所述下沉深度,确定所述虚拟场景的预设虚拟摄像机在所述虚拟场景中采集到的子场景,并渲染所述子场景生成三维画面,包括:
根据所述下沉深度和所述脸部朝向,确定所述虚拟场景的预设虚拟摄像机在所述虚拟场景中采集到的子场景,并渲染所述子场景生成三维画面。
6.根据权利要求2所述的数据处理方法,其特征在于,所述根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,所述目标虚拟角色在流体中的下沉深度,包括:
根据所述至少一肢的动作的方向和所述虚拟场景中所述流体的预设参数,确定所述目标虚拟角色的下沉深度,其中,所述预设参数包括预设密度。
7.根据权利要求1所述的数据处理方法,其特征在于,在所述接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据之后,所述方法还包括:
根据获取到的动作数据,确定在所述虚拟场景中所述目标虚拟角色是否下沉;
响应于确定所述目标虚拟角色下沉,输出第一预设音频。
8.根据权利要求4所述的数据处理方法,其特征在于,所述预设检测装置还包括口鼻气流传感器;以及
所述方法还包括:
通过口鼻气流传感器,确定所述用户当前是否使用口鼻呼吸;
响应于检测到所述用户当前使用口鼻呼吸,根据所述下沉深度和所述脸部朝向,确定在所述虚拟场景中所述目标虚拟角色的口鼻是否浸没于所述流体中;
响应于确定所述目标虚拟角色的口鼻浸没于所述流体中,输出第二预设音频。
9.一种数据处理装置,其特征在于,包括:
接收单元,配置用于接收预设检测装置发送的佩戴所述预设检测装置的用户当前的动作数据;
确定单元,配置用于根据获取到的动作数据,确定在目标虚拟角色浸于流体中的虚拟场景中,所述目标虚拟角色在流体中的下沉深度;
渲染单元,配置用于根据所述下沉深度,确定所述虚拟场景的预设虚拟摄像机在所述虚拟场景中采集到的子场景,并渲染所述子场景,生成三维画面;
发送单元,配置用于将所述三维画面发送给预设显示器,以使所述预设显示器在显示区域展示所述三维画面。
10.根据权利要求9所述的数据处理装置,其特征在于,所述预设检测装置包括陀螺仪传感器;以及
所述接收单元,包括:
接收模块,配置用于接收佩戴于所述用户至少一肢的陀螺仪传感器发送的所述至少一肢的动作的方向。
11.根据权利要求10所述的数据处理装置,其特征在于,所述接收单元,还包括:
确定模块,配置用于接收佩戴于所述用户头部的陀螺仪传感器发送的所述用户的头部方向数据,确定所述用户的脸部朝向。
12.根据权利要求11所述的数据处理装置,其特征在于,所述渲染单元,进一步配置用于:
根据所述下沉深度和所述脸部朝向,确定所述虚拟场景的预设虚拟摄像机在所述虚拟场景中采集到的子场景,并渲染所述子场景生成三维画面。
13.根据权利要求11所述的数据处理装置,其特征在于,所述预设检测装置还包括口鼻气流传感器;以及
所述装置还包括:
确定口鼻呼吸单元,配置用于通过口鼻气流传感器,确定所述用户当前是否使用口鼻呼吸;
确定浸没单元,配置用于响应于检测到所述用户当前使用口鼻呼吸,根据所述下沉深度和所述脸部朝向,确定在所述虚拟场景中所述目标虚拟角色的口鼻是否浸没于所述流体中;
输出单元,配置用于响应于确定所述目标虚拟角色的口鼻浸没于所述流体中,输出第二预设音频。
14.一种终端设备,包括:
一个或多个终端设备;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个终端设备执行,使得所述一个或多个终端设备实现如权利要求1-8中任一所述的方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被终端设备执行时实现如权利要求1-8中任一所述的方法。
CN201710486186.XA 2017-06-23 2017-06-23 数据处理方法和装置 Active CN109116973B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710486186.XA CN109116973B (zh) 2017-06-23 2017-06-23 数据处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710486186.XA CN109116973B (zh) 2017-06-23 2017-06-23 数据处理方法和装置

Publications (2)

Publication Number Publication Date
CN109116973A true CN109116973A (zh) 2019-01-01
CN109116973B CN109116973B (zh) 2021-08-24

Family

ID=64732115

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710486186.XA Active CN109116973B (zh) 2017-06-23 2017-06-23 数据处理方法和装置

Country Status (1)

Country Link
CN (1) CN109116973B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045777A (zh) * 2019-12-12 2020-04-21 米哈游科技(上海)有限公司 一种渲染方法、装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354464A (zh) * 2011-06-15 2012-02-15 中国科学院沈阳自动化研究所 一种遥控水下机器人模拟训练器
US20160005232A1 (en) * 2014-07-04 2016-01-07 The University Of Texas At San Antonio Underwater virtual reality system
CN106697231A (zh) * 2016-11-30 2017-05-24 广东中科国志科技发展有限公司 一种水下虚拟现实穿戴系统
CN106842261A (zh) * 2016-11-30 2017-06-13 广东法诺文化传媒有限公司 一种水下定位装置、水下vr系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354464A (zh) * 2011-06-15 2012-02-15 中国科学院沈阳自动化研究所 一种遥控水下机器人模拟训练器
US20160005232A1 (en) * 2014-07-04 2016-01-07 The University Of Texas At San Antonio Underwater virtual reality system
CN106697231A (zh) * 2016-11-30 2017-05-24 广东中科国志科技发展有限公司 一种水下虚拟现实穿戴系统
CN106842261A (zh) * 2016-11-30 2017-06-13 广东法诺文化传媒有限公司 一种水下定位装置、水下vr系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045777A (zh) * 2019-12-12 2020-04-21 米哈游科技(上海)有限公司 一种渲染方法、装置、存储介质及电子设备
CN111045777B (zh) * 2019-12-12 2023-11-03 米哈游科技(上海)有限公司 一种渲染方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN109116973B (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
US10354397B2 (en) Methods and apparatus for modeling deformations of an object
CN107211216B (zh) 用于提供虚拟音频再现的方法和装置
CN105378801B (zh) 全息图快照网格
CN107315470B (zh) 图形处理方法、处理器和虚拟现实系统
CN113383369A (zh) 身体姿势估计
CN115552357A (zh) 基于姿势的共享ar会话创建
CN107622524A (zh) 用于移动终端的显示方法和显示装置
CN108267715A (zh) 外接设备的定位方法及装置、虚拟现实设备及系统
CN105807931A (zh) 一种虚拟现实的实现方法
EP3889915A2 (en) Method and apparatus for generating virtual avatar, device, medium and computer program product
CN105824416A (zh) 一种将虚拟现实技术与云服务技术结合的方法
CN109923509A (zh) 虚拟现实中的对象的协同操纵
KR20230098244A (ko) 적응형 골격 관절 원활화
CN109767485A (zh) 图像处理方法和装置
CN114786786A (zh) 使用先前帧进行骨骼跟踪
CN112884860B (zh) 水面波纹效果生成方法、装置、电子设备和存储介质
CN105797378A (zh) 一种基于虚拟现实技术的游戏视频实现方法
JP2022537817A (ja) 動的オクルージョンのための高速の手のメッシュ化
US20230025285A1 (en) Method for Generating Simulations of Fluid Interfaces for Improved Animation of Fluid Interactions
CN109754464A (zh) 用于生成信息的方法和装置
CN115516406A (zh) 使用生物数据进行的深度估计
CN105824417A (zh) 一种采用虚拟现实技术的人与物的结合方法
CN109116973A (zh) 数据处理方法和装置
CN108236782A (zh) 外接设备的定位方法及装置、虚拟现实设备及系统
CN108844505A (zh) 测算房屋空间尺寸的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant