CN114928767A - 渲染虚拟现实vr眼镜可视化的方法及相关设备 - Google Patents
渲染虚拟现实vr眼镜可视化的方法及相关设备 Download PDFInfo
- Publication number
- CN114928767A CN114928767A CN202210545165.1A CN202210545165A CN114928767A CN 114928767 A CN114928767 A CN 114928767A CN 202210545165 A CN202210545165 A CN 202210545165A CN 114928767 A CN114928767 A CN 114928767A
- Authority
- CN
- China
- Prior art keywords
- real
- glasses
- data
- rendering
- video stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 184
- 238000009877 rendering Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012800 visualization Methods 0.000 title claims abstract description 53
- 210000000988 bone and bone Anatomy 0.000 claims description 35
- 239000012634 fragment Substances 0.000 claims description 32
- 230000003287 optical effect Effects 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000011161 development Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 3
- 239000011800 void material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种渲染虚拟现实VR眼镜可视化的方法及相关设备,所述方法包括:采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。通过上述方法能够解决native层开发业务逻辑难度大和直播延迟大的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种渲染虚拟现实VR眼镜可视化的方法及相关设备。
背景技术
当前一些主流的vr(Virtual Reality,虚拟现实)一体机(如GoogleVR眼镜、Oculus和爱奇艺奇遇VR等)都提供了对应的sdk进行vr应用开发,都比较友好的兼容Unity,但是对于androidNative开发不是很友好,在native层开发业务逻辑难度大。
而且,对于虚拟人实时渲染,如果出现网络抖动,就会存在延迟大的问题。
发明内容
有鉴于此,本发明实施例提供一种渲染虚拟现实VR眼镜可视化的方法及相关设备,以解决native层开发业务逻辑难度大和直播延迟大的问题。
为实现上述目的,本发明实施例提供如下技术方案:
本发明实施例第一方面公开了一种渲染虚拟现实VR眼镜可视化的方法,所述方法包括:
采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据;
基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;
基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流;
利用视频直播软件将所述实时全景视频流推出;
基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
可选的,所述将所述动捕数据转换为骨骼数据,包括:
根据各个所述点位的动捕数据,确定各个所述点位指示的对应所述人体骨骼的关节点;
根据各个所述点位指示的对应所述人体骨骼的关节点,计算所述人体的各个关键骨骼长度,得到骨骼数据。
可选的,所述基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式,包括:
在VR眼镜客户端启动后,基于实时消息传输协议rtmp和所述VR眼镜客户端预先安装的拉流应用apk,获取所述实时全景视频流;
根据经纬度的划分方式,生成预先创建的球体模型的顶点坐标、纹理坐标和索引坐标;
基于所述顶点坐标、所述纹理坐标和所述索引坐标,通过开放图像库opengl,将所述实时全景视频流渲染到所述球体模型上;
调用所述VR眼镜客户端预先安装的软件开发工具包sdk,将所述实时全景视频流渲染到VR眼镜上,使所述VR眼镜进入vr全景模式。
可选的,所述基于所述顶点坐标、所述纹理坐标和所述索引坐标,通过开放图像库opengl,将所述实时全景视频流渲染到所述球体模型上,包括:
获取所述实时全景视频流的纹理坐标;
通过开放图像库opengl,加载顶点着色器和片元着色器,并编译所述顶点着色器和所述片元着色器;
创建program对象,将已编译的顶点着色器和已编译的片元着色器绑定到所述program对象中,并编译所述program对象,得到已编译程序;
获取所述program对象中的变换矩阵句柄、顶点坐标句柄和纹理坐标句柄;
基于所述顶点坐标、所述纹理坐标、所述索引坐标、所述变换矩阵句柄、所述顶点坐标句柄和所述纹理坐标句柄,使用所述已编译程序,将所述实时全景视频流渲染到所述球体模型上。
可选的,所述基于所述顶点坐标、所述纹理坐标、所述索引坐标、变换矩阵句柄、顶点坐标句柄和纹理坐标句柄,使用所述已编译程序,将所述实时全景视频流渲染到所述球体模型上,包括:
将所述VR眼镜的显示屏幕划分为两个分屏视口,并设置所述分屏视口的的大小;
根据所述变换矩阵句柄、所述顶点坐标句柄、所述纹理坐标句柄和所述分屏视口的大小,调整所述分屏视口对应的所述实时全景视频流中的所述人体的眼睛的坐标,得到更新后的实时全景视频流;
使用所述已编译程序,将所述顶点坐标、所述索引坐标传输至所述已编译的顶点着色器,得到最终顶点着色器,并将所述纹理坐标传输至所述已编译的片元着色器,得到最终片元着色器;
在所述最终顶点着色器和所述最终片元着色器中,将所述更新后的实时全景视频流渲染到所述球体模型上。
本发明实施例第二方面公开了一种渲染虚拟现实VR眼镜可视化的装置,所述装置包括:
转换模块,用于采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据;
驱动模块,用于基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;
渲染模块,用于基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流;
推流模块,用于利用视频直播软件将所述实时全景视频流推出;
可视化模块,用于基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
可选的,所述转换模块,包括:
确定单元,用于根据各个所述点位的动捕数据,确定各个所述点位指示的对应所述人体骨骼的关节点;
计算单元,用于根据各个所述点位指示的对应所述人体骨骼的关节点,计算所述人体的各个关键骨骼长度,得到骨骼数据。
本发明实施例第三方面公开了一种渲染虚拟现实VR眼镜可视化的系统,所述系统包括:光学动捕主机、MotionBuilder主机、虚幻引擎UE4渲染主机和VR眼镜客户端;
所述光学动捕主机,用于采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据,以及将所述骨骼数据发送至所述MotionBuilder主机;
所述MotionBuilder主机,用于接收所述骨骼数据,基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据,以及将所述实时虚拟人数据发送至所述UE4渲染主机;
所述UE4渲染主机,用于接收所述实时虚拟人数据,基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流,利用视频直播软件将所述实时全景视频流推出;
所述VR眼镜客户端,用于基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
本发明实施例第四方面公开了一种电子设备,所述电子设备包括处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于调用并执行所述存储器中存储的计算机程序时,实现如本发明实施例第一方面中任一项所述的渲染虚拟现实VR眼镜可视化的方法。
本发明实施例第五方面公开了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如本发明实施例第一方面中任一项所述的渲染虚拟现实VR眼镜可视化的方法。
基于上述本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法及相关设备,所述方法包括:采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据;基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将所述实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。在本方案中,利用转换得到的骨骼数据,驱动虚拟人,根据得到的实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,基于获取的实时全景视频流,调用VR眼镜客户端的sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法的流程示意图;
图2为本发明实施例提供的一种调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式的流程示意图;
图3为本发明实施例提供的一种将实时全景视频流渲染到球体模型上的流程示意图;
图4为本发明实施例提供的另一种将实时全景视频流渲染到球体模型上的流程示意图;
图5为本发明实施例提供的一种Android全景视频在VR眼镜中的渲染原理图;
图6为本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的装置的结构示意图;
图7为本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的系统的结构示意图;
图8为本发明实施例提供的一种电子设备80的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。
为了便于理解本发明的技术方案,对本发明中出现的技术术语进行说明:
rtmp(Real Time Messaging Protocol,实时消息传输协议),是一种提供端对端传输服务的实时传输协议,同时支持在单目标广播和多目标广播网络服务中传输实时数据,而实时数据的传输则由RTCP协议来监视控制。
OpenGL ES(OpenGL for Embedded Systems),是OpenGL三维图形API的子集,针对手机、PDA和游戏主机等嵌入式设备而设计。
虚幻4引擎(ue4),是由Epic Games公司推出的一款游戏开发引擎,相比其他引擎,虚幻引擎不仅高效、全能,还能直接预览开发效果,赋予了开发商更强的能力。
由背景技术可知,现有的vr一体机对于androidNative开发不是很友好,在native层开发业务逻辑难度大,而且,对于虚拟人实时渲染,容易出现网络抖动、延迟大的问题。
因此,本发明实施例提供一种渲染虚拟现实VR眼镜可视化的方法及相关设备,在本方案中,利用转换得到的骨骼数据,驱动虚拟人,根据得到的实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,基于获取的实时全景视频流,调用VR眼镜客户端的sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
如图1所示,为本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法的流程示意图。
需要说明的是,在本发明实施例中,该渲染虚拟现实VR眼镜可视化的方法可以为基于虚拟人实时渲染虚拟现实VR眼镜可视化的方法。
该渲染虚拟现实VR眼镜可视化的方法主要包括以下步骤:
步骤S101:采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据。
在具体实现步骤S101的过程中,动捕演员穿着反光材质的动捕服摆TPose进行人体标定,光学动捕主机采用红外线光学动捕方案,采集该演员人体标定时各个反光点位的动捕数据,并将该采集到的动捕数据转换为骨骼数据。
在实际应用中,光学动捕主机的光学镜头通过有源以太网POE(Power OverEthernet)网线连接交换机,用来安装动捕软件的计算机通过交换机也连接到同一局域网环境中,构成一个光学捕捉的最小系统。
需要说明的是,大多数光学捕捉系统的捕捉标准是:三个光学镜头同时捕获到场地中的Marker点,则该Marker点被光学捕捉系统识别为有效点。光学镜头本身对外发射红外光。目前市面上主流镜头的光谱谱段在850nm左右,红外光在捕捉场地中接触到反光体,产生反射,当反射强度达到捕捉的阈值后,相机将反光信息采集到软件中,识别为点。
如果只有一个相机,采集的是一幅2D的图像,但是场地中有多个相机,并且在使用动捕之前对相机的高度进行了标定,因此,相机的高度是已知的,所以多个相机采集的信息,在动捕软件中被还原为3D的点云信息,此时,动捕软件对这些点云信息做人体标定,也就是把一堆点位信息转换成一个人的模型,其中包括以下几个过程:
1、点云数据分类
在TPose状态下,动捕演员的身体辨识度是最高的,点位之间也不会出现重合或者距离过近导致的识别错误,在这个状态下,软件根据预制的模板,识别出采集到的点位来自于人体的什么位置,所以,需要让动捕演员摆TPose进行人体标定。
2、骨骼测量
动捕演员穿上动捕服摆TPose进行人体标定时,动捕软件根据这些点位,完成人体骨骼测量。而这一测量的依据为预设的人体模板,当动捕软件得知点位标签之后,根据这些标签所代表的关节点,软件就可以自动计算出人体各个关键骨骼的长度。
优选的,该软件可以为CMTracker,其中,CMTracker为一款光学动捕配套使用软件。
优选的,在一具体实施例中,光学动捕主机和MotionBuilder主机处于同一局域网内,光学动捕主机通过网络实时将骨骼数据传输至MotionBuilder主机,用于实时驱动MotionBuilder主机中预先制作的虚拟人。
可选的,执行步骤S101将动捕数据转换为骨骼数据的过程,主要包括以下步骤:
步骤S11:根据各个点位的动捕数据,确定各个点位指示的对应人体骨骼的关节点。
步骤S12:根据各个点位指示的对应人体骨骼的关节点,计算人体的各个关键骨骼长度,得到骨骼数据。
步骤S102:基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据。
在具体实现步骤S102的过程中,MotionBuilder主机接收光学动捕主机传输的骨骼数据,并基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据,也就是说,MotionBuilder主机将骨骼数据通过网络传输至MotionBuilder主机连通虚拟人。
可选的,在一具体实施例中,光学动捕主机、MotionBuilder主机和虚幻引擎UE4渲染主机处于同一局域网内,MotionBuilder主机通过网络将实时虚拟人数据传输至UE4渲染主机。
步骤S103:基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流。
在具体实现步骤S103的过程中,UE4渲染主机接收MotionBuilder主机传输的实时虚拟人数据,并基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流。
可以理解的是,UE4渲染主机基于实时虚拟人数据,加载实时虚拟人动作和虚拟场景,承担实时渲染全景视频的任务。
可选的,UE4渲染主机接收MotionBuilder主机传输的实时虚拟人数据后,全景相机插件采集渲染出的实时虚拟场景和虚拟人。
步骤S104:利用视频直播软件将实时全景视频流推出。
在本发明实施例中,视频直播软件包括但不限于视频实时流软件OBS。
可选的,在一具体实施例中,将实时全景视频流推流到rtmp流媒体服务器。
步骤S105:基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。
在步骤S105中,VR眼镜客户端封装集成一些主流眼镜平台的sdk,使VR眼镜进入vr播放模式。
可选的,拉流应用apk可以通过命令adb install${apkPath}进行安装。
可选的,在VR眼镜客户端中预先输入拉流地址。
在具体实现步骤S105的过程中,VR眼镜预先安装拉流应用apk和软件开发工具包sdk,基于VR眼镜客户端预先安装的拉流应用apk以及预先输入的拉流地址,获取实时全景视频流,基于该实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式,也就是使VR眼镜播放UE4渲染主机实时渲染的虚拟人和虚拟场景。
可选的,在一具体实施例中,VR眼镜进入vr全景模式后,监听VR眼镜上的矢量全感器的数据,将矢量全感器的数据转换为对应的矩阵,从而实现转动VR头盔时视角矩阵的计算。
可选的,在一具体实施例中,VR眼镜客户端轮询当前直播流(实时全景视频流)缓冲大小时间,如果缓冲大小时间超过设定的阀值(例如1.5秒),则快速播放,加快消耗缓冲大小,当缓冲变小到指定大小(例如500毫秒),则正常播放。
基于本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法,通过采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。在本方案中,利用转换得到的骨骼数据,驱动虚拟人,根据得到的实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,基于获取的实时全景视频流,调用VR眼镜客户端的sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
基于上述本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法,执行步骤S105基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式的过程,如图2所示,为本发明实施例提供的一种调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式的流程示意图,主要包括以下步骤:
步骤S201:在VR眼镜客户端启动后,基于实时消息传输协议rtmp和VR眼镜客户端预先安装的拉流应用apk,获取实时全景视频流。
在具体实现步骤S201的过程中,VR眼镜客户端预先安装拉流应用apk,在VR眼镜客户端启动后,基于实时消息传输协议rtmp和VR眼镜客户端预先安装的拉流应用apk,实时获取真人穿光学动捕服驱动虚拟人的实时全景视频流,
步骤S202:根据经纬度的划分方式,生成预先创建的球体模型的顶点坐标、纹理坐标和索引坐标。
需要说明的是,预先创建球体模型的过程包括:
步骤S21:创建初始球体模型,并确定球体半径、经度、经度等分数和维度等分数。
步骤S22:按照经度和维度将初始球体模型的球体表面分割成多个四边形,并将每个四边形分割成两个三角形。
步骤S23:根据经度、维度、经度等分数、维度等分数和初始球体模型的球体半径计算得到每个三角形的每个顶点坐标、每个顶点对应的索引坐标以及每个顶点对应的纹理坐标。
相关计算代码如下:
//计算顶点x,y,z坐标
x=(Math.cos((2f*PI*s.toFloat()*S).toDouble())*Math.sin((PI*r.toFloat()*R).toDouble())).toFloat()
y=-Math.sin((-PI_2+PI*r.toFloat()*R).toDouble()).toFloat()
z=(Math.sin((2f*PI*s.toFloat()*S).toDouble())*Math.sin((PI*r.toFloat()*R).toDouble())).toFloat()
//保存对应的纹理坐标
texcoords[t++]=s*S
texcoords[t++]=r*R
//乘以半径保存对应的顶点坐标数据
vertexs[v++]=x*radius
vertexs[v++]=y*radius
vertexs[v++]=z*radius
//计算索引坐标数据
indices[counter++]=(r*sectorsPlusOne+s).toShort()//(a)
indices[counter++]=((r+1)*sectorsPlusOne+s).toShort()//(b)
indices[counter++]=(r*sectorsPlusOne+(s+1)).toShort()//(c)
indices[counter++]=(r*sectorsPlusOne+(s+1)).toShort()//(c)
indices[counter++]=((r+1)*sectorsPlusOne+s).toShort()//(b)
indices[counter++]=((r+1)*sectorsPlusOne+(s+1)).toShort()//(d)
s++
步骤S24:建立顶点坐标、索引坐标和纹理坐标之间的关联关系,并基于关联关系创建球体模型。
步骤S203:基于顶点坐标、纹理坐标和索引坐标,通过开放图像库opengl,将实时全景视频流渲染到球体模型上。
在具体实现步骤S203的过程中,基于生成的球体模型对应的顶点坐标、纹理坐标和索引坐标,通过开放图像库opengl,将UE4渲染主机渲染出的实时全景视频流渲染到球体模型上。
可选的,执行步骤S203基于顶点坐标、纹理坐标和索引坐标,通过开放图像库opengl,将实时全景视频流渲染到球体模型上的过程,如图3所示,为本发明实施例提供的一种将实时全景视频流渲染到球体模型上的流程示意图,主要包括以下步骤:
步骤S301:获取实时全景视频流的纹理坐标。
步骤S302:通过开放图像库opengl,加载顶点着色器和片元着色器,并编译顶点着色器和片元着色器。
步骤S303:创建program对象,将已编译的顶点着色器和已编译的片元着色器绑定到program对象中,并编译program对象,得到已编译程序。
在步骤S303中,可以通过glCreateProgram创建program对象。
在具体实现步骤S303的过程中,通过glCreateProgram创建program对象,通过glAttachShader将已编译的顶点着色器和已编译的片元着色器绑定到program对象中,并编译program对象,得到已编译程序。
步骤S304:获取program对象中的变换矩阵句柄、顶点坐标句柄和纹理坐标句柄。
在具体实现步骤S304的过程中,通过glGetUniformLocation获取program对象中的变换矩阵句柄,通过glGetAttribLocation(mProgramHandle,”a_Position”)获取program对象中的顶点坐标句柄,以及通过glGetAttribLocation(mProgramHandle,”a_TexCoordinate”)获取program对象中的纹理坐标句柄。
步骤S305:基于顶点坐标、纹理坐标、索引坐标、变换矩阵句柄、顶点坐标句柄和纹理坐标句柄,使用已编译程序,将实时全景视频流渲染到球体模型上。
可以理解的是,在GlSurfaceView.Renderer的onDrawFrame方法中使用已编译程序并调用glDrawElement进行顶点绘制,实现将实时全景视频流渲染到球体模型上。
需要说明的是,在本发明实施例中,创建GLSurfaceView,设置GLSurfaceView的Renderer(渲染器),在Renderer中提供三个回调方法,分别为:void onSurfaceCreated(GL10 gl,EGLConfig config);void onSurfaceChanged(GL10 gl,intwidth,intheight);void onDrawFrame(GL10 gl)。
在onSurfaceCreated回调方法中,首先,创建纹理glSurfaceTextureId,通过纹理Id,分别创建mSurfaceTexture=new SurfaceTexture(glSurfaceTextureId)和mSurface=new Surface(mSurfaceTexture),这个mSurface生成后需要传递给视频播放器,用于接收全景视频数据。
其次,通过经纬度的方式获取球体模型的顶点坐标和对应的纹理坐标,加载顶点着色器和片元着色器,并编译顶点着色器和片元着色器,通过glCreateProgram创建program,然后通过glAttachShader把编译好的顶点着色器和片元着色器bind到program中并编译program。
再其次,通过glGetUniformLocation获取program中的变换矩阵句柄,其中,变换矩阵句柄用于设置球体模型eye视角,缩放,旋转等等。
通过glGetAttribLocation(mProgramHandle,”a_Position”)获取program的顶点坐标句柄,其中,顶点坐标句柄用于把球体模型的顶点坐标传给opengl底层。
通过glGetAttribLocation(mProgramHandle,”a_TexCoordinate”)获取纹理句柄,纹理句柄用于把纹理坐标传递给opengl。
在onDrawFram回调方法中,首先,把VR眼镜的屏幕平均划分为两个部分,通过glViewport设置指定视口大小。
其次,通过glUseProgram,使用onSurfaceChange回调方法中已编译程序,然后传递球体模型的顶点数据和纹理顶点数据。
再其次,通过glDrawElements把全景视频数据(实时全景视频流)渲染到球体模型上。
可选的,执行步骤S305基于顶点坐标、纹理坐标、索引坐标、变换矩阵句柄、顶点坐标句柄和纹理坐标句柄,使用已编译程序,将实时全景视频流渲染到球体模型上的过程,如图4所示,为本发明实施例提供的另一种将实时全景视频流渲染到球体模型上的流程示意图,主要包括以下步骤:
步骤S401:将VR眼镜的显示屏幕划分为两个分屏视口,并设置分屏视口的的大小。
在具体实现步骤S401的过程中,将VR眼镜的显示屏幕划分为两个分屏视口,并通过glViewport设置分屏视口的的大小。
步骤S402:根据变换矩阵句柄、顶点坐标句柄、纹理坐标句柄和分屏视口的大小,调整分屏视口对应的实时全景视频流中的人体的眼睛的坐标,得到更新后的实时全景视频流。
在具体实现步骤S402的过程中,根据变换矩阵句柄、顶点坐标句柄、纹理坐标句柄和分屏视口的大小,确定分屏视口对应的实时全景视频流中的人体的眼睛的坐标,并进行调整,得到更新后的实时全景视频流。
步骤S403:使用已编译程序,将顶点坐标、索引坐标传输至已编译的顶点着色器,得到最终顶点着色器,并将纹理坐标传输至已编译的片元着色器,得到最终片元着色器。
在具体实现步骤S403的过程中,使用已编译程序,通过开放图像库opengl的相关接口,将顶点坐标、索引坐标传输至已编译的顶点着色器,得到最终顶点着色器,并将纹理坐标传输至已编译的片元着色器,得到最终片元着色器。
可以理解的是,在GlSurfaceView.Renderer的onSurfaceChange方法中使用已编译程序并调用glUseProgram,通过开放图像库opengl的相关接口,将顶点坐标、索引坐标传输至已编译的顶点着色器,得到最终顶点着色器,并将纹理坐标传输至已编译的片元着色器,得到最终片元着色器,实现球体的顶点数据、索引数据以及纹理数据的传递。
步骤S404:在最终顶点着色器和最终片元着色器中,将更新后的实时全景视频流渲染到球体模型上。
步骤S204:调用VR眼镜客户端预先安装的软件开发工具包sdk,将实时全景视频流渲染到VR眼镜上,使VR眼镜进入vr全景模式。
在具体实现步骤S204的过程中,VR眼镜预先安装软件开发工具包sdk,调用VR眼镜客户端预先安装的软件开发工具包sdk,将实时全景视频流渲染到VR眼镜上,使VR眼镜进入vr全景模式,也就是使VR眼镜播放UE4渲染主机实时渲染的虚拟人和虚拟场景。
如图5所示,为本发明实施例提供的一种Android全景视频在VR眼镜中的渲染原理图。
在实际应用中,把渲染逻辑部分放到了java层,把驱动vr眼镜工作部分放到native层,然后通过jni方式把渲染出来的数据(surface)传到native层,从而实现Android全景视频在VR眼镜中的渲染。
基于本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的方法,通过基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
与上述本发明实施例图1示出的一种渲染虚拟现实VR眼镜可视化的方法相对应,本发明实施例还对应提供了一种渲染虚拟现实VR眼镜可视化的装置,如图6所示,该渲染虚拟现实VR眼镜可视化的装置包括:转换模块61、驱动模块62、渲染模块63、推流模块64和可视化模块65。
转换模块61,用于采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据。
驱动模块62,用于基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据。
渲染模块63,用于基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流。
推流模块64,用于利用视频直播软件将实时全景视频流推出。
可视化模块65,用于基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。
可选的,基于上述图6示出的渲染虚拟现实VR眼镜可视化的装置,所述转换模块61,包括:确定单元和计算单元。
确定单元,用于根据各个点位的动捕数据,确定各个点位指示的对应人体骨骼的关节点。
计算单元,用于根据各个点位指示的对应人体骨骼的关节点,计算人体的各个关键骨骼长度,得到骨骼数据。
需要说明的是,上述本发明实施例公开的渲染虚拟现实VR眼镜可视化的装置中的各个模块具体的原理和执行过程,与上述本发明实施渲染虚拟现实VR眼镜可视化的方法相同,可参见上述本发明实施例公开的渲染虚拟现实VR眼镜可视化的方法中相应的部分,这里不再进行赘述。
基于本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的装置,通过采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。在本方案中,利用转换得到的骨骼数据,驱动虚拟人,根据得到的实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,基于获取的实时全景视频流,调用VR眼镜客户端的sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
可选的,基于上述图6示出的渲染虚拟现实VR眼镜可视化的装置,所述可视化模块65,包括:
获取单元,用于在VR眼镜客户端启动后,基于实时消息传输协议rtmp和VR眼镜客户端预先安装的拉流应用apk,获取实时全景视频流。
生成单元,用于根据经纬度的划分方式,生成预先创建的球体模型的顶点坐标、纹理坐标和索引坐标。
渲染单元,用于基于顶点坐标、纹理坐标和索引坐标,通过开放图像库opengl,将实时全景视频流渲染到球体模型上。
可视化单元,用于调用VR眼镜客户端预先安装的软件开发工具包sdk,将实时全景视频流渲染到VR眼镜上,使VR眼镜进入vr全景模式。
可选的,基于上述图6示出的渲染虚拟现实VR眼镜可视化的装置,所述渲染单元,包括:
第一获取子单元,用于获取实时全景视频流的纹理坐标。
加载与编译子单元,用于通过开放图像库opengl,加载顶点着色器和片元着色器,并编译顶点着色器和片元着色器。
绑定与编译子单元,用于创建program对象,将已编译的顶点着色器和已编译的片元着色器绑定到program对象中,并编译program对象,得到已编译程序。
第二获取子单元,用于获取program对象中的变换矩阵句柄、顶点坐标句柄和纹理坐标句柄。
渲染子单元,用于基于顶点坐标、纹理坐标、索引坐标、变换矩阵句柄、顶点坐标句柄和纹理坐标句柄,使用已编译程序,将实时全景视频流渲染到球体模型上。
可选的,基于上述图6示出的渲染虚拟现实VR眼镜可视化的装置,所述渲染子单元,具体用于:
将VR眼镜的显示屏幕划分为两个分屏视口,并设置分屏视口的的大小;根据变换矩阵句柄、顶点坐标句柄、纹理坐标句柄和分屏视口的大小,调整分屏视口对应的实时全景视频流中的人体的眼睛的坐标,得到更新后的实时全景视频流;使用已编译程序,将顶点坐标、索引坐标传输至已编译的顶点着色器,得到最终顶点着色器,并将纹理坐标传输至已编译的片元着色器,得到最终片元着色器;在最终顶点着色器和最终片元着色器中,将更新后的实时全景视频流渲染到球体模型上。
基于本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的装置,通过基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
与上述本发明实施例示出的一种渲染虚拟现实VR眼镜可视化的方法相对应,本发明实施例还对应提供了一种渲染虚拟现实VR眼镜可视化的系统,如图7所示,该渲染虚拟现实VR眼镜可视化的系统包括:光学动捕主机71、MotionBuilder主机72、虚幻引擎UE4渲染主机73和VR眼镜客户端74。
光学动捕主机71,用于采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据,以及将骨骼数据发送至MotionBuilder主机72。
MotionBuilder主机72,用于接收骨骼数据,基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据,以及将实时虚拟人数据发送至UE4渲染主机73。
UE4渲染主机73,用于接收实时虚拟人数据,基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流,利用视频直播软件将实时全景视频流推出。
VR眼镜客户端74,用于基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。
基于本发明实施例提供的一种渲染虚拟现实VR眼镜可视化的系统,通过采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。在本方案中,利用转换得到的骨骼数据,驱动虚拟人,根据得到的实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,基于获取的实时全景视频流,调用VR眼镜客户端的sdk,使VR眼镜进入vr全景模式,从而解决native层开发业务逻辑难度大和直播延迟大的问题。
基于上述本发明实施例公开的渲染虚拟现实VR眼镜可视化的系统,上述各个模块可以通过一种由处理器和存储器构成的硬件设备实现。具体为上述各个模块作为程序单元存储于存储器中,由处理器执行存储在存储器中的上述程序单元来实现渲染虚拟现实VR眼镜可视化。
其中,处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来实现渲染虚拟现实VR眼镜可视化。
本发明实施例提供了一种计算机存储介质,存储介质包括存储渲染虚拟现实VR眼镜可视化程序,其中,程序被处理器执行时实现如权利要求1至5中任一项的渲染虚拟现实VR眼镜可视化的方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行图1公开的渲染虚拟现实VR眼镜可视化的方法。
本发明实施例提供了一种电子设备,如图8所示,为本发明实施例提供的一种电子设备80的结构示意图。
本发明实施例中的电子设备可以是服务器、PC、PAD、手机等。
该电子设备包括至少一个处理器801,以及与处理器连接的至少一个存储器802,以及总线803。
处理器801、存储器802通过总线803完成相互间的通信。处理器801,用于执行存储器802中存储的程序。
存储器802,用于存储程序,该程序至少用于:采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。
本申请还提供了一种计算机程序产品,当在电子设备上执行时,适于执行初始化有如下方法步骤的程序:
采集任意人体标定时各个点位的动捕数据,将动捕数据转换为骨骼数据;基于骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;基于实时虚拟人数据,渲染虚拟人和预先设置的虚拟场景,得到实时全景视频流;利用视频直播软件将实时全景视频流推出;基于VR眼镜客户端预先安装的拉流应用apk获取的实时全景视频流,调用VR眼镜客户端预先安装的软件开发工具包sdk,使VR眼镜进入vr全景模式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
在一个典型的配置中,设备包括一个或多个处理器(CPU)、存储器和总线。设备还可以包括输入/输出接口、网络接口等。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种渲染虚拟现实VR眼镜可视化的方法,其特征在于,所述方法包括:
采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据;
基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;
基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流;
利用视频直播软件将所述实时全景视频流推出;
基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
2.根据权利要求1所述的方法,其特征在于,所述将所述动捕数据转换为骨骼数据,包括:
根据各个所述点位的动捕数据,确定各个所述点位指示的对应所述人体骨骼的关节点;
根据各个所述点位指示的对应所述人体骨骼的关节点,计算所述人体的各个关键骨骼长度,得到骨骼数据。
3.根据权利要求1所述的方法,其特征在于,所述基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式,包括:
在VR眼镜客户端启动后,基于实时消息传输协议rtmp和所述VR眼镜客户端预先安装的拉流应用apk,获取所述实时全景视频流;
根据经纬度的划分方式,生成预先创建的球体模型的顶点坐标、纹理坐标和索引坐标;
基于所述顶点坐标、所述纹理坐标和所述索引坐标,通过开放图像库opengl,将所述实时全景视频流渲染到所述球体模型上;
调用所述VR眼镜客户端预先安装的软件开发工具包sdk,将所述实时全景视频流渲染到VR眼镜上,使所述VR眼镜进入vr全景模式。
4.根据权利要求3所述的方法,其特征在于,所述基于所述顶点坐标、所述纹理坐标和所述索引坐标,通过开放图像库opengl,将所述实时全景视频流渲染到所述球体模型上,包括:
获取所述实时全景视频流的纹理坐标;
通过开放图像库opengl,加载顶点着色器和片元着色器,并编译所述顶点着色器和所述片元着色器;
创建program对象,将已编译的顶点着色器和已编译的片元着色器绑定到所述program对象中,并编译所述program对象,得到已编译程序;
获取所述program对象中的变换矩阵句柄、顶点坐标句柄和纹理坐标句柄;
基于所述顶点坐标、所述纹理坐标、所述索引坐标、所述变换矩阵句柄、所述顶点坐标句柄和所述纹理坐标句柄,使用所述已编译程序,将所述实时全景视频流渲染到所述球体模型上。
5.根据权利要求4所述的方法,其特征在于,所述基于所述顶点坐标、所述纹理坐标、所述索引坐标、变换矩阵句柄、顶点坐标句柄和纹理坐标句柄,使用所述已编译程序,将所述实时全景视频流渲染到所述球体模型上,包括:
将所述VR眼镜的显示屏幕划分为两个分屏视口,并设置所述分屏视口的的大小;
根据所述变换矩阵句柄、所述顶点坐标句柄、所述纹理坐标句柄和所述分屏视口的大小,调整所述分屏视口对应的所述实时全景视频流中的所述人体的眼睛的坐标,得到更新后的实时全景视频流;
使用所述已编译程序,将所述顶点坐标、所述索引坐标传输至所述已编译的顶点着色器,得到最终顶点着色器,并将所述纹理坐标传输至所述已编译的片元着色器,得到最终片元着色器;
在所述最终顶点着色器和所述最终片元着色器中,将所述更新后的实时全景视频流渲染到所述球体模型上。
6.一种渲染虚拟现实VR眼镜可视化的装置,其特征在于,所述装置包括:
转换模块,用于采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据;
驱动模块,用于基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据;
渲染模块,用于基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流;
推流模块,用于利用视频直播软件将所述实时全景视频流推出;
可视化模块,用于基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
7.根据权利要求6所述的装置,其特征在于,所述转换模块,包括:
确定单元,用于根据各个所述点位的动捕数据,确定各个所述点位指示的对应所述人体骨骼的关节点;
计算单元,用于根据各个所述点位指示的对应所述人体骨骼的关节点,计算所述人体的各个关键骨骼长度,得到骨骼数据。
8.一种渲染虚拟现实VR眼镜可视化的系统,其特征在于,所述系统包括:光学动捕主机、MotionBuilder主机、虚幻引擎UE4渲染主机和VR眼镜客户端;
所述光学动捕主机,用于采集任意人体标定时各个点位的动捕数据,将所述动捕数据转换为骨骼数据,以及将所述骨骼数据发送至所述MotionBuilder主机;
所述MotionBuilder主机,用于接收所述骨骼数据,基于所述骨骼数据,驱动预先制作的虚拟人,得到实时虚拟人数据,以及将所述实时虚拟人数据发送至所述UE4渲染主机;
所述UE4渲染主机,用于接收所述实时虚拟人数据,基于所述实时虚拟人数据,渲染所述虚拟人和预先设置的虚拟场景,得到实时全景视频流,利用视频直播软件将所述实时全景视频流推出;
所述VR眼镜客户端,用于基于VR眼镜客户端预先安装的拉流应用apk获取的所述实时全景视频流,调用所述VR眼镜客户端预先安装的软件开发工具包sdk,使所述VR眼镜进入vr全景模式。
9.一种电子设备,其特征在于,所述电子设备包括处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于调用并执行所述存储器中存储的计算机程序时,实现如权利要求1至5中任一项所述的渲染虚拟现实VR眼镜可视化的方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如权利要求1至5中任一项所述的渲染虚拟现实VR眼镜可视化的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210545165.1A CN114928767A (zh) | 2022-05-19 | 2022-05-19 | 渲染虚拟现实vr眼镜可视化的方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210545165.1A CN114928767A (zh) | 2022-05-19 | 2022-05-19 | 渲染虚拟现实vr眼镜可视化的方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114928767A true CN114928767A (zh) | 2022-08-19 |
Family
ID=82808958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210545165.1A Pending CN114928767A (zh) | 2022-05-19 | 2022-05-19 | 渲染虚拟现实vr眼镜可视化的方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114928767A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105657438A (zh) * | 2015-11-09 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种全景直播视频资源的处理方法及装置 |
WO2019013415A1 (ko) * | 2017-07-12 | 2019-01-17 | 주식회사 볼트홀 | Vr 콘텐츠에 대한 라이브 스트리밍 방법 및 시스템 |
CN112235585A (zh) * | 2020-08-31 | 2021-01-15 | 江苏视博云信息技术有限公司 | 一种虚拟场景的直播方法、装置及系统 |
CN113792646A (zh) * | 2021-09-10 | 2021-12-14 | 广州艾美网络科技有限公司 | 舞蹈动作辅助生成方法、装置及跳舞设备 |
-
2022
- 2022-05-19 CN CN202210545165.1A patent/CN114928767A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105657438A (zh) * | 2015-11-09 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种全景直播视频资源的处理方法及装置 |
WO2019013415A1 (ko) * | 2017-07-12 | 2019-01-17 | 주식회사 볼트홀 | Vr 콘텐츠에 대한 라이브 스트리밍 방법 및 시스템 |
CN112235585A (zh) * | 2020-08-31 | 2021-01-15 | 江苏视博云信息技术有限公司 | 一种虚拟场景的直播方法、装置及系统 |
CN113792646A (zh) * | 2021-09-10 | 2021-12-14 | 广州艾美网络科技有限公司 | 舞蹈动作辅助生成方法、装置及跳舞设备 |
Non-Patent Citations (1)
Title |
---|
管泽伟: "《基于动作捕捉的交互式虚拟现实系统用户行为一致性研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, pages 5 - 54 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11721071B2 (en) | Methods and systems for producing content in multiple reality environments | |
CN107636534B (zh) | 用于图像处理的方法和系统 | |
CN109064542B (zh) | 三维模型表面空洞填补方法和装置 | |
CN110675506B (zh) | 实现多路视频融合的三维增强现实的系统、方法及设备 | |
US20200349773A1 (en) | System and method of viewing a three-dimensional point cloud | |
US20170039770A1 (en) | Mixed reality social interaction | |
CN116319926A (zh) | 融合现实现场事件管理系统和方法 | |
WO2019105274A1 (zh) | 媒体内容的展示方法、装置、计算设备及存储介质 | |
CN110663067B (zh) | 用于生成现实世界场景的定制视图的虚拟化投影以包括在虚拟现实媒体内容中的方法和系统 | |
CN114341943A (zh) | 使用平面提取的简单环境求解器 | |
CN112270702A (zh) | 体积测量方法及装置、计算机可读介质和电子设备 | |
WO2024104248A1 (zh) | 虚拟全景图的渲染方法、装置、设备及存储介质 | |
CN116758208A (zh) | 全局光照渲染方法、装置、存储介质及电子设备 | |
US11315306B2 (en) | Systems and methods for processing volumetric data | |
WO2024027611A1 (zh) | 视频直播方法、装置、电子设备以及存储介质 | |
CN114928767A (zh) | 渲染虚拟现实vr眼镜可视化的方法及相关设备 | |
CN114820910A (zh) | 一种渲染方法及装置 | |
JP7447266B2 (ja) | ボリュメトリック画像データに関するビューの符号化及び復号 | |
US20220129062A1 (en) | Projection Method, Medium and System for Immersive Contents | |
CN114900743A (zh) | 基于视频推流的场景渲染过渡方法以及系统 | |
JP7165254B2 (ja) | 自由視点映像のリプレイ映像を再生するシステムおよび方法 | |
CN112286355B (zh) | 一种用于沉浸式内容的交互方法和系统 | |
JP2018151793A (ja) | プログラム、情報処理装置 | |
KR102085136B1 (ko) | 손상 오브젝트의 복원 방법 및 이를 위한 서버 장치 | |
CN116059643A (zh) | 游戏渲染方法和渲染方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |