CN110488981B - 基于云渲染的手机端vr场景交互式显示方法 - Google Patents

基于云渲染的手机端vr场景交互式显示方法 Download PDF

Info

Publication number
CN110488981B
CN110488981B CN201910788578.0A CN201910788578A CN110488981B CN 110488981 B CN110488981 B CN 110488981B CN 201910788578 A CN201910788578 A CN 201910788578A CN 110488981 B CN110488981 B CN 110488981B
Authority
CN
China
Prior art keywords
mobile phone
image
eye
scene
mobphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910788578.0A
Other languages
English (en)
Other versions
CN110488981A (zh
Inventor
陈纯毅
杨华民
蒋振刚
胡小娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201910788578.0A priority Critical patent/CN110488981B/zh
Publication of CN110488981A publication Critical patent/CN110488981A/zh
Application granted granted Critical
Publication of CN110488981B publication Critical patent/CN110488981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/385Image reproducers alternating rapidly the location of the left-right image components on the display screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • Information Transfer Between Computers (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开一种基于云渲染的手机端VR场景交互式显示方法,结合VR手机眼镜实现在手机上观看VR场景。本方法使用手机的传感器测量观看者头部转动角度,并把测量结果传给渲染云端以便调整左眼虚拟相机和右眼虚拟相机的向前观察方向与向上方向,从而在手机上交互式地观看VR场景。本方法利用双目抑制理论原理,在绘制左右眼画面时使用不同的图像分辨率,可以减少立体画面绘制时间和图像网络传输数据量。使用本方法只需手机浏览器,无需安装其他插件或者单独手机APP就可以观看VR场景。

Description

基于云渲染的手机端VR场景交互式显示方法
技术领域
本发明属于虚拟现实和多媒体网页开发技术领域,涉及一种基于云渲染的手机端VR场景交互式显示方法。
背景技术
最近几年,虚拟现实(VR)技术得到快速发展。使用VR手机眼镜可以把智能手机改造成简易的头戴式虚拟现实显示设备。2014年由谷歌工程师提出的CARDBOARD是最早的VR手机眼镜,目前的VR手机眼镜产品大多是根据CARDBOARD的工作原理改进得到的。VR手机眼镜结合智能手机形成的头戴式虚拟现实显示设备具有移动方便、价格低廉的优势,受到消费者的广泛欢迎。绘制真实感VR场景画面的计算开销很大。智能手机的计算能力有限,通常难以直接在手机上绘制出逼真的VR场景画面。解决这一问题的可行途径是,利用云渲染技术在云端绘制VR场景画面,并把画面传送到手机上显示。
使用头戴式虚拟现实显示设备的VR应用多数都能显示VR场景的立体画面。VR场景的立体画面包括左眼画面图像和右眼画面图像共两幅图像。左眼画面图像显示在头戴式虚拟现实显示设备的左眼显示屏区域中,右眼画面图像显示在头戴式虚拟现实显示设备的右眼显示屏区域中。三维场景立体画面绘制技术在许多文献中都有介绍,例如发表在《计算机辅助设计与图形学学报》2017年29卷7期上的论文“面向三维立体动画制作的视差可视化调节方法设计与实现”就介绍过绘制立体画面使用的各种虚拟立体相机模型。虚拟立体相机包含左眼虚拟相机和右眼虚拟相机。图1所示为平行模型虚拟立体相机。虚拟相机包括视点、向前观察方向、向上方向、水平视场角、垂直视场角等参数,参见J.F.Hughes等撰写的由Addison-Wesley公司于2014年出版的《Computer Graphics:Principles and Practice,3rd Edition》的图13.2,其中的“Location”表示视点,“Up direction”表示向上方向,“Look direction”表示向前观察方向,“θw”表示水平视场角,“θh”表示垂直视场角。对虚拟相机进行初始化设置时就需要设置视点、向前观察方向、向上方向、水平视场角、垂直视场角等参数的值。三维场景立体画面绘制技术根据虚拟立体相机的左眼虚拟相机和右眼虚拟相机的参数绘制出左眼画面图像和右眼画面图像。
使用VR手机眼镜结合智能手机形成的头戴式虚拟现实显示设备,在显示VR场景画面时需要不断获取因观看者头部转动导致手机屏幕旋转的角度,据此修改左眼虚拟相机和右眼虚拟相机的向前观察方向和向上方向,并重新绘制VR场景画面,以便更新用户看到的画面内容。2016年华中科技大学的陈康撰写的硕士论文《基于移动终端的全景图技术研究与实现》和2017年N.Mohssen等人发表在《Geoinformatica》上的论文“Humaine:aubiquitous smartphone-based user heading estimation for mobile computingsystems”对Android智能手机旋转时涉及的坐标系变换做了详细介绍,手机设备坐标系如图2所示,物理世界坐标系如《基于移动终端的全景图技术研究与实现》的图5-2所示,这些文献介绍了手机设备坐标系和物理世界坐标系的关系。在VR手机眼镜结合智能手机形成的头戴式虚拟现实显示设备中,左眼画面图像显示区域和右眼画面图像显示区域如图2所示。使用HTML5的DeviceOrientation接口可以获取手机屏幕旋转偏航角、俯仰角和翻滚角,根据这三个角可以计算从手机设备坐标系到物理世界坐标系的变换矩阵。《ComputerGraphics:Principles and Practice,3rd Edition》的11.2节对基于偏航角、俯仰角和翻滚角的旋转变换做了介绍,相关方法可以用到坐标系之间的变换中。描述VR场景模型的坐标系可以称为VR场景虚拟世界坐标系,VR场景虚拟世界坐标系不必和物理世界坐标系完全对齐,它们之间的关系可以根据三维坐标变换原理用一个变换矩阵来描述。
2010年A.Bulbul等人发表在《Computers&Graphics》的论文“A perceptualapproach for stereoscopic rendering optimization”介绍了基于双目抑制理论(Binocular Suppression Theory)的立体画面绘制优化方法,研究结果表明适当降低左右眼立体画面对中的一幅画面的分辨率不会对观看者的立体视觉感知质量造成明显影响。本方法将利用双目抑制理论原理,通过降低右眼画面图像的分辨率来减小图像网络传输数据量。
发明内容
本发明的目的在于,提供一种基于云渲染的手机端VR场景交互式显示方法,实现在手机上交互式地观看VR场景立体画面。
本发明的技术方案是这样实现的:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;如图3所示,图像标记L和图像标记R并排放置;把页面VRPAGE发布到网页服务器WWWSEVER上;在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,使用WebSocket技术建立用于显示页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;在渲染云端加载VR场景模型,使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,渲染云端通过TCP传输连接A001把左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,把左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中;把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取手机屏幕旋转方向测量数据ROTATION,把测量数据ROTATION通过TCP传输连接A001传送给渲染云端;渲染云端根据接收到的测量数据ROTATION来改变绘制左眼画面图像IML和右眼画面图像IMR时使用的虚拟相机的向前观察方向和向上方向,重新生成左眼画面图像IML和右眼画面图像IMR,并通过TCP传输连接A001把新的左眼画面图像IML和右眼画面图像IMR传送给在手机MOBPHONE的浏览器中显示的页面VRPAGE,页面VRPAGE收到新的左眼画面图像IML和右眼画面图像IMR后立即分别显示到图像标记L和图像标记R中。本方法的具体实现步骤如下:
1)本方法的第一部分编写页面VRPAGE并发布到网页服务器WWWSEVER上,具体实现步骤如下:
步骤Step101:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;如图3所示,图像标记L和图像标记R并排放置;
步骤Step102:把页面VRPAGE发布到网页服务器WWWSEVER上,使得通过网络可以用手机浏览器访问页面VRPAGE。
2)本方法的第二部分在渲染云端绘制VR场景的立体画面并把立体画面传送到手机MOBPHONE上显示,具体实现步骤如下:
步骤Step201:在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,把页面VRPAGE显示在手机MOBPHONE的屏幕上;图3的图像标记L对应的图像显示在图2的左眼画面图像显示区域,图3的图像标记R对应的图像显示在图2的右眼画面图像显示区域;
步骤Step202:使用WebSocket技术建立访问页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;
步骤Step203:在渲染云端加载VR场景模型,计算从物理世界坐标系到VR场景虚拟世界坐标系的变换矩阵Mp2v;根据变换矩阵Mp2v,计算物理世界坐标系的X轴方向在VR场景虚拟世界坐标系中对应的单位向量U0,计算物理世界坐标系的Z轴负方向在VR场景虚拟世界坐标系中对应的单位向量W0;对绘制立体画面时使用的左眼虚拟相机和右眼虚拟相机进行初始化设置,其中左眼虚拟相机的向前观察方向初始化为W0,左眼虚拟相机的向上方向初始化为U0,左眼虚拟相机的视点位置El初始化为Em-δ(W0×U0)/||W0×U0||,右眼虚拟相机的向前观察方向初始化为W0,右眼虚拟相机的向上方向初始化为U0,右眼虚拟相机的视点位置Er初始化为Em+δ(W0×U0)/||W0×U0||,Em为图1所示的左眼虚拟相机和右眼虚拟相机的视点连线的中点,δ为左眼虚拟相机和右眼虚拟相机的视点间距的二分之一;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure BDA0002180591520000041
表示对x向下取整,ms和ns为正整数;
步骤Step204:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中。
3)本方法的第三部分实现在手机MOBPHONE上的VR场景交互式显示,具体实现步骤如下:
步骤Step301:把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002,戴在观看者的头上;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;
步骤Step302:在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取当前的手机屏幕旋转方向测量数据ROTATION,实现对因观看者头部转动导致手机屏幕旋转的角度测量;测量数据ROTATION包含偏航角、俯仰角和翻滚角三个角度,把当前的测量数据ROTATION通过TCP传输连接A001传送给渲染云端;
步骤Step303:渲染云端把收到的当前的测量数据ROTATION保存在变量TEMROTATION中;渲染云端根据保存在变量TEMROTATION中的当前的测量数据ROTATION的偏航角、俯仰角和翻滚角,计算从当前的手机设备坐标系到物理世界坐标系的变换矩阵Md2w;根据变换矩阵Md2w,计算当前的手机设备坐标系的X轴方向在物理世界坐标系中对应的单位向量U1,计算当前的手机设备坐标系的Z轴负方向在物理世界坐标系中对应的单位向量W1;根据变换矩阵Mp2v,计算单位向量U1在VR场景虚拟世界坐标系中对应的单位向量U2,计算单位向量W1在VR场景虚拟世界坐标系中对应的单位向量W2;把左眼虚拟相机的向前观察方向更新为W2,把左眼虚拟相机的向上方向更新为U2,把左眼虚拟相机的视点位置El更新为Em-δ(W2×U2)/||W2×U2||,把右眼虚拟相机的向前观察方向更新为W2,把右眼虚拟相机的向上方向更新为U2,把右眼虚拟相机的视点位置Er更新为Em+δ(W2×U2)/||W2×U2||;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure BDA0002180591520000042
步骤Step304:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中,实现显示画面更新;
步骤Step305:渲染云端判断是否到达结束交互式显示的条件,如果到达,则转步骤Step306,否则转步骤Step302;
步骤Step306:结束VR场景交互式显示。
本发明的积极效果是:根据观看者头部的转动,本方法可以自动调整左眼虚拟相机和右眼虚拟相机的向前观察方向与向上方向,从而在手机上交互式地显示VR场景的立体画面。本方法利用双目抑制理论原理,在绘制左右眼画面时使用不同的图像分辨率,从而既减少了绘制立体画面的时间,又减小了在网络上传输的图像数据量。本方法使用手机网页浏览器显示VR场景的立体画面,无需安装其他插件或者单独的手机APP就可以观看VR场景。
附图说明
图1为平行模型虚拟立体相机示意图。
图2为手机设备坐标系示意图。
图3为页面VRPAGE的图像标记L和图像标记R空间位置关系示意图。
具体实施方式
为了使本方法的特征和优点更加清楚明白,下面结合具体实施例对本方法作进一步的描述。在本实施例中,虚拟立体相机使用图1所示的平行模型虚拟立体相机。手机使用安装安卓系统的智能手机。VR场景为一个虚拟房间场景,在房间中放着一张桌子和一把椅子,在房间的一面墙上挂着一面镜子。
本发明的技术方案是这样实现的:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;如图3所示,图像标记L和图像标记R并排放置;把页面VRPAGE发布到网页服务器WWWSEVER上;在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,使用WebSocket技术建立用于显示页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;在渲染云端加载VR场景模型,使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,渲染云端通过TCP传输连接A001把左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,把左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中;把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取手机屏幕旋转方向测量数据ROTATION,把测量数据ROTATION通过TCP传输连接A001传送给渲染云端;渲染云端根据接收到的测量数据ROTATION来改变绘制左眼画面图像IML和右眼画面图像IMR时使用的虚拟相机的向前观察方向和向上方向,重新生成左眼画面图像IML和右眼画面图像IMR,并通过TCP传输连接A001把新的左眼画面图像IML和右眼画面图像IMR传送给在手机MOBPHONE的浏览器中显示的页面VRPAGE,页面VRPAGE收到新的左眼画面图像IML和右眼画面图像IMR后立即分别显示到图像标记L和图像标记R中。本方法的具体实现步骤如下:
1)本方法的第一部分编写页面VRPAGE并发布到网页服务器WWWSEVER上,具体实现步骤如下:
步骤Step101:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;如图3所示,图像标记L和图像标记R并排放置;
步骤Step102:把页面VRPAGE发布到网页服务器WWWSEVER上,使得通过网络可以用手机浏览器访问页面VRPAGE。
2)本方法的第二部分在渲染云端绘制VR场景的立体画面并把立体画面传送到手机MOBPHONE上显示,具体实现步骤如下:
步骤Step201:在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,把页面VRPAGE显示在手机MOBPHONE的屏幕上;图3的图像标记L对应的图像显示在图2的左眼画面图像显示区域,图3的图像标记R对应的图像显示在图2的右眼画面图像显示区域;
步骤Step202:使用WebSocket技术建立访问页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;
步骤Step203:在渲染云端加载VR场景模型,计算从物理世界坐标系到VR场景虚拟世界坐标系的变换矩阵Mp2v;根据变换矩阵Mp2v,计算物理世界坐标系的X轴方向在VR场景虚拟世界坐标系中对应的单位向量U0,计算物理世界坐标系的Z轴负方向在VR场景虚拟世界坐标系中对应的单位向量W0;对绘制立体画面时使用的左眼虚拟相机和右眼虚拟相机进行初始化设置,其中左眼虚拟相机的向前观察方向初始化为W0,左眼虚拟相机的向上方向初始化为U0,左眼虚拟相机的视点位置El初始化为Em-δ(W0×U0)/||W0×U0||,右眼虚拟相机的向前观察方向初始化为W0,右眼虚拟相机的向上方向初始化为U0,右眼虚拟相机的视点位置Er初始化为Em+δ(W0×U0)/||W0×U0||,Em为图1所示的左眼虚拟相机和右眼虚拟相机的视点连线的中点,δ为左眼虚拟相机和右眼虚拟相机的视点间距的二分之一;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure BDA0002180591520000061
表示对x向下取整,ms和ns为正整数;
步骤Step204:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中。
3)本方法的第三部分实现在手机MOBPHONE上的VR场景交互式显示,具体实现步骤如下:
步骤Step301:把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002,戴在观看者的头上;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;
步骤Step302:在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取当前的手机屏幕旋转方向测量数据ROTATION,实现对因观看者头部转动导致手机屏幕旋转的角度测量;测量数据ROTATION包含偏航角、俯仰角和翻滚角三个角度,把当前的测量数据ROTATION通过TCP传输连接A001传送给渲染云端;
步骤Step303:渲染云端把收到的当前的测量数据ROTATION保存在变量TEMROTATION中;渲染云端根据保存在变量TEMROTATION中的当前的测量数据ROTATION的偏航角、俯仰角和翻滚角,计算从当前的手机设备坐标系到物理世界坐标系的变换矩阵Md2w;根据变换矩阵Md2w,计算当前的手机设备坐标系的X轴方向在物理世界坐标系中对应的单位向量U1,计算当前的手机设备坐标系的Z轴负方向在物理世界坐标系中对应的单位向量W1;根据变换矩阵Mp2v,计算单位向量U1在VR场景虚拟世界坐标系中对应的单位向量U2,计算单位向量W1在VR场景虚拟世界坐标系中对应的单位向量W2;把左眼虚拟相机的向前观察方向更新为W2,把左眼虚拟相机的向上方向更新为U2,把左眼虚拟相机的视点位置El更新为Em-δ(W2×U2)/||W2×U2||,把右眼虚拟相机的向前观察方向更新为W2,把右眼虚拟相机的向上方向更新为U2,把右眼虚拟相机的视点位置Er更新为Em+δ(W2×U2)/||W2×U2||;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure BDA0002180591520000071
步骤Step304:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中,实现显示画面更新;
步骤Step305:渲染云端判断是否到达结束交互式显示的条件,如果到达,则转步骤Step306,否则转步骤Step302;
步骤Step306:结束VR场景交互式显示。
在本实施例中,Mr=1024,Nc=768,ms=2,ns=2,Em=[1,0.5,3]T,δ=0.35,左眼虚拟相机和右眼虚拟相机的水平视场角都初始化为110°,左眼虚拟相机和右眼虚拟相机的垂直视场角都初始化为82°。在重新绘制VR场景画面时,图1的点Em不变,但需要根据手机屏幕旋转角度更新左眼虚拟相机的视点位置和右眼虚拟相机的视点位置。

Claims (1)

1.一种基于云渲染的手机端VR场景交互式显示方法,其特征在于:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;图像标记L和图像标记R并排放置;把页面VRPAGE发布到网页服务器WWWSEVER上;在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,使用WebSocket技术建立用于显示页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;在渲染云端加载VR场景模型,使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,渲染云端通过TCP传输连接A001把左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,把左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中;把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取手机屏幕旋转方向测量数据ROTATION,把测量数据ROTATION通过TCP传输连接A001传送给渲染云端;渲染云端根据接收到的测量数据ROTATION来改变绘制左眼画面图像IML和右眼画面图像IMR时使用的虚拟相机的向前观察方向和向上方向,重新生成左眼画面图像IML和右眼画面图像IMR,并通过TCP传输连接A001把新的左眼画面图像IML和右眼画面图像IMR传送给在手机MOBPHONE的浏览器中显示的页面VRPAGE,页面VRPAGE收到新的左眼画面图像IML和右眼画面图像IMR后立即分别显示到图像标记L和图像标记R中;本方法的具体实现步骤如下:
1)本方法的第一部分编写页面VRPAGE并发布到网页服务器WWWSEVER上,具体实现步骤如下:
步骤Step101:使用HTML5编写网页页面VRPAGE,在页面VRPAGE中仅放置图像标记L和图像标记R,图像标记L和图像标记R分别用于显示VR场景的左眼画面图像IML和右眼画面图像IMR;图像标记L和图像标记R并排放置;
步骤Step102:把页面VRPAGE发布到网页服务器WWWSEVER上,使得通过网络可以用手机浏览器访问页面VRPAGE;
2)本方法的第二部分在渲染云端绘制VR场景的立体画面并把立体画面传送到手机MOBPHONE上显示,具体实现步骤如下:
步骤Step201:在手机MOBPHONE上通过浏览器访问网页服务器WWWSEVER上的页面VRPAGE,把页面VRPAGE显示在手机MOBPHONE的屏幕上;
步骤Step202:使用WebSocket技术建立访问页面VRPAGE的浏览器客户端与渲染云端之间的TCP传输连接A001;
步骤Step203:在渲染云端加载VR场景模型,计算从物理世界坐标系到VR场景虚拟世界坐标系的变换矩阵Mp2v;根据变换矩阵Mp2v,计算物理世界坐标系的X轴方向在VR场景虚拟世界坐标系中对应的单位向量U0,计算物理世界坐标系的Z轴负方向在VR场景虚拟世界坐标系中对应的单位向量W0;对绘制立体画面时使用的左眼虚拟相机和右眼虚拟相机进行初始化设置,其中左眼虚拟相机的向前观察方向初始化为W0,左眼虚拟相机的向上方向初始化为U0,左眼虚拟相机的视点位置El初始化为Em-δ(W0×U0)/||W0×U0||,右眼虚拟相机的向前观察方向初始化为W0,右眼虚拟相机的向上方向初始化为U0,右眼虚拟相机的视点位置Er初始化为Em+δ(W0×U0)/||W0×U0||,Em为左眼虚拟相机和右眼虚拟相机的视点连线的中点,δ为左眼虚拟相机和右眼虚拟相机的视点间距的二分之一;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure FDA0002180591510000021
Figure FDA0002180591510000022
表示对x向下取整,ms和ns为正整数;
步骤Step204:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中;
3)本方法的第三部分实现在手机MOBPHONE上的VR场景交互式显示,具体实现步骤如下:
步骤Step301:把手机MOBPHONE和VR手机眼镜组合在一起形成头戴式虚拟现实显示设备A002,戴在观看者的头上;调节VR手机眼镜和手机MOBPHONE使虚拟现实显示设备A002正常工作,保证观看者戴上虚拟现实显示设备A002后能正常看到VR场景的立体画面,左眼画面图像IML是观看者通过VR手机眼镜的左眼通道能看到的全部画面,右眼画面图像IML是观看者通过VR手机眼镜的右眼通道能看到的全部画面;
步骤Step302:在手机MOBPHONE的浏览器中,使用HTML5的DeviceOrientation接口获取当前的手机屏幕旋转方向测量数据ROTATION,实现对因观看者头部转动导致手机屏幕旋转的角度测量;测量数据ROTATION包含偏航角、俯仰角和翻滚角三个角度,把当前的测量数据ROTATION通过TCP传输连接A001传送给渲染云端;
步骤Step303:渲染云端把收到的当前的测量数据ROTATION保存在变量TEMROTATION中;渲染云端根据保存在变量TEMROTATION中的当前的测量数据ROTATION的偏航角、俯仰角和翻滚角,计算从当前的手机设备坐标系到物理世界坐标系的变换矩阵Md2w;根据变换矩阵Md2w,计算当前的手机设备坐标系的X轴方向在物理世界坐标系中对应的单位向量U1,计算当前的手机设备坐标系的Z轴负方向在物理世界坐标系中对应的单位向量W1;根据变换矩阵Mp2v,计算单位向量U1在VR场景虚拟世界坐标系中对应的单位向量U2,计算单位向量W1在VR场景虚拟世界坐标系中对应的单位向量W2;把左眼虚拟相机的向前观察方向更新为W2,把左眼虚拟相机的向上方向更新为U2,把左眼虚拟相机的视点位置El更新为Em-δ(W2×U2)/||W2×U2||,把右眼虚拟相机的向前观察方向更新为W2,把右眼虚拟相机的向上方向更新为U2,把右眼虚拟相机的视点位置Er更新为Em+δ(W2×U2)/||W2×U2||;使用三维场景立体画面绘制技术生成VR场景的左眼画面图像IML和右眼画面图像IMR,左眼画面图像IML的分辨率为Mr×Nc,右眼画面图像IMR的分辨率为
Figure FDA0002180591510000031
步骤Step304:渲染云端通过TCP传输连接A001把压缩后的左眼画面图像IML和右眼画面图像IMR传送给手机MOBPHONE的浏览器客户端,手机MOBPHONE的浏览器客户端把解压后的左眼画面图像IML和右眼画面图像IMR分别显示在手机MOBPHONE的浏览器中的页面VRPAGE的图像标记L和图像标记R中,实现显示画面更新;
步骤Step305:渲染云端判断是否到达结束交互式显示的条件,如果到达,则转步骤Step306,否则转步骤Step302;
步骤Step306:结束VR场景交互式显示。
CN201910788578.0A 2019-08-28 2019-08-28 基于云渲染的手机端vr场景交互式显示方法 Active CN110488981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910788578.0A CN110488981B (zh) 2019-08-28 2019-08-28 基于云渲染的手机端vr场景交互式显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910788578.0A CN110488981B (zh) 2019-08-28 2019-08-28 基于云渲染的手机端vr场景交互式显示方法

Publications (2)

Publication Number Publication Date
CN110488981A CN110488981A (zh) 2019-11-22
CN110488981B true CN110488981B (zh) 2022-08-23

Family

ID=68553860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910788578.0A Active CN110488981B (zh) 2019-08-28 2019-08-28 基于云渲染的手机端vr场景交互式显示方法

Country Status (1)

Country Link
CN (1) CN110488981B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113064809A (zh) * 2020-01-02 2021-07-02 北京沃东天骏信息技术有限公司 一种跨设备页面调试方法和装置
CN111290124A (zh) * 2020-03-31 2020-06-16 北京塞傲时代信息技术有限公司 基于5g云渲染的vr眼镜
CN112306240A (zh) * 2020-10-29 2021-02-02 中国移动通信集团黑龙江有限公司 虚拟现实数据处理方法、装置、设备及存储介质
CN112637182B (zh) * 2020-12-18 2021-11-12 上海影创信息科技有限公司 左右眼图像互换识别辅助方法和系统及其vr眼镜

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200974A (zh) * 2016-07-18 2016-12-07 上海卫高网络科技有限公司 一种基于移动设备浏览器的虚拟现实的实现方法
CN106600703A (zh) * 2016-11-22 2017-04-26 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的图像处理方法及装置
US9841814B1 (en) * 2017-01-27 2017-12-12 Emergent AR Platforms Corp. Intentional user experience
CN108304000A (zh) * 2017-10-25 2018-07-20 河北工业大学 云台实时vr系统
CN109861948A (zh) * 2017-11-30 2019-06-07 腾讯科技(成都)有限公司 虚拟现实数据处理方法、装置、存储介质和计算机设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277598B2 (en) * 2009-07-14 2022-03-15 Cable Television Laboratories, Inc. Systems and methods for network-based media processing
US10645178B2 (en) * 2016-11-29 2020-05-05 Ncr Corporation Omni-channel virtual reality (VR) collaboration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200974A (zh) * 2016-07-18 2016-12-07 上海卫高网络科技有限公司 一种基于移动设备浏览器的虚拟现实的实现方法
CN106600703A (zh) * 2016-11-22 2017-04-26 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的图像处理方法及装置
US9841814B1 (en) * 2017-01-27 2017-12-12 Emergent AR Platforms Corp. Intentional user experience
CN108304000A (zh) * 2017-10-25 2018-07-20 河北工业大学 云台实时vr系统
CN109861948A (zh) * 2017-11-30 2019-06-07 腾讯科技(成都)有限公司 虚拟现实数据处理方法、装置、存储介质和计算机设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《WebVR开发教程——标准入门》;YoneChen;《https://blog.csdn.net》;20180111;全文 *
《基于HTML5 Canvas的双目立体网页的生成研究》;董莹莹;《中国优秀硕士学位论文全文数据库》;20190215;全文 *
Quan Ye et. al..《 Implementation of WebVR-based Laboratory for Control Engineering Education based on NCSLab Framework》.《中国自动化学会控制理论专业委员会会议论文集》.2017, *

Also Published As

Publication number Publication date
CN110488981A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN110488981B (zh) 基于云渲染的手机端vr场景交互式显示方法
US10684475B2 (en) Image generation apparatus and image generation method
CN105704468B (zh) 用于虚拟和现实场景的立体显示方法、装置及电子设备
CN105704478B (zh) 用于虚拟和现实场景的立体显示方法、装置及电子设备
JP2019028368A (ja) レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法
CN109743626B (zh) 一种图像显示方法、图像处理方法和相关设备
WO2018086295A1 (zh) 一种应用界面显示方法及装置
CN113574863A (zh) 使用深度信息渲染3d图像的方法和系统
KR102582407B1 (ko) 포비에이티드 메시들로 몰입형 비디오 콘텐츠를 렌더링하기 위한 방법들, 시스템들, 및 매체들
US11417060B2 (en) Stereoscopic rendering of virtual 3D objects
CN113936121B (zh) 一种ar标注设置方法以及远程协作系统
TWI694355B (zh) 即時渲染影像的追蹤系統、追蹤方法以及非暫態電腦可讀取媒體
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
CN109427094B (zh) 一种获取混合现实场景的方法及系统
CN115965672A (zh) 三维物体的显示方法、装置、设备及介质
KR20120139054A (ko) 영상변환장치
US12034908B2 (en) Stereoscopic-image playback device and method for generating stereoscopic images
CN114742977A (zh) 一种基于ar技术的视频透视方法
TWM630947U (zh) 立體影像播放裝置
US12100106B2 (en) Stereoscopic rendering of virtual 3D objects
TWI812548B (zh) 生成並排三維影像的方法及電腦裝置
WO2024185429A1 (ja) ヘッドマウントディスプレイおよび画像表示方法
EP4030752A1 (en) Image generation system and method
KR100272132B1 (ko) 가상 세계 모델링 언어에 의해 표현된 영상의 입체화방법 및그 장치
WO2012157516A1 (ja) 映像提示システム、映像提示方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant