CN107908278A - 一种虚拟现实vr界面生成的方法和装置 - Google Patents

一种虚拟现实vr界面生成的方法和装置 Download PDF

Info

Publication number
CN107908278A
CN107908278A CN201710987222.0A CN201710987222A CN107908278A CN 107908278 A CN107908278 A CN 107908278A CN 201710987222 A CN201710987222 A CN 201710987222A CN 107908278 A CN107908278 A CN 107908278A
Authority
CN
China
Prior art keywords
user interface
pixel
distance
observer
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710987222.0A
Other languages
English (en)
Other versions
CN107908278B (zh
Inventor
辛鑫
王卓伦
王思佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201710987222.0A priority Critical patent/CN107908278B/zh
Publication of CN107908278A publication Critical patent/CN107908278A/zh
Priority to EP18869268.5A priority patent/EP3683656A4/en
Priority to PCT/CN2018/110889 priority patent/WO2019076348A1/zh
Priority to US16/851,454 priority patent/US11294535B2/en
Application granted granted Critical
Publication of CN107908278B publication Critical patent/CN107908278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明实施例涉及通信技术领域,尤其涉及一种虚拟现实VR界面生成的方法和装置,用以解决现有技术中观察者观看时导致的界面失真、扭曲、画质不一致的问题,包括:获取用于指示观察者的头部位置的头部位置信息;根据所述头部位置信息,生成第一用户界面,所述第一用户界面上每个像素点与所述观察者之间的距离相等;显示基于所述第一用户界面而生成的第二用户界面。由于第一用户界面上的每个像素点与观察者之间的距离相等,因此,可以使得第二用户界面中心点和两侧的每个像素点所显示出的明暗和画质相同,提高观察者的观看效果,此外,还可以避免第二用户界面上所显示的图像产生失真。

Description

一种虚拟现实VR界面生成的方法和装置
技术领域
本申请涉及通信技术领域,尤其涉及一种虚拟现实VR界面生成的方法和装置。
背景技术
虚拟现实(Virtual Reality,VR)系统又称虚拟现实平台,是利用电脑模拟产生一个三度空间的虚拟世界,提供观察者关于视觉、听觉、触觉等感官的模拟,让观察者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。
传统技术方案,在VR体验中,如图1所示,大多数VR产品通常将用户界面设计成与地面垂直的平面式或朝观看者方向的环绕式。
但是,由于观察者的眼球是球形的,纯平面界面上的物体映在曲面的视网膜上时,不可避免地会产生扭曲,这样会使得观察者看到的图像失真,并且由于观察者的眼睛会很费力地想要最大程度地矫正这种扭曲,这就便会加剧观察者眼睛的疲劳感。其次,如图2所示,纯平面界面中心和上下左右四侧到观察者眼睛的距离不相等,会导致画面中心和两侧所显示出的明暗和画质不同,更有距离感,影响观看的整体效果。
发明内容
本发明实施例提供一种虚拟现实VR界面生成的方法和装置,用以解决现有技术中观察者观看时导致的界面失真、扭曲、画质不一致的问题。
为了解决上述技术问题,本申请提供如下技术方案:
第一方面,本申请提供一种虚拟现实VR界面生成的方法,包括:获取用于指示观察者的头部位置的头部位置信息;根据头部位置信息,生成第一用户界面,第一用户界面上每个像素点与观察者之间的距离相等;显示基于第一用户界面而生成的第二用户界面。
本申请提供一种虚拟现实界面生成的方法,通过获取指示观察者的头部位置的头部位置信息,并根据头部位置信息生成第一用户界面,由于生成的第一用户界面上每个像素点与观察者之间的距离相等,从而使得最终显示给观察者的基于第一用户界面的第二用户界面上的每个像素点至观察者的距离相等,由于观察者的眼睛是球形的,因此,VR设备所显示给观察者的第二用户界面具有一定的曲率,可以最大程度的消除观察者在视觉上产生的扭曲,这样以避免观察者在观看第二用户界面时看到的图像失真,还可以降低第二用户界面上不同位置所显示出的亮度差异,以及画质差异,从而提高了VR体验。
结合第一方面,在第一方面的第一种可能的实现方式中,根据头部位置信息,生成第一用户界面,包括:根据头部位置信息以及第三用户界面的中心点的坐标信息,移动第三用户界面中每个像素点的位置,其中,移动后每个像素点与观察者之间的距离相等;将移动后每个像素点生成的界面作为生成的第一用户界面。通过移动第三用户界面上每个像素点的位置,可以基于第三用户界面生成第一用户界面。
结合第一方面或第一方面的第一种可能的实现方式中,在第一方面的第二种可能的实现方式中,第三用户界面为纯平面界面。
结合第一方面至第一方面的第二种可能的实现方式中的任一项,在第一方面至第一方面的第三种可能的实现方式中,根据头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置,包括:根据头部位置信息以及中心点的坐标信息确定参考距离;其中,参考距离用于指示观察者头部到中心点之间的距离;根据参考距离移动第三用户界面中每个像素点的位置。在移动每个像素点的位置的过程中,基于参考距离可以使得最终生成的第一用户界面的精准度,以及提高生成第一用户界面的效率。
结合第一方面至第一方面的第三种可能的实现方式中的任一项,在第一方面至第一方面的第三种可能的实现方式中,根据所述参考距离移动所述第三用户界面中每个像素点的位置,包括:
根据公式计算每个像素点在三维坐标系统的Z轴上移动的距离,其中,dz表示所述每个像素点在Z轴上移动的距离,R表示所述参考距离,Lxy表示所述第三用户界面长度的二分之一;根据公式计算所述每个像素点在三维坐标系统的X轴上移动的距离;dx表示所述每个像素点在X轴上移动的距离,根据公式计算所述每个像素点在三维坐标系统的Y轴上移动的距离;dy表示所述每个像素点在Y轴上移动的距离,y0表示所述每个像素点在所述第三用户界面上的纵坐标的参数;根据所述每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离,移动所述每个像素点各自的位置。通过根据上述公式分别计算每个像素点在三维坐标系统中的X轴、Y轴以及Z轴需要移动的距离可以精准的将每个像素点移动至指定的位置,从而使得移动之后每个像素点距离观察者的距离均相等,从而提高了显示给观察者的第二用户界面的精准度。
结合第一方面至第一方面的第四种可能的实现方式中的任一项,在第一方面至第一方面的第五种可能的实现方式中,根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置之前,所述方法还包括:根据头部位置信息以及预配置参数,生成所述第三用户界面。在生成第一用户界面之前,根据预配置参数生成第三用户界面,这样便可以通过调整第三用户界面中每个像素点的位置,以生成第二用户界面。
结合第一方面至第一方面的第五种可能的实现方式中的任一项,在第一方面至第一方面的第六种可能的实现方式中,所述第三用户界面包括与所述观察者发生交互的卡片、文本以及按钮中的至少一个或者多个。
结合第一方面至第一方面的第六种可能的实现方式中的任一项,在第一方面至第一方面的第七种可能的实现方式中,第三用户界面的中心点的坐标信息通过默认配置得到,或者根据用户输入的参数配置得到。
结合第一方面至第一方面的第七种可能的实现方式中的任一项,在第一方面至第一方面的第八种可能的实现方式中,显示基于所述第一用户界面而生成的第二用户界面,包括:接收第一参数,所述第一参数包括:界面显示比例,亮度、色调、饱和度、分辨率、色温、第三用户界面与观察者之间的距离以及用户界面的尺寸大小等参数中的任意一个或者多个的组合;基于所述第一参数调整所述第一用户界面,以生成所述第二用户界面;显示所述第二用户界面。通过在生成第一用户界面之后,对第一用户界面调整,以生成第二用户界面,可以使得最终显示给观察者的第二用户界面满足观察者的需求。
第二方面,本申请提供一种虚拟现实VR设备,其特征在于,所述设备至少包括:处理器,存储器,传感器系统,显示器,中央处理器CPU、总线以及图形处理器GPU,其中,所述:处理器,存储器,传感器系统,显示器,中央处理器CPU以及图形处理器GPU通过所述总线连接;所述传感器系统,用于获取观察者的头部位置,以及向所述CPU发送用于指示观察者的头部位置的头部位置信息;所述存储器中存储有指令和程序,所述CPU用于调用所述指令和程序以根据所述头部位置信息,生成第一用户界面,所述第一用户界面上每个像素点与所述观察者之间的距离相等;所述图形处理器GPU用于基于所述第一用户界面生成第二用户界面;所述显示器,用于显示所述第二用户界面。
结合第二方面,在第二方面的第一种可能的实现方式中,CPU具体用于:根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动第三用户界面中每个像素点的位置,其中,移动后每个像素点与观察者之间的距离相等;以及用于将移动后每个像素点生成的界面作为生成的第一用户界面。
结合第二方面或第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,第三用户界面为纯平面界面。
结合第二方面至第二方面的第二种可能的实现方式中的任一项,在第二方面的第三种可能的实现方式中,CPU具体用于根据头部位置信息以及中心点的坐标信息确定参考距离;其中,参考距离用于指示所述观察者头部到所述中心点之间的距离;以及用于根据所述参考距离移动所述第三用户界面中每个像素点的位置。
结合第二方面至第二方面的第三种可能的实现方式中的任一项,在第二方面的第四种可能的实现方式中,CPU具体用于:根据公式计算每个像素点在三维坐标系统的Z轴上移动的距离,其中,dz表示每个像素点在Z轴上移动的距离,R表示参考距离,Lxy表示第三用户界面长度的二分之一;根据公式计算每个像素点在三维坐标系统的X轴上移动的距离;dx表示所述每个像素点在X轴上移动的距离,根据公式计算所述每个像素点在三维坐标系统的Y轴上移动的距离;dy表示所述每个像素点在Y轴上移动的距离,y0表示所述每个像素点在所述第三用户界面上的纵坐标的参数;以及根据每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离,移动所述每个像素点各自的位置。
结合第二方面至第二方面的第四种可能的实现方式中的任一项,在第二方面的第五种可能的实现方式中,CPU还用于,根据头部位置信息以及预配置参数,生成第三用户界面。
结合第二方面至第二方面的第五种可能的实现方式中的任一项,在第二方面的第六种可能的实现方式中,第三用户界面包括与观察者发生交互的卡片、文本以及按钮中的至少一个或者多个。
结合第二方面至第二方面的第六种可能的实现方式中的任一项,在第二方面的第七种可能的实现方式中,第三用户界面的中心点的坐标信息通过默认配置得到,或者根据用户输入的参数配置得到。
结合第二方面至第一方面的第七种可能的实现方式中的任一项,在第二方面至第二方面的第八种可能的实现方式中,通信接口,用于接收第一参数,所述第一参数包括:界面显示比例,亮度、分辨率、色温、色调、饱和度、第三用户界面与观察者之间的距离以及用户界面的尺寸大小等参数中的任意一个或者多个的组合;处理器,用于基于所述第一参数调整所述第一用户界面,以生成所述第二用户界面;显示器,用于显示所述第二用户界面。
附图说明
图1为一种纯平面用户界面示意图;
图2为现有技术中观察者观看纯平面用户界面的示意图;
图3为本发明实施例提供的一种场景示意图;
图4为本发明实施例提供的一种虚拟现实设备的结构示意图;
图5为本发明实施例提供的一种虚拟现实VR界面生成的方法的流程示意图;
图6为本发明实施例提供的一种第一用户界面的示意图一;
图7为本发明实施例提供的一种观察者与中心点之间的关系示意图;
图8为本发明实施例提供的一种将纯平面用户界面转变为每个像素点与观察者等距离的第一用户界面的示意图;
图9为本发明实施例提供的一种确定像素点移动距离的算法示意图;
图10为本发明实施例提供的第三用户界面上每个像素点的坐标示意图;
图11为本发明实施例提供的一种第一用户界面的示意图二。
具体实施方式
在介绍本申请提供的方法之前,首先介绍本申请所涉及到的相关术语:
本申请中的像素点是指虚拟现实头盔上显示图像被分割成的最小单位的点。
三维坐标信息:在虚拟现实系统中,任何位置信息都是具有X,Y,Z三个轴向方向的空间信息,比传统的二维系统多了Z轴方向的深度信息。在三维坐标系统中任一个位置的坐标表达式可以为(X0,Y0,Z0)。
如图3所示,图3示出了本申请提供的一种通信系统示意图,如图3所示,包括虚拟现实设备100,网络以及远程的服务器200,其中,虚拟现实设备100通过网络与服务器200相连。
其中,服务器200可以集成全景摄像机,可以进一步包括独立的视频服务器,或者集成的视频/图片存储系统。将拍摄的全景视频通过无线网络系统发送给虚拟现实设备100,这样虚拟现实设备100使用者可以实时体验远端全景摄像机拍摄的视频,感觉自己如同就在远方摄像机所在的地方进行“现场”游览,身临其境一般。
需要注意的是,本发明实施例不仅仅限于如上所述的使用场景,这些使用场景仅是示例说明,所述网络可以为无线网络系统,也可以是有线网络,本申请对此不进行限定。
其中,虚拟现实设备100可以为诸如VR头盔(例如,一体式虚拟现实头盔、连接手机端的虚拟现实头盔、连接台式计算机的虚拟现实头盔、光波导混合现实头盔以及增强现实头盔等)、VR眼镜等方便携带且具有播放VR视频功能的设备,或是为诸如电脑、电视等具有播放全景视频功能的设备。
其中,服务器200可以为云服务器或者社交服务器,服务器200用于通过网络向虚拟现实设备100发送内容信息,该内容信息包括但不限于图片、文字、动效、视频等。
虚拟现实终端100(以虚拟现实头盔)为例包括:光学系统以及电路系统,光学系统主要包括光学镜片,例如为凸状透镜等镜片和镜片位置调节装置,镜片包括左眼镜片、右眼镜片。其中,左眼镜片和右眼镜片设置于显示器的前方,即位于观察者的眼睛和显示器之间。左眼镜片和右眼镜片可以更换,镜片位置调节装置可以调整左眼镜片和右眼镜片的位置以调节镜片和显示器之间的距离,使虚拟现实终端100适用于不同视力的观察者。如图4所示,图4示出了一种虚拟现实设备电路系统结构的示意图,该虚拟现实设备100的电路系统结构中,至少设置有片上系统(System on Chip,SoC),存储器106,显示器105,通信接口103,传感器104,总线106。其中,SoC,存储器106,显示器105,通信接口103,传感器104通过总线107连接,其中,SoC包括中央处理器(Central Processing Unit,CPU)102,图形处理器(Graphics Processing Unit,GPU)101。在另外一种虚拟现实头盔中,也可以仅包含光学系统,电路系统可以由智能终端设备(如:手机、平板电脑、游戏机、高清播放器等音视频设备)代替。
其中,存储器用于存储支持虚拟现实设备执行如图5所述VR界面生成的方法的应用程序代码。CPU被配置为用于执行存储器中存储的应用程序,如果有一些图形强相关的处理(如渲染)可将相关处理交由GPU来做。所述虚拟现实终端还可以包括通信接口,用于与其他设备或通信网络通信。
其中,GPU101用于对图像或视频信号进行处理,例如,使用渲染算法渲染图像或视频信号,并将处理后的图像或视频发送给CPU。
其中,CPU102用于调用存储器中存储的程序和指令,管理各个功能模块的配置以及传感器数据的采集工作,可以是单核或者多核处理器(CPU)。
该SoC例如具体可以包括CPU,GPU,DSP,特定应用集成电路(application-specific integrated circuit,ASIC),FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合,在硬件层面以芯片的形式进行封装,例如,海思麒麟芯片或者高通骁龙芯片。需要说明的是,在实际过程中GPU和CPU除了可以集成到一个芯片外,也可以是封装成两个独立的芯片,本申请对不进行限定。示例性的,本申请在图4中以GPU和CPU集成在一个芯片,例如,集成在同一个芯片(也可称处理器)上为例进行说明。其可以实现或执行结合本发明公开内容所描述的各种示例性的逻辑方框,模块和电路。总线107用于连接上述各个部件,该总线107可以为一条或是多条总线,以确保各个部件之间的通信。该总线107可以为AXI总线、PCI总线或EISA等各种用于通信的总线。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口103可以通过无线网络、有线网络、蓝牙或是其他通讯方式支持VR设备与其他设备通信,在此不做限定,例如,通信接口103用于接入不同的无线网络系统(如:LTE网络),对无线信号进行收发处理,可以是集成射频芯片的基带芯片。
显示器105用于显示图像,显示视频,可以是采用超高分辨率、高刷新率、以及更高响应时间的液晶显示器(Liquid Crystal Display,LCD),配合光学成像系统带来高清的画质,以及更为流畅的显示效果。
其中,传感器用于采集观察者运动及环境状态数据,并将采集到的数据发送给CPU,具体的用于采集观察者头部的运动状态和位置,例如,观察者头部的转动数据,例如,头部位置信息,比如,观察者前后移动产生的位移、速度,或是观察者的摆头、摇头,抬头,低头等动作,又或是观察者输入的点击、按压等操作,在此不做限定。具体的,传感器可以为设置在VR设备内的惯性测量单元(Inertial measurement unit,IMU),是用于测量三轴姿态角(或角速率)以及加速度的装置。
在一种可选的方式中,虚拟现实终端100还包括:图像采集设备,可以是全景摄像装置,包含一个或多个摄像头,用于采集图像信号。例如,摄像机,用于采集视频或者图像并发送给GPU。
存储器106可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(ElectricallyErasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
结合下文公开内容所描述的方法或者算法的步骤可以硬件的方式来实现,也可以是由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成,软件模块可以被存放于RAM、闪存、ROM、EPROM、EEPROM、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分,或是处理器和存储介质也可以作为分立组件。
如图5所示,本申请提供一种虚拟现实VR界面生成的方法,包括:
S101、VR设备获取用于确定观察者的头部位置的头部位置信息。
可选的,头部位置信息包括观察者头部的姿态以及头部的方位信息等。
示例性的,观察者头部的姿态可以为低头、抬头等,头部的方位信息可以为观察者头部的朝向,头部的方位信息可以由VR设备对观察者的头部动作进行跟踪得到;例如,可以通过VR设备的惯性测量模块来检测观察者的头部的运动,获取观察者的头部的方位信息,该方位信息包括:观察者的头部X方向的移动量,Y方向的移动量、Z方向的移动量、绕X轴的转动量、绕Y轴的转动量以及绕Z轴的转动量等,本申请对此不进行限定。
S102、VR设备根据头部位置信息,生成第一用户界面,该第一用户界面上每个像素点与观察者之间的距离相等。
可选的,本申请中像素点与观察者之间的距离指:像素点到观察者的头部之间的距离,进一步的还可以指像素点到观察者的眼睛的距离。
可以理解的是,本申请中生成的第一用户界面为双曲率界面,如图6所示,该双曲率界面,即整个第一用户界面朝观察者方向包围,且以观察者的头部为圆心,使得第一用户界面上的每个像素点到观察者头部的距离相等,也即半径相等。
S103、VR设备显示基于第一用户界面而生成的第二用户界面。
本申请提供一种虚拟现实界面生成的方法,通过获取指示观察者的头部位置的头部位置信息,并根据头部位置信息生成第一用户界面,由于生成的第一用户界面上每个像素点与观察者之间的距离相等,从而使得最终显示给观察者的基于第一用户界面的第二用户界面上的每个像素点至观察者的距离相等,由于观察者的眼睛是球形的,因此,VR设备所显示给观察者的第二用户界面具有一定的曲率,可以最大程度的消除观察者在视觉上产生的扭曲,这样以避免观察者在观看第二用户界面时看到的图像失真,还可以降低第二用户界面上不同位置所显示出的亮度差异,以及画质差异,从而提高了VR体验。
作为一种可能的实现方式,本申请中的步骤S103可以通过以下方式实现:
VR设备使用渲染算法对第一用户界面进行渲染,并将渲染后的第一用户界面进行编译并转换为API数据,然后VR设备将各项虚拟三维对象的数据进行图形渲染,以合成界面、模型、文字等,最终封装后,并由VR设备的硬件端再次渲染后显示给观察者。
作为另一种可能的实现方式,本申请中的步骤S103还可以通过以下方式实现:
VR设备接收第一参数,该第一参数用于调整第一用户界面;VR设备基于第一参数,调整所述第一用户界面,以生成第二用户界面,并显示生成的第二用户界面。
作为一种可能的实现方式,VR设备基于第一参数,调整第一用户界面,具体包括:VR设备基于第一参数,调整所述第一用户界面之后,并使用渲染算法渲染调整后的第一用户界面以生成第二用户界面。
其中,VR设备对第一用户界面使用渲染算法渲染的过程可以参考现有技术中的方案,本申请对此不进行限定。
例如,该第一参数可以为界面显示比例、亮度、色调、分辨率、色温、饱和度、第三用户界面与观察者之间的距离以及用户界面的尺寸大小等参数中的任意一个或者多个的组合。
可选的,该第一参数可以为观察者输入给VR设备的,或者VR设备通过与VR设备连接的存储有用户行为习惯的终端中获取的,本申请对此不进行限定。
作为又一种可能的实现方式,本申请中的步骤S103还可以通过以下方式实现:
VR设备基于预先配置的第一参数调节第一用户界面,以及在调整第一用户界面之后,并使用渲染算法渲染调整后的第一用户界面以生成第二用户界面。
其中,预先配置的第一参数可以为VR设备出厂时存储在VR设备的存储器中的,也可以存储在VR设备的其他存储装置中,当然该预先配置的第一参数还可以为观察者根据使用习惯预先设置的,本申请对此不进行限定。
当然,该VR设备上还可以安装有用户获取用户行为的应用程序,该应用程序与存储用户行为的终端连接,这样当观察者通过该应用程序登陆时,VR设备通过该应用程序同步用户行为,以获取第一参数。
作为一种可能的实现方式,本申请中的步骤S102具体可以通过以下方式实现:
S1021、根据头部位置信息以及第三用户界面的中心点的坐标信息,移动第三用户界面中每个像素点的位置,其中,移动后所述每个像素点与所述观察者之间的距离相等。
可选的,本申请中的第三用户界面为纯平面界面,环绕式纯平面界面,又称为单曲面界面。
其中,纯平面界面可以理解指:与地面垂直的平面式用户界面,环绕式纯平面界面是指该用户界面中与观察者视野处于同一水平线上的界面具有弧度,与人眼球弧度相似,在与观察者视野处于同一个水平线的方向上,观察者到用户界面的距离相等。
可以理解的是,在实际过程中,为了生成第一用户界面,本申请中的VR设备具有第三用户界面,但该第三用户界面在实际过程中可以不显示给观察者,即在实际过程中观察者看不到第三用户界面,该第三用户界面在VR设备的处理过程中,供VR设备基于该第三用户界面生成第一用户界面。
该第三用户界面可以为观察者启动VR设备之后从VR设备预配置的多个用户界面中选择的一个用户界面,例如,基于观察的头部位置信息所选择的一个用户界面。或者,该第三用户界面可以为VR设备在观察者启动VR之后生成的。
可选的,作为一种可能的实现方式,本申请在执行S1021之前,还包括:
步骤S1023、VR设备根据所述头部位置信息以及预配置参数,生成所述第三用户界面。
其中,预配置参数用于确定第三用户界面的参数,其中,第三用户界面的参数可以为第三用户界面的长度,高度,第三用户界面的比例以及观察者到第三用户界面之间的距离。
可以理解的是,在实际过程中VR设备中具有多组预配置参数,每组预配置参数与一个头部位置信息关联,这样在VR设备被启动,以及确定头部位置信息之后,VR设备可以从预配置参数中获取与该头部位置信息关联的预配置参数,以生成第三用户界面。
可以理解的是,该多组预配置参数中每组预配置参数与一个头部位置信息之间具有的关联关系,可以根据观察者的使用习惯记录,或者在VR设备出厂时被配置或者以其他方式获取,本申请对此不进行限定。
由于在实际过程中,观察者所处的场景不同,观察者对第三用户界面的要求也不同,若基于预配置参数来生成第三用户界面,可能使得生成的第三用户界面无法满足观察者的观影体验,而导致最终基于第三用户界面生成的第一用户界面无法满足观察者的需求,因此,作为另一种可能的实现方式,在本申请步骤S1021之前,还包括步骤S1和S2:
S1、VR设备接收第一输入参数,所述第一输入参数用于确定第三用户界面的参数。
示例性的,该第一输入参数可以为长度,高度,第三用户界面的比例以及观察者到第三用户界面之间的距离,以及观察者所处的场景、观影类型、观察者所处的位置、第三用户界面的屏幕参数、画面显示比例中的一项或多项。
示例性的观察者所处的场景可以为:观看其他视频(例如,玩游戏、观看电视等所有具有显示功能的虚拟现实界面),或者VR影院。
示例性的,本实施例以观察者所处的场景为VR影院为为例,在这种情况下,第一输入参数可以包括:观影类型(IMAX或普通)、位置(第几排第几列)的方式,观影界面自动适配屏幕曲率及画面大小、画面的比例等。
可选的,本申请中的VR设备还可以与存储有用户行为习惯的终端(例如手机)相连,这样VR设备便可以通过与终端交互,获取用户行为习惯,例如,(用户平时观影的购票选座习惯等数据),这样VR设备便可以基于获取到的用户行为习惯,自动适配观影位置、屏幕属性,此外,当用户行为习惯包括两个或两个以上用户时,在每个用户对应的用户行为习惯不同时,可以基于每个用户各自对应的用户行为习惯来确定。
可以理解的是,本申请中的VR设备还用于接收服务器发送的内容信息,该内容信息包括但不限于图片、文字、动效、视频等。
可选的,内容信息可以为第一用户界面所需要的海报素材。示例性的,若第一用户界面上所需要显示画面或者视频为A,则该内容信息可以为A所需要的海报素材。这样VR设备在生成第三用户界面时可以基于上述内容信息在第三用户界面上生成相应的海报素材。
S2、VR设备根据第一输入参数以及头部位置信息生成第三用户界面。
S1022、将移动后每个像素点生成的界面作为生成的第一用户界面。
作为一种可能的实现方式,本申请中的步骤S1021具体可以通过以下方式实现:根据头部位置信息以及中心点的坐标信息确定参考距离;其中,所述参考距离用于指示观察者头部到所述中心点之间的距离;根据参考距离移动所述第三用户界面中每个像素点的位置。
可以理解的是,VR设备在根据参考距离移动所述第三用户界面中每个像素点的位置时,可以只依据参考距离这个条件来移动每个像素点的位置,但是并不限于仅依据参考距离这个条件,也即在实际过程中,还可以将参考距离与其他参数结合来移动所述第三用户界面中每个像素点的位置。
具体的,本申请中的根据所述参考距离移动所述第三用户界面中每个像素点的位置,可以通过以下方式实现:
根据公式计算每个像素点在三维坐标系统的Z轴上移动的距离,其中,dz表示每个像素点在Z轴上移动的距离,R表示参考距离,Lxy表示第三用户界面长度的二分之一;根据公式计算每个像素点在三维坐标系统的X轴上移动的距离;x0表示每个像素点在第三用户界面上的横坐标的参数;根据公式计算每个像素点在三维坐标系统的Y轴上移动的距离;y0表示每个像素点在第三用户界面上的纵坐标的参数;根据每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离,移动每个像素点各自的位置。
需要说明的是,上述用户计算每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离的公式在实际过程中通常可以存储在VR设备的存储器中。在VR设备的处理器在计算每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离时,可以调用上述公式。
下述将以第三用户界面为纯平面用户界面为例,介绍每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离的公式的产生原理:
在实际过程中,在VR设备生成第三用户界面之后,VR设备将第三用户界面作为一个整体,确定第三用户界面的中心点的坐标信息。
作为一种可能的实现方式中,在该第三用户界面是基于预配置参数生成时,那么VR设备便可以通过默认配置获取中心点的坐标信息。
作为另一种可能的实现方式,由于在实际过程中VR设备可以基于观察者输入的第一输入参数以及头部位置信息来生成,在这种情况下,VR设备可以基于头部位置信息以及第一输入参数来确定中心点的坐标信息。
示例性的,第一输入参数包括观察者与第三用户界面之间的距离,那么VR设备便可以调用头部位置信息以及观察者与第三用户界面之间的距离,确定中心点的坐标信息。
如图7所示,图7以第三用户界面为纯平面用户界面为例进行说明:为了使得第三用户界面201上的每个像素点距离观察者的距离均相等,因此,在实际过程中即可以理解为使得第三用户界面201转变为水平和垂直方向都弯曲,且每个像素点到观察者之间的距离均相等的双曲率状态,如图8所示,即使得最终基于第三用户界面201生成的第一用户界面202的整个界面朝观察者方向包围,并且形成以观察者的头部为圆心的球形,使得球面上各点到用户头部的距离即半径相等,例如,图6中的R1等于R2。
因此,在具体过程中需要使用算法分别计算出第三用户界面转化为第一用户界面时,第三用户界面上每个像素点在X轴、Y轴以及Z轴分别需要移动的距离dx、dy、dz。
如图9所示,dz是基于纯平面的第三用户界面生成双曲率的第一用户界面时,第三用户界面上每个像素点在Z轴上位移的距离;R表示以观察者301为圆心,以第一用户界面中心点之间的距离的圆的半径,也是观察者到第三用户界面的中心点的距离。x表示第三平面界面上每个像素点的横坐标值,y表示第三用户界面上每个像素点的纵坐标值。2Lxy表示第三平面界面的长度,Lxy表示第三用户界面长度的二分之一。
结合图9,基于勾股定理可以得知,(Lxy)2=x2+y2,即
其次,在图9中,利用余弦定理,算出cosα=(R-dz)/R,即dz=R(1-cosα)。
再次,由于是以观察者为圆心,以观察者距离第三用户界面的中心点之间的距离为半径的圆,因此,α/360°=(Lxy/2πR)×360°,即α=(Lxy×180°)/πR,其中,α表示任意一个像素点P与观察者之间的连线和观察者和中心点之间连线的夹角。
最后,将α带入dz=R(1-cosα),得出在确定dz之后,便可以依据dz确认每个像素点在X轴移动的距离,以及在Y轴移动的距离。
由于dz表示基于第三用户界面生成第一用户界面时,第三用户界面上每个像素点在Z轴上位移的距离;W表示是Z轴平移后,X轴和Y轴需要位移的距离。
由图9可知,dx/X=dy/y=W/Lxy。
同样,利用相似三角形原理,tanα=Lxy/R=w/dz,即W=tanα*dz,而α=(Lxy*180°)/πR,若要算在X轴位移的距离,将其带入dx/X=W/Lxy,即同理,可以得出
在确定第三用户界面上每个像素点需要移动的距离之后,可以基于每个像素点在如图10所示的在二维坐标系统中的坐标以及每个像素点需要移动的距离来确定当每个像素点在三维坐标系统中的坐标,并将其每个像素点移动至各自在三维坐标系统中对应的坐标上。
示例性的,由于第三用户界面上每个像素点的移动原理相同,因此,本申请现以像素点A、像素点B和像素点C为例说明首先,如图10所示,像素点A在二维坐标系统中的坐标为(x0,y0),像素点B在二维坐标系统中的坐标为(x1,y1),像素点C在二维坐标系统中的坐标为(x2,y2),由于第三用户界面上的每个像素点在二维坐标系统中不存在深度坐标值,故将二维坐标系统中的像素点用三维坐标系统的坐标表示时,像素点A在三维坐标系统中的坐标为(x0,y0,0)、像素点B在二维坐标系统中的坐标为(x1,y1,0),像素点C在三维坐标系统中的坐标为(x2,y2,0)。通过上述公式可以确定像素点B在三维坐标系统的Z轴上移动的距离为dz1,在X轴上移动的距离为dx1,在Y轴移动的距离为dy1,由于在移动之前像素点B在Z轴方向的坐标为0,因此,VR设备根据dx1,dy1和dz1可以确定移动后像素点B在三维坐标系统的坐标为(x1+dx1,y1+dy1,dz1),可以上述公式可以确定像素点A在三维坐标系统的Z轴上移动的距离为dz0,在X轴上移动的距离为dx0,在Y轴移动的距离为dy0,因此,VR设备根据dx0,dy0和dz0可以确定移动后像素点A在三维坐标系统的坐标为(x0+dx0,y0+dy0,dz0),可以上述公式可以确定像素点C在三维坐标系统的Z轴上移动的距离为dz2,在X轴上移动的距离为dx2,在Y轴移动的距离为dy2,因此,VR设备根据dx2,dz2和dy2可以确定移动后像素点A在三维坐标系统的坐标为(x2+dx2,y2+dy2,dy2)。
如图11所示,图11示出了最终基于第三用户界面生成的第一用户界面的,由于第一用户界面上每个像素点到观察者之间的距离相等,因此,最终VR设备显示给观察者的界面可以为双曲率的用户界面。
一方面,当本申请提供的VR设备采用硬件实现时,例如,如图4所示,CPU102用于支持VR设备执行上述实施例中的步骤S102,S1021,S1023,以及S2,S1022,显示器105用于支持VR设备执行上述实施例中的步骤S103,通信接口103用于支持VR设备执行上述实施例中的步骤S1。其中,GPU101,还用于对CPU102生成的第一用户界面进行处理,例如,进行渲染处理,并在渲染之后的第一用户界面作为第二用户界面供显示器105显示。
需要说明的是,图4所示的VR设备在执行上述方法时的具体过程可以参考上述实施例,本申请在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (18)

1.一种虚拟现实VR界面生成的方法,其特征在于,包括:
获取用于指示观察者的头部位置的头部位置信息;
根据所述头部位置信息,生成第一用户界面,所述第一用户界面上每个像素点与所述观察者之间的距离相等;
显示基于所述第一用户界面而生成的第二用户界面。
2.根据权利要求1所述的方法,其特征在于,所述根据所述头部位置信息,生成第一用户界面,包括:
根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置,其中,移动后所述每个像素点与所述观察者之间的距离相等;
将移动后所述每个像素点生成的界面作为生成的所述第一用户界面。
3.根据权利要求2所述的方法,其特征在于,所述第二用户界面为纯平面界面。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置,包括:
根据所述头部位置信息以及所述中心点的坐标信息确定参考距离;其中,所述参考距离用于指示所述观察者头部到所述中心点之间的距离;
根据所述参考距离移动所述第三用户界面中每个像素点的位置。
5.根据权利要求4所述的方法,其特征在于,所述根据所述参考距离移动所述第三用户界面中每个像素点的位置,包括:
根据公式计算所述每个像素点在三维坐标系统的Z轴上移动的距离,其中,dz表示所述每个像素点在Z轴上移动的距离,R表示所述参考距离,Lxy表示所述第三用户界面长度的二分之一;
根据公式计算所述每个像素点在三维坐标系统的X轴上移动的距离;dx表示所述每个像素点在X轴上移动的距离,x0表示所述每个像素点在所述第三用户界面上的横坐标的参数;
根据公式计算所述每个像素点在三维坐标系统的Y轴上移动的距离;dy表示所述每个像素点在Y轴上移动的距离,y0表示所述每个像素点在所述第三用户界面上的纵坐标的参数;
根据所述每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离,移动所述每个像素点各自的位置。
6.根据权利要求2-5任一项所述的方法,其特征在于,所述根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置之前,所述方法还包括:
根据所述头部位置信息以及预配置参数,生成所述第三用户界面。
7.根据权利要求6所述的方法,其特征在于,
所述第三用户界面包括与所述观察者发生交互的卡片、文本以及按钮中的至少一个或者多个。
8.根据权利要求2-7任一项所述的方法,其特征在于,所述第三用户界面的中心点的坐标信息通过默认配置得到,或者根据用户输入的参数配置得到。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述显示基于所述第一用户界面而生成的第二用户界面,包括:
接收第一参数,所述第一参数包括:界面显示比例,亮度、色调、饱和度、分辨率、色温、第三用户界面与观察者之间的距离以及用户界面的尺寸大小等参数中的任意一个或者多个的组合;
基于所述第一参数调整所述第一用户界面,以生成所述第二用户界面;显示所述第二用户界面。
10.一种虚拟现实VR设备,其特征在于,所述设备至少包括:存储器,传感器系统,显示器,中央处理器CPU、总线、通信接口以及图形处理器GPU,其中,所述存储器,传感器系统,显示器,中央处理器CPU、通信接口以及图形处理器GPU通过所述总线连接;
所述传感器系统,用于获取观察者的头部位置,以及向所述CPU发送用于指示观察者的头部位置的头部位置信息;
所述存储器中存储有指令和程序,所述CPU用于调用所述指令和程序以根据所述头部位置信息,生成第一用户界面,所述第一用户界面上每个像素点与所述观察者之间的距离相等;
所述图形处理器GPU用于基于所述第一用户界面生成第二用户界面;
所述显示器,用于显示所述第二用户界面。
11.根据权利要求10所述的设备,其特征在于,所述CPU,具体用于:
根据所述头部位置信息以及第三用户界面的中心点的坐标信息,移动所述第三用户界面中每个像素点的位置,其中,移动后所述每个像素点与所述观察者之间的距离相等;以及用于将移动后所述每个像素点生成的界面作为生成的所述第一用户界面。
12.根据权利要求10所述的设备,其特征在于,所述第三用户界面为纯平面界面。
13.根据权利要求11或12所述的设备,其特征在于,所述CPU,具体用于根据所述头部位置信息以及所述中心点的坐标信息确定参考距离;其中,所述参考距离用于指示所述观察者头部到所述中心点之间的距离;以及用于根据所述参考距离移动所述第三用户界面中每个像素点的位置。
14.根据权利要求13所述的设备,其特征在于,所述CPU具体用于:
根据公式计算所述每个像素点在三维坐标系统的Z轴上移动的距离,其中,dz表示所述每个像素点在Z轴上移动的距离,R表示所述参考距离,Lxy表示所述第三用户界面长度的二分之一;
根据公式计算所述每个像素点在三维坐标系统的X轴上移动的距离;dx表示所述每个像素点在X轴上移动的距离,x0表示所述每个像素点在所述第三用户界面上的横坐标的参数;
根据公式计算所述每个像素点在三维坐标系统的Y轴上移动的距离;dy表示所述每个像素点在Y轴上移动的距离,y0表示所述每个像素点在所述第三用户界面上的纵坐标的参数;
以及根据所述每个像素点各自在三维坐标系统的Z轴上移动的距离,X轴上移动的距离以及Y轴上移动的距离,移动所述每个像素点各自的位置。
15.根据权利要求11-14任一项所述的设备,其特征在于,所述CPU还用于,根据所述头部位置信息以及预配置参数,生成所述第三用户界面。
16.根据权利要求15所述的设备,其特征在于,所述第三用户界面包括与所述观察者发生交互的卡片、文本以及按钮中的至少一个或者多个。
17.根据权利要求12-16任一项所述的设备,其特征在于,所述第三用户界面的中心点的坐标信息通过默认配置得到,或者根据用户输入的参数配置得到。
18.根据权利要求10-17任一项所述的设备,其特征在于,所述通信接口,用于接收第一参数,所述第一参数包括:界面显示比例,亮度、色调、饱和度、分辨率、色温、第三用户界面与观察者之间的距离以及用户界面的尺寸大小等参数中的任意一个或者多个的组合;
所述CPU用于基于所述第一参数调整所述第一用户界面,以生成所述第二用户界面;所述显示器,用于显示所述第二用户界面。
CN201710987222.0A 2017-10-20 2017-10-20 一种虚拟现实vr界面生成的方法和装置 Active CN107908278B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710987222.0A CN107908278B (zh) 2017-10-20 2017-10-20 一种虚拟现实vr界面生成的方法和装置
EP18869268.5A EP3683656A4 (en) 2017-10-20 2018-10-18 VIRTUAL REALITY INTERFACE GENERATION METHOD AND APPARATUS
PCT/CN2018/110889 WO2019076348A1 (zh) 2017-10-20 2018-10-18 一种虚拟现实vr界面生成的方法和装置
US16/851,454 US11294535B2 (en) 2017-10-20 2020-04-17 Virtual reality VR interface generation method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710987222.0A CN107908278B (zh) 2017-10-20 2017-10-20 一种虚拟现实vr界面生成的方法和装置

Publications (2)

Publication Number Publication Date
CN107908278A true CN107908278A (zh) 2018-04-13
CN107908278B CN107908278B (zh) 2020-04-28

Family

ID=61840623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710987222.0A Active CN107908278B (zh) 2017-10-20 2017-10-20 一种虚拟现实vr界面生成的方法和装置

Country Status (4)

Country Link
US (1) US11294535B2 (zh)
EP (1) EP3683656A4 (zh)
CN (1) CN107908278B (zh)
WO (1) WO2019076348A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019076348A1 (zh) * 2017-10-20 2019-04-25 华为技术有限公司 一种虚拟现实vr界面生成的方法和装置
CN110478914A (zh) * 2019-08-28 2019-11-22 武汉宇宙寓言影视发展有限公司 一种仿真儿童摇摆机的控制方法、系统及装置
CN112308981A (zh) * 2020-11-09 2021-02-02 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112130326B (zh) * 2020-09-28 2022-06-10 广州引力波科技创新发展有限公司 一种提高vr眼镜护目性能的方法及装置
CN114461057A (zh) * 2020-11-09 2022-05-10 华为技术有限公司 Vr显示控制方法、电子设备及计算机可读存储介质
CN112616048B (zh) * 2020-12-14 2023-05-09 京东方科技集团股份有限公司 Ar眼镜及其显示方法和系统、图像处理方法及设备
CN114490498B (zh) * 2022-01-20 2023-12-19 山东大学 基于vr技术的模拟软件仿真异构系统及其工作方法
CN114578972B (zh) * 2022-05-05 2022-07-26 江西科骏实业有限公司 Vr场景中兼容平面与曲面ui事件的触发方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150015574A1 (en) * 2013-07-09 2015-01-15 Nvidia Corporation System, method, and computer program product for optimizing a three-dimensional texture workflow
CN104869325A (zh) * 2015-05-20 2015-08-26 京东方科技集团股份有限公司 一种显示补偿方法、模块和显示装置
US20150249815A1 (en) * 2013-05-01 2015-09-03 Legend3D, Inc. Method for creating 3d virtual reality from 2d images
CN106200881A (zh) * 2016-06-29 2016-12-07 乐视控股(北京)有限公司 一种数据展示方法及装置与虚拟现实设备
CN106569654A (zh) * 2016-10-09 2017-04-19 深圳市金立通信设备有限公司 一种虚拟现实界面显示方法及虚拟现实设备
CN107037957A (zh) * 2016-11-03 2017-08-11 阿里巴巴集团控股有限公司 一种显示方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201310376D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
JP6505556B2 (ja) * 2015-09-07 2019-04-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
EP3365724B1 (en) * 2015-10-20 2021-05-05 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
KR101785027B1 (ko) * 2016-01-14 2017-11-06 주식회사 라온텍 화면 왜곡 보정이 가능한 디스플레이 장치 및 이를 이용한 화면 왜곡 보정 방법
CN105955454A (zh) * 2016-04-15 2016-09-21 北京小鸟看看科技有限公司 一种用于虚拟现实系统的防眩晕方法和装置
CN107908278B (zh) * 2017-10-20 2020-04-28 华为技术有限公司 一种虚拟现实vr界面生成的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150249815A1 (en) * 2013-05-01 2015-09-03 Legend3D, Inc. Method for creating 3d virtual reality from 2d images
US20150015574A1 (en) * 2013-07-09 2015-01-15 Nvidia Corporation System, method, and computer program product for optimizing a three-dimensional texture workflow
CN104869325A (zh) * 2015-05-20 2015-08-26 京东方科技集团股份有限公司 一种显示补偿方法、模块和显示装置
CN106200881A (zh) * 2016-06-29 2016-12-07 乐视控股(北京)有限公司 一种数据展示方法及装置与虚拟现实设备
CN106569654A (zh) * 2016-10-09 2017-04-19 深圳市金立通信设备有限公司 一种虚拟现实界面显示方法及虚拟现实设备
CN107037957A (zh) * 2016-11-03 2017-08-11 阿里巴巴集团控股有限公司 一种显示方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019076348A1 (zh) * 2017-10-20 2019-04-25 华为技术有限公司 一种虚拟现实vr界面生成的方法和装置
US11294535B2 (en) 2017-10-20 2022-04-05 Huawei Technologies Co., Ltd. Virtual reality VR interface generation method and apparatus
CN110478914A (zh) * 2019-08-28 2019-11-22 武汉宇宙寓言影视发展有限公司 一种仿真儿童摇摆机的控制方法、系统及装置
CN112308981A (zh) * 2020-11-09 2021-02-02 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US11294535B2 (en) 2022-04-05
EP3683656A1 (en) 2020-07-22
CN107908278B (zh) 2020-04-28
WO2019076348A1 (zh) 2019-04-25
EP3683656A4 (en) 2020-11-04
US20200241731A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
CN107908278A (zh) 一种虚拟现实vr界面生成的方法和装置
CN110954083B (zh) 移动设备的定位
US20210075963A1 (en) Method and apparatus for obtaining binocular panoramic image, and storage medium
CN108292489A (zh) 信息处理装置和图像生成方法
CN107079141B (zh) 用于三维视频的图像拼接
CN106062826B (zh) 图像生成装置以及图像生成方法
WO2018214697A1 (zh) 图形处理方法、处理器和虚拟现实系统
US9911214B2 (en) Display control method and display control apparatus
CN103927005B (zh) 显示控制方法及显示控制装置
CN107636534A (zh) 一般球面捕获方法
CN109479114A (zh) 光场捕获
KR102214263B1 (ko) 화상 생성 장치, 화상 생성 방법, 컴퓨터 프로그램, 및 기록 매체
CN116485929A (zh) 增强现实系统和操作增强现实系统的方法
CN107810634A (zh) 用于立体增强现实的显示器
US10438418B2 (en) Information processing method for displaying a virtual screen and system for executing the information processing method
CN107844190A (zh) 基于虚拟现实vr设备的图像展示方法及装置
JP6844210B2 (ja) 視覚的顕著性マップ生成装置、視覚的顕著性マップ生成方法及びプログラム
CN107065164B (zh) 图像展示方法及装置
CN108153417A (zh) 画面补偿方法及采用该方法的头戴式显示装置
KR20200024946A (ko) 전방향의 구형 라이트 필드 렌더링 방법
KR102176805B1 (ko) 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법
CN111602391B (zh) 用于根据物理环境定制合成现实体验的方法和设备
US11187914B2 (en) Mirror-based scene cameras
US10083675B2 (en) Display control method and display control apparatus
CN105894581A (zh) 一种呈现多媒体信息的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant