CN110720215A - 提供内容的设备和方法 - Google Patents
提供内容的设备和方法 Download PDFInfo
- Publication number
- CN110720215A CN110720215A CN201880038336.3A CN201880038336A CN110720215A CN 110720215 A CN110720215 A CN 110720215A CN 201880038336 A CN201880038336 A CN 201880038336A CN 110720215 A CN110720215 A CN 110720215A
- Authority
- CN
- China
- Prior art keywords
- frame
- frames
- user
- determining
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000033001 locomotion Effects 0.000 claims abstract description 86
- 239000013598 vector Substances 0.000 claims description 36
- 230000002787 reinforcement Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 45
- 239000011159 matrix material Substances 0.000 description 43
- 230000009466 transformation Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 12
- 238000013519 translation Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- OVSKIKFHRZPJSS-UHFFFAOYSA-N 2,4-D Chemical compound OC(=O)COC1=CC=C(Cl)C=C1Cl OVSKIKFHRZPJSS-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
提供了一种设备和方法。该方法包括:基于移动信息识别所述设备的视线方向。该方法还包括:识别在第一直线与第二直线之间形成的角度,该第一直线从显示器上的预定位置开始并且对应于所识别的视线方向,该第二直线从该预定位置开始并且对应于遵循从多个帧获得的移动轨迹的方向。该方法还包括:基于所识别的角度和相对于设备的视场而确定的阈值来确定是否开启用于提供与所识别的视线方向相对应的帧的调整模式。该方法额外包括在所述多个帧中识别第一帧和第二帧。该方法还包括显示该第一帧,然后显示该第二帧。
Description
技术领域
本公开涉及提供内容的设备和方法。
背景技术
虚拟现实(VR)是通过利用计算机等人工技术创建的,指的是技术本身或者类似于现实但不是真正现实的特定环境。通过VR创建的环境或情况可以会刺激用户的五种感官,并可以使用户具有类似于现实的时空体验。此外,用户可以通过使用实际设备执行控制或执行命令来与VR中实现的对象进行交互,以及完全地沉浸在VR中。在VR可以与用户进行交互并创建用户体验方面,VR可以与单方面实现的模拟区分开来。
用户可以在使用VR设备时移动,并且VR设备可以提供反映用户移动的VR内容。
发明内容
技术问题
需要提供根据观看VR内容的用户的移动反映观看方向的变化的VR内容。
问题的解决方案
本公开提供了一种设备和方法,所述方法和设备用于当观看VR内容的用户自由行进或移动时根据用户的移动来提供反映沿观看方向变化的VR内容。
根据实施例的设备可以包括:显示器;姿势传感器,所述姿势传感器被配置为测量所述设备的移动并输出与所测量的移动相关的移动信息;存储器;控制器,所述控制器被配置为:基于所述移动信息,识别所述设备的视线方向;识别在从显示器上的预定位置开始并与所识别的视线方向相对应的直线与从所述预定位置开始且与遵循从存储在所述存储器中的多个帧获得的移动轨迹的方向相对应的直线之间形成的角度;基于所识别的角度和相对于所述设备的视场而确定的阈值,确定开启用于提供与所识别的视线方向相对应的帧的调整模式;在所述调整模式下,基于所识别的视线方向,识别所述多个帧中的第一帧和第二帧;并控制所述显示器显示所述第一帧然后显示所述第二帧。
根据实施例的设备的方法,包括:基于通过测量所述设备的移动而生成的移动信息,识别所述设备的视线方向;识别在从包括在所述设备中的显示器上的预定位置开始且与所识别的视线方向相对应的直线与从所述预定位置开始且与遵循从多个帧获得的移动轨迹的方向相对应的直线之间形成的角度;基于所识别的角度和相对于所述设备视场而确定的阈值,确定是否开启用于提供与所识别的视线方向相对应的帧的调整模式;在所述调整模式下,基于所识别的视线方向识别所述多个帧中的第一帧和第二帧;显示所述第一帧,然后显示所述第二帧。
根据本公开,VR设备可以向用户提供反映根据用户的动作或移动沿VR设备的视线方向而变化的帧。
用户在使用VR设备时可能会移动,并且在左右移动头部时会在虚拟现实内容范围内找到位于移动轨迹上的对象。此外,用户可以通过沿多个方向移动他/她的头部(诸如倾斜他/她的头部或向右或向左移动他/她的头部),来观察发现的对象。当用户沿多个方向移动他/她的头部时,VR内容向用户提供与移动的视点相对应的对象图像,从而用户可以沿多个方向观察对象。用户还可以在移动时观察对象的后视图。因此,VR设备可以提供更逼真的内容,并且可以引起使得用户能够控制VR内容的新关注度,从而用户可以像在现实世界中那样主观地观察对象。即使VR设备的视觉方向超出用户的视角,VR设备也提供与视觉方向相对应的VR内容。因此,可以增加VR设备可以提供的视野(FOV)。
VR设备识别用户的移动并提供与所识别的移动相对应的帧。例如,当用户向后倾斜他/她的头部时,VR设备可以在第一帧之后向用户提供第二帧,其中相对于在第一视点处提供给用户的第一帧,第二帧已经在第二视点处被提供,该第二视点是在与当用户向后倾斜他/她的头部时所产生的移动距离对应的时间一样长的时间之前的视点。
此外,当用户向前倾斜他/她的头时,VR设备可以在第一帧之后向用户提供第三帧,其中,相对于在第一视点处提供给用户的第一帧,第三帧是在第三视点处提供的帧,该第三视点为在与当用户向前倾斜他/她的头部时所产生的移动距离对应的时间一样长的时间之前的视点。因此,用户可以通过倾斜他/她的头部来看到对象的过去图或未来图。这样的功能使得VR设备能够向用户提供具有增加的自由度(DOF)的VR内容。
在采用以下发明方式之前,阐明本专利文件中使用的某些词语和短语的定义可能是有利的:术语“包括”和“包含”及它们派生词是指不含限制的包括;术语“或”是包含性的,意味着和/或;短语“与…...相关联”和“与之关联”及它们派生词可能表示包括、被包括在其中、与……互连、包含、被包含在……中、连接到或与……连接、耦接到或与……耦接、与……可通信、与……合作、交织、并置、接近于、绑定到或与……绑定、具有、具有……的特性等;术语“控制器”是指控制至少一个操作的任何设备、系统或其一部分,这样的设备可以用硬件、固件或软件或它们中至少两个的某种组合来实现。应当注意的是,与任何特定控制器相关联的功能可以是集中式的或分布式的,无论是本地还是远程。
此外,以下描述的各种功能可以由一个或更多个计算机程序实现或支持,每个计算机程序由计算机可读程序代码形成并体现在计算机可读介质中。术语“应用”和“程序”是指适于在合适的计算机可读程序代码中实施的一个或更多个计算机程序、软件组件、指令集、过程、函数、对象、类、实例、相关数据或其一部分。短语“计算机可读程序代码”包括任何类型的计算机代码,包括源代码、目标代码和可执行代码。短语“计算机可读介质”包括能够由计算机访问的任何类型的介质,诸如只读存储器(ROM)、随机存取存储器(RAM)、硬盘驱动器、光盘(CD)、数字视频光盘(DVD)或任何其他类型的存储器。“非暂时性”计算机可读介质不包括传输瞬时电或其他信号的有线、无线、光学或其他通信链路。非暂时性计算机可读介质包括能够永久存储数据的介质以及诸如可重写光盘或可擦除存储设备的能够存储数据并在之后覆盖该数据的介质。
在整个专利文件中都提供了某些词语和短语的定义,本领域的普通技术人员应当理解的是,在很多情况下(即使不是大多数情况下),这些定义也适用于如此定义的词语和短语的先前以及将来的使用。
附图说明
为了更完整地理解本公开及其优点,现在参考以下结合附图进行的描述,其中相同的附图标记表示相同的部件:
图1示出了根据本公开的实施例的VR设备的操作过程的流程图;
图2A和图2B示出了根据本公开的实施例的由VR设备提供的虚拟球形空间概念和虚拟现实内容概念的图;
图3示出了根据本公开的实施例的确定VR设备的视线方向的角度偏差的方法;
图4示出了根据本公开的实施例的用于测量VR设备的视线方向的角度偏差的流程图;
图5示出了根据本公开的实施例的VR设备的多个帧的图;
图6示出了根据本公开的实施例的VR设备的帧的移动轨迹的图;
图7A至图7C示出了根据本公开的实施例的VR设备的视线方向的角度偏差与VR设备的视场之间的关系;
图8示出了根据本公开的实施例的基于VR设备的视线方向向用户示出的对象的外观的图;
图9示出了根据本公开的实施例的解释确定VR设备中要滚动的帧数的方法的图;
图10示出了根据本公开的实施例的解释在VR设备中切换到过去帧或未来帧的概念的图;
图11示出了根据本公开的实施例的用于VR设备中的所选择的多个帧之间插入加强帧的方法的图;
图12示出了根据本公开的实施例的VR设备中的缓存大小和相机相对速度之间的关系的图;
图13A和图13B示出了根据本公开的实施例的用于测量VR设备中的任意帧之间的对象的移动角度的方法;
图14示出了根据本公开的实施例的解释确定VR设备中要滚动的帧数的方法的图;
图15示出了根据本公开的实施例的提供VR设备的配置的示例的图;以及
图16示出了根据本公开的实施例的提供基站的配置的示例的图。
具体实施方式
下面讨论的图1至图16以及用于描述该专利文件中的本公开的原理的各种实施例仅是示例性的,并且不应以任何方式解释为限制本公开的范围。本领域技术人员将理解的是,可以在任何适当布置的系统或设备中实现本公开的原理。
在下文中,将参照附图详细描述实施例。在本公开的以下描述中,当确定详细描述可能使本公开的主题不清楚时,将省略在此并入的已知配置或功能的详细描述。如下所述的术语是考虑实施例中的功能来定义的,并且这些术语的含义可以根据用户或操作者的意图、惯例等而变化。因此,术语的定义应基于整个说明书的内容来确定。
尽管第一、第二等术语用于描述各个元件,但是这些元件不受这些术语的限制。这些术语仅用于将一个元件与另一个元件区分开。因此,在本公开的技术范围内,将在下文中提及的第一元件可以是第二元件。
首先,参考图1,将根据实施例描述虚拟现实(VR)设备的操作过程。
图1示出根据本公开的实施例的VR设备的操作过程的流程图。
根据实施例的VR设备可以是诸如终端、智能电话机、车辆、眼镜、护目镜或戴在用户的头上的头戴式显示器(HMD)的电子设备。在下文中,假定VR设备是HMD。
VR设备包括姿势传感器。VR设备可以通过使用姿势传感器来检测VR设备的姿势(position)变化。在操作100,VR设备的姿势传感器测量关于VR设备的移动的信息。用户可以在使用VR设备时移动。安装在用户上的VR设备可以跟随用户的移动。例如,VR设备可以被安装在用户的头部上,在这种情况下,VR设备可以跟随用户的头部的移动,诸如转动或倾斜用户的头部。即,当VR设备是HMD时,可以假设用户的头部的移动和VR设备的移动是相同的。使用VR设备的用户的移动可以包括两种类型的移动,即,平移和旋转。平移可以表示为xyz坐标系上的x坐标分量、y坐标分量或z坐标分量,其中在xyz坐标系中旋转可以表示为绕着x-轴旋转的俯仰分量、绕y-轴旋转的滚转分量以及绕z-轴旋转的偏航分量。姿势传感器可以在用户使用VR设备时测量VR设备的六个分量的值。即,由姿势传感器测量的VR设备的移动信息可以包括关于六个分量的信息。
由姿势传感器提供给VR设备的VR设备的移动信息可以表示为偏差。偏差是指基于参考位置表示的VR设备的移动程度。特别地,相对于旋转移动的偏差可以被测量为角度偏差,该角度偏差指示作为角度的绕参考轴的旋转程度。角度偏差可以包括相对于参考轴的垂直移动的角度或水平移动的角度。当重力方向是参考轴并且参考轴对应于z-轴时,相对于参考轴的垂直移动可以表示为绕x-轴旋转的俯仰值和/或绕y-轴旋转的滚转值。此外,相对于参考轴的水平移动可以表示为绕z-轴旋转的偏航值。
姿势传感器可以包括测量加速度的加速度传感器(加速度计)、测量角速度的陀螺仪和作为地磁传感器的磁力计中的一个或更多个。作为移动信息测量的示例,可以经由加速度计或陀螺仪测量滚转值或俯仰值,可以经由陀螺仪或磁力计测量偏航值。然而,这是获得VR设备的移动信息的方法的示例,姿势传感器的类型或测量方法不限于此,只要一方法能够测量VR的移动即可。
VR设备可以再现多个帧。一帧可以包括至少一个360度(°)图像。一帧可以包括与一个360度图像对应的至少一条拍摄时间信息。拍摄时间信息可以包括时间戳信息。此外,一帧还可以包括关于根据位置或时间改变的听觉、嗅觉或触觉的信息,以及根据位置或时间改变的视觉图像。
360度图像可以是围绕用于捕获图像的相机的360度场景的图像。或者,360度图像可以是通过对沿多个方向捕获的图像进行合并而获得的图像,使得用于捕获图像的相机周围的场景被定向为类似于360度场景。另外,360度图像可以是通过相机实际捕获的图像,或者可以是与通过相机实际捕获的图像类似地形成的计算机图形图像。用于捕获360度图像的相机可以被包括在VR设备中,也可以不包括在VR设备中。即,VR设备不一定包括用于捕获360度图像的相机。
图2A和图2B示出了根据本公开的实施例的由VR设备提供的虚拟球形空间概念和VR内容概念的图。
帧中包括的360度图像可以是在相机能够捕获图像的距相机半径范围内以360度拍摄的场景的图像。即,360度图像可以是虚拟球形空间的内部表面的图像。图2A是示出了根据实施例的由VR设备提供的虚拟球形空间概念的图。参考图2A,当用户1通过VR设备1000观看360度图像时,用户1可能感觉好像他/她在虚拟球形空间sp的中心并且看着虚拟球形空间sp的内部。
在相机移动时可能会捕获360度图像。或者,360度图像可以是与在相机移动时捕获的图像类似地形成的计算机图形图像。当在图像捕获期间沿着相机的移动产生的轨迹被称为相机移动轨迹时,相机可以在沿着相机移动轨迹移动时,以任意时间间隔捕获相机的视角内的场景的图像。以任意时间间隔拍摄的每个场景可用于显示一个360度图像。
图2B是示出了根据实施例的由VR设备提供的VR内容概念的图。参考图2A和图2B,根据任意时间间隔捕获并被包括在VR设备1000中的多个360度图像,或多个虚拟球面空间sp、sp1、sp2、......和spN(其中多个360度图像被提供给用户1)被收集以构成VR内容vc。此外,观看VR内容vc的用户1可以观看根据虚拟球面空间sp、sp1、sp2、…...和spN内的相机移动轨迹dc而改变的场景。
多个360度图像可以包括在旅行、运动、驾驶和从事极限运动等过程中捕获的图像。多个360度图像可以包括将被提供给用户的各种风景、物体、生物、场所、建筑物等的图像,并且可以包括沿各个方向拍摄的物体的图像。例如,多个360度图像可以包括在物体周围盘旋时以任意时间间隔沿多个方向拍摄的物体的图像。
拍摄时间信息可以包括关于多个360度图像中的每一个图像的被捕获的时间的信息。拍摄时间信息可以包括关于拍摄多个360度图像中的每一个图像的特定时间的信息,或者可以包括关于多个360度图像的前后关系的信息。因此,当针对每个360度图像以与拍摄时间信息相对应的顺序再现多个360度图像时,用户可以基于相机移动轨迹来观看场景,该场景是在相机处于移动时拍摄的。
VR设备可以向用户提供VR内容。VR内容可以包括多个帧。VR内容可以是按时间顺序再现的多个帧,或者可以是被选择性地布置和再现的多个帧。由于用户在观看VR内容的同时观看已经拍摄的图像,因此用户可能会体验到处于非真实的特定环境或情况。取决于VR内容与现实世界的相似程度,VR内容是否能够为用户提供沉浸感和逼真的体验可能会有所不同。在下文中,将详细描述由VR设备1000选择要再现的帧以配置VR内容的过程。
返回参考图1,在操作200,VR设备基于由姿势传感器测量的移动信息来确定视线方向的角度偏差β。这将参考图3进行描述。
图3示出了根据本公开的实施例的用于确定VR设备的视线方向的角度偏差的方法。
参考图3,视线方向的角度偏差β表示VR设备1000的视线方向dv与帧移动轨迹dm之间的差。
VR设备1000的视线方向dv可以是穿过VR设备1000中包括的显示屏的中心并且垂直于显示屏表面的直线的方向。视线方向dv可以是穿过连接佩戴有VR设备1000的用户1的两只眼睛的直线段的中心的方向。可以基于通过VR设备1000中包括的姿势传感器所测量的移动信息来确定VR设备1000的视线方向dv。可以假定VR设备1000的视线方向dv是佩戴VR设备1000的用户1的视线方向。
帧移动轨迹dm可以指相机移动轨迹(沿着该相机移动轨迹捕获包括在多个帧中的多个360度图像),或者可以指从多个帧估计的移动轨迹。即,当以与拍摄时间信息相对应的顺序再现VR设备1000中包括的多个360度图像时,用户1可以基于相机移动轨迹来观看场景,其中相机移动轨迹可以是帧移动轨迹dm。相机移动的坐标系和VR设备1000移动的坐标系可以被假定为相同的坐标系。
在实施例中,已经以VR设备1000的视线方向dv的定义和帧移动轨迹dm的定义为例进行了描述。然而,这可以根据实施例的VR设备的设计而改变。
在下文中,将详细描述通过VR设备确定帧移动轨迹dm以确定视线方向的角度偏差β的过程。
图4示出了根据本公开的实施例的用于测量VR设备的视线方向的角度偏差的流程图。
图5示出了根据本公开的实施例的VR设备的多个帧的图。
参考图4和图5,在操作210,VR设备可以从包括在VR设备中的多个帧的多个360度图像中的每一个中提取关键特征,并且可以在操作220中通过使用所提取的关键特征来确定帧之间的变换矩阵。
关键特征可能表示在多个帧(帧1、帧2和帧3)中包括的多个360度图像(360图像1、360图像2和360图像3)中的每个图像的特征(g、h、i、j、g′、h′、i′、j′、g″、h″、i″或j″),其中特征不随图像变形或旋转而改变。例如,关键特征可以包括图像中包括的对象的边缘、字符等。VR设备可以针对同一对象2从包括沿不同方向观看该对象2的多个360度图像(360图像1、360图像2和360图像3)提取多个关键特征(g、h、i、j、g′、h′、i′、j′、g″、h″、i″或j″)中的每一个关键特征,然后可以通过比较多个360度图像之间的多个关键特征来识别对象2。
将图像数据转换成不根据比例改变的坐标的方法可以用于提取关键特征。首先,可以计算被表示为L(x,y,σ)的函数的360度图像的尺度空间。在此,σ可以表示比例参数。可以通过360度图像I(x,y)和可变比例高斯G(x,y,σ)的卷积运算(数学式1)来计算L(x,y,σ)。
[数学式1]
L(x,y,σ)=G(x,y,σ)*I(x,y)
这里,可变比例高斯G(x,y,σ)可以满足数学式2。
[数学式2]
可以基于两个相邻尺度空间之间的差异来计算高斯差函数(数学式3),其中比例变量分别为σ、kσ。
[数学式3]
[数学式4]
[数学式5]
[数学式6]
[数学式7]
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
为了利用高斯差函数(以下称为高斯差函数图像)确定图像中的局部极大值和局部极小值,可以对高斯差函数图像中任意选择的采样点及其周围区域进行比较。具体地,可以在围绕采样点的三行三列的部分中,将采样点与和该采样点相邻的八个像素进行比较。此外,在相邻的两个高斯差函数图像的每一个图像中,可以将三行三列的部分中的九个像素与采样点进行比较。即,可以将采样点与高斯差函数图像中的相邻像素进行比较,并且可以将该采样点与相邻的高斯差函数图像中的相应像素进行比较。在上述情况下,可以将采样点与26个像素进行比较。仅当采样点大于全部26个像素或小于全部26个像素时,才可以选择采样点。所选择的采样点可以是关键点的候选者。关键点可以指示关键特征在图像上的位置。
为了去除由于与对比度太低或指示边缘相对应的值而不适用于指示图像特性的值,并且为了从关键点候选者中选择能够可靠地表示该图像的特性的关键点,可以针对尺度空间,将高斯差函数D(x,y,σ)的泰勒级数扩展到第二项(数学式8)。
[数学式8]
这里,x=(x,y,σ)T.
[数学式9]
[数学式10]
在所选择的关键点周围选择16行16列像素后,可以对其内部的图像进行高斯模糊处理,然后可以确定每个点的梯度幅值m(x,y)和方向8(x,y)(数学式11和数学式12)。这里,L可以是高斯模糊图像的数据值,并且可以使用L(x,y)之间的差来确定梯度幅值(数学式11)和方向(数学式12)。
[数学式11]
[数学式12]
θ(x,y)=tan-1((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))
可以使用直方图来表示16行16列的像素的梯度幅值。直方图的最高点可以是与直方图的最高点相对应的关键点的方向。另外,例如,高度为直方图的最高点高度大约80%或更高的点也可以是关键点的方向。因此,在关键点具有多个相似大小的最高点的情况下,可以为一个关键点确定多个方向。
基于通过确定关键点及其周围部分的梯度幅值和方向而获得的值,可以确定指示关键点周围形状的特征的关键点描述符。可以将确定了各个点的梯度幅值和方向的16行16列像素乘以高斯加权窗口函数。然后,例如,可以通过4行4列的关键点描述符来表示16行16列的像素。16行16列的各个像素的分量可以概括为4行4列的关键点描述符。4行4列的关键点描述符的每个块可以包括指示表示360度的八个方向的八个箭头。每个箭头可以是围绕相应方向的梯度之和。因此,关键点描述符的特征向量可以包括128个元素,即,16个(4X4)块中的每个块的八个箭头。图像的所确定的多个关键点描述符可以被包括在图像的关键特征中,该关键特征不随图像的旋转变换而改变。
已经描述了提取图像的关键特征的过程作为示例,但是提取关键特征的过程不限于此。可以使用加速的鲁棒特征(SURF)算法或定向的FAST和旋转的BRIEF(ORB)算法来提取关键特征。
在操作220,VR设备可以通过使用所提取的关键特征来确定帧之间的变换矩阵。返回参考图5,以第一帧(帧1)和第二帧(帧2)为例,其中第一帧包括第一360度图像(360图像1),第二帧包括第二360度图像(360图像2)并且在时间上比第一帧(帧1)晚,可以对第一360度图像(360图像1)的关键特征(g、h、i、j......)和第二360度图像(360图像2)的关键特征(g′、h′、i′、j′…...)进行比较。第一帧(帧1)的第一360度图像(360图像1)的关键特征(g、h、i、j......)和第二帧(帧2)的第二360度图像(360图像2)的关键特征(g′、h′、i′、j′…...)可以彼此匹配。这里,对应的关键特征可以是具有相同值的关键特征或具有相似值的关键特征。由于关键特征是即使图像变换或旋转也不会改变的特征,因此即使相机在捕获第一帧(帧1)和第二帧(帧2)的图像时移动,该关键特征也可能不会变化或可能几乎没有变化。因此,当找到在第一帧(帧1)和第二帧(帧2)之间彼此对应的关键特征时,可以确定关键特征的关键点已经移动了多少。在实际情况中,相机在捕获第一帧(帧1)和第二帧(帧2)的图像时已经移动了。但是,由于从用户的角度来看对象2似乎正在移动,因此似乎关键特征已在第一帧(帧1)和第二帧(帧2)上移动了。可以使用在第一帧(帧1)和第二帧(帧2)中彼此匹配的关键特征对(g-g′、h-h′、i-i′、j-j′......),确定两个帧之间的变换矩阵M12(数学式13)。
[数学式13]
在变换矩阵M12(数学式13)中,r可以表示旋转值,t可以表示平移值。q可以代表四元数。然而,在一个实施例中,可以假设不需要四元数而设置q=[0,0,0,1]。特别地,用于旋转值的矩阵R(数学式14)可以是相对于z-轴以右手法则的方向旋转向量θ(弧度)的矩阵(数学式15)。
[数学式14]
[数学式15]
或者,用于旋转值的矩阵R可以是相对于x-轴以右手法则的方向旋转向量θ(弧度)的矩阵(数学式16),可以是相对于y-轴以右手法则的方向旋转向量θ(弧度)的矩阵(数学式17),并且可以是用于尺度变换的矩阵(数学式18)。
[数学式16]
[数学式17]
[数学式18]
此外,用于旋转值的矩阵R可以是矩阵AXY(数学式19),该矩阵AXY相对于x-轴以右手法则的方向旋转向量(弧度),并相对于y-轴旋转向量θ(弧度)。用于旋转值的矩阵R可以是矩阵AXZ(数学式20),该矩阵AXZ相对于z-轴以右手法则的方向旋转向量(弧度),并且相对于z-轴旋转向量ψ(弧度)。用于旋转值的矩阵R可以是矩阵AYZ(数学式21),该矩阵AYZ相对于y-轴以右手法则的方向旋转向量θ(弧度),并且相对于z-轴旋转向量ψ(弧度)。用于旋转值的矩阵R可以是矩阵A(数学式22),该矩阵A相对于x-轴以右手法则的方向旋转向量(弧度),相对于y-轴以右手规则的方向旋转向量θ(弧度),并相对于z-轴旋转向量ψ(弧度)。
[数学式19]
[数学式20]
[数学式21]
[数学式22]
在下文中,将描述确定数学式13中所示的变换矩阵M12的方法。
首先,将描述用于确定二维的M12的变换矩阵的方法。
在彼此匹配的一对关键特征中,当第一帧的关键特征的关键点由(u,v)表示,而第二帧的关键特征的关键点由(x,y)表示时,相对于原点(0,0)以逆时针方向旋转(x,y)θ(弧度)的二维变换矩阵可以表示为数学式23。这里,tx和ty可以对应于与(x,y)的平移相关的值。
[数学式23]
变换是指使用旋转矩阵来旋转初始位置,并且使用平移向量来平移初始位置。当第一帧的关键特征的关键点为F1,第二帧的关键特征的关键点为F2,旋转矩阵为R,平移向量为T,包括该旋转矩阵和平移向量的变换矩阵为M时,则满足下面的数学式24。
[数学式24]
F1=RF2+T=MA
通过将1分配给对角线并将0分配给所有其他位置,可以将矩阵扩展到所需的大小。即,满足以下数学式25。
[数学式25]
确定二维变换矩阵M12的方法将描述如下。
仅包括二维旋转分量的变换矩阵可以表示为以下数学式26。
[数学式26]
仅包含二维平移分量的变换矩阵可以表示为以下数学式27。
[数学式27]
当数学式26和数学式27所示的矩阵相乘时,可以确定如数学式28所示的包括旋转分量和平移分量此二者的二维变换矩阵。
[数学式28]
可使用数学式23和数学式24获得数学式29中所示的结果。
[数学式29]
数学式29可以如数学式30表示。
[数学式30]
在数学式30中,可以类似于下面的数学式31表示二维变换矩阵。
[数学式31]
接下来,将描述用于确定三维变换矩阵M12的方法。
仅包含三维旋转分量的变换矩阵可以表示为以下数学式32。
[数学式32]
仅包括三维平移分量的变换矩阵可以表示为以下数学式33。
[数学式33]
当将数学式32和33中所示的矩阵相乘时,可以确定数学式34中所示的包括旋转分量和平移分量此二者的三维变换矩阵。
[数学式34]
可使用数学式23和数学式24获得数学式35中所示的结果。
[数学式35]
这里,(u,v,w)是第一帧的关键特征的关键点,(y,y,z)是第二帧的关键特征的关键点,tx、ty和tz是与(y,y,z)的平移有关的值。
数学式35可以表示为以下数学式36。
[数学式36]
在数学式36中,三维变换矩阵M12可以是数学式37。
[数学式37]
在通过使用算法将第一帧的关键特征的关键点(u,v)和第二帧的关键特征的关键点(x,y)转换为三维坐标(u,v,w)和(y,y,z)的步骤中,可以使用深度图。
尽管上面已通过各种示例描述了通过使用关键特征确定变换矩阵M12(数学式13)的过程,但是方法可以不限于此,只要该方法能够表达帧之间的变换即可。
VR设备可以基于所确定的变换矩阵M12(数学式13)来确定多个帧中的每个帧的方向向量,并且可以通过连接多个方向向量来确定帧移动轨迹dm。
当第一帧的初始方向的方向向量是第一方向向量V1,第二帧的方向向量是第二方向向量V2时,VR设备可以通过使用变换矩阵M12(数学式13)确定第二方向向量V2(数学式39)。第一方向向量V1可以包括作为x分量的V1x、作为y分量的V1y和作为z分量的V1z。第一方向向量(V1)可以是帧移动轨迹dm的起点,并且可以是任意参考点。第一方向向量V1可以被设置为V1x=0、V1y=0和V1z=0,并且可以被设置为任何点。可以通过将第一方向向量V1与变换矩阵M12相乘来确定第二方向向量V2(数学式39)。
[数学式38]
[数学式39]
图6示出了根据本公开的实施例的VR设备的帧的移动轨迹的图。
参考图6,当确定第一方向向量V1和第二方向向量V2时,可以确定帧移动轨迹dm。可以通过连接第一方向向量V1的终点和第二方向向量V2的起点来确定帧移动轨迹dm。可以通过顺序地连接包括第一帧和第二帧的多个帧中的各个帧的方向向量来确定帧移动轨迹dm。
返回参考图3和图4,在操作240,VR设备可以将VR设备的视线方向dv与帧移动轨迹dm要滚动的帧数之间的角差确定为视线方向的角度偏差β。如上所述,VR设备的视线方向dv可以被包括在由VR设备中包括的姿势传感器测量的移动信息中。
返回参考图1并参考图7A至图7C,在操作300,VR设备将先前确定的视线方向的角度偏差β与VR设备的视场(FOV)α的半值(即,α/2)进行比较。
图7A至图7C示出了根据本公开的实施例的VR设备的视线方向的角度偏差与VR设备的视场之间的关系。
VR设备1000的视场α可以是VR设备1000提供的VR内容的双目视场,其中帧移动轨迹dm的方向假定为前向,并且是参考方向。VR设备1000的视场α可以依据VR设备1000的光学设计或VR设备1000中包括的VR内容的类型而变化。
参考图7A,当用户1向前看时,视线方向的角度偏差β可以是0。参考图7B,当用户1执行诸如在不向前看的情况下转动或倾斜他/她的头部的动作时,视线方向的角度偏差β可以具有除零以外的值。在图7B中,VR设备1000的视场的半值(α/2)大于视线方向的角度偏差β(α/2>β)。在图7A和图7B的情况下,在没有开启视觉对象表示的调整模式的情况下,VR设备1000可以按时间顺序向用户1提供多个帧。在图7C中,视线方向的角度偏差β大于VR设备1000的视场的半值(α/2)(α/2<=β)。
将参考图8描述图7C的示例。
图8示出了根据本公开的实施例的基于VR设备的视线方向来向用户示出的对象的外观的图。
参考图8,用户1可以在佩戴VR设备1000时行进,或者可以在佩戴VR设备1000时移动(例如,用户1可以转动或移动其头部)。当用户1在行进过程中转动头并继续注视对象2时,基于帧移动轨迹dm,VR设备的视线方向可以是连续改变的dv1、dv2和dv3。在这种情况下,视线方向的角度偏差β可能变得大于VR设备1000的视场的一半。
返回参考图1、图7A至图7C以及图8,在操作400,视觉对象表示的调整模式可以从用户1的头部移动并且视线方向的角度偏差β大于VR设备1000的视场的半值(α/2)的时刻开始。视觉对象表示的调整模式可以表示如下模式:当VR设备1000的视线方向dv偏离帧移动轨迹dm超过任意标准时,选择适合于该视线方向dv的帧并将其提供给用户1,以便提供反映相应视线方向dv的VR内容。任意标准可以指示用于确定视线方向的角度偏差β是否大于VR设备1000的视场的半值(α/2)的标准。如果VR设备1000的视线方向移动而没有相对于帧移动轨迹dm的任意标准的偏差,可以按照时间顺序向用户1提供多个帧。另一方面,如图8所示,当用户1在行进时转动他/她的头并继续注视对象2时使得VR设备的视线方向dv1、dv2或dv3超过任意标准地偏离帧移动轨迹dm时,可以向用户1提供反映视线方向dv1、dv2或dv3的至少一帧。在这种情况下,从VR设备1000的第一视线方向dv1观看的对象2的第一外观2-1、从第二视线方向dv2观看的对象2的第二外观2-2和从第三视线方向dv3观看的第三外观2-3会彼此不同。因此,可以向用户1提供包括对象2的外观的帧,其对应于视线方向dv1、dv2或dv3。当向用户1提供反映VR设备1000的视线方向的帧时,可以增加用户1对于VR内容的沉浸度。
在下文中,将详细描述用于选择反映VR设备的视线方向的帧的方法。
当用户1的头部的移动值是HL时,用于开启视觉对象表示的调整模式的条件的源代码可以为如下。
if(β>=a/2)&HL!=0than Start_Frame_detected();
返回参考图1、图7A至图7C,当VR设备1000开启视觉对象表示的调整模式时,VR设备1000可以在操作400确定第一选择帧。即,当视线方向的角度偏差β大于VR设备1000的视场的半值(α/2)时,可以将用户1观看的帧确定为第一选择帧。第一选择帧可以由VR设备1000中包括的控制器确定。
当确定了第一选择帧时,在操作500,VR设备1000可以计算要滚动的帧数以确定第二选择帧。这里,要滚动的帧数可以表示按照时间要被跳过的帧数。确定第二选择帧的计算可以由控制器执行。
图9示出用于解释根据本公开的实施例的确定在VR设备中要滚动的帧数的方法的图。
参考图9,当两个随机帧被表示为诸如分别为Va=(Vax,Vay,Vaz)和Vb=(Vbx,Vby,Vbz)的方向向量时,可以使用数学式40计算两个随机帧之间的距离VL。两个随机帧之间的距离VL可以被估计为已经针对两个随机帧捕获了图像的相机的实际移动距离。这里,Va可以是第一选择帧。
[数学式40]
此外,当用户在两个随机帧中基于其头部的位置分别为H1(H1x,H1y,H1z)和H2(H2x,H2y,H2z)时,可以使用数学式41来计算两个随机帧中的用户头部的移动距离HL。这里,用户头部的移动距离HL可以与VR设备的移动距离相同。
[数学式41]
可以获得两帧之间用户头部的移动距离HL投影在距离VL上的距离H`L(数学式42)。如数学式42所示,可以使用用户头部的移动距离HL和视线方向的角度偏差ω来确定距离H`L。并且,可以通过对两帧之间的投影距离H`L和距离VL之比应用取整函数来确定帧计数C值(数学式43)。这里,帧计数C值可以指示要在所选择的第一选择帧中滚动以确定第二选择帧的帧数。确定了帧计数C值后,可以通过在第一选择帧中滚动与帧计数C的数量一样多的帧来确定第二选择帧。
[数学式42]
H`L=HL·cos(ω)
[数学式43]
尽管已经以示例描述了用于确定第二选择帧的方法,但是用于确定第二选择帧的方法不限于此。例如,可以在两个维度上进行计算,并且当两个随机帧分别表示为诸如Va=(Vax,Vay)和Vb=(Vbx,Vby)的方向向量时,则两个随机帧之间的距离VL可以使用数学式44来计算。这里,Va可以是第一选择帧。
[数学式44]
此外,当在两个随机帧中用户基于他/她的头部位置分别是H1(H1x,H1y)和H2(H2x,H2y)时,在两个随机帧中用户头部的移动距离HL可以使用数学式45计算。
[数学式45]
此外,如上所述,可以获得两帧之间用户头部的移动距离HL投影在距离VL上的距离H`L(数学式42),并且可以通过对两帧之间的投影距离H′L和距离VL之比应用取整函数来确定帧计数C值(数学式43)。当确定了帧计数C值时,可以通过第一选择帧中滚动与帧计数C的数量一样多的帧来确定第二选择帧。
返回参考图1,在操作600,当确定了反映设备的视线方向的第二选择帧时,VR设备将已经提供给用户的第一选择帧切换到第二选择帧。即,VR设备可以根据用户头部的移动向用户提供反映VR设备的视线方向的变化的帧。以图8为例,当基于用户1的头部观察到用户1的移动时,可以根据用户1的移动将设备的视线方向从第一视线方向dv1改变为第二视线方向dv2。在这种情况下,根据VR设备的视线方向的改变,由VR设备提供的帧可以从包括第一外观2-1的图像的第一选择帧切换到包括第二外观2-2的图像的第二选择帧。此外,类似于确定第二选择帧的过程,可以确定包括第三外观2-3的图像的第三选择帧。即,VR设备提供反映视线方向的帧,使得用户可以在多个视点即各种视线方向上观察对象2的外观。因此,可以增加用户对于VR内容的沉浸度。
用户可以在使用VR设备时行进,并且可以在左右移动他/她的头部时找到位于VR内容内的移动轨迹上的对象。此外,用户可以通过在多个方向上移动他/她的头部(诸如倾斜他/她的头部或向右或向左移动他/她的头部)来观察所发现的对象。当用户在多个方向上移动他/她的头部时,VR内容向用户提供与移动的视点相对应的对象图像,从而用户可以沿多个方向观察对象。用户也可以在移动时观察对象的后视图。因此,VR设备可以提供更逼真的内容,并且可以引起使得用户能够控制VR内容的新的关注度,从而用户可以像在现实世界中那样主观地观察对象。即使VR设备的视线方向不在用户的视角之外,VR设备也提供与视线方向相对应的VR内容,从而可以增大由VR设备提供的视场FOV。
图10示出了根据本公开的实施例的解释在VR设备中切换到过去帧或未来帧的概念的图。图10示出了将帧表示为可以向用户1提供的虚拟球形空间sp的示例。
VR设备识别用户头部的移动并提供相应的帧。因此,如图10所示,当用户1向后倾斜他/她的头时,VR设备可以向用户1提供过去帧。过去帧可以指的是相对于当前提供给用户1的当前帧,在与当用户1向后倾斜他/她的头部时所产生的移动距离相对应的时间一样长的时间之前的时间点(第二时间点)所提供的帧。
此外,如图10所示,当用户1向前倾斜他/她的头部时,VR设备可以向用户1提供未来帧。未来帧可以指的是相对于当前帧,在与当用户1向前倾斜他/她的头部时所产生的移动距离对应的时间一样长的时间之后的时间点(第三时间点)的帧。因此,用户1可以通过倾斜他/她的头部来看到对象的过去图像或对象的一些第二未来图像。这种功能使VR设备能向用户提供具有增加的自由(DOF)度的虚拟现实内容。
图11示出了根据本公开的实施例的用于在VR设备中的所选择的帧之间插入加强帧的方法的图。
VR设备可以确定第一选择帧cf1和第二选择帧cf2,然后可以在第一选择帧cf1和第二选择帧cf2之间插入第一加强帧sf1。因此,VR设备可以在第一选择帧cf1和第二选择帧cf2之间提供自然及流畅的切换。该VR设备可通过使用下列中的一个或更多项来形成加强帧:最近邻插值、双线性算法、双三次算法、Sinc-重采样、兰克泽斯重新采样(Lanczosresampling)、框取样、纹理映射(mipmap)、傅立叶变换方法、边缘定向内插(EDI)以及向量化。然而,帧之间的帧内插的方法不限于此。另一方面,类似于用于在第一选择帧cf1和第二选择帧cf2之间插入第一加强帧sf1的方法,VR设备可以确定第三选择帧cf3,然后可以在第二选择帧cf2和第三选择帧cf3之间插入第二加强帧sf2。
图12示出了根据本公开的实施例的示出VR设备中的缓存大小和相机相对速度之间的关系的图。
具有已确定的多个选择帧的VR设备可以确定视频缓存大小,以执行在线流。缓存可以在VR设备上(即,在客户端设备中)执行,以实时进行计算。如图12所示,可以针对相机所拍摄的对象根据相对相机速度来调整相机捕捉VR设备的多个360度的图像的视频缓存大小。这里,相对相机速度可以指对象在多个帧中移动的速度。参考图12的示例,当相对相机速度是10km/h时,视频缓存大小可以是100Kb,当相对相机速度是1Km/h时,视频缓存大小可以是1Mb。即,当相机停止或缓慢移动时,可以将视频缓存大小确定为较大,而当相机快速移动时,可以将视频缓存大小确定为较小。相对相机速度和视频缓存大小可能为负相关。例如,当在行驶中的车辆中使用相机捕获视频时,相机和物体之间的相对速度可以为20km/h,其中视频缓存大小为50kb。此外,例如,当使用定格相机捕获视频时,相机与物体之间的相对速度可以为2km/h,其中视频缓存大小为800kb。
图13A和图13B示出了根据本公开的实施例的测量VR设备中任何帧之间的对象的移动角度的方法。
图14示出了根据本公开的实施例的解释确定VR设备中要滚动的帧数的方法的图。
参考图13A和图13B,VR设备1000可以在开启视觉对象表示的调整模式时确定第一选择帧。当确定第一选择帧时,VR设备1000可以通过计算要滚动的帧数来确定第二选择帧。此外,当两个随机帧分别被称为第一随机帧和第二随机帧时,VR设备1000可以通过对第一随机帧中特定对象的位置ps1与第二随机帧中特定对象的位置ps2进行比较来获得旋转角度Δγ(数学式46),其中该特定对象是用户1将要观察的对象。在此,第一随机帧可以是第一选择帧。
[数学式46]
Δγ=γ2-γ1
参考图14,当在两个随机帧中用户1的位置基于他/她的头部分别为H1(H1x,H1y,H1z)和H2(H2x,H2y,H2z)时,则可以使用数学式41计算用户1的头部的移动距离HL。
另外,可以确定两个随机帧的深度图。可以使用立体重构方法和同时定位和地图构建(SLAM)方法中的一种或更多种方法来确定深度图。然而,用于获得深度图的方法不限于此。可以使用深度图来获取从用户1到对象2的距离M。这里,从用户1到对象2的距离M可以被定义为从连接用户1的双眼的直线段的中心到第一选择帧的对象2的像素的距离的平均值。
可以使用用户1的头部的移动距离HL和从用户1到对象2的距离M确定用户1的头部的移动角度K(数学式47),并且可以通过在两个帧中对用户1的头部的移动角度K与对象的旋转角度Δγ之比应用取整函数来确定帧计数C值(数学式48)。当确定帧计数C值时,可以通过滚动与第一选择帧中的帧计数C的数目一样多的帧来确定第二选择帧。
[数学式47]
[数学式48]
当确定反映用户头部的移动的第二选择帧时,VR设备可以将已经提供给用户的第一选择帧切换到第二选择帧。
图15示出提供根据本公开的实施例的VR设备1000的配置的示例的图。
VR设备1000可以包括:姿势传感器1100测量VR设备1000的移动信息;存储器1200,该存储器中存储多个帧和多个帧中包括的至少一条信息;控制器1300,该控制器控制VR设备1000的所有操作;显示器1400,该显示器包括显示屏,在该显示屏上显示向用户提供的VR内容;收发器1500,该收发器向基站发送信号并从基站接收信号。可以理解的是,在控制器1300的控制下执行由实施例中描述的VR设备1000执行的所有技术和方法。然而,姿势传感器1100、存储器1200、控制器1300、显示器1400和收发器1500不必实现为单独的设备,并且可以肯定地以诸如单个芯片的形式实现为单个元件单元。此外,可以不必包括姿势传感器1100、存储器1200、控制器1300、显示器1400和收发器1500的全部,并且可以省略其中的一些。
图16示出了根据本公开的实施例的提供基站的配置的示例的图。
基站2000可以包括:收发器2200,该收发器向邻近小区基站或VR设备发送信号或从相邻小区基站或VR设备接收信号;以及控制器2100,该控制器控制基站2000的所有操作。在实施例中描述的由基站执行的所有技术和方法都是在控制器2100的控制下执行的。然而,控制器2100和收发器2200不一定实现为单独的设备,并且可以肯定地以诸如单个芯片的形式实现为单个元件单元。
应当注意的是,图1至图16中示出的方法图示、系统配置、设备配置等并非旨在限制本公开的范围。即,不应当解释为图1至图16中描述的所有配置或操作都应被理解为是实施例的必要元件,并且可以在不违反本公开的要旨的范围内实施仅包括一些元件的实施例。
可以通过向通信系统的基站或VR设备中的任何单元提供存储相应的程序代码的存储设备来实现上述操作。即,VR设备的基站或控制器可以通过以处理器或中央处理单元(CPU)的方式读取并执行在存储设备中存储的程序代码来执行上述操作。
本说明书中描述的基站或VR设备的各个元件单元、模块等可以使用硬件电路(例如,基于互补金属氧化物半导体的逻辑电路)、固件、软件和/或嵌入在机器可读介质中的硬件与固件和/或软件的组合来操作。作为示例,可以使用诸如晶体管、逻辑门和专用集成电路之类的电路来执行各种电配置和方法。
尽管已经参考本公开的某些实施例示出和描述了本公开,但是本领域技术人员将理解的是,在不脱离本公开的范围的情况下,可以在形式和细节上进行各种改变。因此,本公开的范围不应被限定为限于上述实施例,而应由所附权利要求及其等同形式所限定。
Claims (11)
1.一种设备的方法,所述方法包括:
基于通过测量所述设备的移动而生成的移动信息,识别所述设备的视线方向;
识别在第一直线与第二直线之间形成的角度,所述第一直线从在所述设备中包括的显示器上的预定位置开始且对应于所识别的视线方向,所述第二直线从所述预定位置开始且对应于遵循从多个帧获得的移动轨迹的方向;
基于所识别的角度和相对于所述设备的视场而确定的阈值,确定是否开启用于提供与所识别的视线方向相对应的帧的调整模式;
在所述调整模式下,基于所识别的视线方向来识别所述多个帧中的第一帧和第二帧;以及
显示所述第一帧,然后显示所述第二帧。
2.根据权利要求1所述的方法,其中基于所识别的角度与所述阈值之间的比较结果来确定是否开启所述调整模式。
3.根据权利要求1所述的方法,其中通过以下方式来生成从所述多个帧获得的所述移动轨迹:
从在不同时间显示的所述多个帧中的每个帧中提取一个或更多个关键点;
基于所述多个帧中的每个帧中的一个或更多个关键点中的每个关键点的位置值,根据时间来生成所述一个或更多个关键点的移动信息;
利用所述移动信息,根据从预定的参考点开始的时间,确定所述多个帧中的每个帧的方向向量;以及
连接所确定的方向向量中的每个方向向量。
4.根据权利要求1所述的方法,其中所述显示器上的所述预定位置包括与所述显示器的水平轴的中心相对应的位置,并且所述设备的所述视线方向对应于与所述显示器的屏幕的中心垂直的方向。
5.根据权利要求1所述的方法,其中确定所述第一帧包括:将在所述调整模式开启的时刻提供的帧确定为所述第一帧。
6.根据权利要求3所述的方法,其中确定所述第二帧包括:
基于所述多个帧当中的所述第一帧和任何第三帧中的每个帧中包括的对象的第二方向向量,确定指示帧间距离的第一值;
利用所识别的角度和所述设备的移动距离,确定第二值;
基于所述第一值和所述第二值,确定要滚动的帧数;以及
通过基于所述第一帧,在所述多个帧中滚动与要滚动的帧数一样多的帧来确定所述第二帧。
7.根据权利要求1所述的方法,其中所述设备包括头戴式显示(HMD)设备。
8.根据权利要求1所述的方法,其中所述多个帧包括用于提供360度图像的帧。
9.根据权利要求1所述的方法,所述方法还包括:在所述第一帧和所述第二帧之间插入用于屏幕切换的加强帧。
10.根据权利要求1所述的方法,所述方法还包括:响应于确定不开启所述调整模式,根据预定的时间信息显示所述多个帧。
11.一种设备,所述设备被配置为执行权利要求1至10所述的方法之一。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0094109 | 2017-07-25 | ||
KR1020170094109A KR102374404B1 (ko) | 2017-07-25 | 2017-07-25 | 콘텐트를 제공하기 위한 디바이스 및 방법 |
PCT/KR2018/008428 WO2019022509A1 (en) | 2017-07-25 | 2018-07-25 | DEVICE AND METHOD FOR PROVIDING CONTENT |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110720215A true CN110720215A (zh) | 2020-01-21 |
CN110720215B CN110720215B (zh) | 2021-08-17 |
Family
ID=65039694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880038336.3A Expired - Fee Related CN110720215B (zh) | 2017-07-25 | 2018-07-25 | 提供内容的设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11320898B2 (zh) |
EP (1) | EP3656124B1 (zh) |
KR (1) | KR102374404B1 (zh) |
CN (1) | CN110720215B (zh) |
WO (1) | WO2019022509A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201709752D0 (en) * | 2017-06-19 | 2017-08-02 | Advanced Risc Mach Ltd | Graphics processing systems |
US11138804B2 (en) * | 2019-08-02 | 2021-10-05 | Fmr Llc | Intelligent smoothing of 3D alternative reality applications for secondary 2D viewing |
CN111815679B (zh) * | 2020-07-27 | 2022-07-26 | 西北工业大学 | 一种基于双目相机的空间目标特征点丢失期间轨迹预测方法 |
US20230008137A1 (en) * | 2021-07-07 | 2023-01-12 | Lenovo (Singapore) Pte. Ltd. | Dynamic field of view selection in video |
CN113727156B (zh) * | 2021-08-09 | 2023-05-26 | 东风汽车集团股份有限公司 | 基于光线和视线的多自由度车载影音系统调整方法和装置 |
GB2614326B (en) * | 2021-12-31 | 2024-10-02 | Sony Interactive Entertainment Europe Ltd | Apparatus and method for virtual reality |
EP4418074A1 (en) * | 2023-02-15 | 2024-08-21 | Nokia Technologies Oy | Apparatus, method and computer program for controlling smart devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150029304A1 (en) * | 2013-07-23 | 2015-01-29 | Lg Electronics Inc. | Mobile terminal and panorama capturing method thereof |
CN105578355A (zh) * | 2015-12-23 | 2016-05-11 | 惠州Tcl移动通信有限公司 | 一种增强虚拟现实眼镜音效的方法及系统 |
CN106125930A (zh) * | 2016-06-27 | 2016-11-16 | 上海乐相科技有限公司 | 一种虚拟现实设备及主视角画面校准的方法 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100259610A1 (en) * | 2009-04-08 | 2010-10-14 | Celsia, Llc | Two-Dimensional Display Synced with Real World Object Movement |
WO2011097306A1 (en) | 2010-02-04 | 2011-08-11 | Sony Corporation | 2d to 3d image conversion based on image content |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US11266919B2 (en) * | 2012-06-29 | 2022-03-08 | Monkeymedia, Inc. | Head-mounted display for navigating virtual and augmented reality |
US20140002581A1 (en) * | 2012-06-29 | 2014-01-02 | Monkeymedia, Inc. | Portable proprioceptive peripatetic polylinear video player |
KR102062310B1 (ko) | 2013-01-04 | 2020-02-11 | 삼성전자주식회사 | 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법 |
US10884493B2 (en) * | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
KR20150010070A (ko) * | 2013-07-18 | 2015-01-28 | 삼성전자주식회사 | 휴대단말기에서 이미지를 표시하는 방법 및 장치 |
US10740979B2 (en) * | 2013-10-02 | 2020-08-11 | Atheer, Inc. | Method and apparatus for multiple mode interface |
JP6353214B2 (ja) * | 2013-11-11 | 2018-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
KR102257621B1 (ko) * | 2014-05-19 | 2021-05-28 | 엘지전자 주식회사 | 썸네일 이미지를 디스플레이 하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법 |
JP2015231106A (ja) * | 2014-06-04 | 2015-12-21 | 三菱電機株式会社 | ヘッドマウントディスプレイ装置及びヘッドマウントディスプレイシステム |
US9533772B2 (en) * | 2014-07-09 | 2017-01-03 | Honeywell International Inc. | Visual search assistance for an occupant of a vehicle |
KR20160033376A (ko) * | 2014-09-18 | 2016-03-28 | (주)에프엑스기어 | 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램 |
JP2016110319A (ja) * | 2014-12-04 | 2016-06-20 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
KR20160096422A (ko) | 2015-02-05 | 2016-08-16 | 삼성전자주식회사 | 화면 표시 방법 및 전자 장치 |
US20160238852A1 (en) * | 2015-02-13 | 2016-08-18 | Castar, Inc. | Head mounted display performing post render processing |
KR20160135660A (ko) * | 2015-05-18 | 2016-11-28 | 한국전자통신연구원 | 헤드 마운트 디스플레이를 위한 입체 영상을 제공하는 방법 및 장치 |
JP2016224919A (ja) * | 2015-06-01 | 2016-12-28 | キヤノン株式会社 | データ閲覧装置、データ閲覧方法、及びプログラム |
KR102349716B1 (ko) * | 2015-06-11 | 2022-01-11 | 삼성전자주식회사 | 영상 공유 방법 및 이를 수행하는 전자 장치 |
KR101716326B1 (ko) * | 2015-09-08 | 2017-03-14 | 클릭트 주식회사 | 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램 |
US10096130B2 (en) * | 2015-09-22 | 2018-10-09 | Facebook, Inc. | Systems and methods for content streaming |
US9967461B2 (en) * | 2015-10-14 | 2018-05-08 | Google Inc. | Stabilizing video using transformation matrices |
JP6800599B2 (ja) | 2015-10-22 | 2020-12-16 | キヤノン株式会社 | 情報処理装置、方法及びプログラム |
KR102632270B1 (ko) * | 2015-11-27 | 2024-02-02 | 삼성전자주식회사 | 전자 장치 및 파노라마 영상 표시와 생성 방법 |
JP6130478B1 (ja) * | 2015-12-15 | 2017-05-17 | 株式会社コロプラ | プログラム及びコンピュータ |
JP6775957B2 (ja) * | 2016-01-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
GB2548154A (en) * | 2016-03-11 | 2017-09-13 | Sony Computer Entertainment Europe Ltd | Virtual reality |
JP6620063B2 (ja) * | 2016-04-21 | 2019-12-11 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
US10607417B2 (en) * | 2016-06-08 | 2020-03-31 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
US10981061B2 (en) * | 2016-06-13 | 2021-04-20 | Sony Interactive Entertainment LLC | Method and system for directing user attention to a location based game play companion application |
JP2017228044A (ja) * | 2016-06-21 | 2017-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成システム、および画像生成方法 |
JP6719308B2 (ja) * | 2016-07-13 | 2020-07-08 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
JP6689694B2 (ja) * | 2016-07-13 | 2020-04-28 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
EP3506645B1 (en) * | 2016-08-23 | 2023-09-06 | Sony Group Corporation | Control system, control apparatus, and control method |
KR102612988B1 (ko) * | 2016-10-20 | 2023-12-12 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 영상 처리 방법 |
CN108616557B (zh) * | 2016-12-13 | 2022-01-25 | 中兴通讯股份有限公司 | 一种全景视频传输方法、装置、终端、服务器及系统 |
US10620441B2 (en) * | 2016-12-14 | 2020-04-14 | Qualcomm Incorporated | Viewport-aware quality metric for 360-degree video |
US10440351B2 (en) * | 2017-03-03 | 2019-10-08 | Fyusion, Inc. | Tilts as a measure of user engagement for multiview interactive digital media representations |
KR101788545B1 (ko) | 2017-03-06 | 2017-10-20 | 클릭트 주식회사 | 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램 |
WO2018211969A1 (ja) * | 2017-05-15 | 2018-11-22 | ソニー株式会社 | 入力制御装置、入力制御方法、および手術システム |
JP6257825B1 (ja) * | 2017-05-26 | 2018-01-10 | 株式会社コロプラ | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP2018198685A (ja) * | 2017-05-26 | 2018-12-20 | ソニー株式会社 | 制御装置、制御方法、および手術システム |
WO2018227504A1 (en) * | 2017-06-15 | 2018-12-20 | Tencent Technology (Shenzhen) Company Limited | System and method of customizing a user interface panel based on user's physical sizes |
US10776992B2 (en) * | 2017-07-05 | 2020-09-15 | Qualcomm Incorporated | Asynchronous time warp with depth data |
JP2019016316A (ja) * | 2017-07-11 | 2019-01-31 | 株式会社日立エルジーデータストレージ | 表示システム、及び表示システムの表示制御方法 |
US10521020B2 (en) * | 2017-07-12 | 2019-12-31 | Unity IPR ApS | Methods and systems for displaying UI elements in mixed reality environments |
US10578869B2 (en) * | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
-
2017
- 2017-07-25 KR KR1020170094109A patent/KR102374404B1/ko active IP Right Grant
-
2018
- 2018-07-25 WO PCT/KR2018/008428 patent/WO2019022509A1/en unknown
- 2018-07-25 US US16/045,545 patent/US11320898B2/en active Active
- 2018-07-25 EP EP18838093.5A patent/EP3656124B1/en active Active
- 2018-07-25 CN CN201880038336.3A patent/CN110720215B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150029304A1 (en) * | 2013-07-23 | 2015-01-29 | Lg Electronics Inc. | Mobile terminal and panorama capturing method thereof |
CN105578355A (zh) * | 2015-12-23 | 2016-05-11 | 惠州Tcl移动通信有限公司 | 一种增强虚拟现实眼镜音效的方法及系统 |
CN106125930A (zh) * | 2016-06-27 | 2016-11-16 | 上海乐相科技有限公司 | 一种虚拟现实设备及主视角画面校准的方法 |
Also Published As
Publication number | Publication date |
---|---|
US11320898B2 (en) | 2022-05-03 |
KR102374404B1 (ko) | 2022-03-15 |
EP3656124A4 (en) | 2020-07-08 |
WO2019022509A1 (en) | 2019-01-31 |
EP3656124B1 (en) | 2022-11-02 |
EP3656124A1 (en) | 2020-05-27 |
US20190033962A1 (en) | 2019-01-31 |
KR20190011492A (ko) | 2019-02-07 |
CN110720215B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110720215B (zh) | 提供内容的设备和方法 | |
US11632533B2 (en) | System and method for generating combined embedded multi-view interactive digital media representations | |
US11024093B2 (en) | Live augmented reality guides | |
US11776199B2 (en) | Virtual reality environment based manipulation of multi-layered multi-view interactive digital media representations | |
US10713851B2 (en) | Live augmented reality using tracking | |
US10748313B2 (en) | Dynamic multi-view interactive digital media representation lock screen | |
US10750161B2 (en) | Multi-view interactive digital media representation lock screen | |
EP1960970B1 (en) | Stereo video for gaming | |
KR20170007102A (ko) | 3차원 지도 생성 및 표시 장치 및 방법 | |
US10665024B2 (en) | Providing recording guidance in generating a multi-view interactive digital media representation | |
EP3818503A1 (en) | Providing recording guidance in generating a multi-view interactive digital media representation | |
JP2024522287A (ja) | 三次元人体再構成方法、装置、デバイスおよび記憶媒体 | |
EP3533218B1 (en) | Simulating depth of field | |
CN110555869A (zh) | 提取增强现实系统中主要和次级运动的方法和系统 | |
CN108028904B (zh) | 移动设备上光场增强现实/虚拟现实的方法和系统 | |
US20230217001A1 (en) | System and method for generating combined embedded multi-view interactive digital media representations | |
CN114972689A (zh) | 执行增强现实姿态确定的方法和装置 | |
CN117369233B (zh) | 一种全息显示方法、装置、设备及存储介质 | |
WO2019213392A1 (en) | System and method for generating combined embedded multi-view interactive digital media representations | |
CN110008873B (zh) | 面部表情捕捉方法、系统及设备 | |
CN114862997A (zh) | 图像渲染方法和装置、介质和计算机设备 | |
Kitanovski et al. | Augmented reality mirror for virtual facial alterations | |
KR101741149B1 (ko) | 가상 카메라의 시점 제어 방법 및 장치 | |
CN115564783A (zh) | 三维数据处理方法、装置、电子设备及存储介质 | |
CN117576288A (zh) | 一种多场景处理数据的方法、装置、设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210817 |
|
CF01 | Termination of patent right due to non-payment of annual fee |