CN112396705A - 使用过渡视觉内容缓解小视场显示 - Google Patents

使用过渡视觉内容缓解小视场显示 Download PDF

Info

Publication number
CN112396705A
CN112396705A CN202010811321.5A CN202010811321A CN112396705A CN 112396705 A CN112396705 A CN 112396705A CN 202010811321 A CN202010811321 A CN 202010811321A CN 112396705 A CN112396705 A CN 112396705A
Authority
CN
China
Prior art keywords
virtual object
fov
display characteristics
virtual
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010811321.5A
Other languages
English (en)
Inventor
L·R·德利茨·森特诺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN112396705A publication Critical patent/CN112396705A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及使用过渡视觉内容缓解小视场显示。本文所公开的各种具体实施包括在计算机生成现实(CGR)环境中实现虚拟内容的改进显示的设备、系统和方法。在一些具体实施中,该CGR环境是在电子设备处基于该设备的视场(FOV)和虚拟内容在该FOV内的位置来提供的。调整虚拟对象的显示特性以最小化或消除落在电子设备的FOV之外的虚拟对象或虚拟对象的一部分的任何不利影响。

Description

使用过渡视觉内容缓解小视场显示
技术领域
本公开整体涉及电子设备,并且具体地涉及用于显示虚拟内容的计算机生成现实环境的系统、方法和设备。
背景技术
虚拟内容可能很难在显示器的周边部分处查看。例如,当虚拟内容接近显示器的周边边缘时,该虚拟内容可能被裁剪或剪切。就光学透视式显示器而言,透明显示器的有限动态范围可使得在光学透视式显示器的视场(例如,显示器的无效边界区域)的限制下难以看到或理解虚拟内容。例如,在光学透视式显示器具有较小或较窄视场的情况下,虚拟内容可能难以查看。
发明内容
本文所公开的各种具体实施包括用于提供计算机生成现实(CGR)内容的设备、系统和方法,包括在虚拟对象接近视场(FOV)的周边时调整该虚拟对象的显示特性。在光学透视设备中的各种实施方式中,视觉内容具有意识到设备的FOV的行为,而不是允许在设备的FOV之外的视觉内容被“裁剪”(例如,在FOV之外的虚拟对象的一部分可能看起来缺失或被剪切)。例如,通过在视觉内容接近FOV极限时呈现“渐入”和“渐出”行为(例如,放大/缩小、淡入/淡出、应用程序徽标到应用程序启动、应用程序睡眠到唤醒、多边形翻转、材料化/去材料化等),视觉内容则永不到达FOV的周边边缘,并且FOV的边缘对于用户是隐藏的。
在一些具体实施中,调整(例如,缩小尺寸)虚拟内容(例如,一个或多个虚拟对象)以防止裁剪掉在当前FOV之外的虚拟内容的一部分。在一些具体实施中,在CGR环境中识别虚拟对象的位置(例如,在墙壁上)和显示特性(例如,全尺寸)。例如,基于三维(3D)世界空间中的所需位置及其尺寸/形状特征,虚拟电视(TV)可以全尺寸显示并居中位于墙壁。在其他具体实施中,可以确定虚拟对象与FOV的位置关系。例如,虚拟TV的边缘可以距离FOV的边缘10个像素。
此外,在一些具体实施中,从一视点确定与CGR环境的视图对应的FOV。此外,可基于该位置和该显示特性确定FOV将提供虚拟对象的经裁剪外观(例如,在FOV内的虚拟对象的第一部分和在FOV外的虚拟对象的第二部分)。例如,可以通过将虚拟对象的边界与FOV进行比较来确定FOV的边缘将与虚拟对象相交(例如,FOV将裁剪掉虚拟TV的左侧10英寸)。在一些具体实施中,基于显示器的属性来确定FOV。此外,在一些具体实施中,基于用户或设备的移动来确定FOV。例如,FOV可能随着用户旋转设备而移位。
在一些具体实施中,基于FOV调整虚拟对象的显示特性,并且CGR环境的视图设置有根据经调整的显示特性而显示的虚拟对象。例如,虚拟TV可被缩小,使其完全适配在显示器的FOV内,或者虚拟TV可以显示为图标/应用程序徽标而不是虚拟TV。此外,虚拟TV的边缘可以锚定到FOV的边缘,虚拟TV的边缘可以被去材料化,或者可以针对虚拟TV的将落在显示器FOV的周边之外的部分执行虚拟TV的边缘的多边形翻转。
根据一些具体实施中,非暂态计算机可读存储介质中存储有指令,所述指令是计算机可执行的以执行或使得执行本文所述的任何方法。根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;该一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且该一个或多个程序包括用于执行或使得执行本文所述方法中的任一种的指令。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1示出了根据一些具体实施的设置在电子设备的显示器上的物理环境的计算机生成现实(CGR)体验。
图2示出了由图1提供的CGR体验,其中电子设备的视场(FOV)随着电子设备的旋转而移位。
图3A示出了根据一些具体实施的根据经调整的显示特性的虚拟对象的显示,其中该虚拟对象被最小化以适配在显示器的FOV内。
图3B示出了根据一些具体实施的根据经调整的显示特性的虚拟对象的显示,其中该虚拟对象的边缘被调整。
图3C示出了根据一些具体实施的根据经调整的显示特性的虚拟对象的显示,其中该虚拟对象的状态被改变。
图4是根据一些具体实施的示例性设备的框图。
图5是根据一些具体实施的示出提供CGR环境的视图的示例性方法的流程图。
图6是根据一些具体实施的示出提供CGR环境的视图的示例性方法的流程图。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将会知道,其他有效方面或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
视场(FOV):电子设备的FOV描述电子设备的角度范围,即,电子设备的用户能够看到的给定场景的量。人眼具有180度FOV,并且通常投影在电子设备的显示器上的图像仅显示小得多的FOV。这在很大程度上是由于用于记录图像的透镜的限制。如下文将描述的,本发明的各种具体实施提供了用于增强虚拟内容的显示(特别是在电子设备的FOV的周边边缘处)的机构。
参见图1,示出了根据一些具体实施的示例性操作环境100。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,操作环境100包括设备110(例如,提供光学透视内容的手持设备或头戴式设备(HMD))。设备110可包括集成控制器或者可与单独的控制器通信,这些控制器中的一者或两者可处于物理环境105中。物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
在一些具体实施中,设备110被配置为管理、协调并向用户呈现计算机生成现实(CGR)环境。在一些具体实施中,设备110包括软件、固件或硬件的合适组合。下文相对于图4更详细地描述设备110。在一些具体实施中,设备110的控制器是相对于物理环境105处于本地或远程位置的计算设备。在一些具体实施中,设备110的控制器的功能由设备110提供或与设备110结合,例如,在用作独立单元的设备的情况下。
在一个示例中,设备110的控制器是位于物理环境105内的本地服务器。在另一个示例中,设备110的控制器是位于物理环境105之外的远程服务器(例如,云服务器、中央服务器等)。在一些具体实施中,设备110的控制器经由一个或多个有线或无线通信信道(例如,蓝牙、IEEE 802.11x、IEEE 802.16x、IEEE 802.3x等)与设备110通信地耦接。
根据一些具体实施,当用户出现在物理环境105内时,设备110向用户呈现CGR环境。CGR环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,该音频对象创建3D或空间音频环境,该3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或与之交互的虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的定位和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置成在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得经修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特性的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置成接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一个具体实施中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置成将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
在一些具体实施中,设备110接收图像数据,检测物理环境105,并且识别物理环境105的特征(例如,前壁120或侧壁125)。此外,设备110可向用户115呈现CGR环境的FOV 130。在一些具体实施中,FOV 130可基于设备110的硬件限制和规格、用户115在物理环境105内的视点、用户115在物理环境105内的移动等来确定。因此,取决于FOV 130,物理环境105的物理特征可能在或未在设备110的FOV 130内捕获。
在一些具体实施中,设备110向用户呈现FOV 130内的虚拟对象135。例如,设备110可向用户115呈现虚拟电视(TV)。在一些具体实施中,设备110或用户115可识别虚拟对象135相对于物理环境105或CGR环境的位置。例如,虚拟TV可定位在前壁130的中心处。在一些具体实施中,将显示特性应用于虚拟对象135。例如,可以将尺寸的显示特性(例如,全尺寸)应用于虚拟TV。又如,可基于前壁130的尺寸(例如,覆盖整个前壁130)来缩放虚拟对象135的尺寸显示特性。因此,虚拟对象135可与3D世界空间中的期望位置以及其尺寸/形状特征相关联。
在一些具体实施中,虚拟对象135对用户115而言可能看起来似乎固定在物理环境105中的空间中的用户115前方的某个距离处。如图1所示,虚拟对象135(例如,虚拟TV的投影)对用户115而言可能看起来似乎固定在用户115前方的某个距离处(例如,几米,或者甚至看起来像是填充前壁130的巨型虚拟TV)。在一些具体实施中,虚拟对象135可以是部分透明的,使得用户115可查看虚拟对象135后面的场景。此外,虚拟对象135可包括但不限于各种显示窗口(例如,目录、浏览器、网页、生产力工具(例如,文字处理器)、电子邮件应用程序或电子邮件消息、消息传送应用程序、游戏窗口、视频(例如,来自视频流应用程序的视频)、文本、动画等。虽然具体实施被描述为显示来自设备110的虚拟对象135,但可替代地或另外地显示来自其他源的内容,例如来自外部(例如,基于网络的)源的内容。
参见图2,其示出了由图1提供的CGR体验,其中设备110(例如,提供光学透视内容的手持设备或HMD)的FOV 130随着设备110的旋转而移位。在一些具体实施中,虚拟对象135有利地以不可移动的方式锚定在物理环境105中,并且通过动态连接连接到FOV 130中的可移动表示。例如,如图2所示,锚定的虚拟对象135可显示在锚定到真实世界方向或真实世界位置(例如,与墙壁120相对)的CGR环境中,使得虚拟对象135可更紧密接近真实世界对象的外观。当用户115和设备110在物理环境105中移动(例如,旋转)时,FOV 130可以与用户115或设备110一起移动(例如,相对于手持设备或HMD的视点的变化),但锚定的虚拟对象135相对于物理环境105保持固定。如图2所示,当设备110的视点相对于虚拟对象135的固定位置改变时,虚拟对象135可朝向FOV 130的周边移动。例如,当用户相对于物理环境和虚拟TV的锚定位置旋转设备时,虚拟TV可朝向手持设备或HMD的FOV的边缘移动。
在一些具体实施中,设备110基于虚拟对象135的位置和显示特性来确定FOV 130将提供虚拟对象135的经裁剪外观。例如,设备110可将虚拟对象135的边界与FOV 130进行比较,以确定虚拟对象135的第一部分将在FOV 130内,并且虚拟对象135的第二部分将在FOV 130之外(例如,FOV 130的边缘将与虚拟对象135相交)。
在一些具体实施中,为了减小虚拟对象135裁剪的影响或防止虚拟对象135的裁剪,基于FOV 130调整虚拟对象135的显示特性。例如,当虚拟对象135接近FOV 130的极限时,虚拟对象135可呈现出防止虚拟对象135到达FOV 130的边缘(例如,向用户隐藏显示器的边缘)的“渐入”或“渐出”行为。如图3A所示,在一个具体实施中,调整显示特性(例如,尺寸设定),使得虚拟对象135完全适配在FOV 130内。例如,当用户将设备从面对虚拟TV转到右侧时,可以减小虚拟电视的尺寸以防止对虚拟TV的左侧的裁剪(例如,继续适配在显示器的FOV 130内)。又如,可将虚拟TV减小到阈值尺寸并锁定到显示器的FOV 130中(例如,作为HUD)。
如图3B所示,在另一个具体实施中,调整(例如,去材料化)虚拟对象135的显示特性(例如,亮度、照度、颜色、透明度等)以减少对虚拟对象135的边缘的裁剪的感知。例如,当虚拟对象135靠近或接近FOV 130的一个或多个边缘时,可以调整虚拟对象135的显示特性(例如,尺寸设定)。
如图3C所示,在另一个具体实施中,调整虚拟对象135的显示特性(例如,状态或表示)。例如,虚拟TV可从屏幕变为图标或应用程序徽标。例如,当虚拟对象135靠近或接近FOV130的一个或多个边缘时,虚拟对象135的状态可改变。此外,在第一状态或第二状态下,虚拟对象135可被锚定到相对于FOV 130或物理环境105的位置。
在一些具体实施中,显示特性与确定FOV 130将提供虚拟对象135的经裁剪外观同时改变。例如,当用户110在虚拟对象135被裁剪或剪切之前转动设备时,显示特性可改变。在一些具体实施中,基于标准,例如基于虚拟对象135的用户设置或属性,选择显示特性以改变。例如,虚拟TV可以具有相关联的属性值,该属性值指定在TV主动呈现视频的情况下该TV的尺寸减小,或者在虚拟TV处于非活动状态的情况下其可显示为图标。
在一些具体实施中,FOV 130内的特定虚拟对象或相对位置例如基于空间辨别进行选择性地调整。在一些具体实施中,基于对象改变选择标准,所描绘的第一虚拟对象的显示特性可改变,并且第二虚拟对象的显示特性可不改变或可不同地改变。
在一些具体实施中,设备110识别FOV 130将提供虚拟对象135的经裁剪外观或视觉特性的调整是基于识别FOV 130是否满足移动标准进行的。例如,可使用矢量运动图来确定FOV 130相对于物理环境105或虚拟对象135位置的移动(例如,以识别FOV 130或虚拟对象135的相对运动)。又如,使用矢量运动图来估计FOV 130移动的速度或FOV 130加速的加速度,并且可使用速度或加速度来识别FOV 130何时或是否将提供虚拟对象135的经裁剪外观。
在一些具体实施中,提供CGR环境的视图,该视图包括对根据经调整显示特性的虚拟对象135的显示。如图3A至图3C所示,可基于一个或多个经改变的显示特性(例如,尺寸、形状、半透明度、去材料化、视觉效果、状态变化等)来呈现虚拟对象。例如,这可能涉及以较小的形式显示虚拟TV,其中一个边缘被去材料化,或者显示为应用程序或图标,其中虚拟TV的显示变化基于改变的显示特性。
在一些具体实施中,用户115提供偏好或其他输入来控制改变一个或多个显示特性的程度以考虑物理移动或振动。例如,正在行走(例如,与休息相反)的用户115可能希望对虚拟对象135的经裁剪外观的识别或对虚拟对象135的显示特性的调整敏感度降低,以便防止虚拟对象135的过度变化。在另一个具体实施中,在显示具有经调整的显示特性的虚拟对象135之前必须满足延迟或持续性标准,从而防止虚拟对象135的快速变化。各个用户可相对更多或更少地感知或以其他方式关注虚拟对象135的变化频率,因此一些用户可选择比其他用户更频繁地改变虚拟对象135的显示。
图4是根据一些具体实施的设备110的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,设备110包括一个或多个处理单元402(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器606、一个或多个通信接口608(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C或类似类型的接口)、一个或多个编程(例如,I/O)接口410、一个或多个显示器412、一个或多个面向内部或面向外部的图像传感器414、存储器420以及用于互连这些部件和各种其他部件的一条或多条通信总线404。
在一些具体实施中,一条或多条通信总线404包括互连和控制系统部件之间的通信的电路。在一些具体实施中,该一个或多个I/O设备及传感器406包括以下项中的至少一者:惯性测量单元(IMU)、加速度计、磁力计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎或者一个或多个深度传感器(例如,结构光、飞行时间等)等。
在一些具体实施中,一个或多个显示器412被配置为向用户呈现CGR体验。在一些具体实施中,一个或多个显示器412对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)或类似显示器类型。在一些具体实施中,一个或多个显示器412对应于衍射、反射、偏振、全息等波导显示器。例如,设备110包括单个显示器。又如,设备110包括针对用户的每只眼睛的显示器。
在一些具体实施中,该一个或多个图像传感器系统414被配置为获取与包括用户的眼睛的用户的面部的至少一部分对应的图像数据。例如,该一个或多个图像传感器系统414包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机、基于事件的相机等。在各种具体实施中,该一个或多个图像传感器系统414还包括对用户的面部的该部分发射光的照明源,诸如闪光灯或闪光源。
存储器420包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器420包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器420任选地包括与一个或多个处理单元402远程定位的一个或多个存储设备。存储器420包括非暂态计算机可读存储介质。在一些具体实施中,存储器420或者存储器420的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者他们的子集,其中包括任选的操作系统430和CGR体验模块440。
操作系统430包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些具体实施中,CGR体验模块440被配置为创建、编辑或体验CGR体验。FOV单元442被配置为确定用作CGR体验的一部分的FOV。显示特性调整单元444被配置为基于视场和对FOV将提供一个或多个虚拟对象的经裁剪外观的确定来调整一个或多个显示特性。尽管这些模块和单元被示出为驻留在单个设备(例如,设备110)上,但应当理解,在其他具体实施中,这些模块和单元的任何组合可位于单独的计算设备中。
此外,图4更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图4中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定具体实施选择的硬件、软件或固件的特定组合。
图5是根据一些具体实施的示出提供CGR环境的视图的示例性方法的流程图。在一些具体实施中,方法500由设备(例如,图1至图4的设备110)执行。可在移动设备、手持设备、HMD、台式计算机、膝上型计算机、服务器设备处或由彼此通信的多个设备执行方法500。在一些具体实施中,方法500由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法500由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框502处,方法500识别CGR环境中虚拟对象的位置和显示特性。在一个示例中,基于用户输入或选择来采集显示特性,并且在另一个示例中,由设备自动采集显示特性。在一些具体实施中,方法500基于与由方法500检测到的虚拟对象相关联的特征来对虚拟对象进行分类。在一个示例中,基于对包括形状、颜色、尺寸、体积、标记、类型等特征中的任一者或组合的粗略识别来对虚拟对象进行分类。
在框504处,方法500从视点确定对应于CGR环境的视图的FOV。在一个示例中,该视图是瞬时确定的,并且在另一个示例中,该视图是基于用户或设备的运动预测地确定的。此外,在另一个示例中,FOV的特定位置被识别为包含虚拟对象。
在框506处,方法500基于位置和显示特性、在FOV内的虚拟对象的第一部分和在FOV外的虚拟对象的第二部分来确定FOV将提供该虚拟对象的经裁剪外观。
在框508处,方法500基于所确定的FOV来调整虚拟对象的显示特性。在一个示例中,方法500调整虚拟对象的比例或大小,使得虚拟对象完全适配在所确定的FOV中。在另一个示例中,方法500将虚拟对象的显示特性从第一状态调整到第二状态(例如,图标或应用程序徽标)。在其他示例中,方法500调整与原本将落在FOV之外的虚拟对象的一部分相关联的显示特性(例如,对虚拟对象的一部分去材料化或多边形翻转)。
在框510处,方法500提供具有根据经调整显示特性而显示的虚拟对象的CGR环境的视图。在一个示例中,方法500基于对虚拟对象的比例或大小的调整来改变虚拟对象的描绘,使得虚拟对象完全适配在所确定的FOV中(例如,将最小化的虚拟对象的边缘锚定到FOV的位置)。在另一个示例中,方法500将虚拟对象的描绘从第一状态改变为第二状态(例如,图标或应用程序徽标)。在其他示例中,方法500改变对原本将落在FOV之外的虚拟对象的一部分的描绘(例如,对虚拟对象的一部分去材料化或多边形翻转)。
图6是根据一些具体实施的示出提供CGR环境的视图的示例性方法的流程图。在一些具体实施中,方法600由设备(例如,图1至图4的设备110)执行。可在移动设备、手持设备、HMD、台式计算机、膝上型计算机、服务器设备处或由彼此通信的多个设备执行方法600。在一些具体实施中,方法600由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法600由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框602处,方法600从视点确定对应于CGR环境的视图的FOV。在一个示例中,该视图是瞬时确定的,并且在另一个示例中,该视图是基于用户或设备的运动预测地确定的。此外,在另一个示例中,FOV的特定位置被识别为包含虚拟对象。
在框604处,方法600识别虚拟对象与所确定的FOV的位置关系。在一个示例中,方法600将虚拟对象的边界与FOV的边界进行比较。在另一个示例中,方法600确定虚拟对象的边缘将与FOV的边缘相交。
在框606处,方法600基于所确定的位置关系来调整虚拟对象的显示特性。在一个示例中,方法600调整虚拟对象的比例或大小,使得虚拟对象完全适配在所确定的FOV中。在另一个示例中,方法600将虚拟对象的显示特性从第一状态调整到第二状态(例如,图标或应用程序徽标)。在其他示例中,方法600调整与原本将落在FOV之外的虚拟对象的一部分相关联的显示特性(例如,对虚拟对象的一部分去材料化或多边形翻转)。
在框608处,方法600提供具有根据经调整显示特性而显示的虚拟对象的CGR环境的视图。在一个示例中,方法600通过基于对虚拟对象的比例或大小的调整来改变虚拟对象的描绘,使得虚拟对象完全适配在所确定的FOV中(例如,将最小化的虚拟对象的边缘锚定到FOV的位置)。在另一个示例中,方法600将虚拟对象的描绘从第一状态改变为第二状态(例如,图标或应用程序徽标)。在其他示例中,方法600改变对虚拟对象的原本将落在FOV之外的一部分的描绘(例如,对虚拟对象的一部分去材料化或多边形翻转)。
本文阐述了许多具体细节以提供对要求保护的主题的全面理解。然而,本领域的技术人员将理解,可以在没有这些具体细节的情况下实践要求保护的主题。在其他实例中,没有详细地介绍普通技术人员已知的方法、设备或系统,以便不使要求保护的主题晦涩难懂。
除非另外特别说明,否则应当理解,在整个说明书中,利用诸如“处理”、“计算”、“计算出”、“确定”和“识别”等术语的论述是指计算设备的动作或过程,诸如一个或多个计算机或类似的电子计算设备,其操纵或转换表示为计算平台的存储器、寄存器或其他信息存储设备、传输设备或显示设备内的物理电子量或磁量的数据。
本文论述的一个或多个系统不限于任何特定的硬件架构或配置。计算设备可以包括部件的提供以一个或多个输入为条件的结果的任何合适的布置。合适的计算设备包括基于多用途微处理器的计算机系统,其访问存储的软件,该软件将计算系统从通用计算设备编程或配置为实现本发明主题的一种或多种具体实施的专用计算设备。可以使用任何合适的编程、脚本或其他类型的语言或语言的组合来在用于编程或配置计算设备的软件中实现本文包含的教导内容。
本文所公开的方法的具体实施可以在这样的计算设备的操作中执行。上述示例中呈现的框的顺序可以变化,例如,可以将框重新排序、组合或者分成子框。某些框或过程可以并行执行。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而并非旨在为限制性的。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种对象,但是这些对象不应当被这些术语限定。这些术语只是用于将一个对象与另一对象区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”或“包含”在本说明书中使用时指定存在所陈述的特征、整数、步骤、操作、对象或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、对象、部件或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
本发明的前述描述和概述应被理解为在每个方面都是例示性和示例性的,而非限制性的,并且本文所公开的本发明的范围不仅由例示性具体实施的详细描述来确定,而是根据专利法允许的全部广度。应当理解,本文所示和所述的具体实施仅是对本发明原理的说明,并且本领域的技术人员可以在不脱离本发明的范围和实质的情况下实现各种修改。

Claims (25)

1.一种方法,包括:
在具有处理器的电子设备处:
识别计算机生成现实(CGR)环境中的虚拟对象的位置和显示特性;
从视点确定与所述CGR环境的视图对应的视场(FOV);
根据基于所述位置和所述显示特性确定所述FOV将提供所述虚拟对象的经裁剪外观,基于所述FOV调整所述虚拟对象的所述显示特性,其中所述经裁剪外观包括所述虚拟对象的在所述FOV内的第一部分以及所述虚拟对象的在所述FOV外的第二部分;以及
提供具有根据经调整显示特性而显示的所述虚拟对象的所述CGR环境的所述视图。
2.根据权利要求1所述的方法,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括确定所述FOV的边缘将与所述虚拟对象相交。
3.根据权利要求1所述的方法,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括将所述虚拟对象的边界与所述FOV进行比较。
4.根据权利要求1所述的方法,其中所述FOV是基于在其上提供所述视图的显示器的属性或用户的移动来确定的。
5.根据权利要求1所述的方法,其中调整所述显示特性包括将所述虚拟对象从第一状态转换为第二状态,其中所述第二状态为图标或应用程序徽标。
6.根据权利要求1所述的方法,其中调整所述虚拟对象的所述显示特性包括重新设定所述虚拟对象的尺寸,其中所述虚拟对象被重新设定尺寸以避免所述虚拟对象的所述经裁剪外观。
7.根据权利要求1所述的方法,所述方法还包括:
识别预期在时间段内改变所述FOV的移动;以及
调整所述虚拟对象的所述显示特性以提供在所述时间段期间的过渡效果,
其中所述过渡效果在所述时间段期间逐渐改变所述虚拟对象的半透明度。
8.一种方法,包括:
在具有处理器的电子设备处:
从视点确定与计算机生成现实(CGR)环境的视图对应的视场(FOV);
确定虚拟对象与所述FOV的位置关系;
基于所述位置关系来调整虚拟对象的所述显示特性;以及
提供具有根据经调整的显示特性而显示的所述虚拟对象的所述CGR环境的视图。
9.根据权利要求8所述的方法,其中调整所述虚拟对象的所述显示特性包括:
基于所述位置关系改变所述虚拟对象的半透明度;
基于所述位置关系来重新设定所述虚拟对象的尺寸;或者
基于所述位置关系来改变所述虚拟对象的状态。
10.根据权利要求8所述的方法,其中确定所述位置关系包括确定虚拟对象与所述FOV的边缘之间的距离。
11.根据权利要求8所述的方法,还包括:
识别预期在时间段内改变所述FOV的用户的移动;以及
调整所述虚拟对象的所述显示特性以提供在所述时间段期间的过渡效果。
12.一种系统,包括:
设备,所述设备具有处理器和计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令在由所述处理器执行时使所述系统执行操作,所述操作包括:
识别计算机生成现实(CGR)环境中的虚拟对象的位置和显示特性;
从视点确定与所述CGR环境的视图对应的视场(FOV);
根据基于所述位置和所述显示特性确定所述FOV将提供所述虚拟对象的经裁剪外观,基于所述FOV调整所述虚拟对象的所述显示特性,其中所述经裁剪外观包括所述虚拟对象的在所述FOV内的第一部分以及所述虚拟对象的在所述FOV外的第二部分;以及
提供具有根据经调整显示特性而显示的所述虚拟对象的所述CGR环境的所述视图。
13.根据权利要求12所述的系统,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括确定所述FOV的边缘将与所述虚拟对象相交。
14.根据权利要求12所述的系统,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括将所述虚拟对象的边界与所述FOV进行比较。
15.根据权利要求12所述的系统,其中所述FOV是基于在其上提供所述视图的显示器的属性或用户的移动来确定的。
16.根据权利要求12所述的系统,其中调整所述显示特性包括将所述虚拟对象从第一状态转换为第二状态,其中所述第二状态为图标或应用程序徽标。
17.根据权利要求12所述的系统,其中调整所述虚拟对象的所述显示特性包括重新设定所述虚拟对象的尺寸,其中所述虚拟对象被重新设定尺寸以避免所述虚拟对象的所述经裁剪外观。
18.根据权利要求12所述的系统,其中所述操作还包括:
识别预期在时间段内改变所述FOV的移动;以及
调整所述虚拟对象的所述显示特性以提供在所述时间段期间的过渡效果,
其中所述过渡效果在所述时间段期间逐渐改变所述虚拟对象的半透明度。
19.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机可执行的程序指令以执行包括以下项的操作:
由设备识别计算机生成现实(CGR)环境中的虚拟对象的位置和显示特性;
由所述设备从视点确定与所述CGR环境的视图对应的视场(FOV);
根据基于所述位置和所述显示特性确定所述FOV将提供所述虚拟对象的经裁剪外观,基于所述FOV调整所述虚拟对象的所述显示特性,其中所述经裁剪外观包括所述虚拟对象的在所述FOV内的第一部分以及所述虚拟对象的在所述FOV外的第二部分;以及
由所述设备提供具有根据经调整显示特性而显示的所述虚拟对象的所述CGR环境的所述视图。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括确定所述FOV的边缘将与所述虚拟对象相交。
21.根据权利要求19所述的非暂态计算机可读存储介质,其中所述确定所述FOV将提供所述虚拟对象的经裁剪外观包括将所述虚拟对象的边界与所述FOV进行比较。
22.根据权利要求19所述的非暂态计算机可读存储介质,其中所述FOV是基于在其上提供所述视图的显示器的属性或用户的移动来确定的。
23.根据权利要求19所述的非暂态计算机可读存储介质,其中调整所述显示特性包括将所述虚拟对象从第一状态转换为第二状态,其中所述第二状态为图标或应用程序徽标。
24.根据权利要求19所述的非暂态计算机可读存储介质,其中调整所述虚拟对象的所述显示特性包括重新设定所述虚拟对象的尺寸,其中所述虚拟对象被重新设定尺寸以避免所述虚拟对象的所述经裁剪外观。
25.根据权利要求19所述的非暂态计算机可读存储介质,其中所述操作还包括:
识别预期在时间段内改变所述FOV的移动;以及
调整所述虚拟对象的所述显示特性以提供在所述时间段期间的过渡效果,
其中所述过渡效果在所述时间段期间逐渐改变所述虚拟对象的半透明度。
CN202010811321.5A 2019-08-14 2020-08-13 使用过渡视觉内容缓解小视场显示 Pending CN112396705A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962886535P 2019-08-14 2019-08-14
US62/886,535 2019-08-14
US16/942,939 US11372253B2 (en) 2019-08-14 2020-07-30 Small field of view display mitigation using transitional visuals
US16/942,939 2020-07-30

Publications (1)

Publication Number Publication Date
CN112396705A true CN112396705A (zh) 2021-02-23

Family

ID=74567182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010811321.5A Pending CN112396705A (zh) 2019-08-14 2020-08-13 使用过渡视觉内容缓解小视场显示

Country Status (2)

Country Link
US (2) US11372253B2 (zh)
CN (1) CN112396705A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113038243A (zh) * 2021-05-28 2021-06-25 卡莱特云科技股份有限公司 一种视频源画面播放过程中的透明度调整方法及设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11270672B1 (en) * 2020-11-02 2022-03-08 Microsoft Technology Licensing, Llc Display of virtual assistant in augmented reality
US20230222625A1 (en) * 2022-01-12 2023-07-13 Htc Corporation Method for adjusting virtual object, host, and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107810463A (zh) * 2015-06-17 2018-03-16 微软技术许可有限责任公司 混合显示系统
CN108292448A (zh) * 2015-12-10 2018-07-17 索尼公司 信息处理装置、信息处理方法和程序
CN108780358A (zh) * 2016-03-21 2018-11-09 微软技术许可有限责任公司 基于视场显示三维虚拟对象
US20190238818A1 (en) * 2018-02-01 2019-08-01 Microsoft Technology Licensing, Llc Displaying modified stereo visual content

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US9344612B2 (en) 2006-02-15 2016-05-17 Kenneth Ira Ritchey Non-interference field-of-view support apparatus for a panoramic facial sensor
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
WO2014182545A1 (en) 2013-05-04 2014-11-13 Vupad Partners, Llc Virtual object scaling in augmented reality environment
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9858683B2 (en) * 2015-08-05 2018-01-02 Intel Corporation Method and system of planar surface detection objects in 3d space generated from captured images for image processing
US20170312032A1 (en) 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
CN112136073A (zh) 2018-03-14 2020-12-25 奇跃公司 用于剪辑内容以增加观看舒适感的显示系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107810463A (zh) * 2015-06-17 2018-03-16 微软技术许可有限责任公司 混合显示系统
CN108292448A (zh) * 2015-12-10 2018-07-17 索尼公司 信息处理装置、信息处理方法和程序
CN108780358A (zh) * 2016-03-21 2018-11-09 微软技术许可有限责任公司 基于视场显示三维虚拟对象
US20190238818A1 (en) * 2018-02-01 2019-08-01 Microsoft Technology Licensing, Llc Displaying modified stereo visual content

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUIWEN CHANG等: "Panning and Zooming High-Resolution Panoramas in Virtual Reality Devices", SESSION: 360 VIDEO, 25 October 2017 (2017-10-25), pages 279 - 288, XP055421162, DOI: 10.1145/3126594.3126617 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113038243A (zh) * 2021-05-28 2021-06-25 卡莱特云科技股份有限公司 一种视频源画面播放过程中的透明度调整方法及设备

Also Published As

Publication number Publication date
US20230185099A1 (en) 2023-06-15
US20210048680A1 (en) 2021-02-18
US11867917B2 (en) 2024-01-09
US11372253B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US11182964B2 (en) Tangibility visualization of virtual objects within a computer-generated reality environment
CN110888567A (zh) 三维内容中基于位置的虚拟元件模态
US11867917B2 (en) Small field of view display mitigation using virtual object display characteristics
US11710310B2 (en) Virtual content positioned based on detected object
CN110554770A (zh) 静态遮挡物
CN114026603B (zh) 渲染计算机生成现实文本
CN110715647A (zh) 使用多次三维扫描进行对象检测
CN110633617A (zh) 使用语义分割的平面检测
CN114514493A (zh) 增强设备
CN117115399A (zh) 用于与所识别的对象相关联地呈现合成现实内容的方法和设备
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
US11321926B2 (en) Method and device for content placement
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
EP4254348A2 (en) Method and device for multi-camera hole filling
US11288873B1 (en) Blur prediction for head mounted devices
US11468611B1 (en) Method and device for supplementing a virtual environment
CN116981978A (zh) 用于动态确定呈现和过渡区域的方法和设备
CN113574849A (zh) 用于后续对象检测的对象扫描
CN112654951A (zh) 基于现实世界数据移动头像
US20230298278A1 (en) 3d photos
US11301035B1 (en) Method and device for video presentation
US10964056B1 (en) Dense-based object tracking using multiple reference images
US11468627B1 (en) View dependent content updated rates
US11282171B1 (en) Generating a computer graphic for a video frame
US11308716B1 (en) Tailoring a computer-generated reality experience based on a recognized object

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination