CN115412720A - 混合2d/3d内容的检测和显示 - Google Patents

混合2d/3d内容的检测和显示 Download PDF

Info

Publication number
CN115412720A
CN115412720A CN202211052155.0A CN202211052155A CN115412720A CN 115412720 A CN115412720 A CN 115412720A CN 202211052155 A CN202211052155 A CN 202211052155A CN 115412720 A CN115412720 A CN 115412720A
Authority
CN
China
Prior art keywords
content
display
implementations
environment
web page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211052155.0A
Other languages
English (en)
Inventor
L·H·恩格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN115412720A publication Critical patent/CN115412720A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Transfer Between Computers (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Digital Computer Display Output (AREA)

Abstract

本公开涉及混合2D/3D内容的检测和显示。本文公开的各种实施方式包括使第一设备能够获得由网页引用的二维(2D)内容和与第一设备通信的第二设备能够显示由网页引用的3D内容的设备、系统和方法。在一个示例中,检测到该网页引用与2D内容相关联的3D内容,并检测到能够显示由该网页引用的该3D内容的第二设备与该第一设备链接或通信。在一个示例中,该第二设备接收与用户选择对应的输入以查看3D内容,并且作为响应,显示包括3D内容的3D环境。

Description

混合2D/3D内容的检测和显示
本申请是申请日为2019年08月07日、题为“混合2D/3D内容的检测和显示”的发明专利申请201910723722.2的分案申请。
相关申请的交叉引用
本申请要求2018年8月7日提交的美国临时申请序列62/715,331的权益,该申请全文以引用方式并入本文。
技术领域
本公开一般涉及显示二维(2D)和三维(3D)内容,尤其涉及用于共享和显示2D和3D内容的系统、方法和设备。
背景技术
电子设备在查看电子内容和与电子内容交互方面具有不同的能力。例如,许多台式计算机和膝上型电脑利用单个的平板显示器,该显示器通常非常适合于在设备搁置在桌子和其他平坦表面上的固定位置时观察2D内容。常规网页包括在此类设备上容易查看的2D内容。然而,此类设备对于查看3D内容具有局限性。相比之下,移动设备、头戴式设备(HMD)和其他此类设备通常具有使其更适于查看3D内容的属性和特征。例如,可在移动电话上查看3D内容(例如,虚拟对象),并且移动电话的取向/位置可用于改变3D内容的视图。当用户四处走动并倾斜手机时,他或她可从不同的相对位置和角度查看3D内容。又如,一些设备,诸如HMD,包括提供用于立体渲染3D内容的能力的多个屏幕。这可允许用户在查看3D内容时更好地感知深度。现有技术和系统不能充分促进2D和3D内容的分发、查看和共享,以使得能够有效且直观地使用这些电子设备的不同能力。
发明内容
本文所公开的各种具体实施包括使得第一设备能够显示由内容项(例如,网页)引用的2D内容以及与第一设备处于通信的第二设备能够显示由内容项引用的3D内容的设备、系统和方法。在一个示例中,第一设备显示网页的2D内容。第一设备或第二设备检测网页引用与该2D内容相关联的3D内容。第二设备能够显示由网页引用的3D内容并且链接到第一设备或以其他方式与第一设备通信。第一设备或第二设备确定第二设备应当显示3D内容。确定在第二设备上显示3D内容可基于检测到设备彼此通信、检测到设备彼此靠近、检测到第一设备在第二设备捕获的图像内、检测用户输入,或者检测到其他相关情况或信息。在确定第二设备应当显示3D内容之后,第二设备从第一设备或从另一网页源接收由网页引用的3D内容并显示3D内容。在一个示例中,第一设备先前下载了3D内容作为网页内容的一部分,并自动将3D内容发送到第二设备用于显示。在另一个示例中,第二设备从第一设备或从承载网页或其3D内容的web服务器请求3D内容。
在接收到3D内容之后,在各种具体实施中,第二设备显示3D内容。显示3D内容可以利用一个或多个特征来显示第一设备上不可用的3D内容。例如,第二设备可以使用立体渲染或者在计算机生成的现实(CGR)环境中从用户/基于设备位置的视点(例如,随着设备移动和倾斜而改变)显示3D内容。第二设备可以使用这些查看模式中的一者或多者来显示3D内容,或者以第一设备上不可用的方式显示3D内容。在一些具体实施中,第二设备使用相机捕获图像并使用3D内容和所捕获的图像
在一些具体实施中,第二设备的用户能够简单且容易地接收、查看和使用3D内容,而无需将3D内容移动到第二设备上的特定存储位置、识别出可在第二设备上体验3D内容、识别出用于体验3D内容的应用程序、启动此类应用程序,或者将所接收的3D内容导入或添加到由此类应用程序提供的CGR环境中。用户使用两个或更多设备体验网站的2D和3D内容的体验是高效和直观的。
本文公开的设备、系统和方法使得能够显示与在第一设备上查看的2D网页内容对应的3D内容。设备、系统和方法改善了用户使用、共享与3D内容组合的2D内容并与之交互的能力。例如,正在使用第一设备的第一用户可查看包括与从在线零售商销售的沙发对应的2D内容的网页。网页可包括3D内容指示符,诸如标记语言语句,其指示作为网页的一部分的3D内容(例如,对应于2D内容中的沙发的2D图像)的可用性。2D内容可包括指示该3D内容可用的图形指示符。然后,第一用户或第二用户可以使用第二设备来查看3D内容。在沙发示例中,第二设备用于访问对应于沙发的3D内容,例如,访问包括沙发的3D模型的数据对象或文件,或者识别包括沙发的3D模型的文件或包括沙发的3D模型的文件的数据存储地址。在一个示例中,第一设备向第二设备发送包括3D内容或提供对3D内容的访问的通信。
基于从第一设备接收到通信,第二设备使得能够查看或使用3D内容。在一个示例中,第二设备接收对应于用户选择的输入以在CGR环境中查看3D内容。响应于检测到该输入,第二设备将3D内容显示为CGR环境的一部分。可通过使用相机捕获图像(例如,视频)并使用3D内容和所捕获的图像构建CGR环境来提供此类CGR环境。在一些具体实施中,第二设备覆盖所捕获的图像上的3D内容。
在一些具体实施中,在具有一个或多个处理器和计算机可读存储介质的第一设备(诸如台式计算机、膝上型计算机、平板电脑等)上执行方法。该方法涉及由第一设备获得也引用3D内容的网页引用的2D内容。该方法还涉及能够呈现3D内容的第二设备(诸如平板电脑、HMD、移动电话等)(例如,能够使用立体渲染或在CGR环境中从用户/基于设备位置的视点提供视图)。第二设备接收并呈现网页引用的3D内容。该方法可以包括检测网页引用由第一设备无法显示的3D内容,或者检测将触发第一设备与第二设备之间的自动通信或者导致在第二设备上自动显示3D内容的任何其他情况。
如在以上示例和本文其他地方所示的一些具体实施因此使得能够查看由第一设备上的网页引用的2D内容和由第二设备上的网页引用的3D内容。这些具体实施提供了改善的用户查看体验。例如,具有两个设备(例如,膝上型电脑和HMD)的单个用户可浏览网页,并且当网页引用感兴趣的3D内容时,戴上HMD并且自动地或经由直观的用户体验访问和查看该3D内容。在另一个示例中,多个用户能够以类似方便的共享体验来体验网页引用的2D和3D内容。例如,一个用户可以在笔记本电脑上查看显示汽车的网页,而另一个用户使用HMD来体验与汽车相关的网站的3D内容。
根据一些具体实施,一种非暂态计算机可读存储介质中存储有计算机可执行以执行或致使执行本文所述的任何方法的指令。根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;这一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且这一个或多个程序包括用于执行或导致执行本文所述方法中的任一种的指令。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1示出了根据一些具体实施的示例性系统,其中第一设备显示由也引用3D内容的网页引用的2D内容,第二设备显示3D内容。
图2示出了根据一些具体实施的图1的系统,其中第二设备是HMD。
图3示出了根据一些具体实施的示例性系统,其中第一设备显示包括3D内容的2D内容,第二设备显示3D内容。
图4为示出根据一些具体实施的共享3D内容所涉及的通信流的流程图。
图5为示出了根据一些具体实施的示例性第一设备的设备部件的框图。
图6为示出了根据一些具体实施的示例性第二设备的设备部件的框图。
图7为用于使第一设备能够获得由网页引用的2D内容和与第一设备通信的第二设备能够显示由网页引用的3D内容的方法的流程图表示。
图8为根据一些具体实施的用于在第二设备上显示具有从第一设备接收的3D内容的CGR环境的方法的流程图表示。
图9为根据一些具体实施的用于在引用由网页引用的3D内容的第一设备处提供3D环境的视图的方法的流程图表示,其中基于检测到第二设备显示由网页引用的2D内容来获得3D内容。
图10为根据一些具体实施的用于使第一设备能够基于与3D环境的当前状态相关联的信息来更新2D内容或3D内容的方法的流程图表示。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将会知道,其他有效方面或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
参见图1,其示出了用于实施本发明的方面的示例性操作环境5。一般来讲,操作环境5表示两个设备,第一设备10和第二设备15,该第二设备15涉及体验引用2D和3D内容的内容项(例如,网页)。虽然本文示例利用网页作为示例性内容项,但是本文公开的技术适用于引用可由应用程序一个或多个设备查看的2D和3D内容的任何内容项。
在该示例中,第一设备10和第二设备15经由链路20链接,例如,有线或无线链路,包括但不限于,有线通信,诸如使用通用串行总线(USB)电缆/接口、USB-C电缆/接口、THUNDERBOLT v1、v2或v3电缆/接口、IEEE 1394电缆/接口(例如,FIREWIRE、i.LINK、LYNX)、IEEE 802.3x电缆/接口(例如,以太网)等的那些,以及无线通信,诸如使用IEEE803.11传输(例如,WiFi)、IEEE802.11传输(例如,WLAN)、IEEE802.16x传输(例如,WiMAX)、短波长传输(例如,蓝牙)、IEEE802.15.4传输(例如,ZIGBEE)、GSM传输、ECMA-340和ISO/IEC18092(例如,近场通信(NFC))等的那些。链路20可是直接的,即,在第一设备10和第二设备15之间没有中间设备或网络节点。例如,链路20可涉及经由插入每个设备的单个电缆或经由第一设备10和第二设备15之间的蓝牙通信将第一设备10直接连接到第二设备15。链路20可是间接的,即,具有一个或多个中间设备或网络节点。例如,链路20可通过经由因特网发送的通信将第一设备10连接到第二设备15。此外,设备(例如,第一设备10和第二设备15)之间的交互可是双向的,例如,一个设备可向另一设备发送通信以执行关于网页的动作。
在图1的示例中,第一设备10获得网页内容25(例如,在web浏览器上),包括2D内容30(例如,沙发的图像)和与2D内容30相关联的3D内容50的指示符35。例如,3D内容50可包括沙发的3D模型。在CGR环境中在第二设备15上观察3D内容50。例如,第二设备20可以使用相机来捕获附近的环境,例如包括端桌和墙壁图片的现实世界场景45,并且利用沙发的3D模型显示捕获的场景。
设备、系统和方法使用户能够看到相关联的3D内容50可用的指示符35,并将3D内容50(例如,表示沙发的3D内容)发送到第二设备15。然后,第二设备15的用户(例如,与第一设备10的用户相同或不同的用户)可以在第二设备15的显示器40上体验3D内容50。在该示例中,3D内容50作为CGR环境的一部分被显示。
CGR环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子组或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,所述音频对象创建3D或空间音频环境,所述3D或空间音频环境提供3D空间中点音频源的感知。在另一个示例中,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或与之交互的虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些CGR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现CGR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过他直接查看物理环境。该系统可以被配置为在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得修改后的部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除或模糊其部分而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过所述媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或他们的任意组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
在图1的示例中,CGR环境组合现实世界(例如,经由现实世界场景45的本地捕获图像)和3D内容50(例如,限定沙发的3D外观的文件或模型)。
在该示例中,第二设备15已经接收到与3D内容50(例如,图1的沙发)对应的数据对象。由第一设备10获得的网页内容25可以包括表示或对应于3D内容50的指示符35(例如,缩略图、图标、链接或按钮)。在图标或缩略图的情况下,例如,图标或缩略图可以包括来自单个或标准视点的3D对象的内容的2D图像。缩略图、图标、链接和按钮为可指示其他3D内容可用的图形特征的示例。除此之外或另选地,可用3D内容的图形指示符可被配置为接收与用户选择对应的输入(例如,点击、触摸等),以在第二设备15的显示器40上查看3D内容50。例如,第一设备10可以通过接收到指示符35(例如,对应于3D内容50的缩略图)上的鼠标点击来接收输入选择以在第二设备15的显示器40上显示3D内容50(例如,沙发)。
第二设备15控制第二设备15上的一个或多个相机以捕获现实世界场景45的图像,并使用3D内容50和捕获的图像在第二设备15的显示器40上显示CGR内容。在一些具体实施中,第二设备15包括软件、固件或硬件的适当组合以提供CGR环境。在其他具体实施中,第二设备15与一个或多个其他设备(本地或远程)交互以在第二设备15的显示器40上提供CGR环境,例如,第二设备15可以与单独的控制器设备(未示出)通信,该控制器设备执行提供CGR环境所需的一些或全部处理和存储。根据一些具体实施,第二设备15基于现实世界场景45显示CGR环境,而第二设备15物理地存在于现实世界场景45内。在一些具体实施中,第二设备15(例如,眼镜、平视显示器等)被配置为使用现实世界场景45的光学透视在第二设备15的显示器40上提供CGR环境。在一些具体实施中,第二设备15被配置为使用现实世界场景45的视频传递在第二设备15的显示器40上提供CGR环境。在一些具体实施中,第二设备15不需要具有显示屏幕并且可将虚拟元素投影到用户的视网膜中。
在一些具体实施中,如图1所示,第二设备15是被配置为在第二设备15的显示器40上显示CGR环境的手持电子设备(例如,智能手机或平板电脑)。在一些具体实施中,第二设备15是被配置为呈现CGR环境的室、壳体或房间,其中用户不佩戴或保持第二设备15。在一些具体实施中,可以检测到第二设备15能够通过检测第二设备15的类型来显示3D内容50,即,通过识别第二设备15的类型是能够显示3D内容50的设备类型。此外,通过检测存储在能够显示3D内容50的第二设备15上的应用程序,可以检测到第二设备15能够显示3D内容50。
在图1的示例中,第二设备15被配置为使用基于第二设备15上的相机或其他传感器检测到的图像或其他现实世界信息。在一些具体实施中,为了在第二设备15的显示器40上提供CGR环境,第二设备15使用由相机捕获的一个或多个相机图像的至少一部分。在图1的示例中,第二设备15的显示器40包括由第二设备15的相机捕获的物品(例如,地板、墙壁、墙壁图片、两个端桌和两个花瓶)的描绘。第二设备15的显示器40还描绘了与在第一设备10上显示的2D内容30对应的3D内容50(例如,沙发)。
在一些具体实施中,第二设备15使用户55能够改变视点或以其他方式修改或与3D内容50交互。例如,视点可随着用户移动第二设备15而改变。在一些具体实施中,第二设备15可以被配置为接收用户输入,该用户输入相对于在第二设备15的显示器40上描绘的现实世界场景45的现实世界物品描绘重新定位接收到的3D内容50(例如,相对于墙壁图片或端桌重新定位沙发)。
在一些具体实施中,第一设备10接收或存储将被提供给第二设备15的与沙发对应的3D内容50。在一些具体实施中,然后,第一设备10将3D内容50提供给第二设备15,使得第二设备15可显示3D内容50。在其他具体实施中,第一设备10不接收或存储3D内容50,并且第二设备15从诸如从其提供网页的web服务器的另一源检索3D内容50。
在一些具体实施中,多个设备能够以相同或不同的查看模式识别3D内容。在一个示例中,第一设备10提供不包括3D内容50的2D查看模式,第二设备15提供与现实世界内容组合的3D内容50的MR查看模式,并且第三设备[未示出]提供3D内容50的VR查看模式。在另一个示例中,第一设备10和第二设备15都能够提供3D内容50的MR视图。在一个示例中,第二设备15显示3D内容50的视图,其包括取决于相应设备周围或以其他方式观察到的现实世界内容的不同现实世界内容。第一设备10和第二设备15中的一者或两者可以被配置为使用所接收的数据或图像或使用其自己的相机或其他传感器检测到的其他现实世界信息。在一些具体实施中,为了提供MR查看模式,第二设备15使用由第一设备10上的相机捕获的一个或多个相机图像的至少一部分。在该示例中,第二设备15使用围绕第一设备10的现实世界的现实世界信息提供视图。
在一些具体实施中,如图2所示,第二设备15是配置为佩戴在用户55的头部上的HMD。此类HMD可以包围用户55的视场。如图2的示例所示,HMD可包括被配置为在用户55的视场中显示3D内容的一个或多个屏幕或其他显示器。如图2所示,在一些具体实施中,佩戴第二设备15的方式是屏幕被定位成在用户55的视场中显示3D内容。此外,HMD可包括容纳各种部件的外壳(或壳体)。外壳可包括(或耦接到)设置在外壳的近端(到用户55)端的眼垫。在一些具体实施中,眼垫是塑料或橡胶件,其舒适且贴合地将HMD保持在用户55的面部上的适当位置(例如,围绕用户55的眼睛)。外壳可容纳显示器,该显示器显示图像,朝向用户55的一只或两只眼睛发射光。
图3示出了根据一些具体实施的示例系统,其中第一设备10显示来自也引用3D内容的网页的2D内容,第二设备15显示3D内容。如图3所示,用户55可以佩戴第二设备15,例如HMD,因为他或她使用第一设备10来浏览因特网,例如同时使用两个设备10、15。例如,用户55可以在使用第一设备10查看网页内容25的同时佩戴第二设备15,包括2D内容30(例如,花盆)和与2D内容30相关联的3D内容50的指示符35。指示符35可以是在第一设备10上显示的2D内容30的可见部分,因此作为由第二设备15捕获和显示的图像的一部分可以看到。另选地,指示符35可以仅显示在第二设备15上,而不包括在第一设备10上的2D内容30中。在一个示例中,基于第二设备15在由第二设备15捕获的图像内检测到第一设备10,在第二设备15上显示指示符35。
在一些具体实施中,第二设备15被配置为检测在其捕获的图像内描绘的其他设备、确定这些设备是否与其通信(例如,链接)、与该其他设备建立通信(例如,链接)、识别是否有任何其他设备正在显示与3D内容相关联的2D内容、检索该3D内容并显示该3D内容。
可使用各种技术用于第二设备15检测图像或视图中第一设备10的存在。例如,第二设备15可以检测到第一设备10处于第二设备15的当前图像/视图中。此类检测可涉及基于在第二设备15处的现实世界环境的图像或视图中的像素中呈现的形状、颜色或其他属性来检测第一设备10的描绘。例如,对象检测技术可涉及使用神经网络或其他基于机器学习的技术来检测在第二设备15周围的现实世界环境的捕获的图像中的第一设备10。此类基于机器学习的技术可以使用设备的样本图像进行训练(例如,使用标记有笔记本电脑、台式计算机和移动设备的形状和其他空间特征的图像进行训练)。在另一个示例中,第二设备15使用该环境的图像确定现实世界环境的3D模型,并且在3D模型中检测第一设备10的3D形状。
在第二设备15处的图像/视图中的第一设备10的检测可涉及在第一设备10的显示器上显示的内容。例如,第一设备10可以在其显示器上显示网页的2D内容,并且第二设备15可以捕获包括第一设备10的现实世界环境的图像,并且可以识别在第一设备10的显示器上显示的网页的2D内容。在一个示例中,第一设备10的显示包括基于文本或基于图形的标记或代码(其可以是或可以不是网页的2D内容的一部分),第二设备15使用该标记或代码来检测第一设备10在现实世界环境的图像/视图中的存在或空间关系。
在一些具体实施中,第二设备15例如基于现实世界环境的图像/视图来检测第一设备10和第二设备15之间的空间关系。在一些具体实施中,第二设备15在与现实世界环境相关联的3D坐标系中确定第一设备10的位置、取向、大小或其他属性。第二设备15知道其自身在该3D坐标系统中的姿势(例如,位置和方向),并且因此可以确定第一设备10和第二设备10之间的空间关系。在一些具体实施中,第一设备10和第二设备20均包括传感器,其允许每个设备跟踪其自身的位置和方向随时间的变化。因此,一旦确定了设备之间的初始空间关系(例如,基于图像数据),可基于附加的基于图像的确定、设备跟踪其自身的位置/取向变化,或者此类跟踪技术的组合来确定空间关系的变化。
在一些具体实施中,第一设备10和第二设备15之间的空间关系用于在第二设备15处呈现3D内容。在第一设备是膝上型电脑而第二设备是HMD的示例中,膝上型电脑对于HMD的相对位置、取向、大小或其他属性被用于在HMD上呈现3D内容。作为具体示例,HMD上的3D内容的显示可以取决于空间关系(例如,可以仅在膝上型电脑是当前图像/视图或在HMD的特定阈值距离内时显示3D内容等)。
在一些具体实施中,第二设备15捕获第二设备15周围的现实世界环境的图像,包括第一设备10及其对网页的3D内容的显示。第二设备15显示这些图像,这些图像具有添加位置、取向、大小以及具有其他属性的网页的附加3D内容以补充在第一设备10的显示器上的2D内容,并且因此在由第二设备15捕获并显示的图像中可见。
在一个示例中,基于第一设备10的位置、大小或其他属性,第二设备15确定用于经由第二设备15显示3D内容的位置、大小或其他属性。例如,第二设备15可以确定以不阻挡用户55的视线的方式显示3D内容,使得用户55保持第一设备10的显示器的无障碍视图。第二设备15可以确定在与第一设备10相邻的位置处显示3D内容,使得用户能够容易地理解在第一设备10处显示的2D内容与由第二设备15显示的附近3D内容之间的上下文关系。第二设备15可以确定以3D内容的大小对应于在第一设备10处显示的2D内容的大小的方式显示3D内容,例如,使得2D和3D内容中的文本具有相同的大小。第二设备15可以确定显示将第一设备10处显示的2D内容与经由第二设备15显示的3D内容连接或以其他方式将两者图形上相关联的图形指示符。
在另一个示例中,第二设备15检测由第二设备15捕获的一个或多个图像中的第一设备10的姿势(例如,位置和取向),并使用该信息来显示3D内容。例如,可以检测第一设备10的显示器(例如,监视器)的平面的取向,并且该平面用于将3D内容定位成与显示的2D内容对准。
在一些具体实施中,第二设备15被配置为检测或识别第一设备10相对于第二设备15的位置变化,并确定第一设备10和第二设备15之间的第二空间关系。然后,第二设备15可基于第二空间关系更新3D内容的显示。例如,如果用户55偏移第一设备10相对于第二设备15的位置,则第二设备15可以改变3D内容的显示,使得用户保持第一设备10的显示器的无障碍视图。
在一些具体实施中,第二设备15自动检索并显示3D内容50而无需用户输入。例如,第二设备15在检测到用户55佩戴第二设备15并且第二设备15在距第一设备10的阈值距离内时显示3D内容50。在其他具体实施中,第二设备15提供与另一设备上的2D内容相关联的3D内容可用的指示,并接收输入以发起该3D内容的检索和显示。
第二设备15可以被配置为确定用于显示3D内容的显示特征。在一些具体实施中,第二设备基于预先确定的或用户指定的显示标准确定相对于其他显示内容(例如,相对于现实世界内容或其他虚拟对象)显示3D内容50的位置。在一个示例中,基于对第一设备10和第二设备15之间的空间关系的认识,3D内容50在用户55的视场内的第二设备(例如,HMD)上显示给用户55。在一些具体实施中,第二设备15通过识别可以显示虚拟内容而不阻挡第一设备10上显示的网页内容25的视图的位置来确定显示3D内容50的位置。例如,如图3所示,3D内容50显示在第一设备10旁边的桌子57上,而不阻挡第一设备10的视图。
在一些具体实施中,在第一设备10和第二设备15上维护或以其他方式同步对3D内容50所做的改变,例如在交互式网页的情况下,经由第一设备10的用户界面或第二设备15的用户界面。例如,第一设备10或第二设备15的用户可以改变第一设备10或第二设备15上的沙发的颜色,并且可以检测到该改变并在另一设备上显示。可以在设备10、15之间共享在第一设备10或第二设备15中的任一者上维护的网页的状态,使得设备10、15保持相同的状态和同步,例如,显示网页的相同实例。例如,基于用户交互在第一设备10上突出显示的项也将在第二设备15上突出显示,对3D内容50的改变将导致对2D内容30的对应改变,反之亦然等。
图4是示出根据一些具体实施的共享3D内容50中涉及的通信60的流程的流程图。在图4中,web服务器70向第一设备10提供包括2D内容30和3D内容50的网页的传输75。第一设备10经由链路20与第二设备15通信,并且第二设备15接收3D内容50。在一些具体实施中,第一设备10基于与第二设备15相关联的信息识别要提供哪个3D内容50。例如,第二设备15可以是电话、平板电脑或HMD,并且3D内容50可以以适当的形式提供,以基于这种设备上可用的3D内容查看特征此类设备上查看。
可以在2D和3D内容中描绘的对象的示例包括但不限于桌子、地板、墙壁、书桌、书、水体、山、野外、车辆、柜台、人脸、人手、人的毛发、另一人体部分、整个人体、动物或其他生物、衣服、纸张、杂志、书、车辆、机器或其他人造物体,以及可以识别和表示的任何其他3D物品或物品组。2D和3D内容可附加地或另选地包括可以对应于或可以不对应于现实世界内容的创建内容,包括但不限于外星人、巫师、宇宙飞船、独角兽和计算机生成的图形以及其他这样的项目。
图5是示出了根据一些具体实施的第一设备10的设备部件的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,第一设备10包括一个或多个处理单元102(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器106、一个或多个通信接口108(例如,USB、FIREWIRE、THUNDERBOLT、IEEE802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C和/或类似类型的接口)、一个或多个编程(例如,I/O)接口110、一个或多个显示器112、一个或多个面向内部或面向外部的图像传感器系统114、存储器120以及用于互连这些部件和各种其他部件的一条或多条通信总线104。
在一些具体实施中,一条或多条通信总线104包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备和传感器106包括以下中的至少一个:触摸屏、软键、键盘、虚拟键盘、按钮、旋钮、操纵杆、开关、拨号、惯性测量单元(IMU)、加速度计、磁力仪、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测器、心率监测器、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎或者一个或多个深度传感器(例如,结构化光、飞行时间等)等等。在一些具体实施中,由一个或多个I/O设备和传感器106检测到的第一设备10的移动、旋转或位置向第一设备10提供输入。
在一些具体实施中,一个或多个显示器112被配置为呈现用户界面。在一些具体实施中,一个或多个显示器112对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)或者类似显示器类型。在一些具体实施中,一个或多个显示器112对应于衍射、反射、偏振、全息等波导显示器。在一个示例中,第一设备10包括单个显示器。在另一个示例中,第一设备10包括针对每只眼睛的显示器。在一些具体实施中,一个或多个显示器112能够呈现MR或VR内容。
在一些具体实施中,一个或多个图像传感器系统114被配置为获得对应于第一设备10的本地场景的至少一部分的图像数据。一个或多个图像传感器系统114可以包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机或者基于事件的相机等。在各种具体实施中,一个或多个图像传感器系统114还包括发射光的照明源,诸如闪光灯。
存储器120包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器120包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器120任选地包括远离一个或多个处理单元102定位的一个或多个存储设备。存储器120包括非暂态计算机可读存储介质。在一些具体实施中,存储器120或存储器120的非暂态计算机可读存储介质存储以下程序、模块和数据结构,或它们的子集,该子集包括可选的操作系统模块130和Web浏览器132。操作系统130包括用于处理各种基础系统服务和用于执行硬件相关的任务的过程。此外,在一些具体实施中,另选地,操作系统130的功能可驻留在浏览器、浏览器插件中,或者与浏览器分开。
在一些具体实施中,操作系统130包括用于接收或显示网页内容的Web浏览器132。此外,Web浏览器132可以使用检查单元134来检查标记语言或其他网页内容,以获得3D内容可用的标签或其他指示。在一些具体实施中,操作系统130包括指示符单元136,用于向显示的内容添加指示符以指示3D内容的存在。此外,操作系统130可以包括用于与第二设备15通信的接口单元138,包括3D内容的传送或交换其他信息。在一些具体实施中,检查单元134、指示符单元136和接口单元138中的一者或多者可是Web浏览器132的一部分或与Web浏览器132分开。在一些具体实施中,检查单元134、指示符单元136和接口单元138中的一者或多者被提供作为与操作系统130分开的应用程序的一部分,或者在第一设备10的本地或远程的单独设备上实现。
图5更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图5中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。单元的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定具体实施选择的硬件、软件或固件的特定组合。
图6是示出了根据一些具体实施的第二设备15的设备部件的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,第二设备15包括一个或多个处理单元152(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器156、一个或多个通信接口158(例如,USB、FIREWIRE、THUNDERBOLT、IEEE802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C,或类似类型的接口)、一个或多个编程(例如,I/O)接口160、一个或多个显示器162、一个或多个面向内部或面向外部的图像传感器系统164、存储器170以及用于互连这些部件和各种其他部件的一条或多条通信总线154。
在一些具体实施中,一条或多条通信总线154包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备和传感器156包括一下中的至少一个:触摸屏、软键、键盘、虚拟键盘、按钮、旋钮、操纵杆、开关、拨号盘、惯性测量单元(IMU)、加速度计、磁力仪、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测器、心率监测器、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎、一个或多个深度传感器(例如,结构化光、飞行时间等)等等。在一些具体实施中,由一个或多个I/O设备和传感器156检测到的第二设备15的移动、旋转或位置向第二设备15提供输入。
在一些具体实施中,一个或多个显示器162被配置为呈现正在另一设备上查看或编辑的3D模型的视图。在一些具体实施中,一个或多个显示器162对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)或者类似显示器类型。在一些具体实施中,一个或多个显示器162对应于衍射、反射、偏振、全息等波导显示器。在一个示例中,第二设备15包括单个显示器。在另一个示例中,第二设备15包括针对每只眼睛的显示器。在一些具体实施中,一个或多个显示器162能够呈现CGR内容。
在一些具体实施中,一个或多个图像传感器系统164被配置为获得对应于第二设备15的本地场景的至少一部分的图像数据。一个或多个图像传感器系统164可以包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机或者基于事件的相机等。在各种具体实施中,一个或多个图像传感器系统164还包括发射光的照明源,诸如闪光灯。
存储器170包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器170包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器170任选地包括远离一个或多个处理单元152定位的一个或多个存储设备。存储器170包括非暂态计算机可读存储介质。在一些具体实施中,存储器170或存储器170的非暂态计算机可读存储介质存储以下程序、模块和数据结构,或它们的子集,该子集包括可选的操作系统模块180和Web浏览器182。操作系统180包括用于处理各种基础系统服务和用于执行硬件相关的任务的过程。此外,在一些具体实施中,操作系统180的功能可以另选地驻留在浏览器、浏览器插件中,或者与浏览器分开。
在一些具体实施中,操作系统180包括用于接收或显示网页内容的Web浏览器182。此外,检查单元184可由Web浏览器182用于检查标记语言或其他网页内容以获得3D内容可用的标签或其他指示。在具体实施中,操作系统130包括接口单元186,用于从第一设备10接收诸如3D内容的信息或交换关于3D内容的接收或显示的信息。此外,操作系统130可以包括CGR内容创建单元188,用于使用来自多个源的数据生成CGR内容或CGR环境的视图,例如来自相机的现实世界数据和从第一设备10接收的3D内容。在一些具体实施中,检查单元184、接口单元186和CGR内容创建单元188中的一者或多者是Web浏览器182的一部分或与Web浏览器182分开。在一些具体实施中,检查单元184、接口单元186和CGR内容创建单元188中的一者或多者被提供作为与操作系统180分开的应用程序的一部分,或者在第一设备15的本地或远程的单独设备上实现。
图6更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图6中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。单元的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定具体实施选择的硬件、软件或固件的特定组合。
图7为用于使第一设备能够呈现由网页引用的2D内容和与第一设备通信的第二设备能够显示由网页引用的3D内容的方法200的流程图表示。在一些具体实施中,方法200由一个或多个设备执行,例如,图1-5的第一设备10。方法200可在移动设备、HMD、台式计算机、膝上型电脑或服务器设备上执行。在一些具体实施中,方法200由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法200由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框210处,方法200获取由网页引用的2D内容用于在第一设备的显示器上显示。在一些具体实施中,方法200解释HTML标签或JavaScript以显示2D内容,诸如标题、文本、图像等。例如,方法200可以处理HTML元数据,诸如与图像元素相关联的标签(例如,“<img>”),以获得嵌入在网页中的2D图像。在具体实施中,2D内容包括对象的2D视图。在其他具体实施中,2D内容包括未格式化用于3D查看的内容。
在框220处,方法200检测网页引用与3D内容相关联的2D内容。在一些具体实施中,这涉及检查标记语言,例如,经由混合现实标记语言(MRML)协议或应用程序接口(API)或网页的其他方面来识别标记语言语句或3D内容的任何其他指示符。因此,标记语言文件可以包括与3D内容对应的一个或多个语句或者以其他方式指示与网页相关联的3D内容的可用性的一个或多个语句。标记语言指示符可以与要被显示为由网页引用的2D内容的一部分的图形指示符相关联,例如,以指示3D内容的可用性的缩略图、链接、图标或按钮的形式。
在框230处,方法200检测到第二设备与第一设备通信。可基于第一设备和第二设备之间的链路来检测通信。在一些具体实施中,检测第一设备和第二设备之间的链路涉及检测第二设备已经经由USB或其他电缆连接到第一设备。在一些具体实施中,检测第一设备和第二设备之间的链路涉及检测已经在设备之间建立了无线通信信道。在一些具体实施中,第一设备和第二设备之间的无线或有线连接或其他链路由第一设备或第二设备自动检测。在一些具体实施中,这可以附加地或替代地涉及识别所连接的设备是与特定用户、拥有者或账户相关联的特定设备、设备类型或设备。
如果连接不存在,则可建立连接。在一些具体实施中,向第一设备的用户呈现标识建立连接的选项的消息。例如,呈现文本、图形或音频消息,询问用户是否想要建立连接。在其他具体实施中,基于第一设备和第二设备与同一帐户或用户简档相关联,自动建立连接。在另一个示例中,基于检测到一个设备上的2D内容与可在另一个设备上显示的3D内容相关联,自动建立连接。在另一个示例中,基于检测到将一个设备的3D内容共享到另一个设备的用户意图,自动建立连接。在另一个示例中,基于设备之间的接近度自动建立连接,例如,检测到或估计设备在彼此的阈值距离内。在一些具体实施中,经由操作系统(OS)级服务呼叫建立连接。该连接还可以调用或访问第二设备上的共享内存。守护程序可以将此共享内存映射到其进程空间,使得它成为第一设备无缝链接到第二设备以提供3D内容查看/编辑体验的管道。
在框240处,方法200向第二设备提供由网页引用的3D内容。在一些具体实施中,第一设备向第二设备发送通信以在第二设备上自动启动3D查看界面。
在框250处,方法200接收与在第二设备处接收的输入对应的通信。例如,第二设备的用户可以例如经由输入、手势、选择等与第二设备交互,并且第二设备处的输入可以随后被传送到第一设备。
在框260处,方法200将在第二设备处接收的输入应用于由第一设备的显示器上的网页引用的2D内容。在一些具体实施中,附加地或替代地,可以基于从第二设备接收的输入来刷新、更新、选择或以其他方式修改3D内容。然后,该方法可以在框240处将更新的3D内容提供给第二设备。
图8是根据一些具体实施的用于在第二设备上显示具有从第一设备接收的3D内容的CGR环境的方法300的流程图表示。在一些具体实施中,方法300由一个或多个设备(例如,图1-4和图6的第二设备15)执行。方法300可在移动设备、HMD、台式计算机、膝上型电脑或服务器设备上执行。可以在具有用于显示3D图像的屏幕或用于查看立体图像的屏幕的HMD上执行方法300。在一些具体实施中,方法300由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法300由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框310处,方法300接收对应于3D内容的2D内容。从诸如来自另一用户用于发送3D内容的设备或来自网页服务器设备的单独设备接收3D内容。在一些具体实施中,基于用户输入接收3D内容。例如,第二设备可以经由可选选项显示3D内容可用的指示,并检测用户对该选项的选择。
在框320处,方法300接收与用户选择对应的输入以查看3D内容。在一些具体实施中,方法300在用户界面上呈现表示3D内容的图标、图形或文本,并且接收对应于用户对图标、图形或文本的选择的输入。在一些具体实施中,用户界面显示表示此类所接收的3D内容的图标、图形或文本,并且还显示指示符(文本、图形等),指示对图标、图形或文本的选择将启动查看器以查看所接收的3D内容。
响应于检测到查看3D内容的输入而执行框330和340。在框330处,方法300使用相机来捕获图像。由相机捕获的图像描绘了设备的场景处的可包括在CGR环境中的现实世界内容。
在框340处,方法300使用3D内容和捕获的图像构建CGR环境。在一些具体实施中,通过在捕获的图像上叠加3D内容来执行构建CGR环境。在一些具体实施中,通过检测图像中描绘的现实世界内容中的一个或多个平面表面并基于检测到的平面表面将3D内容定位在CGR环境中来执行构建CGR环境。例如,在第一时刻,可以将所接收的3D内容的图像定位在捕获的图像的最近捕获的图像上,在捕获附加的捕获图像之后的第二时刻,所接收的3D内容的图像(相同或不同)可被定位在新捕获的图像上,等等。在一些具体实施中,通过构建与图像中描绘的一些或所有现实世界内容对应的3D模型并将3D内容添加到模型然后从特定视点创建组合内容的图像来执行构建CGR环境。
用户可与CGR环境交互并改变CGR环境。在一个示例中,用户改变网页的3D内容的位置或旋转。例如,用户可将沙发的描述移动到场景中的另一位置。在一些具体实施中,该改变涉及视点的改变。例如,这可涉及接收设备的移动或旋转并基于该移动来更新CGR环境的显示。当用户移动他/她的头部、在房间内移动、上下跳跃等时,用户的视点在CGR环境内改变。然而,3D内容相对于CGR环境中描绘的现实世界对象的位置和旋转可保持恒定,例如,沙发保持其相对于地板和场景中描绘的其他现实世界对象的位置。为了保持恒定的相对定位,在图像中识别平面表面或特征并用于保持所接收的3D内容的相对位置。
根据一些具体实施,图9是用于在第一设备处提供3D环境的视图的方法400的流程图表示,该视图包括由网页引用的3D内容,其中基于检测到第二设备现实由网页引用的2D内容而获得3D内容。在一些具体实施中,方法400由一个或多个设备(例如,图1-4和图6的第二设备15)执行。方法400可在移动设备、HMD、台式计算机、膝上型电脑或服务器设备上执行。方法400可以在具有用于显示3D图像的屏幕或用于观看立体图像的屏幕的HMD上执行。在一些具体实施中,方法400由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法400由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框410处,方法400使用图像传感器获得表示物理环境的图像数据。由图像传感器捕获的图像数据可以包括现实世界内容,包括第二设备。
在框420处,方法400检测到第二设备被描绘在图像数据中。方法400还可以检测第二设备显示由网页引用的2D内容,而没有网页引用的3D内容。在一些具体实施中,方法400检测表示3D内容的图标、图形或文本。在其他具体实施中,方法400检测网页定义HTML或与3D内容对应的其他标记语言文件中的标记语句。
在框430处,方法400基于检测到第二设备的显示包括网页引用的2D内容而没有网页引用的3D内容而获取网页引用的3D内容。在一些具体实施中,从显示2D内容的第二设备获得3D内容。在一些具体实施中,从与第二设备上显示的网页相关联的网址获得3D内容。
在方法400的框440处,第一设备提供3D环境的视图,该3D环境包括由网页引用的3D内容以供显示。方法400可以使用3D内容和图像数据来构建3D环境的视图。在一些具体实施中,使用实时或预先记录的图像数据构建3D环境的视图。在一些具体实施中,通过在图像数据上叠加3D内容来执行构建3D环境的视图。在一些具体实施中,通过构建与图像数据中描绘的一些或所有现实世界内容对应的3D模型、将3D内容添加到模型,以及然后从特定视点创建组合内容的图像来执行构建3D环境的视图。
在方法400的框450处,第一设备接收来自用户的输入(例如,输入、手势、选择等)。在方法400的框460处,第一设备将接收的输入传送给第二设备,使得第二设备可以将输入应用于在第二设备处显示的网页内容。在一些具体实施中,附加地或替代地,可以基于输入来刷新、更新、选择或以其他方式修改3D内容。第一设备可以接收对来自第二设备的输入的响应,例如,接收或应用输入的通知,并且如框430所示,第一设备可以迭代地从第二设备获得由网页引用的3D内容。
图10是用于使第一设备能够基于与3D环境的当前状态相关联的信息来更新2D内容或3D内容的方法500的流程图表示。在一些具体实施中,方法500由三个或更多个设备(例如,图1-5的第一设备10和第二设备15以及第三设备)执行。方法500可在移动设备、HMD、台式计算机、膝上型电脑或服务器设备上执行。在一些具体实施中,方法500由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法500由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框510处,方法500将网页引用的3D内容提供给第二设备和第三设备。在一些具体实施中,第一设备向第二设备或第三设备发送通信以自动启动3D查看界面。在一些具体实施中,第三设备不包括查看界面,例如,支持web的相机。
在框520处,方法500向第三设备授予修改权限。在一些具体实施中,第三设备可以以只读模式启动3D查看界面,即,可以仅允许第三设备查看3D内容或者使用文本消息或表情符号对3D内容进行评论,但是不允许第三设备修改3D内容或3D环境的状态。经由相应的用户界面,第一设备或第二设备可以随后向第三设备授予修改权限。因此,在框520处,方法500授予第三设备修改权限。
在框530处,方法500从第三设备获得与3D环境的当前状态相关联的信息。在一些具体实施中,与3D环境相关联的信息包括由第三设备的车载相机捕获的图像,其描绘了第三设备的场景处的可以包括在CGR环境中或以其他方式用于创建CGR环境的现实世界内容。
在框540处,方法500基于与3D环境的当前状态相关联的信息(例如,现实世界环境的图像或模型)来更新由网页引用的2D内容或3D内容。在一些具体实施中,基于从第三设备接收的信息,刷新、更新、选择或以其他方式修改2D或3D内容。在一些具体实施中,第一设备提供网页内容的视图,该视图包括、合并或使用与3D环境的当前状态相关联的信息。在一个示例中,第一设备是没有车载摄像机的笔记本电脑,并且连接的第三设备是带有车载摄像头的手机。移动电话为笔记本电脑提供3D环境的图像,笔记本电脑使用该图像来提供包含网页内容的3D环境的视图。在另一个示例中,第一设备是台式计算机,并且第三设备是支持Web的相机。相机为台式计算机提供3D环境的图像。台式计算机包括在其正在显示的网页所引用的2D内容的背景中从相机接收的图像。
在框550处,方法500向第二设备或第三设备共享由网页引用的更新内容。例如,在第一设备处从第三设备接收的3D环境信息可用于更新网页内容,该网页内容随后被分发以在第二设备上查看。在一个示例中,第一设备是笔记本电脑,第二设备是手机,并且第三设备是HMD。在该示例中,HMD捕获其周围的3D环境的图像并将这些图像共享以包含在第一设备、第二设备或两者上的网页体验中。
本文阐述了许多具体细节以提供对要求保护的主题的全面理解。然而,本领域的技术人员将理解,可以在没有这些具体细节的情况下实践要求保护的主题。在其他实例中,没有详细地介绍普通技术人员已知的方法、设备或系统,以便不使要求保护的主题晦涩难懂。
除非另外特别说明,否则应当理解,在整个说明书中,利用诸如“处理”、“计算”、“计算出”、“确定”和“识别”等术语的论述是指计算设备的动作或过程,诸如一个或多个计算机或类似的电子计算设备,其操纵或转换表示为计算平台的存储器、寄存器或其他信息存储设备、传输设备或显示设备内的物理电子量或磁量的数据。
本文论述的一个或多个系统不限于任何特定的硬件架构或配置。计算设备可以包括部件的提供以一个或多个输入为条件的结果的任何合适的布置。合适的计算设备包括基于多用途微处理器的计算机系统,其访问存储的软件,该软件将计算系统从通用计算设备编程或配置为实现本发明主题的一种或多种具体实施的专用计算设备。可以使用任何合适的编程、脚本或其他类型的语言或语言的组合来在用于编程或配置计算设备的软件中实现本文包含的教导内容。
本文所公开的方法的具体实施可以在这样的计算设备的操作中执行。上述示例中呈现的框的顺序可以变化,例如,可以将框重新排序、组合或者分成子框。某些框或过程可以并行执行。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而并非旨在为限制性的。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”(“a”“an”)和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“comprises”或“comprising”)本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
本发明的前述描述和概述应被理解为在每个方面都是例示性和示例性的,而非限制性的,并且本文所公开的本发明的范围不仅由例示性具体实施的详细描述来确定,而是根据专利法允许的全部广度。应当理解,本文所示和所述的具体实施仅是对本发明原理的说明,并且本领域的技术人员可以在不脱离本发明的范围和实质的情况下实现各种修改。

Claims (20)

1.一种方法,包括:
在包括处理器的第一设备处:
获得由内容项引用的二维(2D)内容,以经由应用程序在所述第一设备的显示器上显示;
检测所述内容项引用与所述2D内容相关联的三维(3D)内容;
基于检测到所述第一设备和所述第二设备在彼此的阈值距离内,确定要在所述第二设备上显示所述3D内容;和
基于确定要在所述第二设备上显示所述3D内容,发起在所述第二设备上显示所述3D内容。
2.根据权利要求1所述的方法,其中,确定要在所述第二设备上显示所述3D内容还基于输入。
3.根据权利要求1所述的方法,其中,所述第二设备从所述第一设备获得所述3D内容。
4.根据权利要求1所述的方法,其中,所述第二设备从不同于所述第一设备的源获得所述3D内容。
5.根据权利要求1所述的方法,其中,所述第二设备使用在所述第一设备上不可用的一个或多个特征来显示所述3D内容。
6.根据权利要求1所述的方法,其中,所述内容项包括与所述3D内容相对应的标记语言语句。
7.根据权利要求1所述的方法,其中所述3D内容包括立体显示信息。
8.一种方法,包括:
在包括处理器的第二设备处:
确定所述第二设备和第一设备在彼此的阈值距离内;
基于检测到所述第二设备和所述第一设备在彼此的阈值距离内,确定要在所述第二设备上显示三维(3D)内容,其中所述第一设备显示由内容项引用的二维(2D)内容,所述内容项将所述3D内容与所述2D内容相关联;和
基于确定要在所述第二设备上显示所述3D内容,获得所述3D内容并在所述第二设备上显示所述3D内容。
9.根据权利要求8所述的方法,其中,确定要在所述第二设备上显示所述3D内容还基于输入。
10.根据权利要求8所述的方法,其中,所述第二设备从所述第一设备获得所述3D内容。
11.根据权利要求8所述的方法,其中,所述第二设备从不同于所述设备的源获得所述3D内容。
12.根据权利要求8所述的方法,其中,所述第二设备使用在所述第一设备上不可用的一个或多个特征来显示所述3D内容。
13.根据权利要求8所述的方法,其中,所述内容项包括与所述3D内容相对应的标记语言语句。
14.根据权利要求8所述的方法,其中,所述3D内容包括立体显示信息。
15.一种系统,包括:
第一设备;和
第二设备,
其中,所述第一设备被配置为:
获得由内容项引用的二维(2D)内容,以经由应用程序在所述第一设备的显示器上显示;
检测所述内容项引用与所述2D内容相关联的三维(3D)内容;
基于检测到所述第一设备和所述第二设备在彼此的阈值距离内,确定要在第二设备上显示所述3D内容;和
基于确定要在所述第二设备上显示所述3D内容,发起在所述第二设备上显示所述3D内容。
16.根据权利要求15所述的系统,其中,确定要在所述第二设备上显示所述3D内容还基于输入。
17.根据权利要求15所述的系统,其中,所述第二设备从所述第一设备或从不同于所述第一设备的源获得所述3D内容。
18.根据权利要求15所述的系统,其中,所述第二设备使用在所述第一设备上不可用的一个或多个特征来显示所述3D内容。
19.根据权利要求15所述的系统,其中,所述内容项包括与所述3D内容相对应的标记语言语句。
20.根据权利要求15所述的系统,其中所述3D内容包括立体显示信息。
CN202211052155.0A 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示 Pending CN115412720A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862715331P 2018-08-07 2018-08-07
US62/715,331 2018-08-07
US16/510,278 2019-07-12
US16/510,278 US10916220B2 (en) 2018-08-07 2019-07-12 Detection and display of mixed 2D/3D content
CN201910723722.2A CN110830786B (zh) 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201910723722.2A Division CN110830786B (zh) 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示

Publications (1)

Publication Number Publication Date
CN115412720A true CN115412720A (zh) 2022-11-29

Family

ID=67437796

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910723722.2A Active CN110830786B (zh) 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示
CN202211052155.0A Pending CN115412720A (zh) 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910723722.2A Active CN110830786B (zh) 2018-08-07 2019-08-07 混合2d/3d内容的检测和显示

Country Status (5)

Country Link
US (3) US10916220B2 (zh)
EP (1) EP3608756A1 (zh)
JP (2) JP7200063B2 (zh)
KR (4) KR102218516B1 (zh)
CN (2) CN110830786B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990674B1 (en) 2007-12-14 2018-06-05 Consumerinfo.Com, Inc. Card registry systems and methods
US8312033B1 (en) 2008-06-26 2012-11-13 Experian Marketing Solutions, Inc. Systems and methods for providing an integrated identifier
US9106691B1 (en) 2011-09-16 2015-08-11 Consumerinfo.Com, Inc. Systems and methods of identity protection and management
US8738516B1 (en) 2011-10-13 2014-05-27 Consumerinfo.Com, Inc. Debt services candidate locator
US9853959B1 (en) 2012-05-07 2017-12-26 Consumerinfo.Com, Inc. Storage and maintenance of personal data
US9654541B1 (en) 2012-11-12 2017-05-16 Consumerinfo.Com, Inc. Aggregating user web browsing data
US9916621B1 (en) 2012-11-30 2018-03-13 Consumerinfo.Com, Inc. Presentation of credit score factors
US10102570B1 (en) 2013-03-14 2018-10-16 Consumerinfo.Com, Inc. Account vulnerability alerts
US9406085B1 (en) 2013-03-14 2016-08-02 Consumerinfo.Com, Inc. System and methods for credit dispute processing, resolution, and reporting
US9477737B1 (en) 2013-11-20 2016-10-25 Consumerinfo.Com, Inc. Systems and user interfaces for dynamic access of multiple remote databases and synchronization of data based on user rules
CN111542871A (zh) * 2017-11-10 2020-08-14 赛斯-伊玛格标签有限责任公司 在多个回放装置上进行同步视频回放的系统
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
US11087538B2 (en) * 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US20200074541A1 (en) 2018-09-05 2020-03-05 Consumerinfo.Com, Inc. Generation of data structures based on categories of matched data items
US11315179B1 (en) 2018-11-16 2022-04-26 Consumerinfo.Com, Inc. Methods and apparatuses for customized card recommendations
US11238656B1 (en) * 2019-02-22 2022-02-01 Consumerinfo.Com, Inc. System and method for an augmented reality experience via an artificial intelligence bot
US11941065B1 (en) 2019-09-13 2024-03-26 Experian Information Solutions, Inc. Single identifier platform for storing entity data
US11093123B1 (en) * 2019-10-09 2021-08-17 Facebook Technologies, Llc Saving content for viewing on a virtual reality rendering device
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11250642B1 (en) 2020-04-14 2022-02-15 Worldpay Limited Methods and systems for displaying virtual objects from an augmented reality environment on a multimedia device
CN111629151B (zh) * 2020-06-12 2023-01-24 北京字节跳动网络技术有限公司 视频合拍方法、装置、电子设备及计算机可读介质
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
WO2022170222A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd Content sharing in extended reality
CN117043709A (zh) * 2021-02-08 2023-11-10 视域电脑有限公司 用于生产力的扩展现实
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
CN115379105B (zh) * 2021-05-20 2024-02-27 北京字跳网络技术有限公司 视频拍摄方法、装置、电子设备和存储介质
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11789526B2 (en) * 2021-08-10 2023-10-17 Samsung Electronics Co., Ltd. Method and electronic system for outputting video data and audio data
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110258175A1 (en) * 2010-04-16 2011-10-20 Bizmodeline Co., Ltd. Marker search system for augmented reality service
CN102244676A (zh) * 2010-05-14 2011-11-16 Lg电子株式会社 电子设备和与其他设备共享电子设备的内容的方法
CN104731541A (zh) * 2015-03-17 2015-06-24 联想(北京)有限公司 一种控制方法、电子设备及系统
CN107533428A (zh) * 2015-05-14 2018-01-02 电子湾有限公司 显示会话的虚拟环境
WO2018009427A1 (en) * 2016-07-07 2018-01-11 Google Llc 2d video with option for projected viewing in modeled 3d space
US20180144556A1 (en) * 2016-11-18 2018-05-24 Zspace, Inc. 3D User Interface - 360-degree Visualization of 2D Webpage Content

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2325374T3 (es) 2005-05-03 2009-09-02 Seac02 S.R.L. Sistema de realidad aumentada con identificacion de objeto marcador real.
JP5643549B2 (ja) 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
KR101763887B1 (ko) 2011-01-07 2017-08-02 삼성전자주식회사 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
KR101873747B1 (ko) * 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2013104820A1 (en) 2012-01-09 2013-07-18 Nokia Corporation Method and apparatus for providing an architecture for delivering mixed reality content
JP5563625B2 (ja) 2012-06-29 2014-07-30 株式会社ソニー・コンピュータエンタテインメント 画像解析装置、画像解析方法、および画像解析システム
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
JP6286123B2 (ja) 2012-12-27 2018-02-28 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
US8976965B2 (en) * 2013-07-30 2015-03-10 Google Inc. Mobile computing device and wearable computing device having automatic access mode control
JP5917635B2 (ja) 2014-02-05 2016-05-18 富士フイルム株式会社 コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
US9734634B1 (en) * 2014-09-26 2017-08-15 A9.Com, Inc. Augmented reality product preview
US9754416B2 (en) * 2014-12-23 2017-09-05 Intel Corporation Systems and methods for contextually augmented video creation and sharing
JP2017187667A (ja) 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
US10332317B2 (en) 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
CN107341979A (zh) * 2017-05-11 2017-11-10 芜湖威灵数码科技有限公司 一种微型vr教育计算机系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110258175A1 (en) * 2010-04-16 2011-10-20 Bizmodeline Co., Ltd. Marker search system for augmented reality service
CN102244676A (zh) * 2010-05-14 2011-11-16 Lg电子株式会社 电子设备和与其他设备共享电子设备的内容的方法
CN104731541A (zh) * 2015-03-17 2015-06-24 联想(北京)有限公司 一种控制方法、电子设备及系统
CN107533428A (zh) * 2015-05-14 2018-01-02 电子湾有限公司 显示会话的虚拟环境
WO2018009427A1 (en) * 2016-07-07 2018-01-11 Google Llc 2d video with option for projected viewing in modeled 3d space
CN107590771A (zh) * 2016-07-07 2018-01-16 谷歌公司 具有用于在建模3d空间中投影观看的选项的2d视频
US20180144556A1 (en) * 2016-11-18 2018-05-24 Zspace, Inc. 3D User Interface - 360-degree Visualization of 2D Webpage Content

Also Published As

Publication number Publication date
CN110830786A (zh) 2020-02-21
KR20200016798A (ko) 2020-02-17
CN110830786B (zh) 2022-09-16
US20200051527A1 (en) 2020-02-13
JP2023001115A (ja) 2023-01-04
KR102218516B1 (ko) 2021-02-22
KR102582375B1 (ko) 2023-09-25
KR102370257B1 (ko) 2022-03-04
KR20220029638A (ko) 2022-03-08
US11790871B2 (en) 2023-10-17
KR20210020967A (ko) 2021-02-24
JP7200063B2 (ja) 2023-01-06
JP2020074058A (ja) 2020-05-14
EP3608756A1 (en) 2020-02-12
US10916220B2 (en) 2021-02-09
US20210168324A1 (en) 2021-06-03
US11355086B2 (en) 2022-06-07
KR20230042253A (ko) 2023-03-28
US20220375431A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
CN110830786B (zh) 混合2d/3d内容的检测和显示
US11086581B2 (en) Controlling external devices using reality interfaces
CN110888567A (zh) 三维内容中基于位置的虚拟元件模态
US11995230B2 (en) Methods for presenting and sharing content in an environment
KR102543993B1 (ko) 시뮬레이션된 현실(sr)에서의 디스플레이 디바이스 공유 및 상호작용성
US10984607B1 (en) Displaying 3D content shared from other devices
US20210034319A1 (en) Multi-device editing of 3d models
CN112116716A (zh) 基于检测到的对象来定位的虚拟内容
CN114514493A (zh) 增强设备
CN112987914A (zh) 用于内容放置的方法和设备
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
JP2024512040A (ja) マップのためのデバイス、方法、及びグラフィカルユーザインタフェース
US11308716B1 (en) Tailoring a computer-generated reality experience based on a recognized object
US20230350539A1 (en) Representations of messages in a three-dimensional environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination