JP7200063B2 - 2d/3d混在コンテンツの検出及び表示 - Google Patents

2d/3d混在コンテンツの検出及び表示 Download PDF

Info

Publication number
JP7200063B2
JP7200063B2 JP2019144452A JP2019144452A JP7200063B2 JP 7200063 B2 JP7200063 B2 JP 7200063B2 JP 2019144452 A JP2019144452 A JP 2019144452A JP 2019144452 A JP2019144452 A JP 2019144452A JP 7200063 B2 JP7200063 B2 JP 7200063B2
Authority
JP
Japan
Prior art keywords
content
display
detecting
implementations
referenced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019144452A
Other languages
English (en)
Other versions
JP2020074058A (ja
Inventor
エイチ ゴー ロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020074058A publication Critical patent/JP2020074058A/ja
Priority to JP2022157896A priority Critical patent/JP2023001115A/ja
Application granted granted Critical
Publication of JP7200063B2 publication Critical patent/JP7200063B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本開示は、全般的には2次元(2D)及び3次元(3D)コンテンツを表示することに関し、特に2D及び3Dコンテンツを共有及び表示するためのシステム、方法、及びデバイスに関する。
(関連出願の相互参照)
本出願は、2018年8月7日に出願された米国特許仮出願第62/715,331号の利益を主張し、その全体を本明細書に組み込む。
電子デバイスは、電子コンテンツの閲覧及び相互作用に関して異なる機能を有する。例えば、多くのデスクトップコンピュータ及びラップトップコンピュータは、2Dコンテンツを閲覧するのに一般的に適した単一のフラットスクリーンディスプレイを利用すると同時に、そのデバイスは机上及び他の平面上の固定位置に静止している。従来のウェブページには、そのようなデバイス上で容易に閲覧できる2Dコンテンツが含まれる。しかしながら、このようなデバイスは、3Dコンテンツの閲覧に関して制限がある。対照的に、モバイル機器、ヘッドマウントデバイス(HMD)、及び他のそのようなデバイスは多くの場合、3Dコンテンツの閲覧により適した属性及び機能を有する。例えば、3Dコンテンツ(例えば、仮想オブジェクト)を携帯電話上で閲覧でき、携帯電話の向き/位置を使用して、3Dコンテンツのビューを変更することができる。ユーザが歩き回り電話を傾けると、ユーザは異なる相対位置及び角度からの3Dコンテンツを閲覧することができる。別の例として、HMDなどのいくつかのデバイスには、3Dコンテンツの立体レンダリング機能を提供する複数のスクリーンが含まれる。これにより、3Dコンテンツの閲覧時にユーザは奥行きをより良く知覚することが可能になる。既存の技術及びシステムでは、これら電子デバイスの異なった機能を有効かつ直感的に使用可能にするための2D及び3Dコンテンツの配信、閲覧及び共有が十分に促進されない。
本明細書にて開示された様々な実装形態には、第1デバイスがコンテンツ項目(例えば、ウェブページ)によって参照される2Dコンテンツを表示できるようになり、第1デバイスと通信する第2デバイスがコンテンツ項目によって参照される3Dコンテンツを表示できるようになるデバイス、システム及び方法が含まれる。一実施例において、第1デバイスは、ウェブページの2Dコンテンツを表示する。第1デバイス又は第2デバイスは、2Dコンテンツに関連付けられた3Dコンテンツをウェブページが参照することを検出する。第2デバイスは、ウェブページによって参照される3Dコンテンツを表示することができ、第1デバイスにリンクされるか又は別の方法で通信することができる。第1又は第2デバイスは、第2デバイスが3Dコンテンツを表示すべきであるかを判定する。第2デバイス上で3Dコンテンツを表示するかの判定は、デバイスが互いに通信していることを検出すること、デバイスが互いに近接位置にあることを検出すること、第1デバイスが第2デバイスによってキャプチャされた画像範囲内にあることを検出すること、ユーザの入力を検出すること、又は他の関連状況若しくは情報を検出することに基づいてもよい。第2デバイスで3Dコンテンツを表示すべきと判定した後、第2デバイスはウェブページによって参照される3Dコンテンツを第1デバイス又は別のウェブページソースから受信し、3Dコンテンツを表示する。一実施例において、第1デバイスはウェブページコンテンツの一部として3Dコンテンツを予めダウンロードし、表示のために3Dコンテンツを第2デバイスに自動送信する。別の実施例において、第2デバイスは、第1デバイスから又はウェブページ若しくはウェブページの3Dコンテンツをホストするウェブサーバから、3Dコンテンツを要求する。
3Dコンテンツの受信後、第2デバイスは様々な実装形態において3Dコンテンツを表示する。第1デバイスで利用不可能な3Dコンテンツを表示するために、3Dコンテンツの表示で1つ以上の機能を利用してもよい。例えば、第2デバイスは、立体レンダリングを使用して又はコンピュータが生成した現実(CGR)環境において、ユーザ/デバイス位置ベースの視点(例えば、デバイスが移動し傾くことによる変化)からの3Dコンテンツを表示してもよい。第2デバイスは、1つ以上のこれらの表示モード又は第1デバイス上では利用不可能な別の方法を使用して、3Dコンテンツを表示してもよい。いくつかの実装形態において、第2デバイスはカメラを使用して画像をキャプチャし、3Dコンテンツ及びキャプチャ画像を使用してCGR環境を構築する。
いくつかの実装形態において、第2デバイスのユーザは、第2デバイス上の特定の記憶装置場所に3Dコンテンツを移動させる必要なく簡潔かつ簡単に3Dコンテンツを受信、閲覧及び使用すること、第2デバイスで3Dコンテンツを体験し得ることを識別すること、アプリを識別して3Dコンテンツを体験すること、そのようなアプリを起動すること、又は受信した3Dコンテンツをインポートすること若しくはそのようなアプリにより提供されたCGR環境に追加することができる。2つ以上のデバイスを使用してウェブサイトの2D及び3Dコンテンツを体験するユーザ体験は、効率的及び直感的である。
本明細書に開示されるデバイス、システム及び方法によって、第1デバイスで閲覧した2Dウェブページコンテンツに対応する3Dコンテンツを表示できるようになる。このデバイス、システム及び方法によって、3Dコンテンツと組み合わされた2Dコンテンツを使用する、共有する及び相互作用するユーザの能力が向上する。例えば、第1デバイスを使用している第1ユーザは、オンライン小売業者が販売するソファーに対応している2Dコンテンツを含むウェブページを閲覧することができる。ウェブページは、例えば、2Dコンテンツ内にあるソファーの2D画像に対応するウェブページの一部である3Dコンテンツの可用性を示すマークアップ言語ステートメントなどの3Dコンテンツインジケータを含むことができる。2Dコンテンツは、この3Dコンテンツが利用可能であることを示す視覚的なインジケータを含むことができる。次に、第1ユーザ又は第2ユーザは、第2デバイスを使用して3Dコンテンツを閲覧することができる。ソファーの例において、例えばソファーの3Dモデルを含むデータオブジェクトやファイルにアクセスするか又はファイル若しくはソファーの3Dモデルを含むファイルのデータストレージアドレスを識別するなど、ソファーに対応する3Dコンテンツへのアクセスするために、第2デバイスが使用される。一実施例において、第1デバイスは、3Dコンテンツを含む又は3Dコンテンツへのアクセスを提供する第2デバイスに、通信を発信する。
第1デバイスから通信を受信することに基づき、第2デバイスによって3Dコンテンツを閲覧又は使用できるようになる。一実施例において、第2デバイスは、CGR環境内の3Dコンテンツを閲覧するためのユーザ選択に対応する入力を受信する。この入力の検出に応じて、第2デバイスは3DコンテンツをCGR環境の一部として表示する。カメラを使用して画像(例えば、動画)をキャプチャし、3Dコンテンツ及びキャプチャ画像を使用してCGR環境を構築することによって、このようなCGR環境を設けることができる。いくつかの実装形態において、第2デバイスはキャプチャ画像上に3Dコンテンツを重ね合わせる。
いくつかの実装形態において、方法は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットなどの1つ以上のプロセッサ及びコンピュータ可読記憶媒体を有する第1デバイスにおいて実行される。この方法は、第1デバイスによって、3Dコンテンツも参照するウェブページによって参照される2Dコンテンツを取得することを伴う。この方法はまた、タブレット、HMD、携帯電話などの、3Dコンテンツを提示することができる(例えば、立体レンダリングを使用して又はCGR環境内でユーザ/デバイス位置ベースの視点からのビューを提供することができる)第2デバイスを伴う。第2デバイスは、ウェブページによって参照される3Dコンテンツを受信し提示する。この方法は、第1デバイスによって表示され得ない3Dコンテンツをウェブページが参照することを検出すること又は第1デバイス及び第2デバイス間の自動通信を誘発するか若しくは第2デバイス上の3Dコンテンツの自動表示がもたらすその他の状況を検出することを含んでもよい。
従って、いくつかの実装形態は、上記の実施例及び本明細書の他の箇所に例示されるように、第1デバイス上のウェブページによって参照される2Dコンテンツ及び第2デバイス上のウェブページによって参照される3Dコンテンツが閲覧できるようになる。これらの実装形態によって、ユーザの視覚体験が改善される。例えば、2つのデバイス(例えば、ラップトップコンピュータ及びHMD)を有する単一ユーザはウェブページをブラウズすることができ、ウェブページが対象の3Dコンテンツを参照するときに、HMDをつけ、自動的に又は直感的なユーザ体験を介してアクセスし、3Dコンテンツを閲覧することができる。別の実施例において、複数のユーザは同様に便利な共有体験下で、ウェブページによって参照される2D及び3Dコンテンツを体験することができる。例えば、1人のユーザはラップトップコンピュータ上の自動車を表示するウェブページを閲覧してもよく、それと同時に他のユーザはHMDを使用して、自動車に関するウェブサイトの3Dコンテンツを体験してもよい。
いくつかの実装形態によれば、非一時的コンピュータ可読記憶媒体はコンピュータ実行可能な命令を記憶しており、本明細書に記載される方法のいずれかを実行するか又は実行を引き起こす。いくつかの実装形態によれば、デバイスは、1つ以上のプロセッサと、非一時的メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムは非一時的メモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載の方法のいずれかを実行するか又は実行を引き起こす命令を含む。
本開示は、当業者によって理解され得るように、いくつかの例示的な実装形態の態様を参照することによって、より詳細な説明を有してもよく、そのいくつかは添付図面に示されている。
いくつかの実装形態に係る、第1デバイスが3Dコンテンツも参照するウェブページによって参照される2Dコンテンツを表示し、第2デバイスが3Dコンテンツを表示する例示的なシステムを示す。 いくつかの実装形態に係る、第2デバイスがHMDである、図1のシステムを示す。 いくつかの実装形態に係る、第1デバイスが3Dコンテンツを含む2Dコンテンツを表示し、第2デバイスが3Dコンテンツを表示する例示的なシステムを示す。 いくつかの実装形態に係る、3Dコンテンツの共有に関連する通信の流れを示すフローチャートである。 いくつかの実装形態に係る、例示的な第1デバイスのデバイス構成要素を示すブロック図である。 いくつかの実装形態に係る、例示的な第2デバイスのデバイス構成要素を示すブロック図である。 第1デバイスがウェブページによって参照される2Dコンテンツを取得できるようにする及び、第1デバイスと通信している第2デバイスがウェブページによって参照される3Dコンテンツを表示できるようにする方法を示すフローチャートである。 いくつかの実装形態に係る、第1デバイスから受信した3Dコンテンツを有する第2デバイス上にCGR環境を表示するための方法を示すフローチャートである。 いくつかの実装形態に係る、ウェブページによって参照される3Dコンテンツを参照する第1デバイスにおいて3D環境のビューを提供するための方法を示すフローチャートであり、この3Dコンテンツはウェブページによって参照される2Dコンテンツを表示する第2デバイスを検出することに基づいて取得される。 いくつかの実装形態に係る、3D環境の現状に関連付けられた情報に基づいて、第1デバイスが2Dコンテンツ又は3Dコンテンツを更新できるようになるための方法を示すフローチャートである。
慣例により、図面に示される様々な特徴は縮尺どおりに描かれていない場合がある。従って、明確にするために、様々な特徴の寸法は任意に拡大または縮小されている場合がある。加えて、いくつかの図面は、所与のシステム、方法、又はデバイスの構成要素のすべてを表現していない場合がある。最後に、本明細書および図の全体を通して、同様の特徴を示すために同様の参照番号が使用される場合がある。
図面に示される例示的な実装形態の十分な理解を提供するために、数多くの詳細が記載されている。しかしながら、図面は単に本開示のいくつかの例示的な態様を示すものであり、従って限定的であると考慮されるべきではない。当業者は、他の有効な態様又は変形が本明細書に記載される特定の詳細全てを含まないことを理解するであろう。更に、周知のシステム、方法、構成要素、デバイス及び回路は、本明細書に記載される例示的な実装形態のより適切な態様を不明瞭にしないように、網羅的に詳細を記載していない。
図1を参照すると、本発明の態様を実装するための例示的な動作環境5が示されている。一般に、動作環境5は、2D及び3Dコンテンツを参照するコンテンツ項目(例えば、ウェブページ)の体験に関連する2つのデバイス、第1デバイス10及び第2デバイス15を表す。本明細書の実施例は、ウェブページを例示的なコンテンツ項目として利用する一方で、本明細書に開示される技術は、アプリケーション1つ以上のデバイスによって閲覧できる2D及び3Dコンテンツを参照するコンテンツ項目に適用される。
この実施例において、第1デバイス10及び第2デバイス15は、リンク20を介して接続されており、リンク20は、例えば、ユニバーサルシリアルバス(USB)ケーブル/インタフェース、USB-Cケーブル/インタフェース、THUNDERBOLT(サンダーボルト)v1、v2又はv3ケーブル/インタフェース、IEEE 1394ケーブル/インタフェース(例えば、FIREWIRE、i.LINK、LYNX)、IEEE 802.3xケーブル/インタフェース(例えば、イーサネット(登録商標))などを使用する有線通信を含み、及びIEEE 803.11送信(例えば、WiFi)、IEEE 802.11送信(例えば、無線LAN)、IEEE 802.16x送信(例えば、WiMAX)、短波長送信(例えば、BLUETOOTH(登録商標))、IEEE 802.15.4送信(例えば、ZIGBEE(登録商標))、GSM送信、ECMA-340並びにISO/IEC 18092(例えば、近距離通信(NFC))など使用する無線通信を含む有線又は無線リンクであるが、これらに限定されない。リンク20は直接的であってもよい、すなわち、第1デバイス10と第2デバイス15との間の介在デバイス又はネットワークノードがなくてもよい。例えば、リンク20は、各デバイスに接続する単一ケーブルを介して又は第1デバイス10と第2デバイス15との間のBluetooth通信を介して、第1デバイス10を第2デバイス15に直接接続することを含み得る。リンク20は間接的であってもよい、すなわち、1つ以上の介在デバイス又はネットワークノードがあってもよい。例えば、リンク20は、インターネット経由で送信された通信を介して、第1デバイス10を第2デバイス15に接続することができる。更に、デバイス間の相互作用、例えば、第1デバイス10と第2デバイス15との間は双方向であってもよく、例えば、一方のデバイスは、ウェブページに対するアクションを実行するために、他方のデバイスに通信を送信することができる。
図1の例において、第1デバイス10は、2Dコンテンツ30(例えば、ソファーの画像)及び2Dコンテンツ30に関連付けられた3Dコンテンツ50のインジケータ35を含んでいるウェブページコンテンツ25(例えば、ウェブブラウザ上の)を取得する。例えば、3Dコンテンツ50は、ソファーの3Dモデルを含んでもよい。3Dコンテンツ50は、CGR環境において第2デバイス15上で確認される。例えば、第2デバイス20はカメラを使用して近隣の環境、例えば、エンドテーブル及び壁写真を含む現実世界シーン45をキャプチャし、キャプチャされた景色をソファーの3Dモデルとともに表示することができる。
デバイス、システム及び方法によって、ユーザは、関連付けられた3Dコンテンツ50が利用可能であるというインジケータ35を見ることができ、また3Dコンテンツ50、例えばソファーを表す3Dコンテンツを第2デバイス15に送信することができるようになる。次に、第2デバイス15のユーザ(例えば、第1デバイス10のユーザと同じ又は異なるユーザ)は、第2デバイス15のディスプレイ40上で3Dコンテンツ50を体験することができる。この例において、3Dコンテンツ50はCGR環境の一部として表示される。
CGR環境は、人々が電子システムを介して感知する及び/又は対話する、完全に又は部分的にシミュレートされた環境を指す。CGRにおいて、人の身体的動作のサブセット又はその表現が追跡され、それに応じて、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特徴が、少なくとも1つの物理法則に従うように調整される。例えば、CGRシステムは人の頭部の回転を検出し、それに応じて、そうしたビュー及び音の物理的環境における変化の仕方と同様な方法で、その人に提示されたグラフィックコンテンツ及び音場を調整することができる。状況によっては(例えば、アクセシビリティの理由のため)、CGR環境における仮想オブジェクト(単数又は複数)の特徴(単数又は複数)に対する調節は、身体的動作(例えば、声のコマンド)の表現に応じて行われてもよい。
人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知する及び/又はCGRオブジェクトと対話してもよい。例えば、人は、3D空間内でポイントオーディオソースの知覚を提供する3D又は空間的オーディオ環境を生成するオーディオオブジェクトを感知する及び/又はオーディオオブジェクトと対話することができる。別の実施例において、オーディオオブジェクトによってオーディオの透明性が可能となり、コンピュータ生成オーディオを用いて又は用いることなく、物理的環境から周囲のサウンドを選択的に組み込むことができる。CGR環境によっては、人はオーディオオブジェクトのみを感知する及び/又はオーディオオブジェクトのみと対話することができる。
CGRの例としては、仮想現実及び複合現実が挙げられる。仮想現実(VR)環境とは、1つ以上の感覚のためのコンピュータ生成感覚入力に完全に基づくように設計されたシミュレーション環境を指す。VR環境は、人が感知する及び/又は対話することができる仮想オブジェクトを備える。例えば、木、建物及び人々を表すアバターのコンピュータ生成イメージは、仮想オブジェクトの例である。人は、コンピュータ生成環境内にある人の存在のシミュレーションを通じて、及び/又はコンピュータ生成環境内にある人の身体的動きのサブセットのシミュレーションを通じて、VR環境内の仮想オブジェクトを感知する及び/又は仮想オブジェクトと対話することができる。
コンピュータ生成感覚入力に完全に基づくように設計されたVR環境とは対照的に、複合現実(MR)環境は、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計されたシミュレーション環境を指す。仮想連続体上において、複合現実環境は、一方の端部である完全な物理的環境と、他方の端部である仮想現実環境との間にあるが、これらを含まない。
CGR環境によっては、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変化に応答し得る。また、CGR環境を提示するためのいくつかの電子システムでは、物理的環境に対して位置及び/又は向きを追跡してもよく、仮想オブジェクトが実際のオブジェクト(すなわち、物理的環境からの物理的項目又はその表現)と相互作用することができるようになる。例えば、システムは、仮想の木が物理的地面に対して静止して見えるように、動きを考慮してもよい。
複合現実の例としては、拡張現実及び拡張仮想感が挙げられる。拡張現実(AR)環境は、1つ以上の仮想オブジェクトが物理的環境上か又はその表現上に重ね合わさったシミュレーション環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイ上に仮想オブジェクトを提示するように構成されてもよく、そのため、人物はシステムを使用して、物理的環境上に重ね合わさった仮想オブジェクトを知覚する。あるいは、システムは不透明なディスプレイ及び物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサを有していてもよく、これは物理的環境を表現したものである。システムは、画像又は動画を仮想オブジェクトと合成し、不透明なディスプレイ上に合成物を提示する。人はシステムを使用して、物理的環境の画像又は動画によって物理的環境を間接的に閲覧し、物理的環境上に重ね合わさった仮想オブジェクトを知覚する。本明細書で使用する場合、不透明なディスプレイ上に表示される物理的環境の動画は「パススルービデオ」と呼ばれ、システムは1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明なディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に別の方法として、システムは、例えばホログラムとしての又は物理的表面上の物理的環境に仮想オブジェクトを投影する投影システムを有してもよく、そのため、人物はシステムを使用して、物理的環境上に重ね合わさった仮想オブジェクトを知覚する。
拡張現実環境もまた、物理的環境の表現がコンピュータ生成感覚の情報によって変換されたシミュレーション環境を指す。例えば、パススルービデオを提供する際、システムは1つ以上のセンサ画像を変換して、撮像センサによってキャプチャされた観点とは異なる選択された観点(例えば、視点)を設けることができる。別の実施例として、物理的環境の表現はその一部分を図形的に修正(例えば、拡大)することによって変換されてもよく、そのため修正された部分は表現されるが、本来のキャプチャ画像の写実的なバージョンではない。更なる例として、物理的環境の表現は、物理的環境の一部分を図形的に削除することか又は曖昧化することによって変換されてもよい。
拡張仮想感(AV)環境は、物理的環境からの1つ以上の感覚入力を仮想環境又はコンピュータ生成環境が組み込むシミュレーション環境を指す。感覚入力は、物理的環境の1つ以上の特徴の表現であってもよい。例えば、AV公園は、仮想的な木及び仮想的ビルを有してもよいが、顔を持つ人々は、物理的な人々の画像から写実的に再現される。別の例として、仮想オブジェクトは1つ以上の撮像センサによって撮像された物理的項目の形状又は色を採用することができる。更なる例として、仮想オブジェクトは物理的環境における太陽の位置と一致する影を採用することができる。
多種多様の電子システムが存在することによって、人が様々なCGR環境を感知する及び/又はCGR環境と対話できるようになる。例としては、ヘッドマウントシステム、投影ベースのシステム、ヘッドアップディスプレイ(HUD)、統合表示機能を有する車両フロントガラス、統合表示機能を有する窓、人の目に載せるように設計されたレンズとして形成されるディスプレイ(例えば、コンタクトレンズと同様)、ヘッドホン/イヤホン、スピーカアレイ、入力システム(例えば、触覚フィードバックありの若しくははなしのウェアラブル又はハンドヘルドコントローラ)、スマートホン、タブレット及びデスクトップ/ラップトップコンピュータが挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型の不透明なディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明なディスプレイ(例えば、スマートホン)を受け入れるように構成されてもよい。ヘッドマウントシステムは、物理的環境の画像又は動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境の音声をキャプチャするための1つ以上のマイクロホンを組み込んでもよい。不透明なディスプレイではなく、ヘッドマウントシステムは、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の目に向けられる媒質を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、LCOS(liquid-crystal on silicon)、レーザ走査光源又はこれらの技術の任意の組み合わせを利用してもよい。媒体は、光導波路、ホログラム媒体、光結合器、光学リフレクタ又はこれらの任意の組み合わせであってもよい。一実施形態において、透明又は半透明のディスプレイは、選択的に不透明になるように構成されてもよい。投影ベースのシステムは、人の網膜上にグラフィック画像を投影する網膜投影技術を採用してもよい。投影システムはまた、仮想オブジェクトを物理的環境に、例えばホログラムとして又は物理的表面上に、投影するように構成されてもよい。
図1の例において、CGR環境は、現実世界(例えば、現実世界シーン45の局所的にキャプチャされた画像を介して)と3Dコンテンツ50(例えば、ソファーの3D外観を定義するファイル又はモデル)を組み合わせる。
この例において、第2デバイス15は、3Dコンテンツ50(例えば、図1のソファー)に対応するデータオブジェクトを受信している。第1デバイス10によって取得されたウェブページコンテンツ25は、3Dコンテンツ50を表すか又は3Dコンテンツ50に対応するインジケータ35(例えば、サムネイル画像、アイコン、リンク又はボタン)を含んでもよい。アイコン又はサムネイル画像の場合、例えば、アイコン又はサムネイル画像は、単一の又は標準的な視点からの3Dオブジェクトのコンテンツの2D画像を含んでもよい。サムネイル画像、アイコン、リンク及びボタンは、追加の3Dコンテンツが利用可能であることを示すことができるグラフィック機能の例である。これに加えて又はこの代わりに、利用可能な3Dコンテンツの視覚的なインジケータは、第2デバイス15のディスプレイ40上にある3Dコンテンツ50を閲覧するためのユーザ選択に対応する入力(例えば、クリック、タッチなど)を受信するように構成されてもよい。例えば、第1デバイス10は、インジケータ35(例えば、3Dコンテンツ50に対応するサムネイル画像)上でマウスクリックを受信することによって、第2デバイス15のディスプレイ40上に3Dコンテンツ50(例えば、ソファー)を表示するために選択する入力を受信することができる。
第2デバイス15は、第2デバイス15上にある1つ以上のカメラを制御して現実世界シーン45の画像をキャプチャし、3Dコンテンツ50及びキャプチャ画像を使用して、第2デバイス15のディスプレイ40上にCGRコンテンツを表示する。いくつかの実装形態において、第2デバイス15は、CGR環境を提供するためのソフトウェア、ファームウェア又はハードウェアの好適な組み合わせを含む。他の実装において、第2デバイス15は、1つ以上の他のデバイス(ローカル又はリモート)と相互作用して第2デバイス15のディスプレイ40上にCGR環境を提供する。例えば、第2デバイス15は、CGR環境の提供に必要とされる処理及び記憶の一部又は全てを実行する別個の制御装置(図示せず)と通信してもよい。いくつかの実装形態によれば、第2デバイス15は、現実世界シーン45に基づいてCGR環境を表示すると同時に、第2デバイス15は、現実世界シーン45内に物理的に存在する。いくつかの実装形態において、第2デバイス15(例えば、眼鏡、ヘッドアップディスプレイなど)は、現実世界シーン45の光学透過を使用して、第2デバイス15のディスプレイ40上にCGR環境を提供するように構成されている。いくつかの実装形態において、第2デバイス15は、現実世界シーン45のビデオパススルーを使用して、第2デバイス15のディスプレイ40上にCGR環境を提供するように構成されている。いくつかの実装形態において、第2デバイス15は、ディスプレイスクリーンを有する必要はなく、仮想要素をユーザの網膜に投影することができる。
いくつかの実装形態において、図1に示すように、第2デバイス15は、第2デバイス15のディスプレイ40上にCGR環境を表示するように構成されたハンドヘルド電子デバイス(例えば、スマートホン又はタブレット)である。いくつかの実装形態において、第2デバイス15は、ユーザが第2デバイス15を装着しないか又は手に持たないCGR環境を提示するように構成されたチャンバ、エンクロージャ又は部屋である。いくつかの実装形態において、第2デバイス15のタイプを検出することによって、すなわち、第2デバイス15のタイプが3Dコンテンツ50を表示することができるデバイスのタイプであることを識別することによって、第2デバイス15が3Dコンテンツ50を表示できることを検出することができる。更に、第2デバイス15は、3Dコンテンツ50を表示することができる第2デバイス15に記憶されたアプリケーションを検出することによって、3Dコンテンツ50を表示できることを検出することができる。
図1の例において、第2デバイス15は、第2デバイス15上のカメラ若しくは他のセンサに基づいて検出された画像又は他の現実世界の情報を使用するように構成されている。いくつかの実装形態において、第2デバイス15のディスプレイ40上にCGR環境を提供するために、第2デバイス15は、カメラによってキャプチャされた1つ以上のカメラ画像の少なくとも一部分を使用する。図1の例において、第2デバイス15のディスプレイ40は、第2デバイス15のカメラによってキャプチャされた項目(例えば、床、壁、壁写真、2つのエンドテーブル及び2つの花瓶)の描写を含む。また、第2デバイス15のディスプレイ40は、第1デバイス10上に表示された2Dコンテンツ30に対応する3Dコンテンツ50(例えば、ソファー)を表す。
いくつかの実装形態において、第2デバイス15によって、ユーザ55が視点を変更できるようになるか又は別の方法で3Dコンテンツ50を修正若しくは3Dコンテンツ50と対話できるようになる。例えば、ユーザが第2デバイス15を移動させると、視点が変化し得る。いくつかの実装形態において、第2デバイス15は、第2デバイス15のディスプレイ40上に示された現実世界シーン45の現実世界項目の描写に対して受信した3Dコンテンツ50を再配置(例えば、壁写真又はエンドテーブルに対してソファーを再配置)するユーザ入力を受信するように構成されてもよい。
いくつかの実装形態において、第1デバイス10は、第2デバイス15に提供されるソファーに対応する3Dコンテンツ50を受信するか又は記憶する。いくつかの実装形態において、第1デバイス10は次に、第2デバイス15が3Dコンテンツ50を表示できるように、3Dコンテンツ50を第2デバイス15に提供する。他の実装において、第1デバイス10は3Dコンテンツ50を受信又は記憶せず、第2デバイス15は、ウェブページを供給するウェブサーバなどの別のソースから3Dコンテンツ50を取得する。
いくつかの実装形態において、複数のデバイスは、同じか又は異なる表示モードで3Dコンテンツを識別することができる。一実施例において、第1デバイス10は3Dコンテンツ50を含まない2D表示モードを提供し、第2デバイス15は現実世界のコンテンツと組み合わされた3Dコンテンツ50のMR表示モードを提供し、第3デバイス(図示せず)は3Dコンテンツ50のVR表示モードを提供する。別の実施例において、第1デバイス10及び第2デバイス15の両方は、3Dコンテンツ50のMRビューを提供することができる。一実施例において、第2デバイス15は、それぞれのデバイスを取り囲んでいるか又はそれぞれのデバイスによって別の方法で観察される現実世界コンテンツに依存している種々の現実世界コンテンツを含む3Dコンテンツ50のビューを表示する。第1デバイス10及び第2デバイス15の一方又は両方は、自身のカメラ又は他のセンサを使用して検出された受信データ若しくは画像又は他の現実世界情報を使用するように構成されてもよい。いくつかの実装形態において、MR表示モードを提供するために、第2デバイス15は、第1デバイス10上のカメラによってキャプチャされた1つ以上のカメラ画像の少なくとも一部分を使用する。この例において、第2デバイス15は、第1デバイス10を取り囲む現実世界の現実世界情報を使用してビューを提供する。
いくつかの実装形態において、図2に示すように、第2デバイス15は、ユーザ55の頭部に装着されるように構成されたHMDである。このようなHMDは、ユーザ55の視野を取り囲むことができる。図2の例に示すように、HMDは、ユーザ55の視野内で3Dコンテンツを表示するように構成された1つ以上のスクリーン又は他のディスプレイを含むことができる。図2に示すように、いくつかの実装形態において第2デバイス15は、ユーザ55の視野内で3Dコンテンツを表示するようにスクリーンが配置される方法で装着される。更にHMDは、様々な構成要素を収容する筐体(又はエンクロージャ)を含むことができる。筐体は、筐体の(ユーザ55の)近位端に配置されたアイパッド(eye pad)を含むことができる(又はアイパッドに結合することができる)。いくつかの実装形態において、アイパッドはプラスチック又はゴム片であり、ユーザ55の顔の上で適切な位置(例えば、ユーザ55の眼を取り囲む)に快適かつぴったりとHMDを保持する。筐体は、画像を表示するディスプレイを収容することができ、ユーザ55の片目又は両目に向けて光を放射する。
図3は、いくつかの実装形態に応じて、第1デバイス10が3Dコンテンツも参照するウェブページからの2Dコンテンツを表示し、第2デバイス15が3Dコンテンツを表示する例示的なシステムを示す。図3に示されるように、例えば両方のデバイス10、15を同時に使用して、第1デバイス10を使用してインターネットをブラウズするときに、ユーザ55は第2デバイス15(例えば、HMD)を装着してもよい。例えば、ユーザ55は、2Dコンテンツ30(例えば、植木鉢)及び2Dコンテンツ30に関連付けられた3Dコンテンツ50のインジケータ35を含むウェブページコンテンツ25を閲覧するために第1デバイス10を使用すると同時に、第2デバイス15を装着してもよい。インジケータ35は、第1デバイス10上に表示された2Dコンテンツ30の可視部分であってもよく、従って、第2デバイス15によってキャプチャ及び表示された画像の一部として視認できる。あるいは、インジケータ35は第1デバイス10上の2Dコンテンツ30に含まれずに、第2デバイス15上にのみ表示されてもよい。一実施例において、第2デバイス15によってキャプチャされた画像内にある第1デバイス10を検出する第2デバイス15に基づいて、インジケータ35は第2デバイス15上に表示される。
いくつかの実装形態において、第2デバイス15は、第2デバイス15のキャプチャ画像内で示された他のデバイスを検出し、そのようなデバイスが第2デバイス15と通信しているか(例えば、リンクされている)かどうかを判定し、他のデバイスとの通信(例えば、リンク)を確立し、他のデバイスのいずれかが3Dコンテンツに関連付けられた2Dコンテンツを表示しているかどうかを識別し、3Dコンテンツを取得し、その3Dコンテンツを表示するように構成されている。
第2デバイス15に様々な技術を使用することで、画像又はビュー内の第1デバイス10の存在を検出することができる。例えば、第2デバイス15は、第1デバイス10が第2デバイス15の現在の画像/ビュー内にあることを検出してもよい。このような検出は、第2デバイス15における現実世界環境の画像又はビューの画素内に表示された形状、色若しくは他の属性に基づいて、第1デバイス10の描写を検出することを含み得る。物体検出技術は、例えば、第2デバイス15の周囲における現実世界環境のキャプチャ画像内にある第1デバイス10を検出するために、ニューラルネットワーク又は他の機械学習ベースの技術の使用を伴うことができる。このような機械学習ベースの技術は、デバイスのサンプル画像(例えば、ラップトップコンピュータ、デスクトップコンピュータ及びモバイル機器の形状並びに他の空間的特性で標識された画像)を使用して訓練され得る。別の実施例において、第2デバイス15はその環境の画像を使用して現実世界環境の3Dモデルを判定し、第1デバイス10の3D形状は3Dモデル内で検出される。
第2デバイス15における画像/ビュー内の第1デバイス10の検出は、第1デバイス10のディスプレイ上に表示されたコンテンツを含むことができる。例えば、第1デバイス10は、第1デバイス10のディスプレイ上にウェブページの2Dコンテンツを表示することができ、第2デバイス15は、第1デバイス10を含む現実世界環境の画像をキャプチャすることができ、また第1デバイス10のディスプレイ上に表示されるウェブページの2Dコンテンツを認識することができる。一実施例において、現実世界環境の画像/ビューにおける第1デバイス10の存在又は空間的関係を検出するために、第1デバイス10の表示は、第2デバイス15によって使用されるテキストベース又はグラフィックベースのマーカ若しくはコード(ウェブページの2Dコンテンツの一部であってもなくてもよい)を含む。
いくつかの実装形態において、第2デバイス15は、例えば、現実世界環境の画像/ビューに基づいて、第1デバイス10と第2デバイス15との間の空間的関係を検出する。いくつかの実装形態において、第2デバイス15は、現実世界環境に関連付けられた3D座標系における第1デバイス10の位置、向き、サイズ又は他の属性を判定する。第2デバイス15は、その3D座標系における第2デバイス15自身のポーズ(例えば、位置及び向き)を知ることにより、第1デバイス10と第2のデバイス10との間の空間的関係を判定することができる。いくつかの実装形態において、第1デバイス10及び第2のデバイス20はそれぞれセンサを含むことで、時間の経過による位置及び向きにおける各デバイス自身の変化を各デバイスが追跡できるようになる。従って、デバイス間の初期の空間的関係が判定されると(例えば、画像データに基づいて)、空間的関係の変化は、追加の画像ベースの判定、デバイス自身の位置/向きの変化を追跡するデバイス、又はそのような追跡技術の組み合わせに基づいて判定することができる。
いくつかの実装形態において、第1デバイス10と第2デバイス15との間の空間的関係は、第2デバイス15に3Dコンテンツを提示するために使用される。第1デバイスがラップトップコンピュータであり、第2デバイスがHMDである例において、ラップトップコンピュータの相対位置、向き、サイズ又は他の属性が、HMD上に3Dコンテンツを提示するのに使用される。具体的な例として、HMD上の3Dコンテンツの表示は、空間的関係に依存し得る(例えば、ラップトップコンピュータが現在の画像/ビューであるとき、又はHMDの特定の閾値距離内にあるときにのみ、3Dコンテンツが表示され得る)。
いくつかの実装形態において、第2デバイス15は、第1デバイス10及びウェブページの3Dコンテンツにおける第1デバイス10の表示を含む、第2デバイス15の周囲の現実世界環境の画像をキャプチャする。第2デバイス15は、位置、向き、サイズが追加された及び他の属性を有するウェブページの追加3Dコンテンツが付いたこれらの画像を表示して、第1デバイス10のディスプレイ上にある2Dコンテンツを補完し、第2デバイス15によってキャプチャされた及び表示された画像内で見られるようにする。
一実施例において、第1デバイス10の位置、サイズ又は他の属性に基づいて、第2デバイス15は、第2デバイス15を介して3Dコンテンツを表示するための位置、サイズ、又は他の属性を判定する。例えば、第2デバイス15は、ユーザ55が第1デバイス10のディスプレイの遮られていないビューを維持するように、ユーザ55の視線を遮らない方法で3Dコンテンツを表示することを判定してもよい。第2デバイス15は、ユーザが第1デバイス10に表示された2Dコンテンツと第2デバイス15によって表示された近くの3Dコンテンツとの間のコンテキスト関係を容易に理解できるように、第1デバイス10に隣接する場所に3Dコンテンツを表示することを判定してもよい。第2デバイス15は、3Dコンテンツのサイズが第1デバイス10において表示される2Dコンテンツのサイズに対応するように、例えば、2D及び3Dコンテンツ内のテキストが同じサイズを有するように、3Dコンテンツを表示することを判定してもよい。第2デバイス15は、第2デバイス15を介して表示された3Dコンテンツを持つ第1デバイス10で表示された2Dコンテンツを接続して又は他の方法でグラフィカルに関連付けて、視覚的なインジケータを表示することを判定してもよい。
別の実施例において、第2デバイス15は、第2デバイス15によってキャプチャされた1つ以上の画像内の第1デバイス10のポーズ(例えば、位置及び向き)を検出し、この情報を使用して3Dコンテンツを表示する。例えば、第1デバイス10のディスプレイ(例えば、モニタ)の面の向きを検出することができ、この面は表示された2Dコンテンツと位置合わせされた3Dコンテンツの位置決めのために使用される。
いくつかの実装形態において、第2デバイス15は、第2デバイス15に対する第1デバイス10の位置変化を検出するか又は識別し、第1デバイス10と第2デバイス15との間の第2空間的関係を判定するように構成されている。次いで、第2デバイス15は、第2空間的関係に基づいて3Dコンテンツの表示を更新してもよい。例えば、ユーザ55が第2デバイス15に対する第1デバイス10の位置をシフトする場合、第2デバイス15は、第1デバイス10のディスプレイの遮られていないビューをユーザが維持するように、3Dコンテンツの表示を変更することができる。
いくつかの実装形態において、第2デバイス15は、ユーザ入力を必要とせずに、3Dコンテンツ50を自動的に取得及び表示する。例えば、第2デバイス15は、第2デバイス15がユーザ55によって装着され、第2デバイス15が第1デバイス10から閾値距離内にあることを検出すると、3Dコンテンツ50を表示する。他の実装形態において、第2デバイス15は、別のデバイス上の2Dコンテンツに関連付けられた3Dコンテンツが利用可能であり、その3Dコンテンツの検索及び表示を開始するための入力を受信するという指示を提供する。
第2デバイス15は、3Dコンテンツを表示するための表示特徴を判定するように構成されてもよい。いくつかの実装形態において、第2デバイスは、所定の又はユーザ指定の表示基準に基づいて、他の表示されたコンテンツに対して、例えば、現実世界コンテンツ又は他の仮想オブジェクトに対して、3Dコンテンツ50を表示する位置を判定する。一実施例において、第1デバイス10と第2デバイス15との間の空間的関係の認識に基づいて、3Dコンテンツ50は、ユーザ55の視野内にある第2デバイス(例えば、HMD)上のユーザ55に表示される。いくつかの実装形態において、第2デバイス15は、第1デバイス10上に表示されたウェブページコンテンツ25のビューを遮ることなく仮想コンテンツを表示できる場所を識別することによって、3Dコンテンツ50を表示する位置を判定する。例えば、図3に示されるように、3Dコンテンツ50は、第1デバイス10のビューを遮ることなく、第1デバイス10の隣のテーブル57上に表示される。
いくつかの実装形態において、例えば対話型ウェブページの場合、3Dコンテンツ50に対して行われる変更は、第1デバイス10のユーザインタフェース又は第2デバイス15のユーザインタフェースを介して、第1デバイス10及び第2デバイス15の両方で維持されるか又は別の方法で同期される。例えば、第1デバイス10又は第2デバイス15のユーザは、第1デバイス10又は第2デバイス15いずれかのソファーの色を変更させることができ、その変更は他のデバイス上で検出及び表示され得る。第1デバイス10又は第2デバイス15のいずれかで維持されたウェブページの状態は、デバイス10、15が同じ状態及び同期を維持するように、例えば、ウェブページの同じインスタンスを表示するように、デバイス10とデバイス15間で共有されてもよい。例として、ユーザとの対話に基づいて第1デバイス10上で強調表示された項目は、第2デバイス15上でも強調表示され、3Dコンテンツ50が変更されるとそれに対応して2Dコンテンツ30が変更され、逆もまた同様である。
図4は、いくつかの実装形態による、3Dコンテンツ50の共有に関与する通信60の流れを示すフローチャートである。図4において、ウェブサーバ70は、2Dコンテンツ30及び3Dコンテンツ50を含むウェブページの送信75を、第1デバイス10へ提供する。第1デバイス10は、リンク20を介して第2デバイス15と通信し、第2デバイス15は3Dコンテンツ50を受信する。いくつかの実装において、第1デバイス10は、第2デバイス15に関連付けられた情報に基づいて、どの3Dコンテンツ50を提供するかを識別する。例えば、第2デバイス15は、電話、タブレット又はHMDであってもよく、3Dコンテンツ50は、そのようなデバイス上で利用可能な3Dコンテンツの閲覧機能に基づいて、そのようなデバイス上で閲覧するのに適切な形態で提供されてもよい。
2D及び3Dコンテンツに示され得るオブジェクトの例としては、テーブル、床、壁、机、書籍、水域、山、野原、車両、カウンタ、人間の顔、人間の手、人間の毛髪、別の人体部位、人体全体、動物又は他の生物、衣類、用紙、雑誌、書籍、車両、機械又は他の人工物体、及び識別され得る並びに表現され得る任意の他の3D物品又は物品群を含むが、それに限定されるものではない。2D及び3Dコンテンツは追加として又は代替として、宇宙人、魔法使い、宇宙船、ユニコーン、コンピュータ生成グラフィック及びそのようなその他の項目を含むが、それに限定されるものではない現実世界コンテンツに対応してもよい又は対応しなくてもよい作成コンテンツを含むことができる。
図5は、いくつかの実装による、第1デバイス10のデバイス構成要素を示すブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実装形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的のために、非限定的な例として、いくつかの実施例において、第1デバイス10は、1つ以上の処理ユニット102(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)機器及びセンサ106、1つ以上の通信インタフェース108(例えば、USB、FIREWIRE(登録商標)、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE802.16x、GSM(登録商標)、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、SPI、I2C又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース110、1つ以上のディスプレイ112、1つ以上の内部又は外部対向画像センサシステム(interior or exterior facing image sensor systems)114、メモリ120、及びこれら並びに様々な他の構成要素を相互接続するための1つ以上の通信バス104が挙げられる。
いくつかの実装形態において、1つ以上の通信バス104は、システム構成要素間の通信を相互接続する及び制御する回路を含む。いくつかの実装形態において、1つ以上のI/O機器及びセンサ106は、少なくとも1つのタッチスクリーン、ソフトキー、キーボード、仮想キーボード、ボタン、ノブ、ジョイスティック、スイッチ、ダイアル、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロホン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、ストラクチュアドライト、飛行時間など)などが挙げられる。いくつかの実装形態において、1つ以上のI/O機器及びセンサ106によって検出された第1デバイス10の動き、回転又は位置は、第1デバイス10へ入力を提供する。
いくつかの実装形態において、1つ以上のディスプレイ112は、ユーザインタフェースを提示するように構成されている。いくつかの実装形態において、1つ以上のディスプレイ112は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、LCoS(liquid-crystal on silicon)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放出素子ディスプレイ(SED)、電界放出ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS(micro-electro-mechanica system)又は同様のディスプレイタイプに相当する。いくつかの実装形態において、1つ以上のディスプレイ112は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。1つの実施例において、第1デバイス10は単一のディスプレイを含む。別の実施例において、第1デバイス10は、各眼用のディスプレイを含む。いくつかの実装形態において、1つ以上のディスプレイ112は、MR又はVRコンテンツを提示することができる。
いくつかの実装形態において、1つ以上の画像センサシステム114は、第1デバイス10に対してローカルなシーンの少なくとも一部分に対応する画像データを取得するように構成されている。1つ以上の画像センサシステム114は、1つ以上のRGBカメラ(例えば、相補型金属酸化膜半導体(CMOS)画像センサ又は電荷結合デバイス(CCD)画像センサを備えた)、モノクロカメラ、赤外線カメラ、イベントベースのカメラなどを含むことができる。様々な実装形態において、1つ以上の画像センサシステム114は、フラッシュなどの光を発する照明光源を更に含む。
メモリ120は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実装形態において、メモリ120は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性記憶デバイスなどの、不揮発性メモリを含む。メモリ120は、1つ以上の処理ユニット102からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ120は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実装形態において、メモリ120又はメモリ120の非一時的コンピュータ可読記憶媒体は、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶し、任意選択のオペレーティングシステム130及びウェブブラウザ132を含む。オペレーティングシステム130は、様々な基本システムサービスを処理するための及びハードウェア依存タスクを実行するための手順を含む。更に、いくつかの実装形態において、オペレーティングシステム130の機能はまた、ブラウザ若しくはブラウザプラグインに位置するか又はブラウザから分離し得る。
いくつかの実装形態において、オペレーティングシステム130は、ウェブページコンテンツを受信又は表示するためのウェブブラウザ132を含む。更に、検査ユニット134は、3Dコンテンツが利用可能であることのタグ若しくは他の表示のためのマークアップ言語又は他のウェブページコンテンツを検査するために、ウェブブラウザ132によって使用されてもよい。いくつかの実装形態において、オペレーティングシステム130は、表示されたコンテンツにインジケータを追加して3Dコンテンツの存在を示すインジケータユニット136を含む。更に、オペレーティングシステム130は、3Dコンテンツの転送又は他の情報の交換を含む、第2デバイス15と通信するためのインタフェースユニット138を含んでもよい。いくつかの実装形態において、検査ユニット134の1つ以上は、インジケータユニット136及びインタフェースユニット138がウェブブラウザ132の一部でもあり得又は別個でもあり得る。いくつかの実装形態において、検査ユニット134、インジケータユニット136及びインタフェースユニット138の1つ以上は、オペレーティングシステム130とは別個のアプリケーションの一部として提供されるか又は第1デバイス10に対してローカル若しくは第1デバイス10からリモートな別個のデバイス上に実装される。
図5は、本明細書に記載される実装形態の構造概略とは対照的に、特定の実装形態に存在する様々な特徴の機能的説明を更に意図している。当業者によって認識されるように、別々に示された項目を組み合わせることができ、一部の項目を分離することができる。例えば、図5に別個に示されるいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実装形態において1つ以上の機能ブロックによって実装され得る。モジュールの実際の数並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実装形態において、特定の実装形態のために選択されたハードウェア、ソフトウェア又はファームウェアの特定の組み合わせに部分的に依存する。
図6は、いくつかの実施形態による、第2デバイス15のデバイス構成要素を示すブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実装形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的のために、非限定的な例として、いくつかの実施例において、第2デバイス15は、1つ以上の処理ユニット152(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)機器及びセンサ156、1つ以上の通信インタフェース158(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、SPI、I2C又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース160、1つ以上のディスプレイ162、1つ以上の内部又は外部対向画像センサシステム164、メモリ170、及びこれら並びに様々な他の構成要素を相互接続するための1つ以上の通信バス154を含む。
いくつかの実装形態において、1つ以上の通信バス154は、システム構成要素間の通信を相互接続する及び制御する回路を含む。いくつかの実装形態において、1つ以上のI/O機器及びセンサ156は、少なくとも1つのタッチスクリーン、ソフトキー、キーボード、仮想キーボード、ボタン、ノブ、ジョイスティック、スイッチ、ダイアル、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロホン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、ストラクチュアドライト、飛行時間など)などが挙げられる。いくつかの実装形態において、1つ以上のI/O機器及びセンサ156によって検出された第2デバイス15の動き、回転又は位置は、第2デバイス15へ入力を提供する。
いくつかの実装形態において、1つ以上のディスプレイ162は、別のデバイス上で閲覧されているか又は編集されている3Dモデルのビューを提示するように構成される。いくつかの実装形態において、1つ以上のディスプレイ162は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、LCoS、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放出素子ディスプレイ(SED)、電界放出ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS又は同様のディスプレイタイプに相当する。いくつかの実装形態において、1つ以上のディスプレイ162は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。一実施例において、第2デバイス15は単一のディスプレイを含む。別の実施例において、第2デバイス15は各眼用のディスプレイを含む。いくつかの実装形態において、1つ以上のディスプレイ162は、CGRコンテンツを提示することができる。
いくつかの実装形態において、1つ以上の画像センサシステム164は、第2デバイス15に対してローカルなシーンの少なくとも一部分に対応する画像データを取得するように構成されている。1つ以上の画像センサシステム164は、1つ以上のRGBカメラ(例えば、相補型金属酸化膜半導体(CMOS)画像センサ又は電荷結合デバイス(CCD)画像センサを備えた)、モノクロカメラ、赤外線カメラ、イベントベースのカメラなどを含むことができる。様々な実装形態において、1つ以上の画像センサシステム164は、フラッシュなどの光を発する照明光源を更に含む。
メモリ170は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実装形態において、メモリ170は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性記憶デバイスなどの、不揮発性メモリを含む。メモリ170は、1つ以上の処理ユニット152からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ170は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実装形態において、メモリ170又はメモリ170の非一時的コンピュータ可読記憶媒体は、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶し、任意選択のオペレーティングシステム180及びウェブブラウザ182を含む。オペレーティングシステム180は、様々な基本システムサービスを処理するための及びハードウェア依存タスクを実行するための手順を含む。更に、いくつかの実装形態において、オペレーティングシステム180の機能はまた、ブラウザ、ブラウザプラグインに位置するか又はブラウザから分離し得る。
いくつかの実装形態において、オペレーティングシステム180は、ウェブページコンテンツを受信又は表示するためのウェブブラウザ182を含む。更に、検査ユニット184は、3Dコンテンツが利用可能であることのタグ若しくは他の表示のためのマークアップ言語又は他のウェブページコンテンツを検査するために、ウェブブラウザ182によって使用されてもよい。実装形態において、オペレーティングシステム130は、3Dコンテンツなどの情報を第1デバイス10から受信するか、又は3Dコンテンツの受信若しくは表示に関する情報を交換するためのインタフェースユニット186を含む。更に、オペレーティングシステム130は、複数のソース、例えば、カメラからの現実世界データ及び第1デバイス10から受信した3Dコンテンツからのデータを使用して、CGRコンテンツ又はCGR環境のビューを生成するためのCGRコンテンツ作成ユニット188を含んでもよい。いくつかの実装形態において、検査ユニット184、インタフェースユニット186及びCGRコンテンツ作成ユニット188の1つ以上は、ウェブブラウザ182の一部であり又は別個である。いくつかの実装形態において、検査ユニット184、インタフェースユニット186及びCGRコンテンツ作成ユニット188の1つ以上は、オペレーティングシステム180とは別個のアプリケーションの一部として提供されるか又は第1デバイス15に対してローカル若しくは第1デバイス15からリモートな別個のデバイス上に実装される。
図6は、本明細書に記載される実装形態の構造概略とは対照的に、特定の実装形態に存在する様々な特徴の機能的説明を更に意図している。当業者によって認識されるように、別々に示された項目を組み合わせることができ、一部の項目を分離することができる。例えば、図6に別個に示されるいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実装形態において1つ以上の機能ブロックによって実装され得る。モジュールの実際の数並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実装形態において、特定の実装形態のために選択されたハードウェア、ソフトウェア又はファームウェアの特定の組み合わせに部分的に依存する。
図7は、第1デバイスがウェブページによって参照される2Dコンテンツを提示できるようにする及び、第1デバイスと通信している第2デバイスがウェブページによって参照される3Dコンテンツを表示できるようにする方法200を示すフローチャートである。いくつかの実装形態において、方法200は、1つ以上のデバイス、例えば、図1~図5の第1デバイス10によって実行される。方法200は、モバイル機器、HMD、デスクトップコンピュータ、ラップトップコンピュータ又はサーバデバイスで実行することができる。いくつかの実装形態において、方法200は、ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態において、方法200は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
ブロック210において、方法200は、第1デバイスのディスプレイ上に表示するためのウェブページによって参照される2Dコンテンツを取得する。いくつかの実装形態において、方法200は、HTMLタグ又はJavaScript(登録商標)を解釈して、タイトル、テキスト、画像などの2Dコンテンツを表示する。例えば、方法200は、画像要素に関連付けられたタグ(例えば、「<img>」)などのHTMLメタデータを処理して、ウェブページ内に埋め込まれた2D画像を取得することができる。実装形態において、2Dコンテンツはオブジェクトの2Dビューを含む。他の実装において、2Dコンテンツは3D閲覧用にフォーマットされていないコンテンツを含む。
ブロック220において、方法200は、ウェブページが2Dコンテンツに関連付けられた3Dコンテンツを参照することを検出する。いくつかの実装形態において、これには、例えば、複合現実マークアップ言語(Mixed Reality Markup Language、MRML)プロトコル若しくはアプリケーションプログラムインタフェース(API)を介してマークアップ言語を検査するか又はウェブページの他の態様を検査して、マークアップ言語ステートメント若しくは3Dコンテンツの他のインジケータを識別することが含まれる。従って、マークアップ言語ファイルは、3Dコンテンツに対応する1つ以上のステートメント又はウェブページに関連付けられた3Dコンテンツの可用性を別の方法で示す1つ以上のステートメントを含んでもよい。マークアップ言語インジケータは、ウェブページによって参照される2Dコンテンツの一部として、例えば、3Dコンテンツの可用性を示すサムネイル画像、リンク、アイコン又はボタンの形態で、表示される視覚的なインジケータに関連付けられてもよい。
ブロック230において、方法200は、第2デバイスが第1デバイスと通信していることを検出する。通信は、第1デバイスと第2デバイスとの間のリンクに基づいて検出されてもよい。いくつかの実装形態において、第1デバイスと第2デバイスとの間のリンクを検出することは、第2デバイスがUSB又は他のケーブルを介して第1デバイスに接続されていることを検出することを伴う。いくつかの実装形態において、第1デバイスと第2デバイスとの間のリンクを検出することは、デバイス間で無線通信チャネルが確立されたことを検出することを伴う。いくつかの実装形態において、第1デバイスと第2デバイスとの間の無線若しくは有線接続又は他のリンクは、第1又は第2デバイスによって自動的に検出される。いくつかの実装形態において、これは、接続されたデバイスが、特定のユーザ、所有者若しくはアカウントに関連付けられた特定のデバイス、デバイスのタイプ又はデバイスであると認識することを、追加として又は代替として伴ってもよい。
接続が存在しない場合、接続を確立してもよい。いくつかの実装形態において、接続を確立するためのオプションを識別するメッセージが、第1デバイスのユーザに提示される。例えば、ユーザが接続を確立したいかどうかを尋ねるテキスト、グラフィカル又は音声メッセージが提示される。他の実施例において、第1デバイス及び第2デバイスの両方が同じアカウントか又はユーザプロファイルに関連付けられていることに基づいて、接続が自動的に確立される。別の実施例において、1つのデバイス上の2Dコンテンツが別のデバイス上で表示され得る3Dコンテンツと関連付けられていることを検出することに基づいて、接続が自動的に確立される。別の実施例において、3Dコンテンツを互いのデバイスで共有するというユーザの意図を検出することに基づいて、接続が自動的に確立される。別の実施例において、デバイス間の近接性、例えば、デバイスが互いに閾値距離内にあることを検出するか又は推定することに基づいて、接続が自動的に確立される。いくつかの実装形態において、接続は、オペレーティングシステム(OS)レベルのサービスコールを介して確立される。接続はまた、第2デバイス上の共有メモリを呼び出すか又はそのメモリにアクセスしてもよい。デーモンはこの共有メモリをデーモンの処理空間内にマッピングすることができるため、デーモンは第1デバイスが第2デバイスにシームレスにリンクするためのパイプ役となり、3Dコンテンツの閲覧/編集体験を提供する。
ブロック240において、方法200は、ウェブページによって参照される3Dコンテンツを第2デバイスに提供する。いくつかの実装形態において、第1デバイスは第2デバイスに通信を送信し、第2デバイス上の3D閲覧インタフェースを自動的に起動する。
ブロック250において、方法200は第2デバイスで受信された入力に対応する通信を受信する。例えば第2デバイスのユーザは、例えば、入力、手振り、選択などを介して第2デバイスと対話してもよく、第2デバイスにおける入力は、その後第1デバイスに伝達されてもよい。
ブロック260において、方法200は、第1デバイスのディスプレイ上のウェブページによって参照される2Dコンテンツに、第2デバイスで受信した入力を適用する。いくつかの実装形態において、第2デバイスから受信された入力に基づいて、3Dコンテンツを、追加として又は代替として、リフレッシュするか、更新するか、選択するか、又は他の方法で修正してもよい。次に、方法はブロック240において、更新された3Dコンテンツを第2デバイスに提供することができる。
図8は、いくつかの実装形態による、第1デバイスから受信した3Dコンテンツを有する第2デバイス上にCGR環境を表示するための方法300を示すフローチャートである。いくつかの実装形態において、方法300は、1つ以上のデバイス(例えば、図1~図4及び図6の第2デバイス15)によって実行される。方法300は、モバイル機器、HMD、デスクトップコンピュータ、ラップトップコンピュータ又はサーバデバイスで実行することができる。方法300は、3D画像を表示するためのスクリーン又は立体画像を閲覧するためのスクリーンを有するHMD上で実行することができる。いくつかの実装形態において、方法300は、ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態において、方法300は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
ブロック310において、方法300は、2Dコンテンツに対応する3Dコンテンツを受信する。3Dコンテンツは、3Dコンテンツを送信するために別のユーザが使用するデバイスからか又はウェブページサーバデバイスからのような別個のデバイスから受信される。いくつかの実装形態において、3Dコンテンツはユーザ入力に基づいて受信される。例えば、第2デバイスは、選択可能なオプションを介して3Dコンテンツが利用可能であるという指示を表示し、そのオプションのユーザ選択を検出してもよい。
ブロック320において、方法300は、3Dコンテンツを閲覧するためのユーザ選択に対応する入力を受信する。いくつかの実装形態において、方法300は、ユーザインタフェース上の3Dコンテンツを表すアイコン、グラフィック又テキストを提示し、アイコン、グラフィック又はテキストのユーザ選択に対応する入力を受信する。いくつかの実装形態において、ユーザインタフェースは、受信した3Dコンテンツを表すアイコン、グラフィック又はテキストを表示し、また、アイコン、グラフィック又はテキストの選択によって、受信した3Dコンテンツを閲覧するためにビューアが起動することを示すインジケータ(テキスト、グラフィックなど)を表示する。
ブロック330及び340は、3Dコンテンツを閲覧するための入力を検出することに応じて実行される。ブロック330において、方法300は、カメラを使用して画像をキャプチャする。カメラによってキャプチャされた画像は、CGR環境に含まれ得るデバイスのシーンにおける現実世界のコンテンツを描写する。
ブロック340において、方法300は、3Dコンテンツ及びキャプチャ画像を使用して、CGR環境を構築する。いくつかの実装形態において、CGR環境の構築は、キャプチャ画像上に3Dコンテンツを重ね合わせることによって実行される。いくつかの実装形態において、CGR環境の構築は、画像内に示された現実世界コンテンツ内の1つ以上の平面を検出し、検出された平面に基づいて、CGR環境内に3Dコンテンツを位置付けることによって実行される。例えば、第1の時点で、受信した3Dコンテンツの画像を、キャプチャ画像の中で最も最近キャプチャされた画像の上に配置することができ、追加のキャプチャ画像をキャプチャした後の第2の時点で、受信した3Dコンテンツの(同じか又は異なる)画像を、新たにキャプチャされた画像などの上に配置することができる。いくつかの実装形態において、CGR環境の構築は、画像に示された現実世界コンテンツの一部又は全てに対応する3Dモデルを構築し、3Dコンテンツをモデルに追加し、次に特定の視点から合成コンテンツの画像を作成することによって実行される。
ユーザはCGR環境と対話し、CGR環境を変化させることができる。一実施例において、ユーザはウェブページの3Dコンテンツの位置又は回転を変更する。例えば、ユーザは、シーン内の別の場所にソファーの描写を移動させることができる。いくつかの実装形態において、変更は視点の変化を伴う。例えばこれは、動きに基づいて、デバイスの動き又は回転を受信すること及びCGR環境の表示を更新することを伴うことがある。ユーザが頭部を動かしたり、部屋を動き回ったり、飛び跳ねたりなどすると、ユーザの視点はCGR環境内で変化する。しかし、CGR環境で示されている現実世界オブジェクトに対する3Dコンテンツの位置及び回転は、一定のままであることが可能で、例えば、ソファーは、シーンに示されている床及び他の現実世界オブジェクトに対して、その位置に留まる。一定の相対的位置を維持するために、平坦な表面又は特徴が画像内で識別され、受信された3Dコンテンツの相対位置を維持するために使用される。
図9は、いくつかの実装形態による、ウェブページによって参照される3Dコンテンツを含む第1デバイスで3D環境のビューを提供するための方法400を示すフローチャートであり、この3Dコンテンツは、ウェブページによって参照される2Dコンテンツを表示する第2デバイスを検出することに基づいて取得される。いくつかの実装形態において、方法400は、1つ以上のデバイス(例えば、図1~図4及び図6の第2デバイス15)によって実行される。方法400は、モバイル機器、HMD、デスクトップコンピュータ、ラップトップコンピュータ又はサーバデバイスで実行することができる。方法400は、3D画像を表示するためのスクリーン又は立体画像を閲覧するためのスクリーンを有するHMD上で実行することができる。いくつかの実装形態において、方法400は、ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態において、方法400は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
ブロック410において、方法400は画像センサを使用して物理的環境を表す画像データを取得する。画像センサによってキャプチャされた画像データは、第2デバイスを含む現実世界コンテンツを含んでもよい。
ブロック420において、方法400は、第2デバイスが画像データ内に描写されていることを検出する。方法400は、ウェブページによって参照される3Dコンテンツのないウェブページによって参照される2Dコンテンツを第2デバイスが表示することを、更に検出することができる。いくつかの実装形態において、方法400は、3Dコンテンツを表すアイコン、グラフィック又はテキストを検出する。他の実装形態において、方法400は、3Dコンテンツに対応するウェブページの定義HTML内又は他のマークアップ言語ファイル内のマークアップステートメントを検出する。
ブロック430において、方法400は、ウェブページによって参照される3Dコンテンツのないウェブページによって参照される2Dコンテンツを第2デバイスのディスプレイが含むことを検出することに基づいて、ウェブページによって参照される3Dコンテンツを取得する。いくつかの実装形態において、3Dコンテンツは、2Dコンテンツを表示する第2デバイスから取得される。いくつかの実装形態において、3Dコンテンツは、第2デバイス上に表示されたウェブページに関連付けられたウェブアドレスから取得される。
方法400のブロック440において、第1デバイスは、ディスプレイ用ウェブページによって参照される3Dコンテンツを含む3D環境のビューを提供する。方法400は、3Dコンテンツ及び画像データを使用して、3D環境のビューを構築してもよい。いくつかの実装形態において、3D環境のビューは、リアルタイムの又は録画済みの画像データを使用して構築される。いくつかの実装形態において、3D環境のビューの構築は、画像データ上に3Dコンテンツを重ね合わせることによって実行される。いくつかの実装形態において、3D環境のビューの構築は、画像データに描写された現実世界コンテンツの一部又は全てに対応する3Dモデルを構築し、3Dコンテンツをモデルに追加し、次に特定の視点から合成コンテンツの画像を作成することによって実行される。
方法400のブロック450において、第1デバイスは、ユーザからの入力(例えば、入力、手振り、選択など)を受信する。方法400のブロック460において、第2デバイスが第2デバイスで表示されたウェブページコンテンツに入力を適用することができるように、第1デバイスは受信した入力を第2デバイスに通信する。いくつかの実装形態において、入力に基づいて3Dコンテンツを、追加として又は代替として、リフレッシュするか、更新するか、選択するか、又は他の方法で修正してもよい。第1デバイスは第2デバイスからの入力に対する応答、例えば、入力が受信したか又は適用されたという通知を受信してもよく、ブロック430におけるように、第1デバイスはウェブページによって参照される3Dコンテンツを第2デバイスから繰り返して取得してもよい。
図10は、3D環境の現状に関連付けられた情報に基づいて、第1デバイスが2Dコンテンツ又は3Dコンテンツを更新できるようになるための方法500を示すフローチャートである。いくつかの実装形態において、方法500は、3つ以上のデバイス、例えば、図1~図5の第1デバイス10及び第2デバイス15、並びに第3デバイスによって実行される。方法500は、モバイル機器、HMD、デスクトップコンピュータ、ラップトップコンピュータ又はサーバデバイスで実行することができる。いくつかの実装形態において、方法500は、ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態において、方法500は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
ブロック510において、方法500はウェブページによって参照される3Dコンテンツを第2デバイス及び第3デバイスに提供する。いくつかの実装形態において、第1デバイスは、第2デバイス又は第3デバイスに通信を送信し、3D閲覧インタフェースを自動的に起動する。いくつかの実装形態において、第3デバイスは、閲覧インタフェース、例えば、ウェブ対応カメラを含まない。
ブロック520において、方法500は、第3デバイスに修正権限を付与する。いくつかの実装形態において、第3デバイスは、読取り専用モードで3D閲覧インタフェースを起動することができ、すなわち、第3デバイスは、テキストメッセージ又は絵文字を使用して、3Dコンテンツ又は3Dコンテンツ上のコメントを閲覧することのみを許可されることがあり、第3デバイスは、3Dコンテンツ又は3D環境の状態の修正を許可されないことがある。第1デバイス又は第2デバイスは次に、それぞれのユーザインタフェースを介して、第3デバイスに修正権限を付与することができる。従って、ブロック520において、方法500は第3デバイスに修正権限を付与する。
ブロック530において、方法500は、第3デバイスから3D環境の現状に関連付けられた情報を取得する。いくつかの実施形態では、3D環境に関連図けられた情報は、第3デバイスのシーンにおける現実世界コンテンツを示す第3デバイスの内蔵カメラによってキャプチャされた画像を含み、この画像は、CGR環境に含まれるか又はCGR環境を作成するために使用され得る。
ブロック540において、方法500は、3D環境の現状、例えば、現実世界環境の画像又はモデルに関連付けられた情報に基づいて、ウェブページによって参照される2Dコンテンツ又は3Dコンテンツを更新する。いくつかの実装形態において、2D又は3Dコンテンツは、第3デバイスから受信された情報に基づいて、リフレッシュするか、更新するか、選択するか又は他の方法で修正される。いくつかの実装形態において、第1デバイスは、3D環境の現状に関連付けられた情報を含むか、組み込むか又は使用するウェブページコンテンツのビューを提供する。一実施例において、第1デバイスは、内蔵カメラなしのラップトップコンピュータであり、接続された第3デバイスは、内蔵カメラ付きの携帯電話である。携帯電話は、3D環境の画像をラップトップコンピュータに提供し、このラップトップコンピュータは、3D環境を組み込んだウェブページコンテンツのビューを提供する。別の実施例において、第1デバイスはデスクトップコンピュータであり、第3デバイスはウェブ対応カメラである。カメラは、3D環境の画像をデスクトップコンピュータに提供する。デスクトップコンピュータは、デスクトップコンピュータが表示しているウェブページによって参照される2Dコンテンツの背景内に、カメラから受信した画像を含む。
ブロック550において、方法500は、ウェブページによって参照される更新コンテンツを、第2デバイス又は第3デバイスと共有する。例えば、第1デバイスで受信された第3デバイスからの3D環境情報を使用して、第2デバイス上で閲覧するために配信されるウェブページコンテンツを更新することができる。一実施例において、第1デバイスはラップトップコンピュータであり、第2デバイスは携帯電話であり、第3デバイスはHMDである。この実施例において、HMDは、HMDの周囲にある3D環境の画像をキャプチャし、第1デバイス、第2デバイス、又はその両方でのウェブページ体験に組み込むために、それらの画像を共有する。
請求項記載対象の完全な理解を提供するために、多数の具体的な詳細が本明細書に記載されている。しかしながら、当業者であれば、請求項記載対象は、これらの具体的な詳細を伴わずに実施され得ることを理解するであろう。他の例において、当業者によって既知である方法、装置又はシステムは、請求項記載対象を不明瞭にしないように、詳細に記載されていない。
特に明記しない限り、本明細書の説明全体を通して、「処理する」、「計算する(computing)」、「計算する(calculating)」、「判定する」、及び「識別する」などの用語を利用することは、コンピューティングデバイスのアクション又はプロセスを指すことが理解される。コンピューティングデバイスとは、メモリ、レジスタ若しくは他の情報記憶デバイス、送信デバイス又はコンピューティングプラットフォームの表示デバイス範囲内にある物理電子量又は磁気量として表されるデータを操作するか又は変換する、1つ以上のコンピュータ又は類似の電子コンピューティングデバイス(単数又は複数)などである。
本明細書で論じられるシステム(単数又は複数)は、いかなる特定のハードウェアアーキテクチャ又は構成にも限定されない。コンピューティングデバイスは、1つ以上の入力が条件づけられた結果を提供する、任意の好適な構成要素の配置を含み得る。好適なコンピューティングデバイスは、汎用計算装置から本対象の1つ以上の実装形態を実装する専用計算装置まで、コンピューティングシステムをプログラミングするか又は構成するよう記憶されたソフトウェアにアクセスする汎用マイクロプロセッサベースのコンピュータシステムを含む。任意の好適なプログラミング、スクリプティング又は他のタイプの言語若しくは言語の組み合わせを使用して、本明細書に含まれる教示をソフトウェア内に実装して、コンピューティングデバイスのプログラミング又は構成に使用してもよい。
本明細書に開示される方法の実装形態は、このようなコンピューティングデバイスの動作において実行されてもよい。上述の例で提示されているブロックの順序は、例えば、ブロックを並べ替えるか、組み合わせるか又はサブブロックに分割することができる。特定のブロック又はプロセスは、並行して実行することができる。
本明細書の「に適合する」又は「に構成される」の使用は、追加のタスク若しくはステップを実行するように適合するか又は構成されるデバイスを排除しない、限定されていない及び包括的な言語を意味する。更に、「に基づく」の使用は、1つ以上の列挙された条件又は値に「基づく」プロセス、ステップ、計算又は他のアクションが、実際には、列挙された条件又は値を超える追加の条件又は値に基づいてもよいという点で、限定されていない及び包括的であることを意味する。本明細書に含まれる見出し、リスト及び番号付けは、説明を容易にするためのものであり、限定することを意図するものではない。
本明細書では、様々な要素を説明するために「第1」、「第2」などの用語が使用される場合があるが、これらの要素は、これらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、「第1ノード」の全ての出現について一貫して名前が変更され、「第2ノード」のすべての出現について一貫して名前が変更される限り、説明の意味を変えることなく、第1ノードは第2ノードと呼ぶことができ、同様に、第2ノードは第1ノードと呼ぶことができる。第1ノード及び第2ノードは両方ともノードであるが、それらは同じノードではない。
本明細書で使用される用語は、特定の実施態様を説明する目的のためであり、特許請求の範囲を限定することを意図するものではない。説明される実装形態の説明及び添付の特許請求の範囲で使用されるように、単数形の「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形も含むことを意図している。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及びすべての考えられる組合せを指し、かつこれを含むことを理解されたい。用語「comprises(含む)」又は「comprising(含む)」が、本明細書で使用される場合、述べられた特徴、整数、ステップ、動作、要素又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素若しくはそれらのグループの存在か又は追加を除外しないことを更に理解されたい。
本明細書で使用される時には、用語「if」は、文脈に応じて、「時」又は「際に」又は、先に述べた条件が正しいとの「判定に応じて」又は「判定に従って」、「検出に応じて」を意味するものと解釈できる。同様に、「[先に述べた条件が正しい]と判定される場合」又は「[先に述べた条件が正しい]場合」、又は「[先に述べた条件が正しい]時」というフレーズは、先に述べた条件が正しいとの「判定に際して」又は「判定に応じて」又は「判定に従って」又は「検出した際に」又は「検出に応じて」ということを意味するものと解釈できる。
本発明の前述の説明及び要約は、全ての点で実例及び例示的であるが、限定的ではないとして理解されるべきであり、本明細書に開示される本発明の範囲は、例示的な実装形態の詳細な説明のみからではなく、特許法によって許可される全広に従って判定されるべきであることを理解されたい。本明細書に示され、説明される実装形態は、本発明の原理を単に例示するものにすぎず、本発明の範囲及び趣旨から逸脱することなく、当業者によって様々な修正が実施され得ることを理解されたい。

Claims (19)

  1. 動作を実行するためにコンピュータ実行可能であるプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、
    前記動作が、
    第1デバイスのディスプレイ上にアプリケーションを介して表示するためのコンテンツ項目によって参照される2次元(2D)コンテンツを取得することと、
    前記コンテンツ項目が前記2Dコンテンツに関連付けられた3次元(3D)コンテンツを参照することを検出することと、
    第2デバイスが前記第1デバイスと通信していること、及び前記コンテンツ項目によって参照される前記3Dコンテンツを表示することが可能であることを検出することであって、前記第2デバイスが前記3Dコンテンツを表示することが可能であることを検出することは、前記第2デバイスのタイプを検出すること、又は前記3Dコンテンツを表示することが可能な前記第2デバイス上のアプリケーションを検出することに基づく、検出することと、
    前記第2デバイスへ、前記コンテンツ項目によって参照される前記3Dコンテンツを提供することと、
    を含む、非一時的コンピュータ可読記憶媒体。
  2. 前記コンテンツ項目がウェブページであり、前記ウェブページが前記3Dコンテンツを参照することを検出することは、前記3Dコンテンツに対応する前記ウェブページ内のマークアップ言語ステートメントを識別することを含む、請求項1に記載の非一時的コンピュータ可読記憶媒体。
  3. 前記3Dコンテンツが立体表示情報を有する仮想オブジェクトである、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  4. 前記動作は、
    前記第2デバイスが前記第1デバイスと通信していることを検出することに応じて、前記3Dコンテンツの可用性を示すインジケータを表示することを更に含む、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  5. 前記第2デバイスが前記第1デバイスと通信していることを検出することは、
    前記第1デバイス及び前記第2デバイスが両方とも同じアカウントに関連付けられていることを検出することと、
    前記第2デバイスが前記第1デバイスの閾値近接度内にあることを検出すること、又は
    前記第1デバイスが前記第2デバイスのカメラ視野内にあることを検出すること、
    を含む、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  6. 前記動作は、
    前記第1デバイスと前記第2デバイスとの間の第1空間的関係を判定することと、
    前記第1空間的関係に基づいて、検出された前記第2デバイスの前記ディスプレイ上に前記3Dコンテンツを表示することと、
    を更に含む、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  7. 前記動作は、
    前記第2デバイスに対する前記第1デバイスの位置の変化を識別することと、
    前記第1デバイスと前記第2デバイスとの間の第2空間的関係を判定することと、
    前記第2空間的関係に基づいて、検出された前記第2デバイスの前記ディスプレイ上の前記3Dコンテンツを更新することと、
    を更に含む、請求項6に記載の非一時的なコンピュータ可読記憶媒体。
  8. 前記動作は、
    前記第1デバイスの前記ディスプレイ上にある前記2Dコンテンツへの変化に関連付けられたデータを共有することと、
    前記2Dコンテンツへの前記変化に基づいて、検出された前記第2デバイスの前記コンテンツ項目によって参照される前記3Dコンテンツを識別することと、
    を更に含む、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  9. プロセッサ、コンピュータ可読記憶媒体、画像センサ及びディスプレイを備える第1デバイスにおいて、
    前記画像センサを使用して、物理的環境を表す画像データを取得することと、
    第2デバイスが前記画像データ内に描写されていることを検出することであって、前記第2デバイスが、コンテンツ項目によって参照されるオブジェクトを描写する3次元(3D)コンテンツなしで、前記コンテンツ項目によって参照される前記オブジェクトの2次元(2D)画像を表示する、ことと、
    前記検出に基づいて、前記コンテンツ項目によって参照される前記オブジェクトを描写する前記3Dコンテンツを取得することと、
    前記ディスプレイ上に表示するための前記コンテンツ項目によって参照される前記オブジェクトに対応する前記3Dコンテンツを含む3D環境のビューを提供することと、
    を含む、方法。
  10. 前記コンテンツ項目はウェブページである、請求項9に記載の方法。
  11. 前記画像データにおいて、前記第1デバイス上のアプリケーションによって表示された前記コンテンツ項目の一部として表示された3Dコンテンツインジケータを検出することを更に含む、請求項9に記載の方法。
  12. 前記3Dコンテンツインジケータを検出することに基づいて、
    前記第2デバイスから前記3Dコンテンツを取得することを判定すること、又は
    前記第2デバイスを介して前記3Dコンテンツを表示するためのユーザインタフェースオプションを提供すること、
    を更に含む、請求項11に記載の方法。
  13. 前記第2デバイスが前記第1デバイスと通信していることを検出することを更に含む、請求項9に記載の方法。
  14. 前記3Dコンテンツが前記第2デバイスから取得される、請求項9に記載の方法。
  15. 前記3D環境の前記ビューは、
    前記コンテンツ項目によって参照される前記2Dコンテンツを表示する前記第2デバイスの描写と、
    前記第2デバイスの前記描写に隣接した前記コンテンツ項目によって参照される前記3Dコンテンツと、
    を含む、請求項9に記載の方法。
  16. 前記3D環境の前記ビュー内の関連付けインジケータが、前記コンテンツ項目によって参照される前記3Dコンテンツと、前記コンテンツ項目によって参照される前記2Dコンテンツを表示する前記第2デバイスの前記描写との間の関連付けを示す、請求項15に記載の方法。
  17. ディスプレイ及び画像センサを持つ電子デバイスと、
    プロセッサと、
    コンピュータ可読記憶媒体と、を備えるシステムであって、
    前記コンピュータ可読記憶媒体は、前記プロセッサによって実行されると前記システムに動作を実行させる命令を含み、
    前記動作が、
    第1デバイスのディスプレイ上に表示するためのウェブページによって参照される2次元(2D)コンテンツを取得することと、
    前記ウェブページが、前記2Dコンテンツに関連付けられた3次元(3D)コンテンツを参照することを検出することと、
    第2デバイスが前記第1デバイスと通信していることを検出することであって、前記第2デバイスが、前記ウェブページによって参照される前記3Dコンテンツを表示することが可能である、ことと、
    前記第2デバイスへ、前記ウェブページによって参照される前記3Dコンテンツを提供することと、
    を含む、システム。
  18. 前記3Dコンテンツが、立体表示情報を有する仮想オブジェクトである、請求項17に記載のシステム。
  19. 前記動作が、
    前記第2デバイスが前記第1デバイスと通信していることを検出することと、
    前記第2デバイスが前記第1デバイスと通信していることを検出することに応じて、前記3Dコンテンツの可用性を示すインジケータを表示することと、
    を更に含む、請求項17に記載のシステム。
JP2019144452A 2018-08-07 2019-08-06 2d/3d混在コンテンツの検出及び表示 Active JP7200063B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022157896A JP2023001115A (ja) 2018-08-07 2022-09-30 2d/3d混在コンテンツの検出及び表示

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862715331P 2018-08-07 2018-08-07
US62/715,331 2018-08-07
US16/510,278 US10916220B2 (en) 2018-08-07 2019-07-12 Detection and display of mixed 2D/3D content
US16/510,278 2019-07-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022157896A Division JP2023001115A (ja) 2018-08-07 2022-09-30 2d/3d混在コンテンツの検出及び表示

Publications (2)

Publication Number Publication Date
JP2020074058A JP2020074058A (ja) 2020-05-14
JP7200063B2 true JP7200063B2 (ja) 2023-01-06

Family

ID=67437796

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019144452A Active JP7200063B2 (ja) 2018-08-07 2019-08-06 2d/3d混在コンテンツの検出及び表示
JP2022157896A Pending JP2023001115A (ja) 2018-08-07 2022-09-30 2d/3d混在コンテンツの検出及び表示

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022157896A Pending JP2023001115A (ja) 2018-08-07 2022-09-30 2d/3d混在コンテンツの検出及び表示

Country Status (5)

Country Link
US (3) US10916220B2 (ja)
EP (1) EP3608756A1 (ja)
JP (2) JP7200063B2 (ja)
KR (4) KR102218516B1 (ja)
CN (2) CN115412720A (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990674B1 (en) 2007-12-14 2018-06-05 Consumerinfo.Com, Inc. Card registry systems and methods
US8312033B1 (en) 2008-06-26 2012-11-13 Experian Marketing Solutions, Inc. Systems and methods for providing an integrated identifier
US9106691B1 (en) 2011-09-16 2015-08-11 Consumerinfo.Com, Inc. Systems and methods of identity protection and management
US8738516B1 (en) 2011-10-13 2014-05-27 Consumerinfo.Com, Inc. Debt services candidate locator
US9853959B1 (en) 2012-05-07 2017-12-26 Consumerinfo.Com, Inc. Storage and maintenance of personal data
US9654541B1 (en) 2012-11-12 2017-05-16 Consumerinfo.Com, Inc. Aggregating user web browsing data
US9916621B1 (en) 2012-11-30 2018-03-13 Consumerinfo.Com, Inc. Presentation of credit score factors
US10102570B1 (en) 2013-03-14 2018-10-16 Consumerinfo.Com, Inc. Account vulnerability alerts
US9406085B1 (en) 2013-03-14 2016-08-02 Consumerinfo.Com, Inc. System and methods for credit dispute processing, resolution, and reporting
US9477737B1 (en) 2013-11-20 2016-10-25 Consumerinfo.Com, Inc. Systems and user interfaces for dynamic access of multiple remote databases and synchronization of data based on user rules
AU2017438989B2 (en) * 2017-11-10 2023-11-02 Ses-Imagotag Gmbh System for synchronized video playback on a number of playback devices
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
US11087538B2 (en) * 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US20200074100A1 (en) 2018-09-05 2020-03-05 Consumerinfo.Com, Inc. Estimating changes to user risk indicators based on modeling of similarly categorized users
US11315179B1 (en) 2018-11-16 2022-04-26 Consumerinfo.Com, Inc. Methods and apparatuses for customized card recommendations
US11238656B1 (en) * 2019-02-22 2022-02-01 Consumerinfo.Com, Inc. System and method for an augmented reality experience via an artificial intelligence bot
US11941065B1 (en) 2019-09-13 2024-03-26 Experian Information Solutions, Inc. Single identifier platform for storing entity data
US11093123B1 (en) * 2019-10-09 2021-08-17 Facebook Technologies, Llc Saving content for viewing on a virtual reality rendering device
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
WO2022170223A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd User interactions in extended reality
US11250642B1 (en) 2020-04-14 2022-02-15 Worldpay Limited Methods and systems for displaying virtual objects from an augmented reality environment on a multimedia device
CN111629151B (zh) * 2020-06-12 2023-01-24 北京字节跳动网络技术有限公司 视频合拍方法、装置、电子设备及计算机可读介质
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
CN117043709A (zh) * 2021-02-08 2023-11-10 视域电脑有限公司 用于生产力的扩展现实
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
CN115379105B (zh) * 2021-05-20 2024-02-27 北京字跳网络技术有限公司 视频拍摄方法、装置、电子设备和存储介质
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11789526B2 (en) * 2021-08-10 2023-10-17 Samsung Electronics Co., Ltd. Method and electronic system for outputting video data and audio data
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258120A (ja) 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP2013520743A (ja) 2010-04-16 2013-06-06 ビズモードライン カンパニー リミテッド 拡張現実サービスのためのマーカ検索システム
JP2014127148A (ja) 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2015165379A (ja) 2014-02-05 2015-09-17 富士フイルム株式会社 コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
JP2017187667A (ja) 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE428154T1 (de) 2005-05-03 2009-04-15 Seac02 S R L Augmented-reality-system mit identifizierung der realen markierung des objekts
US8789131B2 (en) * 2010-05-14 2014-07-22 Lg Electronics Inc. Electronic device and method of sharing contents thereof with other devices
KR101763887B1 (ko) 2011-01-07 2017-08-02 삼성전자주식회사 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
KR101873747B1 (ko) * 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2013104820A1 (en) 2012-01-09 2013-07-18 Nokia Corporation Method and apparatus for providing an architecture for delivering mixed reality content
JP5563625B2 (ja) 2012-06-29 2014-07-30 株式会社ソニー・コンピュータエンタテインメント 画像解析装置、画像解析方法、および画像解析システム
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
US8976965B2 (en) 2013-07-30 2015-03-10 Google Inc. Mobile computing device and wearable computing device having automatic access mode control
US9734634B1 (en) * 2014-09-26 2017-08-15 A9.Com, Inc. Augmented reality product preview
US9754416B2 (en) * 2014-12-23 2017-09-05 Intel Corporation Systems and methods for contextually augmented video creation and sharing
CN104731541B (zh) * 2015-03-17 2019-01-15 联想(北京)有限公司 一种控制方法、电子设备及系统
US10825081B2 (en) * 2015-05-14 2020-11-03 Ebay Inc. Displaying a virtual environment of a session
US10909761B1 (en) * 2016-07-07 2021-02-02 Google Llc 2D video with option for projected viewing in modeled 3D space
US10332317B2 (en) 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
US10271043B2 (en) 2016-11-18 2019-04-23 Zspace, Inc. 3D user interface—360-degree visualization of 2D webpage content
CN107341979A (zh) * 2017-05-11 2017-11-10 芜湖威灵数码科技有限公司 一种微型vr教育计算机系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520743A (ja) 2010-04-16 2013-06-06 ビズモードライン カンパニー リミテッド 拡張現実サービスのためのマーカ検索システム
JP2011258120A (ja) 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP2014127148A (ja) 2012-12-27 2014-07-07 Sony Corp 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
JP2015165379A (ja) 2014-02-05 2015-09-17 富士フイルム株式会社 コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
JP2017187667A (ja) 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム

Also Published As

Publication number Publication date
CN110830786A (zh) 2020-02-21
US20220375431A1 (en) 2022-11-24
KR20200016798A (ko) 2020-02-17
US11355086B2 (en) 2022-06-07
KR102582375B1 (ko) 2023-09-25
EP3608756A1 (en) 2020-02-12
US10916220B2 (en) 2021-02-09
CN115412720A (zh) 2022-11-29
KR20230042253A (ko) 2023-03-28
US20210168324A1 (en) 2021-06-03
US20200051527A1 (en) 2020-02-13
KR20210020967A (ko) 2021-02-24
KR20220029638A (ko) 2022-03-08
JP2023001115A (ja) 2023-01-04
KR102370257B1 (ko) 2022-03-04
US11790871B2 (en) 2023-10-17
CN110830786B (zh) 2022-09-16
KR102218516B1 (ko) 2021-02-22
JP2020074058A (ja) 2020-05-14

Similar Documents

Publication Publication Date Title
JP7200063B2 (ja) 2d/3d混在コンテンツの検出及び表示
JP6967043B2 (ja) 3次元コンテンツ内の場所に基づく仮想要素モダリティ
JP7081052B2 (ja) 模擬現実(sr)におけるデバイス共有及び対話性の表示
US10984607B1 (en) Displaying 3D content shared from other devices
US20210034319A1 (en) Multi-device editing of 3d models
CN112116716A (zh) 基于检测到的对象来定位的虚拟内容
CN114514493A (zh) 增强设备
US20220350401A1 (en) Method and Device for debugging program execution and content playback
US11321926B2 (en) Method and device for content placement
JP2024512040A (ja) マップのためのデバイス、方法、及びグラフィカルユーザインタフェース
US11468611B1 (en) Method and device for supplementing a virtual environment
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
US11886625B1 (en) Method and device for spatially designating private content
US11308716B1 (en) Tailoring a computer-generated reality experience based on a recognized object
US10964056B1 (en) Dense-based object tracking using multiple reference images
US20230368475A1 (en) Multi-Device Content Handoff Based on Source Device Position
CN117041517A (zh) 基于源设备位置的多设备内容接力

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200903

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211105

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20211122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211208

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211213

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220204

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220209

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220221

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220411

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220601

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220831

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221102

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221116

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221212

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221221

R150 Certificate of patent or registration of utility model

Ref document number: 7200063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150