JP6813501B2 - 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ - Google Patents

拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ Download PDF

Info

Publication number
JP6813501B2
JP6813501B2 JP2017558982A JP2017558982A JP6813501B2 JP 6813501 B2 JP6813501 B2 JP 6813501B2 JP 2017558982 A JP2017558982 A JP 2017558982A JP 2017558982 A JP2017558982 A JP 2017558982A JP 6813501 B2 JP6813501 B2 JP 6813501B2
Authority
JP
Japan
Prior art keywords
camera
augmented reality
removable camera
display system
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017558982A
Other languages
English (en)
Other versions
JP2018522324A (ja
Inventor
ゲイリー アール. ブラドスキー,
ゲイリー アール. ブラドスキー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2018522324A publication Critical patent/JP2018522324A/ja
Application granted granted Critical
Publication of JP6813501B2 publication Critical patent/JP6813501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Remote Sensing (AREA)

Description

本開示は、1つ以上の消費者カメラを拡張現実システムに結合するためのシステムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、現実であるように見える、もしくはそのように知覚され得る様式においてユーザに提示される、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進している。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の視覚化の拡張として、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面が、描写されており、AR技術のユーザは、人々、木々、建物を背景として、コンクリートのプラットフォーム1120を特徴とする実世界の公園のような設定を見る。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム1120上に立っているロボット像1110と、飛んでいる漫画のようなアバタキャラクタ2とも知覚するが、これらの要素(2、1110)は、実世界には存在しない。ヒトの視知覚系は、非常に複雑であり、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、そのような拡張現実場面を生成することは、困難である。
図1に示されるものに類似する場面は、拡張現実(「AR」)システムが、仮想コンテンツを物理的世界の1つ以上の実オブジェクトと関連して表示することを要求する。例として、頭部装着型ディスプレイを装着しているユーザが、ディスプレイ上の3次元(3D)オブジェクトの仮想表現を視認し、3Dオブジェクトが現れるエリアの周囲を歩き回る場合、その3Dオブジェクトは、各視点に対して再レンダリングされ、ユーザに、ユーザが実空間を占有するオブジェクトの周囲を歩き回っていることの知覚を与えることができる。言い換えると、ARシステムは、実世界の座標を把握し、仮想コンテンツを実世界と関連して表示し、満足のゆく拡張現実または仮想現実体験を提供しなければならない。
この目的を達成するために、頭部装着型ARディスプレイシステム(またはヘルメット搭載型ディスプレイ、もしくはスマートグラス等)は、ユーザの周囲に関するデータの組を捕捉するように構成される。例えば、ARシステムは、ユーザの視野を捕捉する画像の組を捕捉し得る。ARシステムは、姿勢(例えば、空間内のユーザの位置および向き)を捕捉する1つ以上のセンサと、ユーザの眼の両眼離反運動を追跡するための眼追跡カメラと、慣性測定ユニットIMUと、他のそのようなデータ捕捉デバイスとも備え得る。これらのカメラおよびセンサは、一緒に、種々の形態の入力をARディスプレイシステムに提供し、そして、入力は、ARシステムが正確かつタイムリーに、実世界の1つ以上のオブジェクトに対して仮想コンテンツをユーザに提示することを可能にする。
これらのカメラおよびセンサ(ならびに入力をARディスプレイシステムに提供する他のデバイス)は、ユーザに現実的拡張現実体験を提供することにおいて重要であるが、プライバシーおよびセキュリティに関連する種々の懸念が、これらのタイプのデータを収集することの結果として引き起こされ得る。ARディスプレイシステムのユーザは、ユーザの同意なくARデバイスによって捕捉される画像のタイプ(例えば、プライベートの瞬間の写真、子供の写真、裸の写真、機密事項、秘密の写真等)に対して警戒し得る。例えば、ARディスプレイシステムのユーザは、小さい子供といる場合があるが、小さい子供の画像が知らないうちに捕捉され、AR技術の他のユーザおよび/またはプロバイダに伝送されることに対してプライバシー懸念を有し得る。これらのプライバシー侵害は、現実に起こっており、多くの人々にとってセンシティブな問題であり、適切に解決されない場合、ユーザがARディスプレイデバイスを安全に使用することを妨げる影響を及ぼし得る。
したがって、ARまたはVRデバイスを使用する間、ARユーザのプライバシーを確実にするためのより優れたソリューションの必要性がある。
本発明の実施形態は、1人以上のユーザのための仮想現実および/もしくは拡張現実相互作用を促進するためのデバイス、システム、ならびに方法を対象とする。
一側面では、拡張現実ディスプレイシステムは、拡張現実ディスプレイシステムのための1つ以上のコンポーネントのための筐体を備え、1つ以上のコンポーネントは、1つ以上の仮想画像に関連付けられた光をユーザに投影するための少なくとも空間光変調器と、ユーザの周囲に関する情報を捕捉するための複数のセンサであって、そのうちの少なくとも1つのセンサは、画像ベースのセンサである、複数のセンサと、筐体に通信可能に結合され、複数のセンサから読み出されるデータの組を処理する、処理モジュールであって、複数のセンサから読み出されるデータの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、処理モジュールと、拡張現実ディスプレイシステムの筐体に除去可能に取り付けられている取り外し可能カメラであって、ゲート機構は、少なくとも部分的に、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されるかどうかに基づいて、複数のセンサから読み出されるデータの組がモバイルプラットフォームまで通ることを選択的に可能にする、取り外し可能カメラとを備えている。
1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、ゲート機構は、データの組がモバイルプラットフォームまで通ることを可能にする。1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、ゲート機構は、データの組の一部のみがモバイルプラットフォームまで通ることを可能にする。1つ以上の実施形態では、複数のセンサから読み出されるデータの組の少なくとも一部は、画像またはビデオデータに対応する。
1つ以上の実施形態では、拡張現実ディスプレイシステムはさらに、複数のセンサから読み出されるデータの組に対応する画像の組から幾何学情報を抽出するVPUを備えている。1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、ゲート機構は、幾何学情報がモバイルプラットフォームまで通ることを可能にするが、画像の組がモバイルプラットフォームまで通ることを防止する。
1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、ゲート機構は、幾何学情報および取り外し可能カメラが拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された画像の組がモバイルプラットフォームまで通ることを可能にする。1つ以上の実施形態では、幾何学情報は、画像の組に関する姿勢情報に対応する。1つ以上の実施形態では、幾何学情報は、画像の組に関する2Dもしくは3Dポイントに対応する。
1つ以上の実施形態では、幾何学情報は、画像の組に関する深度情報に対応する。1つ以上の実施形態では、幾何学情報は、マップデータベースに伝送され、マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連してユーザ表示されるように、世界の実オブジェクトの座標情報を備えている。1つ以上の実施形態では、VPUは、複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている。
1つ以上の実施形態では、VPUは、複数のセンサを通して捕捉された画像に関する幾何学情報を記憶するための幾何学形状記憶モジュールを備えている。1つ以上の実施形態では、ゲート機構は、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合でも、幾何学情報がモバイルプラットフォームまで通されることを可能にする。
1つ以上の実施形態では、拡張現実ディスプレイシステムは、取り外し可能カメラを通して捕捉された画像を記憶するためのカメラ記憶モジュールをさらに備えている。1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、カメラ記憶モジュールは、画像をモバイルプラットフォームに伝送しない。1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、カメラ記憶モジュールは、取り外し可能カメラがモバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送する。
1つ以上の実施形態では、取り外し可能カメラは、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることを信号伝達するインジケータを備えている。1つ以上の実施形態では、インジケータは、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられている場合にオンにされるライトを備えている。1つ以上の実施形態では、インジケータは、取り外し可能カメラのレンズを物理的に開放または遮断するシャッタである。
1つ以上の実施形態では、取り外し可能カメラは、第三者カメラである。1つ以上の実施形態では、取り外し可能カメラは、電気手段を用いて、拡張現実デバイスの筐体に電気的に取り付けられる。1つ以上の実施形態では、取り外し可能カメラは、機械的手段を用いて、拡張現実デバイスの筐体に機械的に取り付けられる。1つ以上の実施形態では、拡張現実ディスプレイシステムは、電気接点をさらに備え、電気接点は、取り外し可能カメラが取り外し可能カメラに取り付けられると回路を完成し、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることを検出する。
1つ以上の実施形態では、複数のセンサは、IMUデバイスを備えている。1つ以上の実施形態では、複数のセンサは、眼追跡デバイスを備えている。1つ以上の実施形態では、複数のセンサは、深度カメラを備えている。1つ以上の実施形態では、複数のセンサは、視野カメラを備えている。1つ以上の実施形態では、複数のセンサは、赤外線カメラを備えている。
別の側面では、拡張現実を表示するための方法は、空間光変調器を通して、1つ以上の仮想画像をユーザに投影することと、複数のセンサを通して、ユーザの周囲に関するデータの組を捕捉することであって、データの組は、画像を含む、ことと、処理モジュールを通して、複数のセンサから読み出されるデータの組を処理することであって、処理モジュールは、複数のセンサから読み出されるデータの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、ことと、取り外し可能カメラが拡張現実デバイスの筐体に取り付けられているかどうかを検出することであって、ゲート機構は、少なくとも部分的に、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されるかどうかに基づいて、複数のセンサから読み出されるデータの組がモバイルプラットフォームに伝送されることを選択的に可能にする、こととを含む。
1つ以上の実施形態では、方法はさらに、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、ゲート機構が、データの組がモバイルプラットフォームまで通ることを可能にすることを含む。1つ以上の実施形態では、方法はさらに、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、ゲート機構が、データの組の一部のみがモバイルプラットフォームまで通ることを可能にすることを含む。
1つ以上の実施形態では、複数のセンサから読み出されるデータの組の少なくとも一部は、画像またはビデオデータに対応する。1つ以上の実施形態では、方法はさらに、VPUを通して、複数のセンサから読み出されるデータの組に対応する画像の組から幾何学情報を抽出することを含む。1つ以上の実施形態では、方法はさらに、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、ゲート機構が、幾何学情報がモバイルプラットフォームまで通ることを可能にすることを含む。
1つ以上の実施形態では、方法はさらに、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、ゲート機構が、幾何学情報および取り外し可能カメラが拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された画像の組がモバイルプラットフォームまで通ることを可能にすることを含む。1つ以上の実施形態では、幾何学情報は、画像の組に関する姿勢情報に対応する。
1つ以上の実施形態では、幾何学情報は、画像の組に関する2Dまたは3Dポイントに対応する。1つ以上の実施形態では、幾何学情報は、画像の組に関する深度情報に対応する。1つ以上の実施形態では、方法はさらに、幾何学情報をマップデータベースに伝送することを含み、マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連してユーザに表示されるように、世界の実オブジェクトの座標情報を備えている。
1つ以上の実施形態では、VPUは、複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている。1つ以上の実施形態では、VPUは、複数のセンサを通して捕捉された画像に関する幾何学情報を記憶するための幾何学形状記憶モジュールを備えている。1つ以上の実施形態では、方法はさらに、ゲート機構が、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合でも、幾何学情報がモバイルプラットフォームまで通されることを可能にすることを含む。
1つ以上の実施形態では、方法はさらに、取り外し可能カメラを通して捕捉された画像をカメラ記憶モジュール内に記憶することを含む。1つ以上の実施形態では、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されていない場合、カメラ記憶モジュールは、画像をモバイルプラットフォームに伝送しない。1つ以上の実施形態では、方法はさらに、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることが検出されている場合、カメラ記憶モジュールが、取り外し可能カメラがモバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送することを含む。
1つ以上の実施形態では、取り外し可能カメラは、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられていることを信号伝達するインジケータを備えている。1つ以上の実施形態では、インジケータは、取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられている場合にオンにされるライトを備えている。1つ以上の実施形態では、インジケータは、取り外し可能カメラのレンズを物理的に開放または遮断するシャッタを備えている。
1つ以上の実施形態では、方法はさらに、取り外し可能カメラを拡張現実デバイスの筐体に電気的に取り付けることを含む。1つ以上の実施形態では、方法はさらに、取り外し可能カメラを拡張現実デバイスの筐体に機械的に取り付けることを含む。1つ以上の実施形態では、方法はさらに、少なくとも部分的に、取り外し可能カメラが取り外し可能カメラに取り付けられているときに回路を完成する電気接点に基づいて、取り外し可能カメラを検出することを含む。
本発明の追加のならびに他の目的、特徴、および利点は、発明を実施するための形態、図面、および請求項に説明される。
例えば、本願は以下の項目を提供する。
(項目1)
拡張現実を表示するための方法であって、前記方法は、
空間光変調器を通して、1つ以上の仮想画像をユーザに投影することと、
複数のセンサを通して、前記ユーザの周囲に関するデータの組を捕捉することであって、前記データの組は、画像を含む、ことと、
処理モジュールを通して、前記複数のセンサから読み出される前記データの組を処理することであって、前記処理モジュールは、前記複数のセンサから読み出される前記データの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、ことと、
取り外し可能カメラが前記拡張現実デバイスの筐体に取り付けられているかどうかを検出することと
を含み、
前記ゲート機構は、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されるかどうかに少なくとも部分的に基づいて、前記複数のセンサから読み出される前記データの組が前記モバイルプラットフォームに伝送されることを選択的に可能にする、方法。
(項目2)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記データの組が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目1に記載の方法。
(項目3)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記データの組の一部のみが前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目1に記載の方法。
(項目4)
前記複数のセンサから読み出される前記データの組の少なくとも一部は、画像またはビデオデータに対応している、項目1に記載の方法。
(項目5)
VPUを通して、前記複数のセンサから読み出される前記データの組に対応する画像の組から幾何学情報を抽出することをさらに含む、項目1に記載の方法。
(項目6)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記幾何学情報が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目5に記載の方法。
(項目7)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記幾何学情報と前記取り外し可能カメラが前記拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された前記画像の組とが、前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目5に記載の方法。
(項目8)
前記幾何学情報は、前記画像の組に関する姿勢情報に対応している、項目5に記載の方法。
(項目9)
前記幾何学情報は、前記画像の組に関する2Dまたは3Dポイントに対応している、項目5に記載の方法。
(項目10)
前記幾何学情報は、前記画像の組に関する深度情報に対応している、項目5に記載の方法。
(項目11)
前記幾何学情報をマップデータベースに伝送することをさらに含み、前記マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連して前記ユーザに表示されるように、前記世界の前記実オブジェクトの座標情報を備えている、項目5に記載の方法。
(項目12)
前記VPUは、前記複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている、項目5に記載の方法。
(項目13)
前記VPUは、前記複数のセンサを通して捕捉された画像に関する前記幾何学情報を記憶するための幾何学形状記憶モジュールを備えている、項目5に記載の方法。
(項目14)
前記ゲート機構が、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合でも、幾何学情報が前記モバイルプラットフォームまで通されることを可能にすることをさらに含む、項目5に記載の方法。
(項目15)
前記取り外し可能カメラを通して捕捉された画像をカメラ記憶モジュール内に記憶することをさらに含む、項目1に記載の方法。
(項目16)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記カメラ記憶モジュールは、前記画像をモバイルプラットフォームに伝送しない、項目15に記載の方法。
(項目17)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記カメラ記憶モジュールが、前記取り外し可能カメラが前記モバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送することをさらに含む、項目15に記載の方法。
(項目18)
前記取り外し可能カメラは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることを信号伝達するインジケータを備えている、項目1に記載の方法。
(項目19)
前記インジケータは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられている場合にオンにされるライトを備えている、項目18に記載の方法。
(項目20)
前記インジケータは、前記取り外し可能カメラのレンズを物理的に開放または遮断するシャッタを備えている、項目18に記載の方法。
(項目21)
前記取り外し可能カメラを前記拡張現実デバイスの前記筐体に電気的に取り付けることをさらに含む、項目1に記載の方法。
(項目22)
前記取り外し可能カメラを前記拡張現実デバイスの前記筐体に機械的に取り付けることをさらに含む、項目1に記載の方法。
(項目23)
前記取り外し可能カメラが前記取り外し可能カメラに取り付けられているときに回路を完成する電気接点に少なくとも部分的に基づいて、前記取り外し可能カメラを検出することをさらに含む、項目1に記載の方法。
(項目24)
前記方法ステップを実装する手段を有するシステムとして実装される項目1−23に記載の方法。
(項目25)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される項目1−23に記載の方法。
図面は、本発明の種々の実施形態の設計および可用性を図示する。図は、必ずしも正確な縮尺で描かれておらず、同様の構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点ならびに目的を得る方法をより深く理解するために、簡単に前述された発明を実施するための形態が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、その範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通して追加の具体性および詳細とともに記載ならびに説明されるであろう。
図1は、ユーザに表示されている例示的拡張現実場面を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図3は、一実施形態による、クラウド内の1つ以上のサーバと通信する拡張現実デバイスを図示する。 図4は、一実施形態による、拡張現実デバイスの種々のコンポーネントの平面図を示す。 図5は、一実施形態による、頭部搭載型拡張現実デバイにス付けられる取り外し可能カメラの平面図を示す。 図6は、一実施形態による、ベルトパックの処理モジュールと通信する頭部搭載型拡張現実デバイスの取り外し可能カメラおよび他のコンポーネントのシステム図である。 図7は、一実施形態による、データがモバイルプラットフォームに伝送されることを選択的に可能にする例示的方法である。 図8A−8Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する例示的技法を描写する一連のプロセスフロー図を図示する。 図8A−8Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する例示的技法を描写する一連のプロセスフロー図を図示する。 図9A−9Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する別の例示的技法を描写する別の一連のプロセスフロー図を図示する。 図9A−9Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する別の例示的技法を描写する別の一連のプロセスフロー図を図示する。 図10A−10Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する別の例示的技法を描写する別の一連のプロセスフロー図を図示する。 図10A−10Bは、一実施形態による、情報をモバイルプラットフォームに選択的に伝送する別の例示的技法を描写する別の一連のプロセスフロー図を図示する。
図2A−2Dを参照すると、いくつかの一般的コンポーネントオプションが、図示される。図2A−2Dの議論が続く発明を実施するための形態の一部では、種々のシステム、サブシステム、およびコンポーネントが、ヒトVRならびに/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される。
図2Aに示されるように、ARシステムユーザ60は、ユーザの眼の正面に位置付けられるARディスプレイシステム62に結合されるフレーム64構造を装着して描写される。スピーカ66が、描写される構成においてフレーム64に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、別のスピーカ(図示せず)が、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ62は、有線導線または無線接続性等によって、ローカル処理およびデータモジュール70に動作可能に結合され68、ローカル処理およびデータモジュール70は、フレーム64に固定して取り付けられるか、図2Bの実施形態に示されるようにヘルメットまたは帽子80に固定して取り付けられるか、ヘッドホン内に埋設されるか、図2Cの実施形態に示されるようにリュック式構成においてユーザ60の胴体82に除去可能に取り付けられるか、または図2Dの実施形態に示されるようにベルト結合式構成においてユーザ60の腰84に除去可能に取り付けられる等、種々の構成において搭載され得る。
ローカル処理およびデータモジュール70は、電力効率的プロセッサまたはコントローラと、フラッシュメモリ等のデジタルメモリとを備え得、両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得、データは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ等のフレーム64に動作可能に結合され得る、センサから捕捉され、および/または、b)おそらく、そのような処理もしくは読み出し後、ディスプレイ62への通過のために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して、取得ならびに/もしくは処理される。ローカル処理およびデータモジュール70は、有線または無線通信リンク等を介して、遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合(76、78)され得、これらの遠隔モジュール(72、74)は、互いに動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能である。
一実施形態では、遠隔処理モジュール72は、データおよび/または画像情報を分析ならびに処理するように構成される1つ以上の比較的に高度なプロセッサまたはコントローラを備え得る。一実施形態では、遠隔データリポジトリ74は、インターネットまたは「クラウド」リソース構成内の他のネットワーキング構成を通して利用可能であり得る、比較的に大規模なデジタルデータ記憶設備を備え得る。一実施形態では、全てのデータが、ローカル処理およびデータモジュール内に記憶され、全ての計算が、そこで行われ、任意の遠隔モジュールを伴わずに完全に自律的使用を可能にする。
図2A−2Dを参照して説明されるように、ARシステムは、ARユーザおよび周囲環境についてのデータを収集する種々のデバイスから入力を継続的に受信する。ここで図3を参照すると、例示的拡張現実ディスプレイデバイスの種々のコンポーネントが、説明されるであろう。他の実施形態が、追加のコンポーネントを有し得ることを理解されたい。それにもかかわらず、図3は、種々のコンポーネントおよびARデバイスによって収集され得るデータのタイプの基本概念を提供する。
ここで図3を参照すると、概略は、クラウドコンピューティングアセット46とローカル処理アセット(308、120)との間の協調を図示する。一実施形態では、クラウド46アセットは、有線または無線ネットワーキング(40、42)を介して、プロセッサおよびメモリ構成等のローカルコンピューティングアセット(120、308)の一方または両方に直接、動作可能に結合され(無線が、移動性のために好ましく、有線は、所望され得るある高帯域幅または高データ量転送のために好ましい)、ローカルコンピューティングアセット(120、308)は、ユーザの頭部搭載型デバイス120またはベルト308に結合されるように構成される構造内に格納され得る。ユーザにローカルのこれらのコンピューティングアセットは、同様に、有線および/または無線接続性構成44を介して、互いにも動作可能に結合され得る。一実施形態では、低慣性および小型サイズ頭部搭載型サブシステム120を維持するために、ユーザとクラウド46との間の一次転送は、ベルトベースのサブシステム308とクラウドとの間のリンクを介し得、頭部搭載型サブシステム120は、主に、(例えば、パーソナルコンピューティング周辺接続性用途において現在採用されている)超広帯域(「UWB」)接続性等の無線接続性を使用して、ベルトベースのサブシステム308にデータテザリングされる。クラウド46を通して、ARディスプレイシステム120は、クラウド内にホストされた1つ以上のARサーバ110と相互作用し得る。種々のARサーバ110は、サーバ110が互いに通信することを可能にする通信リンク115を有し得る。
効率的なローカルおよび遠隔処理協調と、(ユーザインターフェース、ユーザ「ディスプレイデバイス」、またはそれらの変形例等の)ユーザのための適切なディスプレイデバイスとを用いることで、ユーザの現在の実際または仮想場所に関連するある世界の側面が、ユーザに転送または「パス」され、効率的方式で更新され得る。言い換えると、世界のマップは、ユーザのARシステム上に部分的に常駐し、クラウドリソース上に部分的に常駐し得る記憶場所において、継続的に更新される。マップ(パス可能世界モデルとも称される)は、ラスタ画像、3Dおよび2Dポイント、パラメータ情報、ならびに実世界についての他の情報を備えている大型データベースであり得る。ARユーザがその実環境についてのますます多くの情報を継続的に捕捉するにつれて(例えば、カメラ、センサ、IMU等を通して)、マップは、ますます正確になる。
図4を参照すると、好適なユーザディスプレイデバイス62の1つの簡略化された実施形態が、筐体またはフレーム108によってユーザの頭部もしくは眼に搭載され得るディスプレイレンズ106を備えているように示される。ディスプレイレンズ106は、ユーザの眼20の正面において筐体108によって位置付けられている1つ以上の透明ミラーを備え得、1つ以上の透明ミラーは、ローカル環境からの少なくとも一部の光の透過も可能にしながら、投影された光38を眼20の中に跳ね返し、ビーム成形を促進するように構成される。描写される実施形態では、2つの広角マシンビジョンカメラ16が、筐体108に結合され、ユーザの周囲の環境を撮像する。一実施形態では、これらのカメラ16は、デュアル捕捉可視光/赤外線光カメラである。
描写される実施形態は、示されるように、光38を眼20の中に投影するように構成されるディスプレイミラーおよび光学を伴う一対の走査式レーザ成形波面(すなわち、深度のため)光プロジェクタモジュール18(例えば、DLP、ファイバ走査デバイス(FSD)、LCD等の空間光変調器)も備えている。描写される実施形態は、発光ダイオード「LED」等の赤外線光源26と対にされた2つの小型赤外線カメラ24を備え、小型赤外線カメラ24は、ユーザの眼20を追跡し、レンダリングおよびユーザ入力をサポートすることが可能であるように構成される。ディスプレイシステム62は、センサアセンブリ39をさらに特徴とし、センサアセンブリ39は、X、Y、Z軸加速度計能力と、磁気コンパスおよびX、Y、Z軸ジャイロスコープ能力とも備え、好ましくは、200Hz等の比較的に高周波数でデータを提供し得る。描写されるシステム62は、リアルまたは近リアルタイムユーザ頭部姿勢をカメラ16からの広角画像情報出力から計算するように構成され得るASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、および/またはARMプロセッサ(高度縮小命令セットマシン)等の頭部姿勢プロセッサ36も備えている。頭部姿勢プロセッサ36は、カメラ16およびレンダリングエンジン34に動作可能に結合される(90、92、94;例えば、有線または無線接続性を介して)。
デジタルおよび/またはアナログ処理を実行し、姿勢をセンサアセンブリ39からのジャイロスコープ、コンパス、ならびに/もしくは加速度計データから導出するように構成される別のプロセッサ32も、示される。描写される実施形態は、姿勢および測位を補助するためのGPS37サブシステムも特徴とする。
最後に、描写される実施形態は、ソフトウェアプログラムを実行するハードウェアを特徴とし得るレンダリングエンジン34を備え、ソフトウェアプログラムは、ユーザの世界のビューのために、ユーザのローカルのレンダリング情報を提供し、スキャナの動作およびユーザの眼の中への結像を促進するように構成される。レンダリングエンジン34は、レンダリングされた光38が、網膜走査ディスプレイに類似する様式において、走査式レーザ配列18を使用して投影されるように、センサ姿勢プロセッサ32、画像姿勢プロセッサ36、眼追跡カメラ24、および投影サブシステム18に動作可能に結合される(105、94、100/102、104、すなわち、有線または無線接続性を介して)。投影される光ビーム38の波面は、投影された光38の所望の焦点距離と一致するように曲げられ、または焦点を合わせられ得る。
小型赤外線眼追跡カメラ24は、眼を追跡し、レンダリングおよびユーザ入力をサポートするために利用され得る(すなわち、ユーザが見ている場所、焦点を合わせている深度等、以下に議論されるように、両眼離反運動が、ユーザの焦点深度を推定するために利用され得る)。GPS37、ジャイロスコープ、コンパス、および加速度計39が、大まかな、および/または高速の姿勢推定を提供するために利用され得る。カメラ16画像および姿勢データが、関連付けられたクラウドコンピューティングリソースからのデータと併せて、ローカル世界をマップし、ユーザビューを仮想または拡張現実コミュニティと共有するために利用され得る。
図4において特徴とされるディスプレイシステム62内のハードウェアの多くは、ディスプレイ106およびユーザの眼20に隣接する筐体108に直接結合されて描写されるが、描写されるハードウェアコンポーネントは、例えば、図2Dに示されるように、ベルト搭載型コンポーネント70等の他のコンポーネントに搭載されるか、またはその中に格納され得る。
一実施形態では、図4に特徴とされるシステム62のコンポーネントは全て、画像姿勢プロセッサ36、センサ姿勢プロセッサ32、およびレンダリングエンジン34を除き、ディスプレイ筐体108に直接結合され、後者3つとシステムの残りのコンポーネントとの間の通信は、超広帯域等の無線通信または有線通信によって行われ得る。描写される筐体108は、好ましくは、頭部搭載型であり、ユーザによって装着可能である。それは、ユーザの耳の中に挿入され、音をユーザに提供するために利用され得るそれら等、スピーカも特徴とし得る。
標準的ARデバイスの主要コンポーネントが説明されたが、ARデバイスは、データをユーザおよびその周囲から収集するように構成される、多くのコンポーネントを備え得ることを理解されたい。例えば、前述のように、ARデバイスのいくつかの実施形態は、GPS情報を収集し、ユーザの場所を決定する。他の実施形態では、ARデバイスは、赤外線カメラを備え、ユーザの眼を追跡する。さらに他の実施形態では、ARデバイスは、視野カメラを備え、ユーザの環境の画像を捕捉し得、これは、ひいては、ユーザの物理的空間のマップ(図3に説明されるように、サーバ110のうちの1つ内に含有される)を構成するために使用され得、それは、システムが、図3に関して簡単に説明されるように、仮想コンテンツを適切な実在のオブジェクトに関連してレンダリングすることを可能にする。
前述のこれらのカメラおよびセンサは、現実的拡張現実体験をユーザに提供するために統合されているが、一部のユーザは、継続的に捕捉される画像データに対してプライバシー懸念を表し得る。例えば、ARユーザは、小さい子供とともに、入浴しながら、教育ゲームをプレーする場合があるが、ARユーザは、ユーザの子供の配慮を要する画像またはデータがより大規模なARシステムおよび/もしくは他のユーザに伝送される恐れがあることから、ARシステムの使用を躊躇し得る。または、ユーザ(ARユーザもしくは非ARユーザ)は、公共の場所に居る場合があるが、ユーザは、公共の場所における他の人によって使用されるARデバイスを通して捕捉されることに対して警戒し得る。同様に、他のそのようなプライバシー懸念が、想定され得る。
加えて、ARシステムの主要目標のうちの1つは、ユーザが潜在的プライベート空間または配慮を要する空間(例えば、浴室、寝室、子供によって取り囲まれた空間、公共の空間等)に踏み入る度に、ARユーザが使用を中断することを強要することなく、中断されない拡張現実体験を提供することである。ARシステムの別の目標は、ユーザに、ARデバイスを通して写真を捕捉する能力を提供することである。これは、ユーザが典型的には通常のカメラの使用を通して捕捉不可能であるビュー/ビデオ(例えば、ハンズフリー、パノラマ撮影、移動撮影、連続映像等)をユーザが捕捉することを可能にし得るので、ARデバイスに関連付けられた特に人気の機能性であり得る。本開示は、ARユーザおよび社会のプライバシーおよびセキュリティ懸念を全体として認識し、それに配慮した様式において、前述のこれらの目標を満たす1つのアプローチを提供する。
この目的を達成するために、1つ以上の実施形態では、ARシステムのアーキテクチャは、ARシステムの1つ以上のセンサ、赤外線カメラ、深度ビューカメラ(すなわち、コンテキスト提供デバイス)から捕捉されたデータが、画像の組および/またはセンサデータから抽出される幾何学形状情報(例えば、姿勢情報、オブジェクトの位置、2Dおよび3Dポイント、パラメータ情報)のみがARデバイスのモバイルプラットフォームに提供されるように、供給されるように設計され得る。1つ以上の実施形態では、ARデバイスのモバイルプラットフォームは、図3に示されるように、サーバ110のうちの1つに記憶および継続的に構築され得るマップ(例えば、ゲームプラットフォーム、パス可能世界モデル、世界のマップ)を備えている(またはアクセスする)。マップは、世界のためのマップデータを含むデータベースであり得る。一実施形態では、それは、ユーザ装着型コンポーネント上に部分的に常駐し得、有線または無線ネットワークによってアクセス可能なクラウド記憶(例えば、図3のサーバ110)場所に部分的に常駐し得る。マップは、ますます多くのユーザがシステム上に存在するにつれて、ますます大きくなるであろう、重要かつ成長するコンポーネントである。マップは、実世界の1つ以上のオブジェクトに対応するラスタ画像、ポイントおよび記述子クラウド、ならびに多角形/幾何学的定義の組を備え得る。マップは、複数の拡張現実デバイスから受信される情報で常に更新され、時間と共にますます正確になる。
1つ以上の実施形態では、ゲート機構が、実装され得、ゲート機構は、コンテキスト提供デバイス(例えば、赤外線カメラ、視野カメラ、深度カメラ、眼追跡センサ、ジャイロスコープ、加速度計等)から集められた幾何学形状情報のみがマップに伝送されることを選択的に可能にするが、コンテキスト集めの一部として捕捉された任意の画像またはビデオが除外されることを確実にする。しかしながら、指定されるカメラは、以下に詳細に説明されるであろうように、ARユーザが画像を能動的に捕捉することを欲するとき、随時、ARデバイスに取り外し可能に結合され得る。このアプローチは、有利には、ARユーザに、ユーザ自身のARデバイスから捕捉されている画像に対する制御を与え、同時に、公共の空間において使用されている他のARデバイスの可能な画像またはビデオ捕捉の注意を提供する効果も有する(より人目に付くカメラを通して)。
ここで図5を参照すると、1つ以上の実施形態では、ARシステムは、ARデバイス62のフレーム64上のフックまたはあるタイプの留めデバイスに付けられ得る取り外し可能カメラ530を備え得る。したがって、カメラ530が図5に示されるもののような人目に付く様式で物理的に取り付けられると、他のARユーザおよび/または一般大衆は、カメラ530を装着しているARユーザが画像を捕捉し、および/またはビデオを記録し得ることに気付く。誰かが画像を捕捉し得ることが見えると、他のユーザまたは大衆のメンバーは、適切に行動するか、またはカメラデバイス530によって捕捉されないことを選び得る。または、ARユーザは、いくつかの環境では、画像を捕捉しないように、もしくはビデオを記録しないように要求され得る。最も重要なことは、カメラ530が、他者が可能な画像またはビデオ捕捉を認知し得るように他者によって容易に気付かれ得るように、ARデバイスに人目に付くように取り付けられることである。これは、ARコミュニティの他のメンバーが知らずに、配慮を要する画像またはビデオを密かに捕捉するというARユーザの問題を解決する。図5に示されるもの等の除去可能カメラ530は、人々が、ARデバイスによってデジタル捕捉され得ることを把握し、責任を持って行動すること、またはその行動を改めることができるように、カメラ530をよく見えるように表示する。
1つ以上の実施形態では、取り外し可能カメラ530は、物理的手段(例えば、フック、磁石、電気接続、センサ等)によって、ARデバイス62のフレーム64に物理的に結合され得る。1つ以上の実施形態では、ARデバイス62は、取り外し可能カメラ530がARシステム62に物理的に付けられていることの検出に少なくとも部分的に基づいて、オンに切り替えられる電気接続を備えている。この検出は、1つ以上の実施形態では、取り外し可能カメラ530がフレーム64に取り付けられ、回路を完成すると、アクティブにされる電気接点を通して生じ得る。この検出は、次に、ゲート機構(以下にさらに詳細に説明されるであろうように)が、全画像がモバイルプラットフォームに通過することを可能にすること、または幾何学情報のみが通過することを選択的に可能にすることを可能にする。
1つ以上の実施形態では、取り外し可能カメラ530は、ベルトパック70に保管され、必要に応じて、ARデバイス62のフレーム64に取り付けられ得る。1つ以上の実施形態では、取り外し可能カメラ530は、ワイヤ532を通して、ベルトパック70における電源に接続され、ARデバイス62のフレーム64に物理的に接続され得る。他の実施形態では、取り外し可能カメラ530は、物理的取り付けを伴わずに、ベルトパック70および/またはベルトパック70における電源と無線で通信し得る。さらに他の実施形態では、取り外し可能カメラ530は、ARデバイス62のフレーム64に付けられると、ARデバイス62自体において給電され得る。図5は、例証目的のみのために提供され、他の実施形態も、同様に使用され得ることを理解されたい。他の実施形態では、取り外し可能カメラ530は、ヘルメットまたはユーザの頭部のある他の部分に取り付けられ得るが、フックまたは他の留め手段を通してARデバイスのフレーム64に物理的に接続され得る。
1つ以上の実施形態では、取り外し可能カメラ530は、ライト534またはある他の信号伝達手段を通して、カメラがオンであることを示し得る。他の実施形態では、ARデバイス62に固定されているカメラ530によって、ユーザは、自動的に、ARユーザが画像を記録および/または捕捉し得ることに気付く。または、さらに他の実施形態では、取り外し可能カメラ530は、ユーザが画像を記録または捕捉しているときに開放され得る物理的シャッタ(図示せず)を有するカメラ530であり得る。
1つ以上の実施形態では、取り外し可能カメラ530は、任意の第三者によって製造され得、既製品から購入し、ARデバイス62と機能するように構成され得る。これは、有利には、ARユーザに、取り外し可能カメラ530によって捕捉される画像のタイプおよび品質におけるさらなる自由度を与える。例えば、一部のARユーザは、標準的デジタルカメラと比較してより優れた品質の写真を捕捉するポータブルSLRカメラに関心があり得る。または、一部のARユーザは、パノラマビューを捕捉するためにARフレーム64に付けられ得る特殊広角カメラ530を購入し得る。または、ARユーザは、スキーもしくはスカイダイビング時、高品質スポーツショットを捕捉するために、スポーツ用カメラ530を購入し得る。ARデバイス62への取り外し可能カメラ530を切り離すことによって、ユーザは、カメラ530を選択することにおいて、ユーザの選択のさらなる自律性を提供される。
ここで図6を参照すると、取り外し可能カメラ530を伴うARデバイス62のシステムアーキテクチャの実施形態が、図示される。上である程度詳細に議論されたように、ARユーザのプライバシーを確実にするために、ARシステムのアーキテクチャは、取り外し可能カメラ530がARデバイス62に付けられていることが検出されるときのみ、画像が(例えば、マップデータベースまたはローカル記憶内に)記憶され、またはサーバに伝送されるように設計され得る。言い換えると、ゲート機構が、取り外し可能カメラが検出されない限り、幾何学情報(例えば、姿勢、3Dポイント等)のみがサーバに伝送されるように実装され得る。
図6に示されるように、ARデバイス62は、IMU522、深度カメラ520、および赤外線カメラ524等のコンテキスト収集デバイスの組を備え得る。他のARデバイスは、他の目的のために設計される他のそのようなセンサおよび/またはカメラを備え得ることを理解されたい。図6に示されるように、これらのデバイス(520、522、524)を通して収集されるデータは、図示されるように、ベルトパック70に常駐し得るプロセッサ516に伝送される。他の実施形態では、プロセッサ516は、ARシステムの別の部分内に常駐するか、またはフレーム64の一部であり得る。
取り外し可能カメラ530は、1つ以上の実施形態では、ARデバイス62のフレーム64に物理的に取り付けられ得る。取り外し可能カメラ530によって捕捉されたデータも、ベルトパック70に伝送される。1つ以上の実施形態では、取り外し可能カメラ530を通して捕捉された画像データは、カメラ記憶モジュール510内に直接記憶され得る。1つ以上の実施形態では、ベルトパック70の処理コンポーネントは、ビデオ処理モジュール(VPU)512を備え、ARデバイス62によって捕捉された画像の組を処理し得る。1つ以上の実施形態では、VPU512は、種々のカメラから受信された画像を処理し、幾何学形状情報を画像から抽出する。IMU522、深度カメラ520、視野カメラ530、および赤外線カメラ524からのデータは、VPUに直接送信され得、VPUは、次に、データを分析し、幾何学形状情報をデータから抽出する。いくつかの実施形態では、取り外し可能カメラ530からのデータも、VPU512に送信され得る(図示せず)。
1つ以上の実施形態では、取り外し可能カメラ530からの画像は、別個のカメラ記憶モジュール510内に記憶され得る。他の実施形態では、ARシステム62の全画像デバイスからの画像も、カメラ記憶モジュール510内に記憶され得る。いくつかの実施形態では、VPU512は、カメラ記憶モジュール510に動作可能にリンクされ、画像を受信し、幾何学形状情報を抽出する。他の実施形態では、プライバシーを確実にするために、カメラ記憶モジュール510は、VPU512から完全に離れて保たれ、実際の画像と画像から抽出される幾何学形状情報との間の物理的分離を生成し得る。
取り外し可能カメラ530がフレーム64に付けられていることが検出されている場合、捕捉された画像は、ゲート機構552を通して、または直接カメラ記憶モジュール510から、モバイルプラットフォーム550に伝送され得る。取り外し可能カメラ530が検出されていない場合、幾何学形状情報のみが、ゲート機構552を通して、モバイルプラットフォーム550に通される。図6に示されるように、ゲート機構552は、VPU512と、ベルトパック70において使用されているモバイルプラットフォーム550(例えば、Android(登録商標)等)およびARデバイスの処理コンポーネントの残りとの間に存在する。このデータの分離は、特に、プライベートデータ(例えば、画像、ビデオ等)が、ユーザの同意なしで、不必要に、モバイルプラットフォーム550および/または他のリソースに転送されないことを確実にするために設計される。
ベルトパック70は、他のコンポーネントを備え得、本明細書に詳述されるコンポーネントは、例証目的にすぎないことを理解されたい。1つ以上の実施形態では、モバイルプラットフォーム550は、ARデバイス62がマップデータベース514と通信することを可能にする1つ以上のクラウドリソースに接続する。マップデータベース514は、受信されたデータを収集、分析、または処理し、マップ514と通信するように構成され得るプロセッサ516に接続され得る。1つ以上の実施形態では、マップ514は、それが世界に関するマッピングデータ(例えば、物理的座標、ポイント等)を備えているように、ゲームエンジンであり得る。他の実施形態では、マップ514は、複数のARユーザによって収集される画像およびポイントから構築され、時間と共に構築されるパス可能世界モデルであり得る。
マップ514は、ARシステムの不可欠なコンポーネントであり、世界との関連でARユーザの物理的座標を識別する。これは、ARシステムが、仮想コンテンツを世界の1つ以上の実オブジェクトに関連してレンダリングすることを可能にする。したがって、マップ514とARデバイス62との間の情報の交換は、重要である。ゲート機構552は、ARシステムのそのコア機能性に役立つ重要な幾何学情報が、モバイルプラットフォーム550およびマップ514にタイムリーに転送されることを確実にするが、同時に、画像およびビデオが、ユーザの明示的同意(例えば、取り外し可能カメラ530の付着を通して)なしで、モバイルプラットフォーム550に転送されないことも確実にする。
1つ以上の実施形態では、ARシステムが、取り外し可能カメラ530がARデバイス62のフレームに固定されていることを検出すると(例えば、物理的接点、物理的トークン、電気接点、近接性検出器等を通して)、ゲート機構552は、開放し、幾何学情報のみではなく、画像もモバイルプラットフォーム550に伝送する。取り外し可能カメラ530がもはやフレーム64に付けられていないことが検出されている場合、ゲート機構552は、幾何学形状のみがゲートを通されるように、ゲートを閉鎖する。1つ以上の実施形態では、カメラ記憶モジュール510からのデータも、ゲート機構552を通過する。
他の実施形態では、カメラ記憶モジュール510(別個のプロセッサを有し得る)は、カメラ記憶モジュール510からのデータがモバイルプラットフォーム550に自由に伝送されるように、VPU512から別個に保たれる。さらに他の実施形態では、ゲート機構552は、取り外し可能カメラ530が検出されるときでも、幾何学形状情報のみがゲートを通過するように、常時、「オン」である。さらに他の実施形態では、別のゲート機構は、取り外し可能カメラ530が検出されるときのみ、画像情報が他のゲート機構を通過し、モバイルプラットフォーム550に転送されるように、モバイルプラットフォーム550とカメラ記憶モジュール510との間に存在し得る。3つのアプローチに関するさらなる情報は、以下にさらに詳細に説明されるであろう。
ゲート機構552を実装する多くの方法があり得、以下に詳述されるアプローチは、限定として読まれるべきではないことを理解されたい。1つのアプローチでは、ゲート機構552は、ARデバイス62を通りVPU512に来る画像および/またはビデオ入力をハンドリングする外部チップセットを備え得る。この情報は、モバイルプラットフォーム550とともに動作するデバイスドライバ内に記憶される。1つ以上の実施形態では、データをデバイスドライバから自由に読み出す能力は、画像および/またはビデオコンテンツを分離するために、モバイルプラットフォーム550に提供されないこともある。デバイスドライバは、1つ以上の実施形態では、実際の画像および/またはビデオがモバイルプラットフォーム550によってアクセス可能ではないようにプログラムされ得る。
1つ以上の実施形態では、VPU512の中に内蔵されるファームウェアは、取り外し可能カメラ530が検出されない限り、幾何学形状情報のみをモバイルプラットフォーム550に選択的に伝送するようにプログラムされ得る。したがって、1つ以上の実施形態では、ファームウェアは、機能性を制御し、制御は、デバイスドライバに与えられない。これは、ゲート機構552を実装するための1つのアプローチであり得るが、他のアプローチも同様に、画像/ビデオをモバイルプラットフォーム550と別個に保つために使用され得る。
いくつかの実施形態では、ゲート機構は、画像および/またはビデオがクラウドに転送されないことを確実にすることに加え、画像および/またはビデオがARシステムのベルトパック70またはローカル処理モジュールのいずれにも転送されないように設計される。言い換えると、そのようなゲート機構は、取り外し可能カメラ530が検出されるとき以外、個々のARデバイス62さえ、任意の望ましくないまたはプライベート画像もしくはビデオを搬送しないことを確実にする。これは、ARデバイス62のユーザのプライバシーおよびセキュリティが維持されることを保証するためのさらに別の方法を提供する。
ここで図7を参照すると、VPU512の例示的プロセスフローが、図示される。702では、画像が、コンテキスト提供デバイスのうちの1つを通して受信され得る。704では、幾何学形状情報が、画像から抽出され得る。706では、取り外し可能カメラ530が検出されるかどうかの決定が行われる。取り外し可能カメラ530が検出されている場合、708では、画像および幾何学形状情報の両方が、モバイルプラットフォーム550に伝送される。取り外し可能カメラ530が検出されていない場合、710では、幾何学形状情報のみが、モバイルプラットフォーム550に伝送される。
ここで図8A−8Bを参照すると、例示的プロセスフロー図が、図示される。図8Aでは、取り外し可能カメラ530は、ARデバイス62のフレーム64に付けられていない。画像および/またはビデオは、VPU512の記憶モジュール560内に記憶される(いくつかの実施形態では、タイムリーに削除され得る)。VPU512は、1つ以上の実施形態では、幾何学形状情報を画像から抽出し得、幾何学形状情報を別個の記憶モジュール562内に記憶し得る。画像は、記憶モジュール560内に記憶され得る(かつタイムリーに削除され得る)。図8Aに示されるように、取り外し可能カメラ530は、検出されないので、562からの幾何学形状情報のみが、モバイルプラットフォーム550に提供される。
図8Bでは、取り外し可能カメラ530が検出されている場合、ゲート552は、「開放」され、記憶モジュール560内に記憶される画像および記憶モジュール562内に記憶される幾何学形状情報の両方が、モバイルプラットフォーム550に伝送される。したがって、取り外し可能カメラ530を通して捕捉された画像も、記憶モジュール560内に記憶され、「開放ゲート」を通して送信される。他の実施形態では、取り外し可能カメラ530を通して捕捉された画像は、前述のように、カメラ記憶モジュール510内に記憶され得、別個のゲート機構を通してモバイルプラットフォーム550に伝送され得る。他の実施形態では、カメラ記憶モジュール510は、画像をモバイルプラットフォーム550に自由に伝送し得る(カメラ記憶モジュール510は、ユーザの同意を通して得られる取り外し可能カメラ530からの画像のみを備えているため)。
図9Aおよび9Bは、別の可能なシステム構成を図示する。図8Aと同様に、取り外し可能カメラ530が検出されないとき、ゲート機構552は、562からの幾何学形状情報のみがモバイルプラットフォーム550に伝送されることを可能にする。図9Bでは、取り外し可能カメラ530が検出されている場合、ゲート552は、「開放」されるが、カメラ記憶モジュール510も、VPU512を通してではなく、直接、取り外し可能カメラ530を通して捕捉された画像をモバイルプラットフォーム550に伝送する。本実施形態では、取り外し可能カメラ530からのデータは、記憶モジュール510内に記憶され、直接、モバイルプラットフォーム550に通信され、VPU512は、他のコンテキストデバイスから集められた画像をゲート機構552を通して伝送する。これは、より高い品質の画像(例えば、取り外し可能カメラ530を通して捕捉された)がモバイルプラットフォーム550に伝送されることをもたらし得る。
さらに別の実施形態では、取り外し可能カメラ530を通して捕捉された画像のみが、常に、モバイルプラットフォーム550に伝送される。言い換えると、ゲート552は、決して「開放」されない。図10Aおよび10Bを参照すると、取り外し可能カメラ530が検出されている場合、カメラ記憶モジュール510は、直接、画像および/またはビデオをモバイルプラットフォーム550に伝送するが、図10Bに示されるように、取り外し可能カメラ530が検出されるときでも、ゲートは、「開放」されず、コンテキスト提供デバイスを通して捕捉された幾何学形状情報のみが、モバイルプラットフォーム550に伝送される。図10Bでは、取り外し可能カメラ520が検出されている場合、画像は、カメラ記憶モジュール510を通して、直接、モバイルプラットフォーム550に転送される。言い換えると、VPU512は、幾何学情報をモバイルプラットフォーム550に提供することのみに関与し、カメラ記憶モジュール510が、代わりに、画像がモバイルプラットフォーム550に転送されることを選択的に可能にする別のゲート機構(図示せず)を有する。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの例が参照される。それらは、本発明のより広くて適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われ得、本発明の真の精神および範囲から逸脱することなく、同等物が置換され得る。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、もしくは範囲に適合させるように、多くの修正が行われ得る。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例の各々は、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散コンポーネントおよび特徴を有する。全てのそのような修正は、本開示に関連付けられる請求項の範囲内にあることを目的としている。
本発明は、主題デバイスを使用して行われ得る方法を含む。方法は、そのような好適なデバイスを提供するという行為を含み得る。そのような提供は、エンドユーザによって行われ得る。換言すれば、「提供する」行為は、単に、エンドユーザが、主題方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順序で、ならびに事象の記載された順序で実行され得る。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって公知である、または理解され得る。一般的または論理的に採用されるような追加の行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換され得る。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求され得ることが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「1つの(「a」、「an」)」、「該(said)」、および「the(the)」という単数形は、特に規定がない限り、複数形の指示参照を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示に関連付けられる請求項において、主題アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に」、「のみ」、および同等物等の排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示に関連付けられる請求項での「備えている」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の追加の要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または主題の明細書に限定されるものではなく、むしろ、本開示に関連付けられる請求項の言葉の範囲のみによって限定されるものである。

Claims (24)

  1. 拡張現実を表示するための方法であって、前記方法は、
    空間光変調器を通して、1つ以上の仮想画像をユーザに投影することと、
    複数のセンサを通して、前記ユーザの周囲に関するデータの組を捕捉することであって、前記データの組は、画像を含む、ことと、
    処理モジュールを通して、前記複数のセンサから読み出され前記データの組を処理することであって、前記処理モジュールは、前記複数のセンサから読み出され前記データの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、ことと、
    取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられているかどうかを検出することと
    を含み、
    前記ゲート機構は、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されているかどうかに少なくとも部分的に基づいて、前記複数のセンサから読み出され前記データの組が前記モバイルプラットフォームに伝送されることを選択的に可能にする、方法。
  2. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記データの組が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項1に記載の方法。
  3. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記データの組の一部のみが前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項1に記載の方法。
  4. 前記複数のセンサから読み出され前記データの組の少なくとも一部は、画像またはビデオデータに対応している、請求項1に記載の方法。
  5. VPUを通して、前記複数のセンサから読み出され前記データの組に対応する画像の組から幾何学情報を抽出することをさらに含む、請求項1に記載の方法。
  6. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記幾何学情報が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項5に記載の方法。
  7. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記幾何学情報と前記取り外し可能カメラが前記拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された前記画像の組とが、前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項5に記載の方法。
  8. 前記幾何学情報は、前記画像の組に関する姿勢情報に対応している、請求項5に記載の方法。
  9. 前記幾何学情報は、前記画像の組に関する2Dポイントまたは3Dポイントに対応している、請求項5に記載の方法。
  10. 前記幾何学情報は、前記画像の組に関する深度情報に対応している、請求項5に記載の方法。
  11. 前記幾何学情報をマップデータベースに伝送することをさらに含み、前記マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連して前記ユーザに表示されるように、前記世界の前記実オブジェクトの座標情報を備えている、請求項5に記載の方法。
  12. 前記VPUは、前記複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている、請求項5に記載の方法。
  13. 前記VPUは、前記複数のセンサを通して捕捉された画像に関する前記幾何学情報を記憶するための幾何学形状記憶モジュールを備えている、請求項5に記載の方法。
  14. 前記ゲート機構が、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合でも、幾何学情報が前記モバイルプラットフォームまで通されることを可能にすることをさらに含む、請求項5に記載の方法。
  15. 前記取り外し可能カメラを通して捕捉された画像をカメラ記憶モジュール内に記憶することをさらに含む、請求項1に記載の方法。
  16. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記カメラ記憶モジュールは、前記画像をモバイルプラットフォームに伝送しない、請求項15に記載の方法。
  17. 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記カメラ記憶モジュールが、前記取り外し可能カメラが前記モバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送することをさらに含む、請求項15に記載の方法。
  18. 前記取り外し可能カメラは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることを信号伝達するインジケータを備えている、請求項1に記載の方法。
  19. 前記インジケータは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられている場合にオンにされるライトを備えている、請求項18に記載の方法。
  20. 前記インジケータは、前記取り外し可能カメラのレンズを物理的に開放または遮断するシャッタを備えている、請求項18に記載の方法。
  21. 前記取り外し可能カメラを前記拡張現実ディスプレイシステムの前記筐体に電気的に取り付けることをさらに含む、請求項1に記載の方法。
  22. 前記取り外し可能カメラを前記拡張現実ディスプレイシステムの前記筐体に機械的に取り付けることをさらに含む、請求項1に記載の方法。
  23. 前記取り外し可能カメラが前記取り外し可能カメラに取り付けられているときに回路を完成する電気接点に少なくとも部分的に基づいて、前記取り外し可能カメラを検出することをさらに含む、請求項1に記載の方法。
  24. 請求項1〜23のいずれか一項に記載の方法を実装する手段を備えたシステム。
JP2017558982A 2015-05-14 2016-05-14 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ Active JP6813501B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562161665P 2015-05-14 2015-05-14
US62/161,665 2015-05-14
PCT/US2016/032580 WO2016183538A1 (en) 2015-05-14 2016-05-14 Privacy-sensitive consumer cameras coupled to augmented reality systems

Publications (2)

Publication Number Publication Date
JP2018522324A JP2018522324A (ja) 2018-08-09
JP6813501B2 true JP6813501B2 (ja) 2021-01-13

Family

ID=57249374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017558982A Active JP6813501B2 (ja) 2015-05-14 2016-05-14 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ

Country Status (11)

Country Link
US (1) US9990777B2 (ja)
EP (2) EP3294428B1 (ja)
JP (1) JP6813501B2 (ja)
KR (1) KR102331780B1 (ja)
CN (1) CN107533376A (ja)
AU (1) AU2016262576B2 (ja)
CA (1) CA2984147C (ja)
HK (1) HK1252884A1 (ja)
IL (1) IL255326B (ja)
NZ (1) NZ736758A (ja)
WO (1) WO2016183538A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055892B2 (en) 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
US9916002B2 (en) 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
WO2016077798A1 (en) 2014-11-16 2016-05-19 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US9928660B1 (en) 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
CN106654044B (zh) * 2016-12-19 2018-11-06 深圳市华星光电技术有限公司 头戴增强现实显示装置
US10241587B2 (en) * 2016-12-22 2019-03-26 Microsoft Technology Licensing, Llc Magnetic tracker power duty cycling
CN107132657B (zh) * 2017-05-22 2023-06-30 歌尔科技有限公司 Vr一体机、手机、手机和vr一体机套装
US10178294B2 (en) 2017-05-25 2019-01-08 International Business Machines Corporation Controlling a video capture device based on cognitive personal action and image identification
US11468174B2 (en) * 2017-08-11 2022-10-11 Eys3D Microelectronics Co. Surveillance camera system and related surveillance system thereof
CN109670282B (zh) * 2017-10-17 2023-12-22 深圳富泰宏精密工业有限公司 解锁系统、解锁方法及电子装置
CN108777779A (zh) * 2018-06-12 2018-11-09 北京京东金融科技控股有限公司 一种视频拍摄设备的智能化装置、方法、介质及电子设备
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US10780359B2 (en) 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment
CN110264818B (zh) * 2019-06-18 2021-08-24 国家电网有限公司 一种基于增强现实的机组进水阀拆装训练方法
US11209581B2 (en) 2019-06-19 2021-12-28 Universal City Studios Llc Techniques for selective viewing of projected images
US11677103B2 (en) * 2019-06-21 2023-06-13 Realwear, Inc. Auxilary battery system for a head-mounted display
US11892647B2 (en) 2020-09-28 2024-02-06 Hewlett-Packard Development Company, L.P. Head mountable device with tracking feature
CN112181152B (zh) * 2020-11-13 2023-05-26 幻蝎科技(武汉)有限公司 基于mr眼镜的广告推送管理方法、设备及应用
KR102622094B1 (ko) * 2022-03-15 2024-01-05 한밭대학교 산학협력단 증강현실을 위한 실내공간 3d 맵핑 지원 시스템
WO2023196417A1 (en) * 2022-04-07 2023-10-12 Universal City Studios Llc Systems and methods for storing player state caches locally on ride vehicles
US11972039B1 (en) 2022-12-02 2024-04-30 ARMaps Augmented reality skydiving system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350127A (ja) * 1999-06-02 2000-12-15 Sony Corp 画像処理装置及び画像処理方法
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
JP3121579U (ja) * 2006-03-02 2006-05-18 株式会社島津製作所 頭部装着型表示装置
FR2911211B1 (fr) 2007-01-05 2009-06-12 Total Immersion Sa Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US20100182340A1 (en) * 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US20120206322A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor input triggered user action capture device control of ar eyepiece facility
US20120142415A1 (en) * 2010-12-03 2012-06-07 Lindsay L Jon Video Show Combining Real Reality and Virtual Reality
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
WO2013028813A1 (en) * 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices
JP2013254399A (ja) * 2012-06-08 2013-12-19 Sharp Corp 入力システム及び電子会議システム
US9042596B2 (en) * 2012-06-14 2015-05-26 Medibotics Llc Willpower watch (TM)—a wearable food consumption monitor
KR102056175B1 (ko) * 2013-01-28 2020-01-23 삼성전자 주식회사 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치
KR102086510B1 (ko) * 2013-09-26 2020-04-14 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US9950257B2 (en) * 2014-03-04 2018-04-24 Microsoft Technology Licensing, Llc Recording companion
US9715113B2 (en) * 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
CN204272295U (zh) * 2014-12-04 2015-04-15 高新兴科技集团股份有限公司 一种增强现实摄像机监控系统
CN104363430A (zh) * 2014-12-04 2015-02-18 高新兴科技集团股份有限公司 一种增强现实摄像机监控方法及其系统

Also Published As

Publication number Publication date
US20160335802A1 (en) 2016-11-17
AU2016262576A1 (en) 2017-11-16
EP3294428A1 (en) 2018-03-21
HK1252884A1 (zh) 2019-06-06
US9990777B2 (en) 2018-06-05
KR20180008631A (ko) 2018-01-24
CA2984147A1 (en) 2016-11-17
EP3294428A4 (en) 2018-05-16
IL255326A0 (en) 2017-12-31
CN107533376A (zh) 2018-01-02
WO2016183538A1 (en) 2016-11-17
JP2018522324A (ja) 2018-08-09
EP3695888B1 (en) 2021-12-29
EP3695888A1 (en) 2020-08-19
NZ736758A (en) 2020-06-26
KR102331780B1 (ko) 2021-11-25
AU2016262576B2 (en) 2021-08-19
CA2984147C (en) 2022-02-08
EP3294428B1 (en) 2020-07-01
IL255326B (en) 2020-08-31

Similar Documents

Publication Publication Date Title
JP6813501B2 (ja) 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ
JP7445720B2 (ja) 拡張現実のためのシステムおよび方法
JP2021036449A (ja) 拡張現実および仮想現実のためのシステムおよび方法
JP2021082310A (ja) 拡張現実および仮想現実のためのシステムおよび方法
US9495008B2 (en) Detecting a primary user of a device
CN105051653B (zh) 信息处理装置、通知状态控制方法以及程序
CN105452994B (zh) 虚拟物体的同时优选观看
JP6770536B2 (ja) 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
CN107209950A (zh) 从现实世界材料自动生成虚拟材料
CN107111370A (zh) 现实世界对象的虚拟表示
CN105264478A (zh) 全息锚定和动态定位
CN110506249A (zh) 信息处理设备、信息处理方法和记录介质
JP2014011655A (ja) 映像処理装置、映像処理方法、および映像処理システム
US20210099639A1 (en) Automated eyewear device sharing system
JP2023126474A (ja) 拡張現実のためのシステムおよび方法
TW202344958A (zh) 用於預測性下載體積資料的系統和方法
US11240482B2 (en) Information processing device, information processing method, and computer program
JP2024033849A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R150 Certificate of patent or registration of utility model

Ref document number: 6813501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250