JP7036879B2 - 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 - Google Patents

仮想画像生成システムにおけるテキストをより効率的に表示するための技法 Download PDF

Info

Publication number
JP7036879B2
JP7036879B2 JP2020161013A JP2020161013A JP7036879B2 JP 7036879 B2 JP7036879 B2 JP 7036879B2 JP 2020161013 A JP2020161013 A JP 2020161013A JP 2020161013 A JP2020161013 A JP 2020161013A JP 7036879 B2 JP7036879 B2 JP 7036879B2
Authority
JP
Japan
Prior art keywords
gesture
text message
interest
user
streaming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020161013A
Other languages
English (en)
Other versions
JP2021002394A (ja
Inventor
ヨー イヴァン
エー. ミラー サムエル
イー. ハンド ランダル
アーネスト エドウィン ライオネル,
オコナー フィリップ
シュワッブ ブライアン
リンジー スペンサー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021002394A publication Critical patent/JP2021002394A/ja
Application granted granted Critical
Publication of JP7036879B2 publication Critical patent/JP7036879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Optics & Photonics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Geometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、概して、1人以上のユーザのための双方向仮想および拡張現実環境を促進するように構成されるシステムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える様式、もしくはそのように知覚され得る様式でユーザに提示される。仮想現実(VR)シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う一方、拡張現実(AR)シナリオは、典型的には、エンドユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面4が、描写されており、AR技術のユーザは、背景における人々、木々、建物を特徴とする実世界公園状設定6と、コンクリートのプラットフォーム8とを見る。これらのアイテムに加え、AR技術のエンドユーザは、実世界プラットフォーム8上に立っているロボット像10と、マルハナバチの擬人化のように見え、飛んでいる漫画のようなアバタキャラクタ12とをエンドユーザが「見ている」と知覚するが、これらの要素10、12は、実世界には存在しない。結論からいうと、ヒトの視知覚系は、非常に複雑であり、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進するVRまたはAR技術を生成することは、困難である。
VRおよびARシステムは、典型的には、エンドユーザの頭部に少なくとも緩く装着され、したがって、ユーザの頭部が移動すると移動する頭部装着型ディスプレイ(またはヘルメット搭載型ディスプレイもしくはスマートグラス)を採用する。エンドユーザの頭部の運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部の姿勢(すなわち、ユーザの頭部の向きおよび/または場所)の変化を考慮するように更新されることができる。
例として、頭部装着型ディスプレイを装着しているユーザが、3次元(3D)オブジェクトの仮想表現をディスプレイ上で視認し、3Dオブジェクトが現れるエリアの周囲を歩く場合、その3Dオブジェクトは、各視点に対して再レンダリングされ、エンドユーザに、実空間を占有するオブジェクトの周囲を歩いているという知覚を与えることができる。頭部装着型ディスプレイが、仮想空間内の複数のオブジェクト(例えば、豊かな仮想世界)を提示するために使用される場合、場面を再レンダリングして、エンドユーザの動的に変化する頭部の場所および向きに一致させ、仮想空間において増加した没入感を提供するために、頭部の姿勢の測定が使用されることができる。
AR(すなわち、実および仮想要素の同時視認)を可能にする頭部装着型ディスプレイは、いくつかの異なるタイプの構成を有することができる。多くの場合、「ビデオシースルー」ディスプレイと称される、1つのそのような構成では、カメラが、実際の場面の要素を捕捉し、コンピューティングシステムが、仮想要素を捕捉された実場面上に重ね、非透明ディスプレイが、複合画像を眼に提示する。別の構成は、多くの場合、「光学シースルー」ディスプレイと称され、エンドユーザは、ディスプレイシステム内の透明(または半透明)要素を通して見ることにより、環境内の実オブジェクトからの光を直接視認することができる。多くの場合、「結合器」と称される透明要素は、実世界のエンドユーザのビューの上にディスプレイからの光を重ねる。
あるVRおよびARシステムでは、テキストをユーザによって現在視認されているオブジェクトに隣接して表示することが望ましい。例えば、エンドユーザが、コーヒーショップに入り、図2に図示されるように、実際のまたは仮想メニュー20上に表示される一杯のコーヒー22a、デニッシュ22b、およびスムージー22cを視認する場合、記述メッセージ(例えば、「コーヒー、カフェイン抜き、豆乳」)をコーヒーのカップ22aに隣接して、記述メッセージ(例えば、ストロベリー味のデニッシュ)をデニッシュ22bに隣接して、記述メッセージ(例えば、ストロベリー、パイナップル、マンゴースムージー)をスムージー22cに隣接してテキスト表示し、一杯のコーヒー22a、デニッシュ22b、および/またはスムージー22cを注文するかどうかについてエンドユーザの決定を促進することが望ましくあり得、それは、売主との従来の通信を介してそれを注文すること、またはVRおよびARシステムを通してエンドユーザによって提供される言語もしくは非言語合図を介して電子注文することを伴い得る。記述メッセージをメッセージが関わる実際のまたは仮想オブジェクトに隣接してテキスト表示することは、理論上、良好に機能するが、現在のディスプレイ技術の分解能は、小さな活字が分解されることができず、したがって、大面積が、大きな活字を表示するために必要とされ、それによって、潜在的に、エンドユーザによって視認される3次元場面を乱雑にするという点において限定される。
したがって、メッセージを仮想現実または拡張現実システム内の仮想または実際のオブジェクトに隣接してより効率的に表示する必要性がある。
本発明の第1の実施形態によると、仮想画像生成システムを動作させる方法は、エンドユーザが3次元場面を可視化することを可能にすることと、(表示され得る)テキスト領域をユーザの視野内に空間的に関連付けることと、テキストメッセージを生成することと、テキストメッセージをテキスト領域内でストリーミングすることとを含む。1つの方法では、テキストメッセージは、テキスト領域内で一度に1つの単語のみがストリーミングされる。別の方法では、テキストメッセージは、テキスト領域内に一度に少なくとも2つの単語が表示されながら、表示される単語の1つのみを強調する。1つの単語を強調することは、残りの表示される単語または複数の単語を上回る輝度強度で1つの単語を表示することを含み得るか、またはテキスト領域は、3次元テキスト領域であり得、その場合、1つの単語は、3次元テキスト領域の前景に表示され得、残りの表示される単語または複数の単語は、3次元テキスト領域の背景に表示され得る。
1つの方法はさらに、エンドユーザが3次元場面において着目オブジェクトを可視化することを可能にすることを含み、その場合、テキスト領域は、着目オブジェクトに空間的に関連付けられ得、テキスト画像は、着目オブジェクトの少なくとも1つの特性を識別し得る(例えば、着目オブジェクトの名称を識別することによって)。着目オブジェクトが移動可能である場合、テキスト領域を着目オブジェクトに空間的に関連付けることは、テキスト領域が着目オブジェクトの移動と連動して移動するように、テキスト領域を着目オブジェクトとリンクさせることを含み得る。方法は、随意に、テキスト領域インジケータを着目オブジェクトに隣接して表示することと、エンドユーザの焦点を感知することと、エンドユーザの焦点がテキスト領域インジケータと一致するとき、テキスト領域をアクティブにすることと(例えば、テキスト領域を視覚的に現れさせることによって)を含む。着目オブジェクトが仮想オブジェクトである場合、エンドユーザが仮想オブジェクトを可視化することを可能にすることは、仮想オブジェクトをエンドユーザに表示することを含み得る。着目オブジェクトが実際のオブジェクトである場合、エンドユーザが実際のオブジェクトを可視化することを可能にすることは、エンドユーザが実際のオブジェクトからの光を直接可視化することを可能にすることを含み得る。
方法は、随意に、ジェスチャコマンド(例えば、頭部の移動または指もしくは手の移動)をエンドユーザから感知することを含み得、その場合、テキストメッセージをストリーミングすることは、ジェスチャコマンドによって制御され得る。例えば、テキストメッセージをストリーミングすることは、ジェスチャコマンドに応答して開始または中止され得る。または、テキストメッセージの各単語のタイミングは、ジェスチャコマンドに応答して制御され得る。または、テキストメッセージのストリーミング速度は、ジェスチャコマンドに応答して増加または減少させられ得る。または、テキストメッセージのストリーミング方向は、ジェスチャコマンドに応答して変化させられ得る。
1つの方法はさらに、ジェスチャ基準を着目オブジェクトに関連付けることを含み、その場合、エンドユーザからのジェスチャコマンドを感知することは、ジェスチャ基準に対してエンドユーザの解剖学的部分(例えば、頭部または指もしくは手)の角度位置を検出することを含み得る。ジェスチャ基準は、着目オブジェクトに隣接するジェスチャ基準オブジェクトとして表示され得、着目オブジェクトと別個であり、異なり得る、または着目オブジェクト自体であり得る。一実施形態では、ジェスチャ基準は、着目オブジェクトを包囲する環状リングである。
方法は、随意に、エンドユーザの眼の瞬きを感知することを含み得、その場合、テキストメッセージをストリーミングすることは、エンドユーザの眼が閉鎖されると一時停止し、エンドユーザの眼が開放されると継続する。方法はさらに、随意に、着目オブジェクトが配置されている焦点面を識別することと、識別された焦点面に基づいて、テキストメッセージのストリーミング速度を調節することとを含み得る。随意に、テキストメッセージをストリーミングすることは、テキストメッセージの単語間の一時停止を変動させることを含み得る。方法はさらに、随意に、テキストメッセージ内の単語がストリーミングされるにつれて、それらと時間的にそれぞれ対応する可聴トーンのパターンを生成することを含み得る。
本発明の第2の実施形態によると、エンドユーザによる使用のための仮想画像生成システムが、提供される。仮想画像生成システムは、エンドユーザが3次元場面を可視化することを可能にするために構成されているディスプレイシステムを備えている。一実施形態では、ディスプレイシステムは、エンドユーザの眼の正面に位置付けられるために構成される。別の実施形態では、ディスプレイシステムは、投影サブシステムと部分的に透明なディスプレイ表面とを含み、その場合、投影サブシステムは、フレームを部分的に透明なディスプレイ表面上に投影させるために構成され得、部分的に透明なディスプレイ表面は、エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成され得る。別の実施形態では、仮想画像生成システムはさらに、エンドユーザによって装着されるために構成されているフレーム構造を備え、その場合、フレーム構造は、ディスプレイシステムを支持する。
仮想画像生成システムはさらに、テキスト領域(エンドユーザに表示され得る)をエンドユーザの視野内に空間的に関連付けるために構成されている制御システム(例えば、グラフィック制御サブシステムユニット(GPU)を備えているもの)を備えている。制御システムはさらに、テキストメッセージを生成し、ディスプレイシステムに、テキストメッセージをテキスト領域内にストリーミングするように命令するために構成される。一実施形態では、ディスプレイシステムは、テキストメッセージを一度に1つの単語のみで表示することによって、テキストメッセージをテキスト領域内でストリーミングするために構成される。別の実施形態では、ディスプレイシステムは、テキストメッセージを一度に少なくとも2つの単語を表示しながら、少なくとも2つの表示される単語のうちの1つのみを強調することによって、テキストメッセージをテキスト領域内でストリーミングするために構成される。1つの単語を強調することは、残りの表示される単語または複数の単語を上回る輝度強度で1つの単語を表示することを含み得るか、またはテキスト領域は、3次元テキスト領域であり得、その場合、1つの単語は、3次元テキスト領域の前景に表示され得、残りの表示される単語または複数の単語は、3次元テキスト領域の背景に表示され得る。
一実施形態では、ディスプレイシステムは、エンドユーザが3次元場面において着目オブジェクトを可視化することを可能にするために構成され、制御システムは、テキスト領域を着目オブジェクトに空間的に関連付けるために構成され、テキスト画像は、着目オブジェクトの少なくとも1つの特性を識別する。着目オブジェクトが仮想オブジェクトである場合、ディスプレイシステムは、仮想オブジェクトをエンドユーザに表示するために構成され得る。着目オブジェクトが実際のオブジェクトである場合、ディスプレイシステムは、エンドユーザが実際のオブジェクトからの光を直接可視化することを可能にするために構成され得る。着目オブジェクトが移動可能である場合、テキスト領域を着目オブジェクトに空間的に関連付けることは、テキスト領域が着目オブジェクトの移動と連動して移動するように、テキスト領域を着目オブジェクトとリンクさせることを含み得る。随意の実施形態では、仮想画像生成システムはさらに、エンドユーザの焦点を感知するために構成される1つ以上のセンサを備え、制御システムは、ディスプレイシステムにテキスト領域インジケータを着目オブジェクトに隣接して表示ように命令し、エンドユーザの焦点がテキスト領域インジケータと一致するとき、テキスト領域をアクティブにする(例えば、テキスト領域を視覚的に現れさせることによって)ために構成される。
仮想画像生成システムは、随意に、エンドユーザからのジェスチャコマンドを感知するために構成されている少なくとも1つのセンサを備え得、その場合、制御システムは、ジェスチャコマンド(例えば、エンドユーザの頭部の移動または指もしくは手の移動)に基づいてテキストメッセージのストリーミングを制御するために構成され得る。例えば、制御システムは、ディスプレイシステムに、ジェスチャコマンドに応答してテキストメッセージのストリーミングを開始または中止するように命令するために構成され得る。または、制御システムは、ジェスチャコマンドに応答してテキストメッセージの各単語のタイミングを制御するために構成され得る。または、制御システムは、ジェスチャコマンドに応答してテキストメッセージのストリーミング速度を増加または減少させるために構成され得る。または、制御システムは、ジェスチャコマンドに応答してテキストメッセージのストリーミング方向を変化させるために構成され得る。
一実施形態では、制御システムはさらに、ジェスチャ基準を着目オブジェクトに関連付けるために構成され得、その場合、センサは、ジェスチャ基準に対するエンドユーザの解剖学的部分(例えば、頭部、指、または手)の角度位置を検出することによって、エンドユーザからのジェスチャコマンドを感知するために構成されるであろう。制御システムはさらに、ディスプレイシステムに、着目オブジェクトに隣接するジェスチャ基準オブジェクトとしてジェスチャ基準を表示するように命令するために構成され得る。ジェスチャ基準は、着目オブジェクトと別個であり、異なり得るか、または着目オブジェクト自体であり得る。一実施形態では、ジェスチャ基準は、着目オブジェクトを包囲する環状リングである。
随意の実施形態では、仮想画像生成システムはさらに、エンドユーザの眼の瞬きを感知するために構成される1つ以上のセンサを備え、その場合、制御システムは、エンドユーザの眼が閉鎖されるとテキストメッセージのストリーミングを一時停止し、エンドユーザの眼が開放されるとテキストメッセージのストリーミングを継続するために構成され得る。別の随意の実施形態では、制御システムはさらに、着目オブジェクトが配置されている焦点面を識別し、識別された焦点面に基づいて、テキストメッセージのストリーミング速度を調節するために構成される。さらに別の随意の実施形態では、制御システムは、テキストメッセージの単語間の一時停止を変動させることによって、テキストメッセージをストリーミングするために構成される。さらに別の随意の実施形態では、仮想画像生成システムはさらに、1つ以上のスピーカを備え、その場合、制御システムは、スピーカに、テキストメッセージ内の単語がストリーミングされるにつれて、それらと時間的にそれぞれ対応する可聴トーンのパターンを生成するように命令するために構成され得る。
本発明の追加のおよび他の目的、特徴、ならびに利点が、発明を実施するための形態、図、および請求項で説明される。
本発明はさらに、例えば、以下を提供する。
(項目1)
仮想画像生成システムを動作させる方法であって、前記方法は、
エンドユーザが3次元場面を可視化することを可能にすることと、
テキスト領域を前記ユーザの視野内に空間的に関連付けることと、
テキストメッセージを生成することと、
前記テキストメッセージを前記テキスト領域内でストリーミングすることと
を含む、方法。
(項目2)
前記テキストメッセージを前記テキスト領域内でストリーミングすることは、前記テキストメッセージを一度に1つの単語のみで表示することを含む、項目1に記載の方法。
(項目3)
前記テキストメッセージを前記テキスト領域内でストリーミングすることは、前記テキストメッセージを一度に少なくとも2つの単語で表示しながら、前記少なくとも2つの表示される単語のうちの1つのみを強調することを含む、項目1に記載の方法。
(項目4)
前記1つの単語のみを強調することは、前記少なくとも2つの表示される単語のうちの残りの単語を上回る輝度強度で前記1つの単語を表示することを含む、項目3に記載の方法。
(項目5)
前記テキスト領域は、3次元テキスト領域であり、前記1つの単語のみを強調することは、前記1つの単語を前記3次元テキスト領域の前景に表示することと、前記少なくとも2つの表示される単語のうちの残りの単語を前記3次元テキスト領域の背景に表示することとを含む、項目3に記載の方法。
(項目6)
前記エンドユーザからのジェスチャコマンドを感知することをさらに含み、前記テキストメッセージをストリーミングすることは、前記ジェスチャコマンドによって制御される、項目1に記載の方法。
(項目7)
前記テキストメッセージをストリーミングすることは、前記ジェスチャコマンドに応答して開始または中止される、項目6に記載の方法。
(項目8)
前記テキストメッセージの各単語のタイミングは、前記ジェスチャコマンドに応答して制御される、項目6に記載の方法。
(項目9)
前記テキストメッセージのストリーミング速度は、前記ジェスチャコマンドに応答して増加または減少させられる、項目6に記載の方法。
(項目10)
前記テキストメッセージのストリーミング方向は、前記ジェスチャコマンドに応答して変化させられる、項目6に記載の方法。
(項目11)
前記ジェスチャコマンドは、前記エンドユーザの頭部の移動である、項目6に記載の方法。
(項目12)
前記ジェスチャコマンドは、前記エンドユーザの指または手の移動である、項目6に記載の方法。
(項目13)
前記エンドユーザが前記3次元場面において着目オブジェクトを可視化することを可能にすることをさらに含み、前記テキスト領域は、前記着目オブジェクトに空間的に関連付けられ、前記テキスト画像は、前記着目オブジェクトの少なくとも1つの特性を識別する、項目1に記載の方法。
(項目14)
前記着目オブジェクトは、仮想オブジェクトである、項目13に記載の方法。
(項目15)
前記エンドユーザが前記仮想オブジェクトを可視化することを可能にすることは、前記仮想オブジェクトを前記エンドユーザに表示することを含む、項目13に記載の方法。
(項目16)
前記着目オブジェクトは、実際のオブジェクトである、項目13に記載の方法。
(項目17)
前記エンドユーザが前記実際のオブジェクトを可視化することを可能にすることは、前記エンドユーザが前記実際のオブジェクトからの光を直接可視化することを可能にすることを含む、項目16に記載の方法。
(項目18)
前記着目オブジェクトは、移動可能であり、前記テキスト領域を前記着目オブジェクトに空間的に関連付けることは、テキスト領域が前記着目オブジェクトの移動と連動して移動するように、前記テキスト領域を前記着目オブジェクトとリンクさせることを含む、項目13に記載の方法。
(項目19)
前記テキストメッセージは、前記着目オブジェクトの名称を識別する、項目13に記載の方法。
(項目20)
ジェスチャ基準を前記着目オブジェクトに関連付けることをさらに含み、前記エンドユーザからのジェスチャコマンドを感知することは、ジェスチャ基準に対して前記エンドユーザの解剖学的部分の角度位置を検出することを含む、項目13に記載の方法。
(項目21)
前記ジェスチャ基準を前記着目オブジェクトに隣接するジェスチャ基準オブジェクトとして表示することをさらに含む、項目20に記載の方法。
(項目22)
前記エンドユーザの解剖学的部分は、前記エンドユーザの頭部である、項目20に記載の方法。
(項目23)
前記エンドユーザの解剖学的部分は、前記エンドユーザの指または手である、項目22に記載の方法。
(項目24)
前記ジェスチャ基準は、前記着目オブジェクトと別個であり、異なる、項目20に記載の方法。
(項目25)
前記ジェスチャ基準は、前記着目オブジェクトを包囲する環状リングである、項目24に記載の方法。
(項目26)
前記ジェスチャ基準は、前記着目オブジェクトである、項目20に記載の方法。
(項目27)
前記着目オブジェクトが配置されている焦点面を識別することと、
前記識別された焦点面に基づいて、前記テキストメッセージのストリーミング速度を調節することと
をさらに含む、項目13に記載の方法。
(項目28)
テキスト領域インジケータを前記着目オブジェクトに隣接して表示することと、
前記エンドユーザの焦点を感知することと、
前記エンドユーザの焦点が前記テキスト領域インジケータと一致するとき、前記テキスト領域をアクティブにすることと
をさらに含む、項目13に記載の方法。
(項目29)
前記テキスト領域は、アクティブにされると視覚的に現れる、項目28に記載の方法。(項目30)
前記エンドユーザの眼の瞬きを感知することをさらに含み、前記テキストメッセージのストリーミングは、前記エンドユーザの眼が閉鎖されると一時停止し、前記エンドユーザの眼が開放されると継続する、項目1に記載の方法。
(項目31)
前記テキストメッセージをストリーミングすることは、前記テキストメッセージの単語間の一時停止を変動させることを含む、項目1に記載の方法。
(項目32)
前記テキストメッセージ内の単語がストリーミングされるにつれて、それらと時間的にそれぞれ対応する可聴トーンのパターンを生成することをさらに含む、項目1に記載の方法。
(項目33)
前記テキスト領域を前記エンドユーザに表示することをさらに含む、項目1に記載の方法。
(項目34)
エンドユーザによる使用のための仮想画像生成システムであって、前記システムは、
前記エンドユーザが3次元場面を可視化することを可能にするために構成されているディスプレイシステムと、
テキスト領域を前記エンドユーザの視野に空間的に関連付けることと、テキストメッセージを生成することと、前記ディスプレイシステムに前記テキストメッセージを前記テキスト領域内でストリーミングするように命令することとを行うために構成されている制御システムと
を備えている、仮想画像生成システム。
(項目35)
前記ディスプレイシステムは、前記エンドユーザの眼の正面に位置付けられるために構成されている、項目34に記載の仮想画像生成システム。
(項目36)
前記ディスプレイシステムは、投影サブシステムと部分的に透明なディスプレイ表面とを含み、前記投影サブシステムは、フレームを前記部分的に透明なディスプレイ表面上に投影するために構成され、前記部分的に透明なディスプレイ表面は、前記エンドユーザの眼と周囲環境との間の視野内に位置付けられるために構成されている、項目34に記載の仮想画像生成システム。
(項目37)
前記エンドユーザによって装着されるために構成されているフレーム構造をさらに備え、前記フレーム構造は、前記ディスプレイシステムを支持する、項目34に記載の仮想画像生成システム。
(項目38)
制御サブシステムは、グラフィック制御サブシステムユニット(GPU)を備えている、項目34に記載の仮想画像生成システム。
(項目39)
前記ディスプレイシステムは、前記テキストメッセージを一度に1つの単語のみで表示することによって、前記テキストメッセージを前記テキスト領域内でストリーミングするために構成されている、項目34に記載の仮想画像生成システム。
(項目40)
前記ディスプレイシステムは、前記テキストメッセージを一度に少なくとも2つの単語で表示しながら、前記少なくとも2つの表示される単語のうちの1つのみを強調することによって、前記テキストメッセージを前記テキスト領域内でストリーミングするために構成されている、項目34に記載の仮想画像生成システム。
(項目41)
前記ディスプレイシステムは、前記少なくとも2つの単語のうちの残りの単語を上回る輝度強度で前記1つの単語を表示することによって、前記1つの単語のみを強調するために構成されている、項目40に記載の仮想画像生成システム。
(項目42)
前記テキスト領域は、3次元テキスト領域であり、前記ディスプレイシステムは、前記1つの単語を前記3次元テキスト領域の前景に表示し、前記少なくとも2つの単語のうちの残りの単語を前記3次元テキスト領域の背景に表示することによって、前記1つの単語のみを強調するために構成されている、項目40に記載の仮想画像生成システム。
(項目43)
前記エンドユーザからのジェスチャコマンドを感知するために構成されている少なくとも1つのセンサをさらに備え、前記制御システムは、前記ジェスチャコマンドに基づいて前記テキストメッセージのストリーミングを制御するために構成されている、項目34に記載の仮想画像生成システム。
(項目44)
前記制御システムは、前記ジェスチャコマンドに応答して、前記ディスプレイシステムに前記テキストメッセージのストリーミングを開始または中止するように命令するために構成されている、項目43に記載の仮想画像生成システム。
(項目45)
前記制御システムは、前記ジェスチャコマンドに応答して前記テキストメッセージの各単語のタイミングを制御するために構成されている、項目43に記載の仮想画像生成システム。
(項目46)
前記制御システムは、前記ジェスチャコマンドに応答して前記テキストメッセージのストリーミング速度を増加または減少させるために構成されている、項目43に記載の仮想画像生成システム。
(項目47)
前記制御システムは、前記ジェスチャコマンドに応答して前記テキストメッセージのストリーミング方向を変化させるために構成されている、項目43に記載の仮想画像生成システム。
(項目48)
前記ジェスチャコマンドは、前記エンドユーザの頭部の移動である、項目43に記載の仮想画像生成システム。
(項目49)
前記ジェスチャコマンドは、前記エンドユーザの指または手の移動である、項目43に記載の仮想画像生成システム。
(項目50)
前記ディスプレイシステムは、前記エンドユーザが前記3次元場面において着目オブジェクトを可視化することを可能にするために構成され、前記制御システムは、前記テキスト領域を前記着目オブジェクトに空間的に関連付けるために構成され、前記テキスト画像は、前記着目オブジェクトの少なくとも1つの特性を識別する、項目43に記載の仮想画像生成システム。
(項目51)
前記着目オブジェクトは、仮想オブジェクトである、項目50に記載の仮想画像生成システム。
(項目52)
前記ディスプレイシステムは、前記仮想オブジェクトを前記エンドユーザに表示することによって、前記エンドユーザが前記仮想オブジェクトを可視化することを可能にするために構成されている、項目51に記載の仮想画像生成システム。
(項目53)
前記着目オブジェクトは、実際のオブジェクトである、項目50に記載の仮想画像生成システム。
(項目54)
前記ディスプレイシステムは、前記エンドユーザが前記実際のオブジェクトからの光を直接可視化することを可能にすることによって、前記エンドユーザが前記実際のオブジェクトを可視化することを可能にするために構成されている、項目53に記載の仮想画像生成システム。
(項目55)
前記着目オブジェクトは、移動可能であり、制御システムは、テキスト領域が前記着目オブジェクトの移動と連動して移動するように、前記テキスト領域を前記着目オブジェクトとリンクさせることによって、前記テキスト領域を前記着目オブジェクトに空間的に関連付けるために構成されている、項目50に記載の仮想画像生成システム。
(項目56)
前記テキストメッセージは、前記着目オブジェクトを識別する、項目50に記載の仮想画像生成システム。
(項目57)
前記制御システムは、ジェスチャ基準を前記着目オブジェクトに関連付けるためにさらに構成され、前記1つ以上のセンサは、ジェスチャ基準に対して前記エンドユーザの解剖学的部分の角度位置を検出することによって、前記エンドユーザからのジェスチャコマンドを感知するために構成されている、項目50に記載の仮想画像生成システム。
(項目58)
前記制御システムは、前記ディスプレイシステムに前記ジェスチャ基準を前記着目オブジェクトに隣接するジェスチャ基準オブジェクトとして表示するように命令するためにさらに構成されている、項目57に記載の仮想画像生成システム。
(項目59)
前記エンドユーザの解剖学的部分は、前記エンドユーザの頭部である、項目57に記載の仮想画像生成システム。
(項目60)
前記エンドユーザの解剖学的部分は、前記エンドユーザの指または手である、項目57に記載の仮想画像生成システム。
(項目61)
前記ジェスチャ基準は、前記着目オブジェクトと別個であり、異なる、項目57に記載の仮想画像生成システム。
(項目62)
前記ジェスチャ基準は、前記着目オブジェクトを包囲する環状リングである、項目61に記載の仮想画像生成システム。
(項目63)
前記ジェスチャ基準は、前記着目オブジェクトである、項目57に記載の仮想画像生成システム。
(項目64)
前記制御システムは、前記着目オブジェクトが配置されている焦点面を識別し、前記識別された焦点面に基づいて、前記テキストメッセージのストリーミング速度を調節するためにさらに構成されている、項目50に記載の仮想画像生成システム。
(項目65)
前記エンドユーザの焦点を感知するために構成される1つ以上のセンサをさらに備え、前記制御システムは、前記ディスプレイシステムにテキスト領域インジケータを前記着目オブジェクトに隣接して表示するように命令することと、前記エンドユーザの焦点が前記テキスト領域インジケータと一致するとき、前記テキスト領域をアクティブにすることとを行うために構成されている、項目50に記載の仮想画像生成システム。
(項目66)
前記テキスト領域は、アクティブにされると視覚的に現れる、項目65に記載の仮想画像生成システム。
(項目67)
前記エンドユーザの眼の瞬きを感知するために構成される1つ以上のセンサをさらに備え、前記制御システムは、前記エンドユーザの眼が閉鎖されると前記テキストメッセージのストリーミングを一時停止し、前記エンドユーザの眼が開放されると前記テキストメッセージのストリーミングを継続するために構成されている、項目34に記載の仮想画像生成システム。
(項目68)
前記制御システムは、前記テキストメッセージの単語間の一時停止を変動させることによって、前記テキストメッセージをストリーミングするために構成されている、項目34に記載の仮想画像生成システム。
(項目69)
1つ以上のスピーカをさらに備え、前記制御システムは、前記1つ以上のスピーカに、前記テキストメッセージ内の単語がストリーミングされるにつれて、それらと時間的にそれぞれ対応する可聴トーンのパターンを生成するように命令するために構成されている、項目34に記載の仮想画像生成システム。
(項目70)
前記ディスプレイシステムは、前記テキスト領域を前記エンドユーザに表示するために構成されている、項目34に記載の仮想画像生成システム。
図面は、本発明の実施形態の設計および有用性を図示し、類似要素は、共通参照番号によって参照される。本発明の前述および他の利点ならびに目的が得られる方法をより深く理解するために、簡単に前述された本発明のより詳細な説明が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、その範囲の限定と見なされるべきではないことを理解した上で、本発明は、付随の図面の使用を通して追加の具体性および詳細とともに説明ならびに記載されるであろう。
図1は、従来技術の拡張現実生成デバイスによってエンドユーザに表示され得る3次元拡張現実場面の写真である。 図2は、従来のコーヒーメニューの平面図である。 図3は、本発明の一実施形態に従って構築される拡張現実システムのブロック図である。 図4は、図3の拡張現実システムによって生成される例示的フレームの平面図である。 図5aは、図3の拡張現実システムを装着するために使用され得る、1つの技法の図である。 図5bは、図3の拡張現実システムを装着するために使用され得る、別の技法の図である。 図5cは、図3の拡張現実システムを装着するために使用され得る、さらに別の1つの技法の図である。 図5dは、図3の拡張現実システムを装着するために使用され得る、さらに別の1つの技法の図である。 図6a-6cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の1つの技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする。 図6a-6cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の1つの技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする。 図6a-6cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の1つの技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする。 図7a-7bは、コーヒーメニューの平面図であり、図3の拡張現実システムテキスト領域を着目オブジェクトに隣接してアクティブにする。 図7a-7bは、コーヒーメニューの平面図であり、図3の拡張現実システムテキスト領域を着目オブジェクトに隣接してアクティブにする。 図8a-8cは、コーヒーメニュー上の着目オブジェクトの平面図であり、図3の拡張現実システムは、本発明の別の技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする。 図9a-9cは、コーヒーメニュー上の着目オブジェクトの平面図であり、図3の拡張現実システムは、本発明のさらに別の技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする 図10a-10cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明のさらに別の技法に従って、テキスト領域内のテキストメッセージを着目オブジェクトに隣接してストリーミングする。 図11a-11bは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の1つの技法に従って、エンドユーザによる頭部の移動に応答して、テキストメッセージのストリーミングを制御する。 図11a-11bは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の1つの技法に従って、エンドユーザによる頭部の移動に応答して、テキストメッセージのストリーミングを制御する。 図12a-12cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の別の技法に従って、エンドユーザによる頭部の移動に応答して、テキストメッセージのストリーミングを制御する。 図12a-12cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の別の技法に従って、エンドユーザによる頭部の移動に応答して、テキストメッセージのストリーミングを制御する。 図12a-12cは、コーヒーメニューの平面図であり、図3の拡張現実システムは、本発明の別の技法に従って、エンドユーザによる頭部の移動に応答して、テキストメッセージのストリーミングを制御する。 図13は、図3の拡張現実システムを動作させ、テキストメッセージを周囲の3次元場面内の着目オブジェクトに隣接してストリーミングおよび制御する方法を図示する、フロー図である。
続く説明は、拡張現実システムにおいて使用されるべきディスプレイシステムおよび方法に関する。しかしながら、本発明は、拡張現実における用途に有用であるが、本発明は、その最も広範な側面では、そのように限定されないこともあることを理解されたい。
図3を参照して、本発明に従って構築された拡張現実システム100の一実施形態が、ここで説明されるであろう。拡張現実システム100は、エンドユーザ50の視野内の実際のオブジェクトと混合された仮想オブジェクトの画像を提供する。拡張現実システム100および本明細書に教示される種々の技法は、拡張現実以外の用途で採用され得る。例えば、種々の技法は、任意の投影またはディスプレイシステムに適用され得る。または、本明細書に説明される種々の技法は、移動が、頭部ではなく、エンドユーザの手によって行われ得るピコプロジェクタに適用され得る。したがって、多くの場合、拡張現実システムの観点から本明細書に説明されるが、本教示は、そのような使用のそのようなシステムに限定されるべきではない。
拡張現実システム100を動作させるときの2つの基本アプローチが存在する。第1のアプローチは、1つ以上の撮像機(例えば、カメラ)を採用し、周囲環境の画像を捕捉する。拡張現実システム100は、仮想画像を周囲環境の画像を表すデータの中に混合する。第2のアプローチは、1つ以上の少なくとも部分的に透明な表面を採用し、それを通して周囲環境が見られ、その上に拡張現実システム100が、仮想オブジェクトの画像を生成する。
拡張現実システム100および本明細書に教示される種々の技法は、拡張現実システム以外の用途でも採用され得る。例えば、種々の技法は、任意の投影またはディスプレイシステムに適用され得る。例えば、本明細書に説明される種々の技法は、移動が、頭部ではなく、エンドユーザの手によって行われ得る、ピコプロジェクタに適用され得る。したがって、多くの場合、拡張現実システムまたは仮想現実システムの観点から本明細書に説明されるが、本教示は、そのような使用のそのようなシステムに限定されるべきではない。
少なくとも拡張現実用途のために、種々の仮想オブジェクトをエンドユーザ50の視野内のそれぞれの実際のオブジェクトに対して空間的に位置付けることが望ましくあり得る。仮想オブジェクトは、本明細書では、仮想タグまたはコールアウトとも称され、多種多様な形態、基本的に、画像として表されることが可能な任意の種々のデータ、情報、概念、または論理構造のいずれかをとり得る。仮想オブジェクトの非限定的例として、仮想テキストオブジェクト、仮想数字オブジェクト、仮想英数字オブジェクト、仮想タグオブジェクト、仮想フィールドオブジェクト、仮想チャートオブジェクト、仮想マップオブジェクト、仮想計装オブジェクト、または物理的オブジェクトの仮想視覚表現が挙げられ得る。
本発明により関連して、拡張現実システム100は、テキスト領域を3次元場面内の実際のオブジェクトに空間的に関連付け、それぞれの実際のオブジェクトの少なくとも1つの特性を識別するためのテキストメッセージをテキスト領域のうちの選択されたものの中に生成し、テキストメッセージを選択されたテキスト領域内にストリーミングする。一実施形態では、一度に1つのテキスト領域が、テキストメッセージのストリーミングおよび表示のために選択され、特に、エンドユーザが現在見ている実際のオブジェクトに関連付けられたテキスト領域が、選択される。有利には、実際のオブジェクトに関連付けられたテキスト領域内のテキストメッセージをストリーミングすることは、より小さいエリア内でのテキストメッセージの表示を促進し、それによって、テキストメッセージを表示することにおいてコンパクト性を提供し、それによって、3次元場面の任意の乱雑性を低減させ、ディスプレイの簡略性、相互作用性、および迅速性を提供する。
テキストメッセージは、拡張現実システム内の実際のオブジェクトに関連付けられたテキスト領域内にストリーミングされるものとして説明されるが、テキストメッセージは、拡張現実システムまたは仮想現実システム内の仮想オブジェクトに関連付けられたテキスト領域内でストリーミングされることができることを理解されたい。さらに、テキストメッセージは、拡張現実システム以外の視覚システム内の実際のオブジェクトに関連付けられたテキスト領域内にストリーミングされることができ、例えば、エンドユーザは、単に、ディスプレイテキストメッセージのみ(すなわち、仮想オブジェクトは、表示されない)を実際のオブジェクトに隣接して表示する透明媒体を通して見る。
この目的を達成するために、拡張現実システム100は、エンドユーザ50によって装着されるフレーム構造102と、ディスプレイシステム104がエンドユーザ50の眼52の正面に位置付けられるように、フレーム構造102によって支持されるディスプレイシステム104と、スピーカ106がエンドユーザ50の外耳道に隣接して位置付けられる(随意に、別のスピーカ(図示せず)がエンドユーザ50の他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)ようにフレーム構造102によって支持されるスピーカ106とを備えている。ディスプレイシステム104は、エンドユーザ50の眼52に光ベースの放射パターンを提示するように設計され、光ベースの放射パターンは、高レベルの画質および3次元知覚を伴い、物理的現実に対する拡張として快適に知覚され、かつ2次元コンテンツを提示可能であり得る。ディスプレイシステム104は、一連のフレームを高周波数で提示し、単一コヒーレント場面の知覚を提供する。
図示される実施形態では、ディスプレイシステム104は、投影サブシステム108と、投影サブシステム108が画像を投影する、部分的に透明なディスプレイ表面110とを備えている。ディスプレイ表面110は、エンドユーザ50の眼52と周囲環境との間のエンドユーザ50の視野内に位置付けられる。図示される実施形態では、投影サブシステム108は、1つ以上の光ファイバ112(例えば、単一モード光ファイバ)を含み、それらの各々は、光が受信される一端112aと、光が部分的に透明なディスプレイ表面110に提供される別の端部112bとを有する。投影サブシステム108は、光を生成し(例えば、異なる色の光を定義されたパターンで放出し)、光を光ファイバ112の他端112aに通信可能に結合する、1つ以上の光源114も含み得る。光源114は、それぞれ、多種多様な形態のいずれかをとることができる(例えば、ピクセル情報またはデータのそれぞれのフレームにおいて規定された定義されたピクセルパターンに従って、赤色、緑色、および青色のコヒーレントなコリメートされた光を生成するように動作可能なRGBレーザの組(例えば、赤色、緑色、および青色光を出力可能なレーザダイオード))。レーザ光は、高色飽和を提供し、非常にエネルギー効率的である。
ディスプレイシステム104は、制御信号に応答して所定のパターンで光ファイバ112を走査する、走査デバイス116をさらに備え得る。例えば、図3を参照すると、ピクセル情報またはデータのフレーム118は、1つの図示される実施形態に従って、ピクセル情報またはデータを規定し、画像、例えば、1つ以上の仮想オブジェクトの画像を提示する。フレーム118は、水平行または列122a-122nに分割されるセル120a-120mとともに図式的に図示される。フレーム118の各セル120は、セル120が対応するそれぞれのピクセルのための複数の色の各々のための値および/または強度を規定し得る。例えば、フレーム118は、各ピクセルのために、赤色124aのための1つ以上の値、緑色124bのための1つ以上の値、および青色124cのための1つ以上の値を規定し得る。値124は、色の各々のためのバイナリ表現、例えば、各色のためのそれぞれの4ビット数として規定され得る。フレーム118の各セル120は、加えて、振幅を規定する値124dを含み得る。ディスプレイシステム104は、走査ファイバ技術を用いて実装されるものとして説明されるが、ディスプレイシステム104は、任意のディスプレイ技術、例えば、液晶ディスプレイ(LCD)、デジタル光処理(DLP)ディスプレイ等に基づいてもよいことを理解されたい。
図3に戻って参照すると、拡張現実システム100はさらに、エンドユーザ50の頭部54の位置および移動ならびに/またはエンドユーザ50の眼の位置および眼間距離を検出するために、フレーム構造102に搭載される1つ以上のセンサ(図示せず)を備えている。そのようなセンサは、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ)を含み得る。
例えば、一実施形態では、拡張現実システム100は、エンドユーザ50の頭部54の移動を示す慣性測定値を捕捉するための1つ以上の慣性変換器を含む頭部装着型変換器システム126を備えている。そのようなものは、エンドユーザ50の頭部の移動についての情報を感知、測定、または収集するために使用され得る。例えば、そのようなものは、エンドユーザ50の頭部54の測定移動、速度、加速度、および/または位置を検出するために使用され得る。
拡張現実システム100はさらに、1つ以上の前向きカメラ128を備え、それは、エンドユーザ50が位置する環境についての情報を捕捉するために使用され得る。前向きカメラ128は、その環境およびその環境内の特定のオブジェクトに対するエンドユーザ50の距離および向きを示す情報を捕捉するために使用され得る。頭部装着型であるとき、前向きカメラ128は、特に、エンドユーザ50が位置する環境およびその環境内の特定のオブジェクトに対するエンドユーザ50の頭部54の距離および向きを示す情報を捕捉するために好適である。前向きカメラ128は、例えば、頭部の移動、頭部の移動の速度、および/または加速度を検出するために採用され得る。前向きカメラ128は、例えば、少なくとも部分的に、エンドユーザ50の頭部54の向きに基づいて、例えば、エンドユーザ50の注意の中心を検出または推測するために採用され得る。向きは、任意の方向(例えば、エンドユーザ50の基準フレームに対して上/下、左、右)において検出され得る。
拡張現実システム100はさらに、一対の後向きカメラ129を備え、エンドユーザ50の眼52の移動、瞬き、および焦点深度を追跡する。そのような眼追跡情報は、例えば、光をエンドユーザの眼に投影し、その投影された光の少なくとも一部の戻りまたは反射を検出することによって、判別され得る。拡張現実システム100はさらに、ユーザ向き検出モジュール130を備えている。ユーザ向きモジュール130は、エンドユーザ50の頭部54の瞬時位置を検出し、センサから受信された位置データに基づいて、エンドユーザ50の頭部54の位置を予測し得る。有意には、エンドユーザ50の頭部54の瞬時位置の検出は、エンドユーザ50が見ている特定の実際のオブジェクトの決定を促進し、それによって、その実際のオブジェクトのために生成されるべき特定のテキストメッセージの指示を提供し、さらに、テキストメッセージがストリーミングされるべきテキスト領域の指示を提供する。ユーザ向きモジュール130は、センサから受信された追跡データに基づいて、エンドユーザ50の眼52も追跡する。
拡張現実システム100はさらに、多種多様な形態のいずれかをとり得る、制御サブシステムを備えている。制御サブシステムは、いくつかのコントローラ、例えば1つ以上のマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、他の集積回路コントローラ、例えば、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、例えば、フィールドPGA(FPGAS)、および/またはプログラマブル論理コントローラ(PLU)を含む。
図示される実施形態では、拡張現実システム100は、中央処理ユニット(CPU)132と、グラフィック処理ユニット(GPU)134と、1つ以上のフレームバッファ136とを備えている。CPU132は、全体的動作を制御する一方、GPU134は、遠隔データリポジトリ150内に記憶される3次元データからフレームをレンダリングし(すなわち、3次元場面を2次元画像に変換し)、これらのフレームをフレームバッファ136内に記憶する。図示されないが、1つ以上の追加の集積回路が、フレームのフレームバッファ136の中への読み込みおよび/またはそこからの読み取りならびにディスプレイシステム104の走査デバイスの動作を制御し得る。フレームバッファ146の中への読み込みおよび/またはそこからの読み取りは、動的アドレス指定を採用し得、例えば、フレームは、オーバーレンダリングされる。拡張現実システム100はさらに、読み取り専用メモリ(ROM)138と、ランダムアクセスメモリ(RAM)140とを備えている。拡張現実システム100はさらに、3次元データベース142を備え、そこからGPU134は、フレームをレンダリングするための1つ以上の場面の3次元データにアクセスすることができる。
拡張現実システム100の種々の処理コンポーネントは、分散型システム内に物理的に含まれ得る。例えば、図5a-5dに図示されるように、拡張現実システム100は、有線導線または無線コネクティビティ146等によって、ディスプレイシステム104およびセンサに動作可能に結合されるローカル処理およびデータモジュール144を備えている。ローカル処理およびデータモジュール144は、フレーム構造102に固定して取り付けられる(図5a)、ヘルメットもしくは帽子56に固定して取り付けられる(図5b)、ヘッドホン内に埋設される、エンドユーザ50の胴体58に除去可能に取り付けられる(図5c)、またはベルト結合式構成においてエンドユーザ50の腰60に除去可能に取り付けられる(図5d)等、種々の構成で搭載され得る。拡張現実システム100はさらに、有線導線または無線コネクティビティ150、152等によって、ローカル処理およびデータモジュール144に動作可能に結合される、遠隔処理モジュール148および遠隔データリポジトリ150を備え、それによって、これらの遠隔モジュール148、150は、互いに動作可能に結合され、ローカル処理およびデータモジュール144に対してリソースとして利用可能である。
ローカル処理およびデータモジュール144は、電力効率的プロセッサまたはコントローラならびにフラッシュメモリ等のデジタルメモリを備え得、両方とも、センサから捕捉され、および/または、遠隔処理モジュール148および/または遠隔データリポジトリ150を使用して取得ならびに/もしくは処理されたデータの処理、キャッシュ、および記憶を補助するために利用され得、データは、おそらく、そのような処理または読み出し後、ディスプレイシステム104に渡る。遠隔処理モジュール148は、データおよび/または画像情報を分析ならびに処理するように構成される1つ以上の比較的に強力なプロセッサまたはコントローラを備え得る。遠隔データリポジトリ150は、比較的に大規模なデジタルデータ記憶設備を備え得、それは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であり得る。一実施形態では、ローカル処理およびデータモジュール144において、全データが記憶され、全計算が行われ、それは、任意の遠隔モジュールからの完全に自律的使用を可能にする。
前述の種々のコンポーネント間の結合146、152、154は、有線もしくは光学通信を提供するための1つ以上の有線インターフェースもしくはポート、または無線通信を提供するためのRF、マイクロ波、およびIR等を介した1つ以上の無線インターフェースもしくはポートを含み得る。いくつかの実装では、全ての通信は、有線であり得る一方、他の実装では、全ての通信は、無線であり得る。なおもさらなる実装では、有線および無線通信の選択は、図5a-5dに図示されるものと異なり得る。したがって、有線または無線通信の特定の選択は、限定と見なされるべきではない。
図示される実施形態では、ユーザ向きモジュール130は、ローカル処理およびデータモジュール144内に含まれる一方、CPU132およびGPU134は、遠隔処理モジュール148内に含まれるが、代替実施形態では、CPU132、GPU124、またはその一部は、ローカル処理およびデータモジュール144内に含まれ得る。3Dデータベース142は、遠隔データリポジトリ150に関連付けられることができる。
簡単に前述されたように、拡張現実システム100は、テキスト領域を実際のオブジェクトのうちの1つに隣接して空間的に関連付け、実際のオブジェクトの少なくとも1つの特性を識別するテキストメッセージを生成し、テキストメッセージをテキスト領域内にストリーミングする。例えば、図6a-6cを参照すると、テキスト領域200は、着目オブジェクト(この場合、コーヒーのカップ20a、例えば、物理的であり得るか、またはメニュー上の写真であり得るコーヒーのカップ)に空間的に関連付けられ得る。図示される実施形態では、テキスト領域200は、着目オブジェクト20aの直上に位置する長方形ボックスの形態をとるが、代替実施形態では、テキスト領域200は、任意の好適な形状をとり得る。図示される実施形態では、テキスト領域200は、エンドユーザ50に可視である。代替として、テキスト領域200は、エンドユーザ50に非可視であり得る。一実施形態では、テキスト領域200は、テキスト領域200が着目オブジェクト20aの移動(例えば、メニューが移動される)と連動して移動するように、着目オブジェクト20aにリンクされる。すなわち、着目オブジェクト20aが3次元場面内で移動する場合、テキスト領域200は、着目オブジェクト20aとともに移動するであろう。
拡張現実システム100は、テキストメッセージ202、例えば、「コーヒー、カフェイン抜き、豆乳」をテキスト領域200内にストリーミングする。そこに示されるように、テキストメッセージ202は、単語「コーヒー(Coffee)」が最初にテキスト領域200内に表示され(図6a)、次いで、単語「カフェイン抜き(Decaf)」が、テキスト領域200内に表示され(図6b)、最後に、単語「豆乳(Soy)」が、テキスト領域200内に表示される(図6c)ようにストリーミングされる。テキストメッセージ202は、単語「コーヒー」、「カフェイン抜き」、および「豆乳」がテキスト領域200内に順次繰り返し表示されるように(すなわち、「コーヒー」、「カフェイン抜き」、「豆乳」、「コーヒー」、「カフェイン抜き」、「豆乳」等)、連続ループにおいてストリーミングされることができる。
随意の実施形態では、テキスト領域200は、エンドユーザ50によって選択的にアクティブにされ得る。特に、テキスト領域200は、デフォルトでは、非アクティブ状態であり得、エンドユーザに非可視であり、次いで、アクティブにされ、テキスト領域200がエンドユーザ50によって視認されることを可能にする。例えば、図7a-7bに図示されるように、拡張現実システム100は、テキスト領域インジケータ204(この場合、矢印)を着目オブジェクト20a-20cに隣接して表示し(図7a)、エンドユーザ50の焦点を感知し、エンドユーザ50の焦点がテキスト領域インジケータ204と一致すると(この場合、エンドユーザ50が着目オブジェクト20aに集中すると)、テキスト領域200をアクティブにし得る(図7b)。
テキストメッセージ202は、一度に1つの単語が表示されるように説明されるが、テキストメッセージ202は、一度に2つ以上の単語が表示されることができることを理解されたい。例えば、これは、テキストメッセージ202内の3つ以上の隣接する単語が、テキスト領域200内に一緒に同時に表示され得るように十分に短いときに有用であり得る。
テキストメッセージ202は、テキストメッセージ202内の単語のうちの少なくとも1つがエンドユーザ50によって見られることができない様式でテキスト領域200内でストリーミングされるように説明されるが、テキストメッセージ202は、単語のうちの少なくとも2つが一度に表示されるが、表示される単語のうちの1つのみが強調されるように、テキスト領域200内でストリーミングされ得る。
例えば、テキストメッセージ202の2つ以上の単語は、同時に表示されながら、他の現在表示されている単語を上回る輝度強度でそれを表示することによって、単語のうちの1つを強調し得る。例えば、図8a-8cに示されるように、単語「コーヒー」および「カフェイン抜き」が、最初に、テキスト領域200内で上下に表示されることができ、単語「コーヒー」は、比較的に高輝度強度で強調され、単語「カフェイン抜き」は、比較的に低輝度強度(図8a)を伴ってあまり強調されない。単語「コーヒー」、「カフェイン抜き」、および「豆乳」が、次いで、テキスト領域200内で上下に表示されることができ、単語「カフェイン抜き」は、比較的に高輝度強度で強調され、単語「コーヒー」および「豆乳」は、比較的に低輝度強度であまり強調されない(図8b)。単語「カフェイン抜き」および「豆乳」が、次いで、テキスト領域200内で上下に表示されることができ、単語「豆乳」は、比較的に高輝度強度で強調され、単語「カフェイン抜き」は、比較的に低輝度強度であまり強調されない(図8c)。
別の例として、3次元テキスト領域が、着目オブジェクト20aに空間的に関連付けられ得、その場合、テキストメッセージ202内の単語のうちの1つは、テキスト領域200’の前景に表示することによって強調され得、テキストメッセージ202の別の単語または複数の単語は、テキスト領域200’の背景に表示することによってあまり強調されないこともある。例えば、図9a-9cに示されるように、単語「コーヒー」、「カフェイン抜き」、および「豆乳」が、最初に、テキスト領域200’内で前後に表示されることができ、単語「コーヒー」は、それを前景に表示することによって強調され、単語「カフェイン抜き」および「豆乳」は、それらを背景に表示することによってあまり強調されない(図9a)。単語「カフェイン抜き」および「豆乳」が、次いで、テキスト領域200’内で前後に表示され、単語「カフェイン抜き」は、それを前景に表示することによって強調され、単語「豆乳」は、それを背景に表示することによってあまり強調されず(図9b)、単語「豆乳」が、次いで、テキスト領域200’内に単独で表示される(図9c)。
テキストメッセージ202は、代替として、単語「コーヒー」、「カフェイン抜き」、および「豆乳」が、テキスト領域200’内に順次繰り返し表示されるように、連続ループ内でストリーミングされることができる。この場合、図10a-10cに示されるように、単語「コーヒー」、「カフェイン抜き」、および「豆乳」が、最初に、テキストが領域200’内で前後に表示されることができ、単語「コーヒー」は、それを前景に表示することによって強調され、単語「カフェイン抜き」および「豆乳」は、それらを背景に表示することによってあまり強調されない(図10a)。単語「カフェイン抜き」、「豆乳」、および「コーヒー」が、次いで、テキスト領域200’内で前後に表示され、単語「カフェイン抜き」は、それを前景に表示することによって強調され、単語「豆乳」および「コーヒー」は、それらを背景に表示することによってあまり強調されない(図10b)。単語「豆乳」、「コーヒー」、および「カフェイン抜き」が、次いで、テキスト領域200’内で前後に表示され、単語「豆乳」は、それを前景に表示することによって強調され、単語「コーヒー」および「豆乳」は、それらを背景に表示することによってあまり強調されない(図10c)。
着目すべきこととして、テキスト領域200’内のテキストメッセージ202の単語の並べ替えは、個別的に行われ得(すなわち、単語が個別的に現れ、順序付けられた列から消える)、または持続的に行われ得(すなわち、単語が背景から前景に連続的に移動する)。さらに、テキストメッセージ202の単語は、異なる輝度強度または異なる深度を伴ってテキストメッセージ202の単語を表示することによってテキスト領域内で強調または非強調されるように説明されるが、テキストメッセージ202の単語は、テキストメッセージ202の残りの単語のものより大きい文字で単語のうちの1つを表示するか、または単語のうちの1つを中実または不透明であるように、テキストメッセージ202の残りの単語を透明または半透明であるように表示することによって強調または非強調され得る。
図11a-11bを参照すると、拡張現実システム100は、ジェスチャ基準オブジェクト206を着目オブジェクト20aに隣接して表示し、エンドユーザ50からのジェスチャコマンドが感知されることを可能にする。特に、ジェスチャ基準オブジェクト206に対するエンドユーザ50の解剖学的部分の角度位置が、感知される。図示される実施形態では、ジェスチャするエンドユーザ50の解剖学的部分は、エンドユーザ50の頭部54であり、したがって、エンドユーザ50の頭部54がジェスチャ基準オブジェクト206に対して向けられる方向が、感知される。代替実施形態では、ジェスチャ基準オブジェクト206は、エンドユーザ50に表示されず、代わりに、非可視ジェスチャ基準が、着目オブジェクト20aと同一座標系の中に組み込まれる。この場合、エンドユーザ50の頭部54がジェスチャ基準に対して向けられる方向が、感知される。
図示される実施形態では、ジェスチャ基準オブジェクト206は、着目オブジェクト20aを完全に包囲する環状リングの形態をとる。エンドユーザ50の頭部54を環状リング206の一部に向けることが、テキストメッセージ202のストリーミングを制御する。例えば、エンドユーザ50がその頭部54を環状リング206を横断して走査させるとき、テキストメッセージ202のストリーミングが、頭部54が、環状リング206の片側208a、例えば、環状リング206の左側208a上の点110a(図11a)に向けられると開始され、頭部54が、環状リング206の反対側、例えば、環状リング206の右側208b上の点110b(図11b)に向けられると終了され得る。走査方向は、左から右として図11a-11bに図示されるが、走査は、同様に、異なる方向を伴って(上から下、下から上、および右から左を含む)環状リング206に適用され、テキストメッセージ202のストリーミングを開始し、次いで、中止することができることを理解されたい。
別の例として、エンドユーザ50が、その頭部を環状リング206を横断して走査させるとき、テキストメッセージ202内の各単語のタイミングが、制御され得る。例えば、図12a-12cに示されるように、環状リング206は、複数の同心リング、この場合、2つの同心リング206a、206bに分割されることができる。エンドユーザ50が、その頭部54を環状リング206の外側から内側に走査させるとき、頭部54が環状リング206の外側縁210aを横断して走査するにつれて、単語「コーヒー」が、テキスト領域200内に表示され(図12a)、頭部54が、同心リング206a、206b間の境界面210bを横断して走査するにつれて、単語「カフェイン抜き」が、テキスト領域200内に表示され(図12b)、頭部54が、環状リング206の内側縁210cを横断して走査するにつれて、単語「豆乳」が、テキスト領域200内に表示されるであろう(図12c)。
対照的に、エンドユーザ50が、その頭部54を環状リング206の内側から外側に走査させるとき、頭部54が、環状リング206の内側縁210cを横断して走査するにつれて、単語「豆乳」が、テキスト領域200内に表示され(図12c)、頭部54が、同心リング206a、206b間の境界面210bを横断して走査するにつれて、単語「カフェイン抜き」が、テキスト領域200内に表示され(図12b)、頭部54が、環状リング206の外側縁210aを横断して走査するにつれて、単語「コーヒー」が、テキスト領域200内に表示されるであろう(図12a)。
環状リング206は、テキストメッセージ内の単語の数が3つを上回る場合、さらなる同心リングに分割されることができるか、またはテキストメッセージ内の単語の数が2に等しい場合、全く分割されないこともあることを理解されたい(すなわち、環状リング206の内側および外側縁が、それぞれ、2つの単語の表示をトリガするであろう)。環状リング206の外側から内側への頭部54の走査がテキストメッセージ202を前方にストリーミングし、環状リング206の内側から外側への頭部54の走査がテキストメッセージ202を逆にストリーミングすることも理解されたい。テキストメッセージ202のストリーミング速度は、頭部54を環状リング206を横断して比較的に迅速に走査させることによって増加させられ、頭部54を環状リング206横断して比較的に低速で走査させることによって減少させられることも理解されたい。図示される実施形態では、ストリーミング速度調節は、テキストメッセージ202の異なる単語の表示をトリガする縁210a、210cおよび境界面214bを横断する頭部54の走査の関数である。代替として、環状リング206が同心リングを含むかどうかにかかわらず、ストリーミング速度調節が、単に、頭部54が環状リング206を走査する速度の関数であることもできる。例えば、図11a-11bに戻って参照すると、頭部54を環状リング206の左側を横断して迅速に走査させることは、テキストメッセージ202を比較的に迅速にストリーミングさせ、頭部54を環状リング206の左側を横断して低速で走査させることは、テキストメッセージ202を比較的に低速でストリーミングさせるであろう。
図示される実施形態におけるジェスチャ基準オブジェクト206は、着目オブジェクト20aと別個かつ異なるが、代替実施形態では、ジェスチャ基準オブジェクト206は、実際のオブジェクト自体であることができることに留意されたい。図示される実施形態では、ジェスチャコマンドは、エンドユーザ50の頭部54によって行われるが、エンドユーザ50の他の解剖学的部分も、コマンドを発行するために使用されることができることを理解されたい。例えば、エンドユーザ50の指または手が環状リング206に対して向けられる方向が、感知され得る。
拡張現実システム100は、種々の様式のうちの任意の1つにおいてストリーミングテキストメッセージの読み取りおよび理解を促進し得る。一実施形態では、比較的に多数の単語を伴うテキストメッセージのために、拡張現実システム100は、隣接する単語のいくつかの対が比較的に短い一時停止をそれらの間に有し、他の隣接する対の単語が比較的に長い一時停止をそれらの間に有するように、テキストメッセージの単語間の一時停止を変動させ得る。例えば、テキストメッセージは、5単語のグループに分割され得、比較的に短い一時停止が、各グループ内の単語間に置かれ、比較的に長い一時停止が、5単語のグループ間に置かれる。
別の実施形態では、拡張現実システム100は、エンドユーザ50の眼52が閉鎖されると、テキストメッセージ202のストリーミングが一時停止し、エンドユーザ50の眼52が開放されると、継続するように、エンドユーザ50の眼52の瞬きを感知し得る。さらに別の実施形態では、拡張現実システム100は、エンドユーザ50とエンドユーザ50が見ている実際のオブジェクトとの間の距離に基づいて、テキストメッセージのストリーミング速度を調節する。例えば、実際のオブジェクトが配置される焦点面が、識別され得、テキストメッセージのストリーミング速度が、焦点面がエンドユーザ50に比較的に近い場合、比較的に高速であるように設定され、焦点面がエンドユーザ50から比較的に遠い場合、比較的に低速であるように設定され得る。さらに別の実施形態では、拡張現実システム100は、テキストメッセージ内の単語がストリーミングされるにつれて、それらと時間的にそれぞれ対応する可聴トーンのパターン(相互間で異なることも、同じでることもある)を生成する。例えば、各単語がエンドユーザ50に表示されるにつれて、拡張現実システム100は、可聴トーンを生成し、エンドユーザ50に伝送する。
拡張現実システム100の構造および機能が説明されたので、拡張現実システム100によってテキストメッセージをエンドユーザ50にストリーミングするために行われる1つの方法300が、ここで図13に関して説明されるであろう。最初に、拡張現実システム100は、エンドユーザ50が、周囲環境、例えば、コーヒーショップ(ステップ302)内で3次元場面を可視化することを可能にする。これは、例えば、CPU132が、前向きカメラ128に、3次元場面の画像データを捕捉するように指示し、ディスプレイシステム104に、捕捉された画像データをエンドユーザ50に表示するように指示する「ビデオシースルー」ディスプレイ、または、エンドユーザが、単に、3次元場面からの光を直接視認することを可能にされる「光学シースルー」ディスプレイにおいて遂行されることができる。
CPU132は、GPU134に、エンドユーザ50の視点からの仮想画像データを生成し、本実施形態では、3次元仮想場面から2次元仮想画像データをレンダリングするようにも命令する(ステップ304)。一実施形態では、仮想画像データは、例えば、仮想画像データをレンダリングし、歪めることによる任意の待ち時間問題を最小限にするために、予測頭部位置に基づいて生成され得る。
CPU132は、次いで、ディスプレイシステム104に、仮想画像データを仮想画像としてエンドユーザ50に表示し、周囲の3次元場面とともに、3次元拡張場面を作成するように命令する(ステップ306)。CPU132は、ディスプレイシステム104に、ディスプレイテキスト領域インジケータ204を3次元拡張場面内の着目オブジェクト22の選択されたものに隣接して表示するようにも命令する(ステップ308)。CPU132は、次いで、ユーザ向き検出モジュール130を介して、エンドユーザ50の焦点を感知し(ステップ310)、エンドユーザ50の焦点がテキスト領域インジケータ204のうちの1つと一致すると、ディスプレイシステム104に、テキスト領域200を対応する着目オブジェクト20aに隣接して表示するように命令することによって、その1つのテキスト領域インジケータ204に対応するテキスト領域200をアクティブにする(ステップ312)。
次に、CPU132は、ジェスチャ基準をアクティブにされるテキスト領域200に対応する着目オブジェクト20aに関連付け(ステップ314)、随意に、ディスプレイシステム104に、ジェスチャ基準をジェスチャ基準オブジェクト206として着目オブジェクト20aに隣接して表示するように命令する(ステップ316)。CPU132は、次いで、ユーザ向き検出モジュール130を介して、ジェスチャ基準オブジェクト206に対するエンドユーザ50の頭部54の角度位置を検出する(ステップ318)。エンドユーザ50の頭部54がジェスチャ基準オブジェクト206に向けられると、CPU132は、次いで、アクティブにされるテキスト領域200に対応する着目オブジェクト20aに関連付けられた特定のテキストメッセージ202を生成し(ステップ320)、ディスプレイシステム104に、テキストメッセージ202のストリーミングをアクティブにされるテキスト領域200内で開始するように命令する(ステップ322)。随意に、CPU132は、ユーザ向き検出モジュール130を介して、着目オブジェクト20aが配置される焦点面を識別し(ステップ324)、識別された焦点面に基づいて、テキストメッセージのストリーミング速度を調節する(例えば、焦点面がエンドユーザ50から遠いほど、ストリーミング速度は遅くなり、焦点面がエンドユーザ50から近いほど、ストリーミング速度は速くなる)(ステップ326)。
CPU132は、次いで、ユーザ向き検出モジュール130を介して、ジェスチャ基準オブジェクト206に対するエンドユーザ50の頭部54の角度位置/速度(例えば、ジェスチャ基準オブジェクト206上に向けられる頭部54の場所または頭部54がジェスチャ基準オブジェクト206を走査する速度)を検出する(ステップ328)。CPU132は、エンドユーザ50の頭部54の検出された角度位置/速度に基づいて、テキストメッセージ202のストリーミング(例えば、速度、前方/後方等)を制御する(ステップ330)。CPU132は、ユーザ向き検出モジュール130を介して、エンドユーザ50の眼52の瞬きを検出し(ステップ332)、眼52が閉鎖されると、テキストメッセージ202のストリーミングを一時停止し、眼52が開放されると、テキストメッセージ202のストリーミングを継続する(ステップ334)。
テキストメッセージの生成およびストリーミングは、拡張現実システムの文脈において説明されたが、テキストメッセージは、仮想オブジェクトの表示の有無にかかわらず、実際の着目オブジェクトに隣接してストリーミングされ得ることを理解されたい。例えば、システムは、単に、テキストメッセージを周囲の3次元場面内の実際の着目オブジェクトに隣接してストリーミングするために使用されることができる。また、テキストメッセージは、単に、最も短いテキスト量を使用して着目オブジェクトの標識化を提供する文脈においてストリーミングされるように本明細書に説明されたが、テキストメッセージはまた、中程度のテキスト使用(例えば、インフォグラフィック段落)および長テキストの使用(例えば、書籍の章)例に対する仮想画像生成システムにおいて使用されることができることを理解されたい。
前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広範な精神および範囲から逸脱することなく、本明細書に成され得ることが明白となるであろう。例えば、前述のプロセスフローは、特定の順序のプロセスアクションを参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本発明の範囲または動作に影響を及ぼすことなく変更され得る。明細書および図面は、故に、限定的意味ではなく、例証と見なされるものとする。

Claims (18)

  1. 仮想画像生成システムを動作させる方法であって、前記方法は、
    テキスト領域をユーザの視野内の着目実オブジェクトに空間的に関連付けることと、
    前記着目実オブジェクトに関連付けられたジェスチャ基準を生成することと、
    前記着目実オブジェクトの少なくとも1つの特性を識別するテキストメッセージを生成することと、
    前記テキストメッセージを前記テキスト領域内でストリーミングすることであって、前記テキストメッセージの前記ストリーミングは、前記ユーザの眼が閉鎖されると一時停止する、ことと、
    前記ユーザから前記ジェスチャ基準に関連するジェスチャコマンドを感知することと、
    前記ジェスチャコマンドに応答して前記テキストメッセージの前記ストリーミングを制御することと
    を含む、方法。
  2. 前記ジェスチャ基準を前記着目実オブジェクトに隣接するジェスチャ基準オブジェクトとして表示することをさらに含む、請求項1に記載の方法。
  3. 前記ジェスチャ基準は、前記着目実オブジェクトと別個であり、異なる、請求項1に記載の方法。
  4. 前記ジェスチャコマンドは、前記ユーザの解剖学的部分を伴い、
    前記ジェスチャ基準は、前記着目実オブジェクトを包囲する環状リングであり、前記ジェスチャ基準は、複数の領域を備え、前記複数の領域は、相互に異なり、
    前記環状リングの第1の側は、前記複数の領域のうちの1つを形成し、前記環状リングの前記第1の側の反対の前記環状リングの第2の側は、前記複数の領域のうちの別の1つを形成し、
    前記環状リングは、複数の同心リングを備え、前記同心リングのうちの2つの隣接する同心リングの間の境界面は、前記複数の領域のうちの1つを形成する、請求項1に記載の方法。
  5. 前記環状リングの内側または外側縁は、前記複数の領域のうちの別の1つを形成する、請求項4に記載の方法。
  6. 前記ジェスチャ基準は、前記着目実オブジェクトである、請求項に記載の方法。
  7. 前記テキストメッセージの前記ストリーミングは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の1つの領域に向けられると前記テキストメッセージの前記ストリーミングを開始させ、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の前記複数の領域のうちの別の1つに向けられると前記テキストメッセージの前記ストリーミングを終了させることによって、前記ジェスチャコマンドに応答して制御される、請求項4に記載の方法。
  8. 前記テキストメッセージの前記ストリーミングは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の1つの領域に向けられると前記テキストメッセージの少なくとも1つの単語を表示させ、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の前記複数の領域のうちの別の1つに向けられると前記テキストメッセージの少なくとも別の単語を表示させることによって、前記ジェスチャコマンドに応答して制御される、請求項4に記載の方法。
  9. 前記ジェスチャコマンドは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準を横断して走査させられるにつれて前記ユーザから感知される、請求項4に記載の方法。
  10. 1つ以上のセンサは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準を横断して走査させられるにつれて前記ユーザから前記ジェスチャコマンドを送信するために構成されている、請求項4に記載の方法。
  11. ユーザによる使用のための仮想画像生成システムであって、前記仮想画像生成システムは、
    前記ユーザが視野内の着目実オブジェクトを可視化することを可能にするために構成されているディスプレイシステムと、
    制御システムであって、前記制御システムは、
    テキスト領域を前記着目実オブジェクトに空間的に関連付けることと、
    前記着目実オブジェクトに関連付けられたジェスチャ基準を生成することと、
    前記着目実オブジェクトの少なくとも1つの特性を識別するテキストメッセージを生成することと、
    前記テキストメッセージを前記テキスト領域内でストリーミングするように前記ディスプレイシステムに命令することであって、前記テキストメッセージの前記ストリーミングは、前記ユーザの眼が閉鎖されると一時停止する、こと
    を行うように構成されている、制御システムと、
    前記ユーザから前記ジェスチャ基準に関連するジェスチャコマンドを感知するように構成されている1つ以上のセンサと
    を備え、
    前記制御システムは、前記ジェスチャコマンドに応答して前記テキストメッセージの前記ストリーミングを制御するためにさらに構成されている、仮想画像生成システム。
  12. 前記制御システムは、前記ジェスチャ基準を前記着目実オブジェクトに隣接するジェスチャ基準オブジェクトとして表示するように前記ディスプレイシステムに命令するためにさらに構成されている、請求項11に記載の仮想画像生成システム。
  13. 前記ジェスチャ基準は、前記着目実オブジェクトと別個であり、異なる、請求項11に記載の仮想画像生成システム。
  14. 前記ジェスチャコマンドは、前記ユーザの解剖学的部分を伴い、
    前記ジェスチャ基準は、前記着目実オブジェクトを包囲する環状リングであり、前記ジェスチャ基準は、複数の領域を備え、前記複数の領域は、相互に異なり、
    前記環状リングの第1の側は、前記複数の領域のうちの1つを形成し、前記環状リングの前記第1の側の反対の前記環状リングの第2の側は、前記複数の領域のうちの別の1つを形成し、
    前記環状リングは、複数の同心リングを備え、前記同心リングのうちの2つの隣接する同心リングの間の境界面は、前記複数の領域のうちの1つを形成する、請求項11に記載の仮想画像生成システム。
  15. 前記環状リングの内側または外側縁は、前記複数の領域のうちの別の1つを形成する、請求項14に記載の仮想画像生成システム。
  16. 前記ジェスチャ基準は、前記着目実オブジェクトである、請求項11に記載の仮想画像生成システム。
  17. 前記制御システムは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の1つの領域に向けられると前記テキストメッセージの前記ストリーミングを開始させ、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の前記複数の領域のうちの別の1つに向けられると前記テキストメッセージの前記ストリーミングを終了させるように前記ディスプレイシステムに命令することによって、前記ジェスチャコマンドに応答して前記テキストメッセージの前記ストリーミングを制御するために構成されている、請求項14に記載の仮想画像生成システム。
  18. 前記制御システムは、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の1つの領域に向けられると前記テキストメッセージの少なくとも1つの単語を表示させ、前記ユーザの前記解剖学的部分が前記ジェスチャ基準の前記複数の領域のうちの別の1つに向けられると前記テキストメッセージの少なくとも別の単語を表示させるように前記ディスプレイシステムに命令することによって、前記ジェスチャコマンドに応答して前記テキストメッセージの前記ストリーミングを制御するために構成されている、請求項14に記載の仮想画像生成システム。
JP2020161013A 2015-06-30 2020-09-25 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 Active JP7036879B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562187062P 2015-06-30 2015-06-30
US62/187,062 2015-06-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017567724A Division JP6770536B2 (ja) 2015-06-30 2016-06-30 仮想画像生成システムにおけるテキストをより効率的に表示するための技法

Publications (2)

Publication Number Publication Date
JP2021002394A JP2021002394A (ja) 2021-01-07
JP7036879B2 true JP7036879B2 (ja) 2022-03-15

Family

ID=57609274

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017567724A Active JP6770536B2 (ja) 2015-06-30 2016-06-30 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
JP2020161013A Active JP7036879B2 (ja) 2015-06-30 2020-09-25 仮想画像生成システムにおけるテキストをより効率的に表示するための技法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017567724A Active JP6770536B2 (ja) 2015-06-30 2016-06-30 仮想画像生成システムにおけるテキストをより効率的に表示するための技法

Country Status (9)

Country Link
US (1) US9978182B2 (ja)
EP (2) EP4068147A1 (ja)
JP (2) JP6770536B2 (ja)
KR (2) KR102410449B1 (ja)
CN (1) CN107710284B (ja)
AU (1) AU2016288213B2 (ja)
CA (1) CA2989939C (ja)
IL (1) IL256304B (ja)
WO (1) WO2017004397A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6770536B2 (ja) * 2015-06-30 2020-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
KR20170046415A (ko) * 2015-10-21 2017-05-02 엘지전자 주식회사 이동 단말기 및 그 제어방법
IT201700101360A1 (it) * 2017-09-11 2019-03-11 Erre Quadro Srl Metodo per l'analisi di documenti digitali
US10721510B2 (en) 2018-05-17 2020-07-21 At&T Intellectual Property I, L.P. Directing user focus in 360 video consumption
US10482653B1 (en) 2018-05-22 2019-11-19 At&T Intellectual Property I, L.P. System for active-focus prediction in 360 video
US10827225B2 (en) 2018-06-01 2020-11-03 AT&T Intellectual Propety I, L.P. Navigation for 360-degree video streaming
US10885689B2 (en) 2018-07-06 2021-01-05 General Electric Company System and method for augmented reality overlay
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
JP2022051982A (ja) * 2019-02-15 2022-04-04 ソニーグループ株式会社 情報処理装置および情報処理方法
CN114026603B (zh) 2019-09-23 2023-06-13 苹果公司 渲染计算机生成现实文本
WO2021228200A1 (zh) * 2020-05-13 2021-11-18 贝壳技术有限公司 用于实现三维空间场景互动的方法、装置和设备
CN112053450A (zh) * 2020-09-10 2020-12-08 脸萌有限公司 文字的显示方法、装置、电子设备及存储介质
CN116212361B (zh) * 2021-12-06 2024-04-16 广州视享科技有限公司 虚拟对象显示方法、装置和头戴式显示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150208A (ja) 2011-01-18 2012-08-09 Kagoshima Univ 表示制御装置、表示制御方法、プログラム及び記録媒体
JP2012212343A (ja) 2011-03-31 2012-11-01 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP2012212345A (ja) 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2014071812A (ja) 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP6770536B2 (ja) 2015-06-30 2020-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想画像生成システムにおけるテキストをより効率的に表示するための技法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US9715899B2 (en) * 2006-01-19 2017-07-25 Elizabeth T. Guckenberger Intellimarks universal parallel processes and devices for user controlled presentation customizations of content playback intervals, skips, sequencing, loops, rates, zooms, warpings, distortions, and synchronized fusions
US7773097B2 (en) * 2006-10-05 2010-08-10 Posit Science Corporation Visual emphasis for cognitive training exercises
KR101583802B1 (ko) * 2009-02-02 2016-01-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
KR101659091B1 (ko) * 2010-08-31 2016-09-22 삼성전자주식회사 문자 콜라주 메시지 생성 장치 및 방법
US20120092329A1 (en) * 2010-10-13 2012-04-19 Qualcomm Incorporated Text-based 3d augmented reality
WO2012105792A2 (ko) * 2011-02-01 2012-08-09 주식회사 가온웍스 관심분야 예측정보에 기초한 배경화면을 이용한 문자메시지 전송서비스 제공시스템 및 그 제공방법
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8953889B1 (en) * 2011-09-14 2015-02-10 Rawles Llc Object datastore in an augmented reality environment
US9165381B2 (en) * 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US20140189586A1 (en) * 2012-12-28 2014-07-03 Spritz Technology Llc Methods and systems for displaying text using rsvp
US9483109B2 (en) 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
JP6021592B2 (ja) * 2012-11-06 2016-11-09 任天堂株式会社 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
KR102318391B1 (ko) * 2013-03-15 2021-10-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9195391B2 (en) * 2013-04-19 2015-11-24 International Business Machines Corporation Touch sensitive data entry using a continuous gesture

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150208A (ja) 2011-01-18 2012-08-09 Kagoshima Univ 表示制御装置、表示制御方法、プログラム及び記録媒体
JP2012212343A (ja) 2011-03-31 2012-11-01 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP2012212345A (ja) 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2014071812A (ja) 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP6770536B2 (ja) 2015-06-30 2020-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想画像生成システムにおけるテキストをより効率的に表示するための技法

Also Published As

Publication number Publication date
EP3317858A1 (en) 2018-05-09
AU2016288213B2 (en) 2021-06-24
US9978182B2 (en) 2018-05-22
KR102601682B1 (ko) 2023-11-13
JP2018527649A (ja) 2018-09-20
EP3317858B1 (en) 2022-07-06
JP2021002394A (ja) 2021-01-07
CA2989939C (en) 2022-05-31
AU2016288213A1 (en) 2018-01-04
EP4068147A1 (en) 2022-10-05
JP6770536B2 (ja) 2020-10-14
KR20220086706A (ko) 2022-06-23
CN107710284A (zh) 2018-02-16
US20170032575A1 (en) 2017-02-02
EP3317858A4 (en) 2018-07-04
CA2989939A1 (en) 2017-01-05
IL256304A (en) 2018-02-28
CN107710284B (zh) 2021-11-23
KR20180021885A (ko) 2018-03-05
NZ738277A (en) 2021-05-28
WO2017004397A1 (en) 2017-01-05
KR102410449B1 (ko) 2022-06-16
IL256304B (en) 2022-02-01

Similar Documents

Publication Publication Date Title
JP7036879B2 (ja) 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
US11257285B2 (en) Direct light compensation technique for augmented reality system
US11087728B1 (en) Computer vision and mapping for audio applications
CN108885342B (zh) 虚拟图像生成系统及其操作方法
US11320667B2 (en) Automated video capture and composition system
NZ738277B2 (en) Technique for more efficiently displaying text in virtual image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7036879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150