JP2018084574A - 光学トラッカを有するnte表示システムおよび方法 - Google Patents

光学トラッカを有するnte表示システムおよび方法 Download PDF

Info

Publication number
JP2018084574A
JP2018084574A JP2017159044A JP2017159044A JP2018084574A JP 2018084574 A JP2018084574 A JP 2018084574A JP 2017159044 A JP2017159044 A JP 2017159044A JP 2017159044 A JP2017159044 A JP 2017159044A JP 2018084574 A JP2018084574 A JP 2018084574A
Authority
JP
Japan
Prior art keywords
display
reference symbol
orientation
tracker
nte
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017159044A
Other languages
English (en)
Other versions
JP6951151B2 (ja
Inventor
ブレント・ディー・ラーソン
Brent D Larson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2018084574A publication Critical patent/JP2018084574A/ja
Application granted granted Critical
Publication of JP6951151B2 publication Critical patent/JP6951151B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/32Fiducial marks and measuring scales within the optical system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】第1のオブジェクトの位置および向きを追跡するための光学トラッカシステムを提供すること。【解決手段】システムは、空間予測として第1のオブジェクトの予測位置および向きを決定するように構成された予測モジュールと、空間予測に基づいて、基準シンボルの表示コマンドを生成するように構成された表示モジュールと、表示コマンドに基づいて、基準シンボルを表示するように構成された表示ユニットと、表示ユニット上に表示された基準シンボルの画像を、取り込まれた外観として取り込むように構成されたカメラユニットと、カメラユニットに結合され、カメラユニットから画像を受信するように構成されたポジション決定モジュールとを備える。ポジション決定モジュールは、基準シンボルを識別し、基準シンボルの取り込まれた外観に基づいて第1のオブジェクトの位置および向きを決定するように構成される。【選択図】図1

Description

[0001]本発明は一般に、ニア・ツー・アイ(near−to−eye:NTE)表示システムおよび方法に関し、より詳細には、改良された高速かつ高精度の光学トラッカを有するNTE表示システムおよび方法に関する。
[0002]近年、ニア・ツー・アイ(NTE)表示システムが開発され急速に普及しつつある。特定の最終使用環境に応じて、これらのシステムは、ユーザのヘルメットまたはヘッドセットに結合されたNTE表示ユニットを含んでおり、したがってユーザの頭部の位置および角度方向が変わると共に動く。これにより、頭部のポジション、すなわち位置および/または向きに関わらず、表示される情報がユーザに見えることが可能になる。したがって、トラッキング構成が、1つまたは複数の自由度(たとえば、x、yおよびz、ならびにピッチ、ヨーおよびロール)で、頭部の位置および向きを決定するように機能して、NTE表示システムの全体的機能を有効にすることが認められ得る。既知のトラッキング技術としては、慣性、磁気、超音波、カメラベースの光学システムなどがあるが、多くのそうしたシステムは、比較的に複雑であり、重く、高価であり、かつ/または充分なパフォーマンス能力に欠けることがある。
米国特許第9,489,045号
D.DeMenthonおよびL.S.Davis、「Model−Based Object Pose in 25 Lines of Code(25行のコードのモデルベース・オブジェクト・ポーズ)」、International Journal of Computer Vision,15、123〜141頁、1995年6月 V.Lepetit、F.Moreno−Noguer、およびP.Fua、「EPnP:An Accurate 0(n) Solution to the PnP Problem(EPnP:PnP問題の正確な0(n)解)」、International Journal of Computer Vision,vol.81、155〜166頁
[0003]したがって、改良されたトラッキング能力を有するNTE表示システムおよび方法を提供することが望ましい。さらに、例示的な実施形態の他の望ましい特徴および特性が、添付の図面ならびに上述の技術分野および背景技術と併せて後述の詳細な説明および添付の特許請求の範囲から明らかになるであろう。
[0004]例示的な実施形態によれば、第1のオブジェクトの位置および向きを追跡するための光学トラッカシステムが提供される。システムは、空間予測として第1のオブジェクトの予測位置および向きを決定するように構成された予測モジュールと、予測モジュールに結合され、空間予測を受信するように構成された表示モジュールであって、空間予測に基づいて、基準シンボルの表示コマンドを生成するように構成された表示モジュールと、予測モジュールに結合され、表示コマンドを受信するように構成された表示ユニットであって、表示コマンドに基づいて、基準シンボルを表示するように構成された表示ユニットと、表示ユニット上に表示された基準シンボルの画像を、取り込まれた外観として取り込むように構成されたカメラユニットと、カメラユニットに結合され、カメラユニットから画像を受信するように構成されたポジション決定モジュールとを備える。ポジション決定モジュールは、基準シンボルを識別し、基準シンボルの取り込まれた外観に基づいて第1のオブジェクトの位置および向きを決定するように構成される。
[0005]別の例示的実施形態によれば、光学トラッカシステムを用いて第1のオブジェクトの位置および向きを追跡するための方法が提供される。方法は、空間予測として第1のオブジェクトの予測位置および向きを決定するステップと、空間予測に基づいて、基準シンボルの表示コマンドを生成するステップと、表示コマンドに基づいて、表示デバイス上に基準シンボルを表示するステップと、表示デバイス上に表示された基準シンボルの画像を、取り込まれた外観として取り込むステップと、画像における基準シンボルを識別するステップと、基準シンボルの取り込まれた外観に基づいて、第1のオブジェクトの位置および向きを決定するステップとを含む。
[0006]さらに別の例示的実施形態によれば、ニア・ツー・アイ表示システムが提供される。NTEシステムは、第1のオブジェクトの位置および向きを追跡するための光学トラッカシステムを備える。NTEシステムは、アクティブマトリックス表示デバイスを有し、第1の表示コマンドに基づいて基準シンボルを表示するように構成された第1の表示ユニットと、第1の表示デバイス上に表示された基準シンボルの画像を、取り込まれた外観として取り込むように構成されたカメラユニットと、カメラユニットに結合され、カメラユニットから画像を受信するように構成されたポジション決定モジュールとを備える。ポジション決定モジュールは、基準シンボルを識別し、基準シンボルの取り込まれた外観に基づいて第1のオブジェクトの位置および向きを決定するように構成される。NTEシステムは、光学トラッカシステムに結合され、第1のオブジェクトの位置および向きに基づいて、第2の表示コマンドを生成するように構成された駆動ユニットと、駆動ユニットに結合され、周囲環境に対して(relative to a surrounding environment)ユーザによって見られるように、第2の表示コマンドに基づいてシンボル体系(symbology)をレンダリングするように構成された第2の表示ユニットとを備える。
[0007]本発明は、同様の数字が同様の要素を表す下記の図面と関連して以下に説明される。
[0008]例示的な実施形態によるNTEシステムの機能ブロック図である。 [0009]例示的な実施形態によるトラッカ表示ユニット上の基準シンボルの第1のビューを示す図である。 [0010]例示的な実施形態によるトラッカ表示ユニット上の基準シンボルの第2のビューを示す図である。 [0011]例示的な実施形態によるトラッカ表示ユニット上の基準シンボルの第3のビューを示す図である。 [0012]例示的な実施形態によるトラッカ表示ユニット上の基準シンボルの第4のビューを示す図である。 [0013]例示的な実施形態によるNTE表示を提供するための方法のフローチャートである。 [0014]例示的な実施形態による基準シンボルのさらなる例を示す図である。 [0015]別の例示的実施形態によるNTEシステムの部分の機能ブロック図である。 [0016]例示的実施形態によるNTEシステムの変形例の機能ブロック図である。 例示的実施形態によるNTEシステムの変形例の機能ブロック図である。 例示的実施形態によるNTEシステムの変形例の機能ブロック図である。 例示的実施形態によるNTEシステムの変形例の機能ブロック図である。
[0017]以下の詳細な説明は、本質的に単なる例示であり、本発明または本発明の適用および使用を限定するものではない。本明細書で使用される場合、「例示的」という言葉は、例、実例、または例示の役割をすることを意味する。したがって、本明細書で「例示的」として説明されるいずれの実施形態も、他の実施形態に対して好ましいまたは有利であると解釈される必要はない。本明細書で説明されるすべての実施形態は、当業者が本発明を構成または使用することを可能にするために提供される例示的な実施形態であり、特許請求の範囲によって規定される本発明の範囲を限定するものではない。さらに、上述の技術分野、背景技術、発明の概要、または以下の詳細な説明に提示されるいかなる明示的または黙示的な理論にも拘束される意図はない。
[0018]以下に説明される例示的な実施形態において、ニア・ツー・アイ(NTE)表示システムおよび方法は、ユーザの頭部の空間特性を追跡してユーザの視覚的パースペクティブ(視点)を決定するように使用されるが、他のオブジェクトおよび身体部位が追跡されてもよい。一般に、本明細書で使用される用語「空間特性」および「ポジション」は、位置および/または向きの値のうちの1つまたは複数を指す。たとえば、空間特性は、三次元空間における、たとえば、デカルト座標系のx軸、y軸およびz軸に沿った、並進値(translational value)などの位置の値を含むことがある。空間特性はさらに、ピッチ、ヨー、およびロールとして一般的に知られるオイラー角など、向きまたは角度値を含むことがある。方向余弦、極座標表現、または四元数などを含むがそれらに限定されない多数の他の既知の向き表現のいずれかが、代わりに使用されてもよい。1つの例示的な実施形態では、NTEシステムは、これらの空間特性のうちの6つを考慮に入れ、したがって6自由度(DOF)NTEシステムとみなされることがある。他の実施形態では、NTEシステムは、これらの空間特性の単体またはサブセットのみを考慮に入れてもよく、または、NTEシステム内の複数のコンポーネントの間の相対的関係などの追加の自由度を含んでもよい。
[0019]次に図1を参照すると、ニア・ツー・アイ(NTE)システム100の一実施形態の機能ブロック図が示され、NTE構造110、構造表示ユニット120、NTE駆動ユニット130、NTEトラッカ制御ユニット140、1つまたは複数のカメラユニット160、1つまたは複数のトラッカ表示ユニット170、および1つまたは複数のデータソース180を含む。一般に、NTEシステム100は、操縦室などの動作環境102内に配置される。1つの例示的な実施形態では、NTEトラッカ制御ユニット140は、カメラユニット160およびトラッカ表示ユニット170のうちの1つまたは複数と組み合わされて、光学トラッカまたはトラッキングシステム、あるいは光学トラッカとみなされることがある。一般に、システム100の要素は、有線または無線データバスなどの任意の適切な様式で一緒に結合され得る。NTEシステム100は、図1では統合されたシステムとして構成されて表されているが、NTEシステム100は、それに限定されず、NTEシステム100の1つまたは複数の態様が別個のコンポーネントまたは別のシステムの下位コンポーネントである構成を含むこともできる。また、図1は、説明および記述の容易さのためにNTEシステム100の単純化された表現を提示しているが、図1は、主題の適用および範囲を何ら限定するものではないことに留意されたい。実際、当業者に認識されるように、NTEシステム100は、追加の機能および特徴を提供するために多くの他のデバイス、コンポーネント、および特性を含んでもよい。
[0020]1つの例示的な実施形態では、NTEシステム100は、ヘッドアップ・ディスプレイ(HUD)として具現化され、その場合、NTE構造110が、ユーザに着用され、半透明または透明な構造表示ユニット120を支持し、構造表示ユニット120は、NTE駆動ユニット130、NTEトラッカ制御ユニット140、およびデータソース180からの信号に基づいて、周囲環境に対してユーザによって見られるようにシンボル体系をレンダリングする。シンボル体系は、ユーザによって見ることができるように意図された任意の画像コンテンツを含んでよく、そのシンボル体系の一部または全部は、NTE構造110のポジションに部分的に基づいて選択または生成され得る。たとえば、シンボルは、周囲環境と等角(conformal)にレンダリングされ、等角のシンボルが、ヘッドアップ・ディスプレイを通して見られるときに環境内で対応する領域または特徴に重なるようにされてよい。適切な位置にシンボル体系を位置合わせして表示するために、NTEトラッカ制御ユニット140は、トラッカ表示ユニット170上に表示された基準シンボルの画像でNTE構造110に取り付けられたカメラユニット160に取り込まれた基準シンボルの画像を評価することによって、NTE構造110の位置および向き、ひいてはユーザのパースペクティブを決定する。動作、特にNTEトラッカ制御ユニット140の動作をより詳細に説明する前に、NTEシステム100の各コンポーネントを次に紹介する。NTEシステム100は、航空機に関連して説明されており、以下で総称的に「ユーザ」または「見る人(viewer)」と呼ばれる航空機操縦者によって使用されるが、例示的な実施形態は、軍用の乗り物または携帯デバイス・トラッカなど他のコンテキストで使用されてもよい。
[0021]1つの例示的な実施形態では、NTE構造110は、ユーザの眼の一方または両方の近くに配置された任意の構造とすることができる。たとえば、NTE構造110は、一般にユーザに着用され、たとえば、眼鏡、ゴーグル、ヘルメットに取り付けられた画面の形態で着用される。NTE構造110は、様々な構成および実装形態があり得ることは認識されよう。図1に示された特定の一実施形態では、NTE構造110は、人間のユーザの頭部に配置されるように構成されたバイザー(visor)である。
[0022]構造表示ユニット120は、ユーザの1つまたは複数の眼の前に配置されるようにNTE構造110によって支持される。構造表示ユニット120は、現実世界をユーザが見ることを可能にしながらも仮想画像を表示する任意の適切な表示コンポーネントである。たとえば、構造表示ユニット120は、例として、可視のシーンに重畳された仮想画像を提供するために、透明または半透明な画面を介して提示される任意のタイプの投影またはマイクロディスプレイ技術を採用してよい。1つの例示的な実施形態では、構造表示ユニット120は、濃霧状態などの視界の悪い条件においても、乗り物操作者によって使用される乗り物外部のシーンの表現的ビューを提供することができる。例示的な技術としては、たとえば、コリメート光学系およびマイクロディスプレイ(たとえば、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)ディスプレイ、有機発光ダイオード(OLED)ディスプレイなど)を有する光コンバイナなどがある。ユーザが現実世界を見ながら網膜上に画像が直接投影される網膜ディスプレイのような他の技術が採用されてもよい。構造表示ユニット120上に表示されたシンボルは、コンバイナを通して見ながら、ユーザに見える仮想画像として現れる。仮想画像は、コンピュータで生成され得るが、画像化センサ、画像伝送、または画像記憶デバイスなどの他のデータソース180から少なくとも部分的に到来してもよい。
[0023]NTE駆動ユニット130は、表示信号を構造表示ユニット120に提供して、所望のシンボル体系を生成する、または現実世界の見えるシーンに関連して構造表示ユニット120上の適切な位置に要素を表示する。いくつかのタイプのシンボル体系については、構造表示ユニット120上のポジションが、たとえば常に特定の場所に、固定されることがある。交通および地形情報などの他のタイプのシンボル体系については、表示要素が、ユーザの現在のパースペクティブに対して相対的な現実世界環境の関数である。したがって、NTE駆動ユニット130は、トラッカ制御ユニット140からの空間特性を使用して、構造表示ユニット120上で構造表示ユニット120に対して適切なポジションで、このシンボル体系を位置合わせして配置する。
[0024]NTE駆動ユニット130は、様々なタイプのデータソース180(たとえば、ナビゲーションシステム、飛行管理システム、警告システム、および通信ユニット)からの情報に基づいて、構造表示ユニット120上に任意の適切なタイプのシンボル体系をレンダリングし得る。たとえば、航空機のコンテキストでは、構造表示ユニット120上に提供されるシンボル体系は、交通および/または地形情報、速度、高度、姿勢、ならびに飛行経路および計画情報などを含む、航法または操作シンボル体系を含み得る。
[0025]トラッカ表示ユニット170は、NTE構造110と分離して動作環境102内に配置された1つまたは複数の表示デバイスを含む。トラッカ表示ユニット170は、少なくとも1つの基準シンボル(または複数の基準シンボル)を含む画像を表示するように機能する。典型的には、トラッカ表示ユニット170は、それに表示された画像の少なくとも一部分をカメラユニット160が取り込むように、固定された位置に配置される。そうした画像は、より詳細に後述されるように、基準シンボルを含み、基準シンボルから、NTEトラッカ制御ユニット140がユーザの空間特性を導出し得る。いくつかの実施形態では、トラッカ表示ユニット170は、やはり後述されるように、基準シンボルの外観を制御するNTEトラッカ制御ユニット140から、表示信号を受信することができる。
[0026]一般に、トラッカ表示ユニット170は、運用環境102内の任意の適切なポジションに配置され得る。図示の実施形態では、トラッカ表示ユニット170の一方がユーザの前に配置され、他方のトラッカ表示ユニット170がユーザの上方に配置される。いくつかの実施形態では、単一のトラッカ表示ユニット170のみが提供されることがある。実際、トラッカ表示ユニット170は、特定のポジションが特定の空間特性について利点を有し得るが、カメラユニット160の視線を有する任意の場所に配置されてよい。
[0027]より詳細には後で説明される理由により、トラッカ表示ユニット170は、アクティブマトリックス表示デバイス、特に、シンボル細部および分離に関する表示安定性およびリソグラフィ精度を提供して精密かつ再現可能なトラッキング結果を達成するアクティブマトリックス表示デバイスとされ得る。リソグラフィ精度は、集積回路および/またはアクティブマトリックスディスプレイの製造で一般的に採用されるような、光学的もしくはUVフォトリソグラフィ、電子ビームリソグラフィ、またはイオンビームリソグラフィなどの技法によって達成される、超高精度の精度および再現性を意味すると解釈される。以下に説明される実施形態では、アクティブマトリックストラッカ表示ユニット170は、単純な物理的マーキングまたは個別のより大きなLEDエミッタで達成可能な表示を大きく超えるやり方で基準シンボルの表示を可能にする。
[0028]例として、トラッカ表示ユニット170は、小さなピクセルサイズ、および拡張領域にわたるサブミクロンまたはより良い精度を有する、アクティブマトリクスLCDおよび/またはアクティブマトリクスLEDディスプレイを含むことができ、そのようなディスプレイは、典型的には、ピクセルパターンとカメラユニット160との間に介在する保護層(たとえば、ガラス基板、偏光子など)を有するが、そのような層は表示領域にわたって全体的に一貫しており、それによりトランキング機能を可能にする。さらなる特性は、ガラスおよび/または透明な基板の上または背後において、遠隔で生成および指向された前方または周囲照明を必要とせずに、リソグラフィでパターン形成され、放射性で、背面照光または局所的に前面照光された、単一の拡張された基板上に構築された表示ユニット170であり、サブミクロン精度パターン形成、高解像度、高コントラスト、高い局所均一出力輝度/放射輝度、または優れた特徴線形性などを有するものを含み得る。極めて高い2次元精度および安定性に加えて、トラッカ表示ユニット170の表面に垂直の軸における安定性および精度が、たとえば、基板材料、厚さ、および/または平坦性の選択によって、所望の程度で制御されることも可能である。熱膨張または均一性が、所望の場合、1つまたは複数の適切な加熱または冷却要素を使用して、適切な監視およびフィードバックによって、制御され得る。
[0029]1つの例示的な実施形態では、トラッカ表示ユニット170の一方または両方が、空間特性の決定をサポートするように機能する専用ディスプレイパネルである。他の例示的な実施形態では、トラッカ表示ユニット170の一方または両方が、アビオニクス・ヘッドダウン・ディスプレイ(HDD)などの、操縦室または環境102で既に利用可能である表示機能のためにさらに使用され、それにより、追加のハードウェアの設置をほとんどまたは全くせずに、二重の機能を提供することができる。
[0030]上記のように、カメラユニット160は、ユーザに配置されユーザと共に可動なNTE構造110に取り付けられる。典型的には、カメラユニット160は、ユーザのパースペクティブがカメラユニット160のパースペクティブから容易に導出され得るように、構造110上の指定された参照ポジションに配置される。例として、カメラユニット160は、コンパクトな高解像度カメラである。いくつかの実施形態では、複数のカメラユニット160が利用されてよい。動作中、カメラユニット160は、環境102の画像、特にトラッカ表示ユニット170上に表示された画像を取り込むように機能し、カメラユニット160は、これらの画像をトラッカ制御ユニット140に提供する。
[0031]トラッカ制御ユニット140は、1つまたは複数の機能ユニットまたはモジュール142、144、および146(たとえばソフトウェア、ハードウェア、またはこれらの組み合わせ)を含むようにみなされることもある。例として、モジュール142、144、および146の各々が、プロセッサ150およびメモリ152によって、またはそれらと共に実装され得る。図示の実施形態では、トラッカ制御ユニット140は、ポジション決定モジュール142、予測モジュール144、および表示モジュール146を含む。図1は、1つの例示的な構成を示しており、他の実施形態が、代替的な構成または実装を用いて同様の機能を実行してもよい。後述の説明では、トラッカ制御ユニット140は、特定の機能が生じる反復、サイクル、またはフレームで動作するとみなされることがある。一般的に、これらの期間は以下ではフレームと呼ばれる。
[0032]上記に紹介されたように、トラッカ制御ユニット140の主要な機能は、構造表示ユニット120上に表示されるシンボル体系が精度よく配置され得るように、ユーザのパースペクティブを決定することである。したがって、ポジション決定モジュール142は一般に、カメラユニット160により提供された画像から基準シンボルを識別し、取り込まれた画像内の基準シンボルの外観から、NTE構造110の空間特性、ひいてはユーザのパースペクティブを決定するように機能する。トラッカ制御ユニット140のさらなる機能は、空間特性の決定を促進するように、トラッカ表示ユニット170上の基準シンボルの外観を制御することである。したがって、トラッカ制御ユニット140はさらに、次のフレームにおけるユーザの空間特性を予測する予測モジュール144と、識別および評価を促進するように、次のフレームにおける基準シンボルの外観を指示する表示モジュール146とを含む。これらのモジュール142、144、146の動作に関するさらなる詳細が以下に与えられる。
[0033]上記のように、トラッカ制御ユニット140(およびシステム100の他のコンポーネント)は、コンピュータプロセッサ150を用いて実装されてよく、コンピュータプロセッサ150は、汎用プロセッサ、連想メモリ、デジタル信号プロセッサ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、適切なプログラマブルロジックデバイス、ディスクリートゲートもしくはトランジスタロジック、処理コア、ディスクリートハードウェアコンポーネント、またはそれらの任意の組み合わせを含んでよい。実際、NTEトラッカ制御ユニット140は、NTEトラッカ制御ユニット140の動作に関連付けられた機能、技法、および処理タスクまたは方法を実施するように構成され得るコンピュータプロセッサ150およびメモリ152をさらに含む。メモリ152は、コンピュータ可読命令、ファームウェア、およびソフトウェアプログラムを記憶することができ、すべての形態の不揮発性メモリを含むがそれらに限定されない、コンピュータ可読命令の記憶のために使用される任意の適切な媒体において有形に具現され得る。不揮発性メモリは、限定ではなく例として、EPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体メモリデバイス、内蔵ハードディスクおよびリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびにDVDディスクを含む。
[0034]カメラユニット160に加えて、NTEトラッカ制御ユニット140は、ポジションおよび向きデータを提供する構造110上にある、またはそれと分離した1つまたは複数の追加のセンサから、情報を受信してよい。そのようなセンサは、GPSセンサ、慣性測定ユニット(IMU)センサ、深度センサ、アイトラッキングセンサ、マイク、生体計測センサ、および他のタイプのセンサを含み得る。
[0035]システム100について紹介したので、次に、NTEトラッカ制御ユニット140の動作のより詳細な説明を行う。動作の比較的単純な例が図2および図3を参照して説明され、図2および図3では、周辺部202を有するトラッカ表示ユニット170上にレンダリングされた基準シンボル200の例を示す。
[0036]一般に、基準シンボル200は、構造の空間特性の変化があったときに外観の変化の観測を可能にするシンボルである。これらの例では、基準シンボル200は、交差する線からなるグリッドであり、そこで、各交差は、トラッカ制御ユニット140によって識別および評価され得る潜在的な基準マーキングを表す。任意の適切な基準シンボルが使用されてよい。しかしながら、一般に、基準シンボル200は、より詳細に後述されるように、並進効果と配向性効果を区別することを可能にする、図2の高精度のパターン形成された基板またはマスクのような、明確なエッジおよび充分に分離されたマーキングまたは特徴を有することが有益である。基準シンボルは、好ましくは、自己放射性であるか、または局所的に背面照光もしくは前面照光であり、また、可視であっても、赤外線もしくは紫外線などで不可視であってもよい。典型的には、基準シンボルは、後述されるように、NTEトラッカ制御ユニット140による識別および評価を促進するように選択される。
[0037]図2は、第1のパースペクティブからの基準シンボル200のビューである。図2の特定の例では、トラッカ表示ユニット170の周辺部202の通常の長方形の性質により示されるように、第1のパースペクティブは、ユーザの原点、中心、またはベースライン・ポジションに対応する。一般に、第1のパースペクティブは、既知の空間特性を有するパースペクティブである。
[0038]この例では、図2は、基準シンボル200の名目の外観を示す。基準シンボルの名目の外観(または名目の基準シンボル)は、より詳細に後述されるように、ベースラインの外観であり、そこから、ずれを識別および評価して位置または向きの任意の変化を決定し得る。一般に、基準シンボルの名目の外観は、基準シンボル200について上述された所望の特性を有する、基準シンボルの画像に基づいて、空間特性の導出を促進するように選択される。また、基準シンボル200は、シンボルの検出に関連した配向または並進の曖昧さを除去する1つまたは複数の対称性を破る(すなわち非対称性の)特徴210を含むことが好ましい。図示の特徴210は、明確にするために単純化されており、限定することは意図されていない。実際、対称性を破る特徴は、好ましくは、図2のようなグリッド構造全体に含まれ、また、並進および回転の曖昧さを除去するために、交差ごとに異なる。これは特に、基準シンボル200の一部分のみがカメラユニット160により検出される状況に関連する。
[0039]図3は、第2のパースペクティブからの基準シンボルのビューである。第2のパースペクティブは、知られていないパースペクティブ、たとえば、ユーザの動きがあったときに構造110およびカメラユニット160の移動からもたらされるものに対応する。図3の例では、表示ユニット170の周辺部202の変形したまたは歪んだ外観によって示されるように、ユーザは、図2と比べて、表示ユニット170により近く、左上方から表示ユニット170を見ており、少しロールを伴って下方および右を向いている。この動きの結果として、基準シンボル200の外観も、図2において基準シンボル200の名目の外観に対して歪められる。
[0040]動作中に、NTEトラッカ制御ユニット140は、カメラユニット160から、図3に示されるような第2の知られていないパースペクティブでの基準シンボル200の画像を受信して、「取り込まれた外観」を有する基準シンボルを含む画像がもたらされる。NTEトラッカ制御ユニット140は、基準シンボル200の取り込まれた外観に基づいて、カメラユニット160(ひいては、構造110およびユーザ)の空間特性を決定するために、基準シンボル200を識別および評価する。
[0041]NTEトラッカ制御ユニット140は、任意の適切な様式で、基準シンボル200から空間特性を決定することができる。カメラで取り込まれた2Dからオブジェクトの3Dポースまたはポジションを推定するこの作業は、PnP(Perspective−n−Point)推定としばしば呼ばれる。技法は、最小データセットを使用する解析的解決法から、多数のサンプルポイントを使用する統計的および反復的解決法に及ぶ。
[0042]1つの例示的な実施形態では、トラッカ制御ユニット140のポジション決定モジュール142は、カメラユニット160から画像を受信し、(たとえば、構造のあり得る動きに応じたポジションおよび向きにおける)知られていない空間特性のパースペクティブからの基準シンボルの取り込まれた外観を、(たとえば、既知のポジションおよび向きにおける)既知の空間特性のパースペクティブからの基準シンボルの名目の外観と比較する。この比較から、ポジション決定モジュール142は、相違を識別することができ、これらの相違から、ポジション決定モジュール142は、第2の先ほど知られていなかったパースペクティブにおける空間特性を導出することができる。
[0043]ポジション決定モジュール142が、空間特性を決定するために多数の技法のうちの任意の1つを実装してよいことは認識されよう。そのような技法またはモデルは、幾何解析、たとえば、三角形分割(triangulation)、またはポジション決定モジュール142に記憶された関係するアルゴリズムなどを含み得る。1つの特定の技法は、D.DeMenthonおよびL.S.Davis、「Model−Based Object Pose in 25 Lines of Code(25行のコードのモデルベース・オブジェクト・ポーズ)」、International Journal of Computer Vision,15、123〜141頁、1995年6月に開示され、ここでは「POSIT」と呼ばれる。別の技法は、V.Lepetit、F.Moreno−Noguer、およびP.Fua、「EPnP:An Accurate 0(n) Solution to the PnP Problem(EPnP:PnP問題の正確な0(n)解)」、International Journal of Computer Vision,vol.81、155〜166頁、2009年に記載されている。さらなる例として、画像における基準シンボルの特性を測定して、基準シンボルと画像を取り込むカメラユニット160との間の相対的な並進および配向関係を決定するために、標準的三角形分割技法が採用されることがある。一例では、測定値を6つの独立した指標値に凝縮し、凝縮した値を所望のDOF指標値に変換する適切な変形を適用する。別の例示的な方法では、オーバーサンプリングされたシステムの数値適合を計算し、オーバーサンプリングを使用して、サンプリングされたデータの任意の潜在的ノイズを平均化またはフィルタリングし、冗長性を提供する(たとえば、スプリアス反射もしくは他の状況により、1つもしくは複数のエミッタがブロックされ、もしくは異常な信号レベルに遭遇した場合)、または特定の幾何学的関係の感度(たとえば、空間感度対角度感度)を高める。追加の信号処理方法が、たとえば、測定の時間的特性を含めることによって、抽出されたDOF指標値を改善するために使用されてもよい。
[0044]1つの例示的な実施形態では、ポジション決定モジュール142が、6自由度(x、yおよびzポジション、ならびにピッチ、ヨーおよびロールの向き)を有する空間特性を決定する。さらなる実施形態では、これらの空間特性の一部のみが識別され得る。さらに、必要または所望に応じて、これらの空間特性の派生物、たとえば、速度、加速度、およびジャーク(jerk)などが導出されてもよい。
[0045]上記のように、図2および図3の例では、基準シンボル200は、この場合は原点である第1のパースペクティブにおける名目の外観を有する。上の例では、名目の外観は原点に対して固定される。言い換えれば、基準シンボル200は、トラッカ表示ユニット170に対して固定しており、一貫した一定の様式で表示されて、基準シンボル200が常に、第1のパースペクティブで名目の外観を有し、第2のパースペクティブで歪んだ外観を有するようにされる。基準シンボル200を生成するためにリソグラフィで作製されたマトリックスディスプレイを使用する利点は、上記に紹介されている。図2および図3に示されるような静止または固定した基準シンボルの場合、1つの代替的な例示的実施形態では、放射または光変調基板上に静止画像をリソグラフィでパターン形成する場合であっても、動的画像生成能力を控えて単純に静止画像を表示する。
[0046]図1を再び参照すると、NTEトラッカ制御ユニット140は、次のフレームにおいてユーザの空間特性を予想するように構成された予測モジュール144をさらに含む。これらの特徴空間特性は、以下では「空間予測」と呼ばれる。やはり上述したように、NTEトラッカ制御ユニット140は、表示された基準シンボルの外観を能動的に制御するために、トラッカ表示ユニット170にも結合される。特に、NTEトラッカ制御ユニット140の表示モジュール146は、空間予測に基づいて、トラッカ表示ユニット170上で基準シンボルを調節、方向付け、および配置する表示コマンドを生成する。したがって、NTEトラッカ制御ユニット140はさらに、構造110の予測された空間特性を参照して、名目の基準シンボルを生成することができる。言い換えれば、基準シンボルの名目の外観は、特定の固定されたポジションまたは原点に対して固定されず、代わりに、名目の基準シンボルは、後述されるように、構造100の予測ポジションおよび/または向きに基づいてコンテキストに依存する。
[0047]予測モジュール144は、任意の個数のパラメータに基づいて空間予測を生成し得る。たとえば、予測モジュール144は、先行の空間特性の傾向または外挿に基づいて、空間予測を決定することができる。一実施形態では、空間予測を生成するために、たとえば、空間特性の直近に測定された変化の一部または全部を現在の空間特性に加えることによって、単純な線形外挿が使用される。他の実施形態では、カルマンフィルタリングおよびその拡張などの既知の技術を含む、二次推定のような高次の技法が使用され得る。空間予測は、最近の測定履歴から推定または導出された動きの高次微分を考慮に入れてもよく、また、動作環境102内の典型的ユーザの特徴的な頭部の動きの力学を考慮に入れてもよい。これらの予測モジュールの実施形態のいくつかは2つ以上のフレームからのデータを利用するが、これは限定することを意図していない。別の実施形態では、予測モジュール144は、単一の先行フレームの空間特性を次のフレームに対する空間特性として使用する。適切な基準シンボルを用いると、これは、特にフレーム間の空間特性の変化が過剰でない場合、単純であるが非常に効果的であり得る。特定の実施形態では、予測モジュール144は、複数の先行フレームにわたる空間特性の変化が小さいときなどに、複数の先行フレームの平均を利用することもでき、空間特性のより大きな変化が検出されたときに、別の推定方法に任意に切り替わることができる。さらに他の実施形態では、予測モジュール144は、二次トラッカ機構などの他の入力に基づいて空間予測を生成することができる。
[0048]空間予測からもたらされる基準シンボルの例が図4および図5に示される。図4は、空間予測のパースペクティブからの表示ユニット170の画像周辺部402内の基準シンボル400のビューを示す。特にこの実施形態では、基準シンボル400は、予想された位置および向きから見られまたは取り込まれたときに名目の外観を有するように表示される。空間予測の予想された位置および向きは既知の空間特性を有するが、その空間特性をもたらす動きが予想される。図示されるように、(たとえば、原点のパースペクティブからではなく)空間予測のパースペクティブからユーザが画像を見ているので、画像周辺部402が歪められる。しかしながら、基準シンボル400は、基準シンボル400を形成するグリッドの規則的な一様の外観によって示されるように、名目の外観を有する。参考のため、図5は、この例ではユーザの現在のパースペクティブまたは予測されたパースペクティブではない、原点のパースペクティブからの表示ユニット170の画像周辺部402内の同じ基準シンボル400のビューであり、単に比較のために示されている。このビューでは、基準シンボル400が、原点ではなく空間予測から名目の外観に関してレンダリングされるので、基準シンボル400は歪められて見える。
[0049]図1を再び参照すると、空間予測を行って、空間予測に従って基準シンボル(たとえば、図4の基準シンボル400)を表示したとき、カメラユニット160は、ユーザの実際の位置および向きから基準シンボルの画像を取り込む。画像を受信すると、ポジション決定モジュール142は、画像から抽出された基準シンボルを識別および評価する。特に、ポジション決定モジュール142は、画像における基準シンボルを、既知の空間特性の名目の基準シンボルと比較する。画像における基準シンボルが名目の外観を有する場合、ポジション決定モジュール142は、現在の空間特性として空間予測を識別する。取り込まれた画像における基準シンボルが名目と異なる外観を有する場合、ポジション決定モジュール142は、相違を識別し、たとえば上述のプロセスと同様に、これらの相違に基づいて現在の空間特性を決定する。
[0050]フレームごとの基準シンボルの能動的制御が特別な利点を実現する。たとえば、各フレームが、最も有利に適合された基準シンボルを可能にし得る。図4および図5の実施形態における能動的制御の結果として、カメラにより取り込まれた基準シンボルが概してフレーム間で同じに見えることになる。シンボルは、実質的に、原点に対して「予め歪められる」または予め変形されるが、予想されたパースペクティブに対して名目的である。予測されたカメラ6DOFポジションが実際のポジションと異なった場合、名目のパターンから単にずれが存在することになる。この手法は、パターンマッチングおよび解析アルゴリズムを非常に単純化することができる。基準シンボルを能動的に制御することによって、基準ベースのパターン認識に必要とされる幾何形状および関係の範囲が減らされる。幾何学的操作および計算を、取り込まれた画像の「後処理」ではなくシンボルの「前処理」に移動することにより、検出ステップが単純化される。さらなる利点も実現され得る。たとえば、グリッドの周辺部が、理想からの推定されたずれを見出すために使用されてよく、それにより、データのはるかに冗長なセットが、画像から抽出され処理されることが可能になり得る。これは、たとえば、全体的精度を平均化および改善するグリッドの内部または周りの何千ものピクセル位置、ならびに、最小の探索および曖昧さでそれらの各ポイントをどこで探すかを知ることを含み得る。図4では1つのグリッドを示しているが、複数のより小さいシンボルが、エリア上に、たとえば、ディスプレイおよびカメラの現在の視野(FOV)の重なりの各隅に分散されてもよい。
[0051]図4と図5の間の最も明らかな差異は基準シンボル400の向きおよび形状であるが、空間特性を決定する能力を向上するために、外観の他の変化が与えられてもよい。たとえば、位置、サイズ、形状、色、更新レート、および他の特性が、ユーザの空間予測に応じて異なってもよい。具体例として、比較的大きいトラッカ表示ユニット170において、基準シンボルは、ユーザの空間予測に最も近い画面上のポジション、またはカメラユニット160の視野内に選択された画面上のポジションに配置され得る。しかしながら、適合された色の使用、サブピクセル詳細(ディスプレイとカメラの両方)、モノクロ/狭帯域動作、画像平滑化、またはセンサ帯域制限技法など、他の変形例が提供されてもよい。特定の実施形態では、美的な視覚画質を向上させるために一般的に活用される技術が回避されることがあり、たとえば、トラッキング機能に有用であり得るモアレ効果などの情報を意図的に許容して活用することがある。
[0052]いくつかの実施形態では、トラッカ制御ユニット140は、たとえば、ユーザの空間予測に加えて、追加のパラメータに基づいて、トラッカ表示ユニット170上に表示基準シンボルを表示することができる。たとえば、基準シンボルは、プラットフォーム、動きの範囲、カメラユニット、および/または表示特性に基づいて選択され得る。
[0053]図2〜図5は、基準シンボルの空間特性、特に向きを変えることの可能な効果の1つが、その名目の形状に対する基準シンボルの見掛けの歪みであることを明示している。たとえば、その1つの辺または面内軸の周りの方形のシンボルの向きを変更することにより、見る人またはカメラユニット160からのその距離が増大するため、一方の辺が他方の辺より短く見える見掛けの台形形状になり得る。所定量の向きの差を検出する能力は、いくつかの詳細な因子および考慮事項に依存するが、この単純な例は、本発明のコンテキストでは、トラッカ表示ユニット170の特定の好ましい特性の一次推定を得るために使用され得る。幅Wで、原点でのカメラユニット160から距離Dに配置された方形の基準シンボルについて、上述のような向き角度Aの小さな変化が、台形画像をもたらし、その方形の一辺が対辺よりも、約W×sin(A)だけ、またはAが極めて小さくラジアンで測定される場合に約W×Aだけカメラに近くなる。この結果、より近い辺は、高さWの対辺と比べて、W×((D+WA)/D)の高さに見える。したがって、分数変化率は(W×(l+AW/D)−W)/W=AW/Dである。例として、A、W、およびDを5ミリラジアン、200mm、および500mmにそれぞれ設定すると、約1/500または0.2%の見掛けの変化をもたらす。一般にこのレベルの詳細の解像は、同じまたはそれ未満のピクセル、すなわち、距離Wに沿って約500ピクセル以上のピクセルの使用を示唆し、最小500×500の精密で均一間隔のピクセルを有するピクセル化マトリックス表示を暗示する。より大きいピクセル数、たとえば、1000×1000、2000×2000または4000×4000が使用されてよく、それにより、より小さい角度の解像、より小さいトラッカ表示ユニットの使用、より大きいトラッキング距離、ならびに性能および柔軟性の全体的な改善の実現を可能にする。同じ理由により、ピクセルの見掛けの光学的深さおよび厚さが、角度の関数としての実効解像度の低下を最小限にするように、横方向のピクセル寸法よりも実質的に小さくてよい。
[0054]さらなる実施形態では、NTEトラッカ制御ユニット140は、他の因子に基づいて基準シンボルの外観を追加的または代替的に修正するための補償モジュールを含むことができる。補償モジュールは、特に、潜在的な誤差源、たとえば、カメラマッピングの歪み(たとえば、樽型または糸巻形歪み)、平坦性の表示偏差、および/または任意の介在基板もしくは表面を介する屈折効果などに基づいて、基準シンボルの外観を修正することができる。前処理段階のそれらの潜在的誤差を推定および補償することによって、パターンマッチングアルゴリズムでそれらの効果を考慮する必要を実質的に軽減または除去し、それにより、処理の複雑さをかなり低減し得る。レンズの歪みおよび収差、ケラレ、ならびにセンサアライメントは、容易に性能を低下させるおそれがあり、したがって、高精度が必要とされる場合に考慮されるべきである。これらは、前処理段階および後処理段階の一方または両方で、記憶および適用される特徴により、モデル化されまたは別個に特徴付けられ得る。たとえば透明な表示部基板を介する屈折効果が、一般的に理解される。これらは、潜在的なトラッキング範囲にわたって大きく変動し得るが、前処理段階で滑らかに変化して補償に適していることがある。潜在的誤差のさらに別の発生源は、別個に完全に特徴付けることがより難しくなり得るが、調整可能な基準の組み合わせ、ディスプレイマトリクス構造の極度の精度および線形性、ならびに補償モジュールを使用して、トラッキング機能と同時の手法で、そうした効果を検出および調整することが可能である。
[0055]一実施形態では、補償モジュールは、図2〜図5のグリッド線200および400のような表示ユニット170に表示された検出された線およびシンボルの線形性を別個に検査し、複数のそのような測定値および既知の光線追跡技法を用いて、ディスプレイユニット170の平坦性のプロファイルの特性記述を作る。次いで、たとえば多項式ベースの表面平坦性モデルの形態のこの記述は、利用可能にされ、適宜に定期的に更新される。平坦性モデルは、前処理および後処理機能の精度を改善するために使用され得る。表示されたシンボルの調整可能性は、トラッカ出力の正確さおよび精度をさもなければ制限し得るものを完全に特徴付ける能力を高める。補償モジュールは、ポジション決定モジュール142による空間特性の決定におけるオーバーサンプリングから生じる統計誤差、残差、またはメリット関数に対するアクセスを有してもよく、それらは、結果の決定を改善するためのフィードバックとして使用され得る。
[0056]前述のように、1つの例示的な実施形態は、ユーザにより直接見ることを意図されたユーザに見えるシンボル体系をさらに提供するために、1つまたは複数のトラッカ表示ユニット170を利用してよく、たとえば、見る人の前方ラインの前で少し下に配置された表示ユニット170を利用してよい。この実施形態では、トラッカに対するシンボルは、表示領域の隅で静的に配置された基準など、表示ユニット170の未使用領域に提示され得る。あるいは、基準シンボルは、ユーザに見えるシンボル体系内に非散乱的に組み込まれてよく、または見る人に提供される同じシンボルであってもよい。この後者の場合、直接信号接続が任意であってよく、カメラベースのトラッカ組立体が、それらのシンボル、特に一貫性のあるまたは予測可能なシンボルを参照することを可能にする。たとえば、高速AMOLEDまたはAMLCDパネルを使用するステレオモニタにおけるように時間変調された、二重可視/NIR出力セットなどの、他のカスタム設計も可能である。基準シンボルを他のシンボル体系から分離するために、標準スペクトルフィルタリングおよび/または時間位相に敏感な検出方法が採用されてもよい。
[0057]図6は、本明細書に説明される例示的な実施形態と共に使用するのに適した方法600の例示的な実施形態を示すフローチャートである。方法600と関連して行われる様々なタスクが、ソフトウェア、ハードウェア、ファームウェア、またはこれらの任意の組み合わせによって実行され得る。説明のため、方法600の以下の説明は、先行する図に関連して上述された要素を参照することができる。実際は、方法600の部分は、説明されたシステムの異なる要素によって行われてもよい。方法600は、任意の数の追加または代替のタスクを含んでよく、図6に示されるタスクは図示の順序で行われる必要がなく、方法600は、本明細書に説明されていない追加の機能を有するより包括的な手順または方法に組み込まれてもよいことを認識されたい。さらに、意図される全体的機能がそのままである限り、図6に示されるタスクのうちの1つまたは複数が、方法600の実施形態から省略されてもよい。
[0058]第1のステップ605では、ユーザの現在の空間特性が、トラッカ制御ユニット140によって決定されまたは他のやり方で取得される。現在の空間特性は、前述の決定を含む任意の適切な様式で決定されてよい。いくつかの実施形態では、現在の空間特性は、既知の空間特性を用いて原点または他のパースペクティブに対して名目の外観を有する基準シンボルを表示するようにトラッカ表示ユニット170に指示することによって決定されることが可能であり、したがって、現在の空間特性は、図2および図3を参照して、たとえば上記に説明された機能と同様に決定され得る。
[0059]ステップ610では、ユーザの空間予測が、トラッカ制御ユニット140によって次のフレームまたは期間について決定される。ステップ615では、表示コマンドが生成され、少なくとも先行の基準シンボルとは異なるいくつかのフレームまたは期間についての基準シンボルをトラッカ表示ユニット170に表示する。一例では、基準シンボルの名目の外観が空間予測のパースペクティブからのものであるように基準シンボルが表示される。
[0060]ステップ620では、基準シンボルの画像がカメラユニット160によって取り込まれる。ステップ625では、基準シンボルの取り込まれた外観が解析され、たとえば名目の外観と比較され、ユーザの空間特性を決定する。ステップ630では、NTE駆動ユニット130が、適切なポジションで表示シンボル体系をユーザが見ることができるように、空間特性に基づいて、構造表示ユニット120に対する表示コマンドを生成する。
[0061]続いて、方法600は、ステップ605に戻り、したがって、トラッカ制御ユニット140が引き続き、基準シンボルの外観を能動的に管理し、ユーザの更新された空間特性を決定する。
[0062]図2〜図5では、追跡された空間特性に基づいてシンボルが有利に修正される基準シンボルの一例を示しているが、多くの他のタイプの基準シンボルが、異なるコンテキストで提供され使用されてもよい。図7は、直接的特徴検出を促進するための例示的な実施形態で実装される基準シンボル700である。図7では、基準シンボル700は、回転された実線の方形のネストされた対、またはより一般的には、回転された基準シンボルのネストされた対(もしくはそれより多数のもの)である。目標線r1、r2、c1、c2は、カメラ画像内のピクセルの選択され固定された個々の列および行を表す。画像を受信すると、NTEトラッカ制御ユニット140は、線r1、r2、c1、c2の交点a〜pおよび基準シンボル700の方形の1つまたは複数を識別する。これは、期待された近傍で目標線r1、r2、c1、c2を探索して、それらの行および列に沿って画像輝度のピークを突き止めることにより、比較的単純な様式で達成され得る。量子化誤差またはデフォーカスが問題である場合、それらは単純な局所的加重加算技法によって緩和され得る。この基本的例の結果は、r1、r2、c1、c2が予め決定されていて測定されないので、交点に関連付けられた16個までの測定値のセットである。この値のセットから、ディスプレイ上の点がhおよびvの両方で一意に特徴付けられないが、6自由度が抽出され得る。グリッド交差に対する2D探索を行う、または三角関数を呼び出して斜線もしくは曲線を追跡するのでなく、このような関係を維持することで、単純な線形探索が代わりに使用されるのを可能にする。
[0063]値r1、r2、c1、c2およびa〜pを、追跡された空間特性に変換することは、先に説明されたのと同様の方法を使用して行われ得る。たとえば、シンボル700の各方形の各隅は、対応する2行の交点を単純に解くことにより容易に突き止められ特徴付けられ得る。点aおよびhを通る線は、bおよびcを通る線と交差して、カメラユニット160によって取り込まれたシンボル700内の最も上の隅部を生じる。8つの隅部またはその充分なサブセットから、追跡されるべき空間特性が、対応するメリット関数の非線形最小二乗最小化、代数的、または他のそうした方法のいずれによっても、解決され得る。
[0064]空間特性が再び変化するときにフレームごとの基準シンボルを調整する能力が、性能を最適化する際の柔軟性を提供する。したがって、基準シンボルの生成中に、パースペクティブが変化するときに所望に応じて、見掛けの向き、角度、サイズ、および他の態様が維持されることが可能であり、したがって、動きの効果がフレーム間で充分に小さい場合に、線形または二次近似を使用してものを扱う場合であっても、NTEトラッカ制御ユニット140は、予想された値からのずれを単に探すことが要求される。シンボル内の方形または他の特徴の数は、所望に応じて動的に変動してもよい。さらなる変形例は、線の傾斜を調整して試験点の相対方向感度を変更することを含む。画像化センサ解像度が増大すると、データ転送および解析に必要とされる信号帯域幅も増大する。ここで上述された方法は、カメラユニット160の視野または有効領域内で、特定の領域または関心領域に対する強調を可能にする。多くのカメラセンサを用いて、これは、より大きな領域が取り込まれ解析される必要があるときよりも著しく高いフレームレートでの動作を可能にする。合理化された特徴検出および処理と共に、画像取り込みと決定された空間特性の利用可能性との間の待ち時間または遅延が、最小限に維持され得る。
[0065]図8は、別の例示的実施形態によるNTEシステム800の部分の機能ブロック図である。特に言及されない限り、NTEシステム800は、図1のNTEシステム100と同様であり、構造表示ユニット120、NTE駆動ユニット130、NTEトラッカ制御ユニット140、および1つまたは複数のデータソース180などの要素を含み、それらは、NTEシステム800の部分を形成し得るが図8には図示されていない。図8では、カメラユニット860は、動作環境102に対して固定しており、トラッカ表示ユニット870は、NTE構造110に取り付けられ、したがってNTE表示ユニット120に対して固定する。NTE構造110の空間特性は、逆の関係を除いて、カメラユニット160およびトラッカ表示ユニット170の前述の場合と同様に追跡される。表示ユニット870は、一般に小型で軽量であるが、精密な空間光変調器/ディスプレイの使用は、特徴のサイズおよび精度、線形性、ならびに、NTE構造110の空間特性または他のコンテキスト依存パラメータに基づいて基準シンボルを調整する能力の点で、個別デバイスまたは受動的基準マーキングより大きな利点をやはり与える。図8の実施形態では、トラッカ表示ユニット870は、カメラユニット860の視野865を充足しない。カメラユニット860は、取り込まれた画像の関心エリアまたは領域のサンプリングを可能にする高解像度カメラであることが好ましい。
[0066]図8に関連した別の実施形態は、ハイブリッド光学トラッカシステムと呼ばれることがあるものを形成するように、カメラユニット860およびトラッカ表示ユニット870と関連して、NTE構造110に取り付けられた慣性測定ユニット(IMU)890を含む。このハイブリッドシステムの実施形態において、カメラ860および表示ユニット870は、参照により本明細書に組み込まれる米国特許第9,489,045号に記載されているように、IMU890のための「スナップショット」トゥルーシング(truthing)モードで使用される。この実施形態では、カメラユニット860は、当技術分野で使用されている(ローリングシャッターモードと対照される)グローバルシャッターモードを使用することが好ましく、基準シンボル体系が生成され、それにより、同期されたIMUベースの結果と比較される空間特性の非常に精密な決定をもたらすために充分に詳細で迅速なまたは「スナップショット」の収集を定期的に可能にし、IMUドリフトまたは他の潜在的な誤差源の補正における入力として使用される2つの同期された測定の間の偏差を有する。この高精度な決定は、より長い待ち時間を有する可能性があるが、スナップショット・トゥルーシング動作モードと適合する。他の時間で、たとえば、高精度スナップショットで取り込まれた画像の間で、基準シンボル体系が、合理化された基準パターン認識をサポートするように単純化される、または他の形式で調整されることが可能であり、それにより待ち時間が減少する。1つのそうした実施形態において、予測モジュール144は、光学解像度および精度が最適であると期待されるカメラユニット860の視野865の中心の近くにトラッカ表示ユニット870がいつ現れるかを予測し、その時点でスナップショット・トゥルーシング・モードを開始するために使用される。
[0067]図8の実施形態において、カメラユニット160および860は、それぞれ関連付けられたトラッカ表示ユニット170および870と共に組み合わされて使用される。これは、複数の有利な点の使用を通して精度の向上をサポートする。基準シンボル体系は、1つまたは複数のカメラがアクティブであり表示されたシンボル体系を取り込むことができるかどうかに基づいて調整されることが可能である。両方がそれらの対応するトラッカ表示ユニットの画像を効果的に取り込んでいるとき、一方のたとえば表示ユニット170のための基準シンボル体系は、たとえば、角度空間特性に対する感度を最適化されることができる。そして、表示ユニット870のための基準シンボル体系は、組み合わせが、最適な全体的精度および待ち時間を提供するように、並進空間特性を強調するように適合されることができる。他の実施形態では、追加のカメラユニットおよびトラッカ表示ユニットが、信頼性、精度、およびトラッキング範囲を増大するために含まれる。
[0068]調整可能な基準シンボルを提供するために平坦なパネルディスプレイを使用することは、これまで説明された実施形態によって示されるように多くの潜在的利益をもたらす。上述されたコンテキスト依存シンボル体系と共に使用され得る追加の要素が、図9〜図12を参照して以下で提示される。特に、図9〜図12は、上述されたNTEシステム100、800と共に使用され得る光学変更子(optical modifier)を示す。一般に、図9〜図12は、カメラユニット、トラッカ表示ユニット、および光学変更子の例示的な相対的ポジションを示す。特に言及されない限り、以下に説明されるカメラユニットおよびトラッカ表示ユニットは、上述されたように動作し、関連したNTEシステムの他のコンポーネントの説明は明瞭にするために省略される。
[0069]次に図9を参照すると、例示的な実施形態は、トラッカ表示ユニット970とカメラユニット960との間に光学変更子976を含む。本明細書で使用される場合、「光学変更子」という用語は、カメラユニットたとえばカメラユニット960によって取り込まれる基準シンボルの見える外観を変更する、表示ユニットたとえば表示ユニット970に対して固定された1つまたは複数の光学素子として定義される。「光学変更子」を形成する光学素子は、屈折性、反射性、またはそれらの組み合わせであり得る。図9の実施形態では、光学変更子976は、屈折率n>1を有するガラスなどの屈折性材料によって分離された平行な表面を有する屈折素子であり、たとえば、オプチカルフラットまたは屈折力(optical power)がゼロのレンズを有する。光学変更子976の効果は、互いに対して追跡される構造の空間的特性と共に変わる追加的な効果、たとえばポジションの見掛けのシフトを導入することである。図示されるように、光学変更子976の存在は、基準点974の見掛けのポジションに対して影響しないが、屈折効果が、基準点988のポジションの見掛けのシフトを引き起こし、この場合、カメラユニット960にとって、それが基準点978にあるかのように見えるようにする。同様に、カメラユニット960が点988から直接出た場合、それは、シフトされたように見える点974となる。
[0070]透明な表示部基板における屈折効果が、あり得る誤差源として上述されているが、図9の実施形態は、これらの屈折効果は、トラッカ表示ユニット970および光学変更子976によって例示される厚い基板を用いて示されるように、有用なデータを実際に提供し得ることを示す。光学変更子976は、任意選択で、トラッカ表示ユニット領域全体をカバーする、または図9に示されるように部分的にのみカバーすることができる。光線982および984は、光学変更子976を通過することなく、ディスプレイ970からカメラ960に直接移動する。幾何形状を知ることは、それらの違いを、画像データを前処理または後処理するための任意のアルゴリズムに含めることを可能とし、小さな6自由度の変化を検出する能力を改善するために使用され得る。例として、挿入図992は、2つの直交線994を含む基準シンボルがカメラユニット960によってどのように取り込まれ得るかを示す。変更子976の外側で、線は直接的に取り込まれるが、変更子976の存在で、点988から点978へのシフトに類似して線がシフトされる。詳細なシフトは、基準記号と空間特性の両方に応じて多くの形態をとり得る。特に、基準シンボルを調整する能力を利用して、解析の単純化、精度および正確さの向上、計算の複雑さの低減、またはそれらの組み合わせを行うことができる。
[0071]図10に別の実施形態が示されており、ここでは、非球面レンズが光学変更子1076として設けられる。空隙が、光学変更子1076とトラッカ表示ユニット1070との間に導入される。光学変更子のレンズの屈折力が、空間特性の影響を拡大する。所与のレンズで達成可能な倍率は、従来の拡大鏡とほぼ同様に、分離を選ぶこと、たとえば、表示位置1072または1074に表示ユニット1070を配置することによって、選択され得る。図示されるように、カメラユニット1060は、実質的に無限焦点距離に設置され、対応する光線束1086はそれぞれ平行光線を含む。相対的倍率は、屈折または変更された光線束が位置1074、1072におけるディスプレイならびに表示ユニット1070位置で交差する場所の比較によって理解され得る。良く補正された結像レンズを変更子1076とする場合、表示ユニット1070は、コリメートされたディスプレイとして機能することができ、そこから、コリメートされた基準シンボルがカメラユニット1060によって取り込まれる。基準シンボルの倍率により、潜在的な基準シンボルの少なくとも一部分が、カメラユニット1060にとって見えないことがある。これは、示された構成において、一般ポジション1088以外の基準ポジションの場合に当てはまる。そこで、基準シンボルを調整する能力が、予測モジュール144と共同して、拡大された画像のアクセス可能な部分にシンボルを配置することを可能にする。図示された実施形態はまた、光学変更子1076をバイパスする光線束1082および1084を含むが、これは限定することを意図していない。
[0072]図10の挿入図1092は、同様に、カメラユニット1060により取り込まれた基準シンボルの例示的なビューを示す。直交線1094が直接取り込まれ、対応する修正された線1096も取り込まれる。線間の実効オフセットは、空間特性に強く依存し、したがって、基準シンボルの注意深い形成および配置が重要であり、予測空間特性に依存する。
[0073]別の光学変更子1176が図11に示される。光学変更子1176は、図9の平坦な光学変更子976に類似するが、ここでは、平行な表面からの複数の反射が考慮される。変更子1176の表面は、コーティングされてなくてよく、または任意選択で、表面における反射と透過のバランスを調整するコーティングを有してもよい。同様の効果が、空気間隔のある部分反射鏡またはビームスプリッタを使用して達成され得るが、図11では屈折率n>1を想定する。図9と同様に、基準位置1174は光学素子1176によって影響されない。この場合の基準ポジション1188は、カメラユニット1160に移動する光線1186により、複数の見掛けの基準ポジション、たとえばポジション1178および1176を生じる。光線1182および1184をオプションとして含めることにより、光学変更子1176の存在下で、空間特性の影響を検出および定量化する能力がさらに高められる。
[0074]図12に、別の例示的な実施形態が示される。ここで、光学変更子1276は、トラッカ表示ユニット1270に対して固定角度で配置された2つの鏡面反射鏡を含む。カメラユニット1260は基準シンボル1288の単一の画像を検出するのではなく、基準シンボル1288の複数の画像を光線1286を介して取り込む。基準シンボル1288の位置で表示ユニット1270によって放射または変調された光は、光学変更子1276により反射された光を含み、所与の構成では、位置1278においてシンボル1288の見掛けのコピーをもたらす。図9〜図11と同様に、これらの修正されたおよび/または追加の点は、追加の情報を提供し、それを用いて、取り込まれた結果が前処理または後処理されて空間特性を決定する。光学変更子を含む実施形態のそれぞれは、平面トラッカ表示ユニット970、1070、1170および1270のみから入手できるデータを超えるデータを効果的に導入し、そのような複数自由度トラッキングのシナリオにおける小さい変化を識別する能力を向上させる。この実施形態における基準シンボルを修正する能力は、複数の画像1278が存在しカメラユニット1260に見えるように、システムが基準シンボル1288を配置することを可能にする。直線および曲線が基準シンボル1288に組み込まれ、シンボル1288と画像1278との間の関係が取り込まれ解析されることが可能である。
[0075]屈折性、反射性、および組み合わせの要素、ならびに屈折力有りおよび屈折力無しの変更子を含む、いくつかのタイプの光学変更子が示されているが、これらは限定することを意図していない。複数の要素レンズおよび他の構成が使用され得る。「パンケーキウィンドウ」コリメータとして知られるものを作るために、湾曲した鏡面を光学平面内に導入することのように、光学パワーミラーシステムが使用され得る。これらの実施形態のそれぞれは、トラッカシステム能力をさらに拡張し、また、トラッカ表示機能および関連モジュールの使用によって提供される能力を大いに利用することができる。
[0076]本明細書に説明されたシステムおよび方法は、たとえば、精密なジッターフリーの位置合わせ、およびNTE表示デバイス上の表示要素のレンダリングを可能にする、高精度で、高速で、待ち時間が短く、比較的軽量のトラッキングシステムを提供する。本明細書に論じられた例示的な実施形態は、比較的高い精度および再現性を提供し、それにより、継続的に行う不正確さの認識および補償による精度の向上をさらにもたらす。一般に、アクティブマトリックスディスプレイの使用が、精度、安定性、および視認性の向上を可能にする。たとえば、基準シンボルの能動的管理と併せて、そのようなディスプレイは、検出に関連する不確実性より著しく大きい基準特性の分離を可能にし、それにより、より小さい分離を有する高精度を可能にする。
[0077]本明細書に説明された例示的な実施形態は、第2オブジェクト、たとえば、プラットフォームに関するオブジェクトに対する第1のオブジェクトの向きおよび位置を追跡するために、コンテキスト特有の基準シンボルを活用する。この手法は、高精度、非常に短い待ち時間(たとえばサブミリ秒)、低減されたフォームファクタ、単純化された設置、金属構造の耐性、および低減されたコストを実現する。例示的な実施形態は、移動アクチュエータに移動のフィードバックを提供すること、ならびに、等角画像などのシンボルおよびグラフィックスを含む情報を、パイロットに着用されパイロットの頭部の動きに基づくニア・ツー・アイ・ディスプレイ、航洋船内のディスプレイなどのディスプレイシステム、および、オフサイト管制官たとえば地上管制官によって使用され、ユーザの頭部、場合によっては遠隔のパイロットの頭部の動きに基づくディスプレイに、表示することを含む。多くの他のディスプレイ適用例もトラッキング能力から利益を得ることができる。実施形態は、基準シンボルの継続的な調整を可能にして、たとえば、容易な特徴検出、合理化された解析、並進対配向感度、冗長性、方向感度などについて、トラッカ性能を最適化する。
[0078]本明細書に開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または両方の組み合わせで実装され得ることは、当業者には認識されよう。実施形態および実装形態のいくつかは、機能および/または論理ブロック・コンポーネント(またはモジュール)ならびに様々な処理ステップの点から上記に説明されている。しかしながら、そのようなブロック・コンポーネント(またはモジュール)は、指定された機能を実行するように構成された任意の数のハードウェア、ソフトウェア、および/またはファームウェア・コンポーネントによって実現され得ることを認識されたい。このハードウェアとソフトウェアの交換可能性を明確に示すために、様々な例示的なコンポーネント、ブロック、モジュール、回路、およびステップが、それらの機能の点から概して上記に説明されている。そのような機能がハードウェアとして実装されるかそれともソフトウェアとして実装されるかは、システム全体に課される特定の適用および設計制約に依存する。当業者は、説明された機能を特定の適用ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲から逸脱するものと解釈されるべきではない。たとえば、システムまたはコンポーネントの実施形態は、1または複数のマイクロプロセッサまたは他の制御デバイスの制御下で様々な機能を実行し得る、様々な集積回路コンポーネント、たとえば、記憶素子、デジタル信号処理素子、論理素子、またはルックアップテーブルなどを利用してよい。加えて、本明細書に説明された実施形態は単に例示的な実装形態であることは、当業者には認識されよう。
[0079]本明細書において、第1および第2などの関係語は、あるエンティティまたはアクションを別のエンティティまたはアクションから区別するためのみに使用されることがあり、そのようなエンティティまたはアクションの間の何らかの実際のそうした関係または順序を必ずしも要求または示唆しない。「第1」、「第2」、「第3」などの序数は、複数のうちの異なる1つを単に表しており、請求項の言葉によって明確に定義されない限り、いかなる順序またはシーケンスも意味しない。請求項のいずれかにおける文章のシーケンスは、請求項の言葉によって特に定義されない限り、プロセスステップがそのようなシーケンスによる時間的または論理的な順序で実行される必要があることを意味しない。プロセスステップは、交換が請求項の言葉と矛盾せず論理的に無意味でない限り、本発明の範囲から逸脱することなく任意の順序で交換されてよい。
[0080]さらに、コンテキストに応じて、異なる要素間の関係を説明する際に使用される「接続する」または「結合される」などの語は、これらの要素間で直接的な物理接続が行われなければならないことを意味しない。たとえば、2つの要素が、1つまたは複数の追加の要素を介して、物理的に、電子的に、論理的に、または任意の他の様式で互いに接続され得る。
[0081]少なくとも1つの例示的な実施形態が本発明の上記の詳細な説明で提示されているが、かなりの数の変形例が存在することを認識されたい。また、この1つまたは複数の例示的な実施形態は例に過ぎず、本発明の範囲、適用可能性、または構成を何ら限定することは意図されていないことを認識されたい。むしろ、上記の詳細な説明は、本発明の例示的な実施形態を実装するための便利な手引きを当業者に提供する。添付の特許請求の範囲に記載される本発明の範囲から逸脱することなく、例示的な実施形態に説明された要素の機能および配置に関して様々な変更がされ得ることは理解される。
100 NTEシステム
102 動作環境
110 NTE構造
120 構造表示ユニット
130 NTE駆動ユニット
140 NTEトラッカ制御ユニット
142 ポジション決定モジュール
144 予測モジュール
146 表示モジュール
150 コンピュータプロセッサ
152 メモリ
160 カメラユニット
170 トラッカ表示ユニット
180 データソース
200 基準シンボル
202 周辺部
210 特徴
400 基準シンボル
402 画像周辺部
800 NTEシステム
860 カメラユニット
865 視野
870 トラッカ表示ユニット
890 慣性測定ユニット(IMU)
960 カメラユニット
970 トラッカ表示ユニット
974 基準点
976 光学変更子
978 基準点
982 光線
984 光線
988 基準点
994 直交線
1060 カメラユニット
1070 トラッカ表示ユニット
1072 表示位置
1074 表示位置
1076 光学変更子
1082 光線束
1084 光線束
1086 光線束
1088 一般ポジション
1094 直交線
1096 修正された線
1160 カメラユニット
1170 平面トラッカ表示ユニット
1174 基準位置
1176 光学素子
1178 ポジション
1182 光線
1184 光線
1186 光線
1188 基準ポジション
1260 カメラユニット
1270 トラッカ表示ユニット
1276 光学変更子
1278 位置、画像
1286 光線
1288 基準シンボル

Claims (3)

  1. 第1のオブジェクトの位置および向きを追跡するための光学トラッカシステムであって、
    空間予測として前記第1のオブジェクトの予測位置および向きを決定するように構成された予測モジュールと、
    前記予測モジュールに結合され、前記空間予測を受信するように構成された表示モジュールであって、前記空間予測に基づいて、基準シンボルの表示コマンドを生成するように構成された表示モジュールと、
    前記予測モジュールに結合され、前記表示コマンドを受信するように構成された表示ユニットであって、前記表示コマンドに基づいて、前記基準シンボルを表示するように構成された表示ユニットと、
    前記表示ユニット上に表示された前記基準シンボルの画像を、取り込まれた外観として取り込むように構成されたカメラユニットと、
    前記カメラユニットに結合され、前記カメラユニットから前記画像を受信するように構成されたポジション決定モジュールであって、前記基準シンボルを識別し、前記基準シンボルの前記取り込まれた外観に基づいて前記第1のオブジェクトの前記位置および前記向きを決定するように構成されたポジション決定モジュールと
    を備える光学トラッカシステム。
  2. 光学トラッカシステムを用いて第1のオブジェクトの位置および向きを追跡するための方法であって、
    空間予測として前記第1のオブジェクトの予測位置および向きを決定するステップと、
    前記空間予測に基づいて、基準シンボルの表示コマンドを生成するステップと、
    前記表示コマンドに基づいて、表示デバイス上に前記基準シンボルを表示するステップであって、前記表示ユニットは、アクティブマトリックス表示デバイスである、ステップと、
    前記表示デバイス上に表示された前記基準シンボルの画像を、取り込まれた外観として取り込むステップと、
    前記画像における前記基準シンボルを識別するステップと、
    前記基準シンボルの前記取り込まれた外観に基づいて、6自由度(DOF)で前記第1のオブジェクトの前記位置および前記向きを決定するステップと、
    を含む方法。
  3. 第1のオブジェクトの位置および向きを追跡するための光学トラッカシステムであって、
    アクティブマトリックス表示デバイスを備え、第1の表示コマンドに基づいて基準シンボルを表示するように構成された第1の表示ユニット、
    前記第1の表示ユニット上に表示された前記基準シンボルの画像を、取り込まれた外観として取り込むように構成されたカメラユニット、および
    前記カメラユニットに結合され、前記カメラユニットから前記画像を受信するように構成されたポジション決定モジュールであって、前記基準シンボルを識別し、前記基準シンボルの前記取り込まれた外観に基づいて前記第1のオブジェクトの前記位置および前記向きを決定するように構成されたポジション決定モジュール
    を備える光学トラッカシステムと、
    前記光学トラッカシステムに結合され、前記第1のオブジェクトの前記位置および前記向きに基づいて、第2の表示コマンドを生成するように構成された駆動ユニットと、
    前記駆動ユニットに結合され、周囲環境に対してユーザによって見られるように、前記第2の表示コマンドに基づいてシンボル体系をレンダリングするように構成された第2の表示ユニットと
    を備え、前記光学トラッカシステムは、
    空間予測として前記第1のオブジェクトの予測位置および向きを決定するように構成された予測モジュールと、
    前記予測モジュールに結合され、前記空間予測を受信するように構成された表示モジュールであって、前記空間予測に基づいて、前記基準シンボルの前記第1の表示コマンドを生成するように構成された表示モジュールと
    をさらに備える、ニア・ツー・アイ表示システム。
JP2017159044A 2016-11-22 2017-08-22 光学トラッカを有するnte表示システムおよび方法 Active JP6951151B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/358,383 US10466774B2 (en) 2016-11-22 2016-11-22 NTE display systems and methods with optical trackers
US15/358,383 2016-11-22

Publications (2)

Publication Number Publication Date
JP2018084574A true JP2018084574A (ja) 2018-05-31
JP6951151B2 JP6951151B2 (ja) 2021-10-20

Family

ID=60320730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017159044A Active JP6951151B2 (ja) 2016-11-22 2017-08-22 光学トラッカを有するnte表示システムおよび方法

Country Status (6)

Country Link
US (2) US10466774B2 (ja)
EP (2) EP3324232B1 (ja)
JP (1) JP6951151B2 (ja)
KR (1) KR102525391B1 (ja)
CN (1) CN108089324B (ja)
IL (1) IL254556B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10473938B2 (en) * 2016-12-30 2019-11-12 Luminit Llc Multi-part optical system for light propagation in confined spaces and method of fabrication and use thereof
CN110780445A (zh) * 2018-11-12 2020-02-11 芋头科技(杭州)有限公司 用于装配光学成像系统的主动校准的方法及系统
US11487132B2 (en) * 2018-11-12 2022-11-01 Yutou Technology (Hangzhou) Co., Ltd. Active alignment for assembling optical devices
JP7231054B2 (ja) * 2019-10-08 2023-03-01 株式会社デンソー 誤差推定装置、誤差推定方法、誤差推定プログラム
US10996480B1 (en) * 2019-10-11 2021-05-04 GM Global Technology Operations LLC Head-up display calibration
CN111104641B (zh) * 2019-12-10 2023-07-21 重庆大学 一种三维空间内的计算机识别晶粒方法
US11350078B2 (en) * 2020-04-03 2022-05-31 Fanuc Corporation 3D pose detection by multiple 2D cameras
CN112363039B (zh) * 2020-10-29 2022-04-22 华南理工大学 一种有机光电器件的弱光检测系统及控制方法
US11920922B2 (en) * 2021-04-02 2024-03-05 Rockwell Collins, Inc. Combiner alignment detector
WO2023281488A1 (en) * 2021-07-04 2023-01-12 Elbit Systems Ltd. A conformal display system and a method thereof
IL284600B2 (en) * 2021-07-04 2023-10-01 Elbit Systems Ltd System and method for non-conformal display
US11768374B1 (en) 2022-06-24 2023-09-26 Rockwell Collins, Inc. Vehicle including head wearable display device and imperceptible reference fiducials and method therefor

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742263A (en) 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
US8013838B2 (en) 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
WO2010045271A1 (en) * 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
KR101337204B1 (ko) 2009-04-08 2013-12-06 퀄컴 인코포레이티드 향상된 핸드헬드 스크린-센싱 포인터
US8362973B2 (en) 2009-05-19 2013-01-29 Honeywell International Inc. Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems
US20120200499A1 (en) * 2010-02-28 2012-08-09 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based control of applications resident on external devices with feedback
JP5842248B2 (ja) * 2010-12-24 2016-01-13 国立研究開発法人産業技術総合研究所 マーカ
CN103946732B (zh) * 2011-09-26 2019-06-14 微软技术许可有限责任公司 基于对透视、近眼显示器的传感器输入的视频显示修改
US9337926B2 (en) 2011-10-31 2016-05-10 Nokia Technologies Oy Apparatus and method for providing dynamic fiducial markers for devices
GB2504999B8 (en) * 2012-08-17 2015-04-22 Sony Comp Entertainment Europe Apparatus and method for object positioning
US9354316B2 (en) 2014-02-19 2016-05-31 Honeywell International Inc. Polarized tracker system and method for tracking movement
US20150369593A1 (en) * 2014-06-19 2015-12-24 Kari MYLLYKOSKI Orthographic image capture system
JP2016082462A (ja) 2014-10-20 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6540108B2 (ja) 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
US9489045B2 (en) 2015-03-26 2016-11-08 Honeywell International Inc. Methods and apparatus for providing a snapshot truthing system for a tracker
US10156912B2 (en) 2015-11-25 2018-12-18 Honeywell International Inc. High speed, high precision six degree-of-freedom optical tracker system and method
US10152121B2 (en) * 2016-01-06 2018-12-11 Facebook Technologies, Llc Eye tracking through illumination by head-mounted displays

Also Published As

Publication number Publication date
EP4339893A2 (en) 2024-03-20
US10996744B2 (en) 2021-05-04
IL254556B (en) 2020-10-29
US10466774B2 (en) 2019-11-05
EP4339893A3 (en) 2024-05-29
JP6951151B2 (ja) 2021-10-20
IL254556A0 (en) 2017-11-30
KR20180057504A (ko) 2018-05-30
KR102525391B1 (ko) 2023-04-24
US20200150757A1 (en) 2020-05-14
EP3324232A1 (en) 2018-05-23
US20180143682A1 (en) 2018-05-24
EP3324232B1 (en) 2024-03-06
CN108089324A (zh) 2018-05-29
CN108089324B (zh) 2022-01-18

Similar Documents

Publication Publication Date Title
JP6951151B2 (ja) 光学トラッカを有するnte表示システムおよび方法
CN108352075B (zh) 使用光流的眼睛跟踪
CN108713159B (zh) 场曲校正显示器
US10469722B2 (en) Spatially tiled structured light projector
CN109425994B (zh) 深度相机组件、头戴式显示器和用于深度感测的方法
CN108780223B (zh) 用于生成眼睛模型的角膜球跟踪
US10827163B2 (en) Multiple emitter illumination source for depth information determination
US9910282B2 (en) Increasing field of view of head-mounted display using a mirror
US9030749B2 (en) Bifocal head-up display system
US11102467B2 (en) Array detector for depth mapping
US20180157320A1 (en) Air spaced optical assembly with integrated eye tracking
US10789777B1 (en) Generating content for presentation by a head mounted display based on data captured by a light field camera positioned on the head mounted display
CN113767318A (zh) 具有pancharatnam berry相位透镜的消色差光学透镜组件
EP3282285B1 (en) Multiple emitter illumination source for depth information determination
Liu et al. Optical distortion correction considering radial and tangential distortion rates defined by optical design
US10462451B1 (en) Asymmetric structured light source
Ha et al. Design of a wearable wide-angle projection color display
CN117957479A (zh) 使用空间定位的自由形式光学部件进行失真补偿和图像清晰度增强的紧凑型成像光学器件
US10685453B1 (en) Folded laser emitters for structured light applications
US10678048B1 (en) Head mounted display with tiled optical assembly
EP3615967B1 (en) Tracking optical flow of backscattered laser speckle patterns
EP3288259A1 (en) Array detector for depth mapping
US11044460B1 (en) Polychromatic object imager
US11366260B1 (en) Optical system with polarization volume hologram
Fischler et al. Application of large head-box aircraft transparency distortion measurement and compensation for improved cueing in helmet-mounted displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6951151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150