JP2017130909A - ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法 - Google Patents

ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法 Download PDF

Info

Publication number
JP2017130909A
JP2017130909A JP2016209335A JP2016209335A JP2017130909A JP 2017130909 A JP2017130909 A JP 2017130909A JP 2016209335 A JP2016209335 A JP 2016209335A JP 2016209335 A JP2016209335 A JP 2016209335A JP 2017130909 A JP2017130909 A JP 2017130909A
Authority
JP
Japan
Prior art keywords
vor
eye
head
hmd
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016209335A
Other languages
English (en)
Other versions
JP6837805B2 (ja
Inventor
シャオホン・リンダ・リー
Linda Li Xiaohong
ケン・リーフォン
Leiphon Ken
ジェームズ・シー.・フェ
C Fye James
ジェリー・ボール
Ball Jerry
ウィリアム・レイ・ハンコック
Ray Hancock William
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2017130909A publication Critical patent/JP2017130909A/ja
Application granted granted Critical
Publication of JP6837805B2 publication Critical patent/JP6837805B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーの前庭動眼反射(VOR)の応答に関する補償を行う頭部装着型ディスプレイ(HMD)デバイスでイメージを表示する方法を提供する。【解決手段】第1イメージをHMDディスプレイ・デバイスで表示するステップと、HMDディスプレイ・デバイスの角運動を感知するステップと、HMDディスプレイ・デバイスの感知した角運動に応答して、ユーザーの目の角運動を推定するステップとを含み、第1イメージに基づき且つ修正された目の予測される位置に基づき、連続するイメージのストリームの一部として、後続する第2イメージを生成し、第2イメージをHMDディスプレイ・デバイスで表示する。【選択図】図5

Description

[0001] ここで説明する例示の実施形態は、一般的に、航空機や移動車両のオペレーションに関し、より特定的には、前庭動眼反射(vestibulo-ocular reflex)(VOR)の応答に関しての修正を行うようにして対象物のイメージを表示することに関する。
[0002] パイロットにとって、航空機のオペレーションの状態を監視しつつ、コックピットの窓の外を見ることにより周囲を認識することは、有益である。より一般的には、何れの形のビークルのオペレーションにおいても、オペレーターにとって、状況認識の向上は有益である。航空機のオペレーションの例に戻るが、伝統的に、パイロットは、コックピットのディスプレイ・スクリーンを信頼しており、ディスプレイ・スクリーンは、パイロットの座席に対して位置および方向が固定されている。パイロットがアビオニクス・ディスプレイ・ユニットから電子情報を受け取りつつも目を上げることを可能にする最新のヘッドアップ・ディスプレイ(head-up display)(HUD)アビオニクスを用いても、パイロットの頭がそのアビオニクス・ディスプレイ・ユニットの位置から離れるように動かされると、飛行情報は、注意を向けるようには提供されない。より一般的には、オペレーターの注意をディスプレイ・ユニットに集中させる必要がある全てのビークルのオペレーションでは、一時的にそのディスプレイから頭が離れる動きでさえも、情報を失う結果となり得る。
[0003] 上記の航空機の例のように、ビークルのオペレーションが複雑になると、適切なオペレーションを保証するために、ビークルのオペレーター、例えば、フライト・クルーが、注意を行き届かせ、適時でありポータブルな様式で情報を受け取ることが、好ましい。ポータブルの情報を提供する1つの手段は、ヘッドマウント式ディスプレイ(HMD)システムである。ヘッドマウント式ディスプレイ・システムは、1つのタイプの頭部装着型ディスプレイ・システムであり、これは、ディスプレイを一方または双方の目の前に置くために、バイザー、ヘルメット、ゴーグル、または他の頭部装着型マウントを用いる。典型的に、頭部装着型ディスプレイは、ディスプレイ・シンボル体系を呈示する半透明の光学的結合エレメントを含む。シンボル体系のソースは、液晶ディスプレイ(LCD)、リキッド・クリスタル・オン・シリコン(LCoS)ディスプレイ、または有機発光ダイオード(OLED)ディスプレイとすることができる。結合エレメントは、HMDディスプレイに呈示される情報を、可視シーンに重ねること、およびビークルのオペレーターが頭を動かしたときに変更することを、可能にする。このHMDシステムは頭部装着型なので、考慮されることが好ましい幾つかの特有の人体とビジョン・システムとの結合特性がある。それらの1つは、人間の前庭動眼反射(VOR)である。
[0004] 通常のVOR応答は、補償する目の動き(compensatory eye movement)であり、これは、空間における頭の動きを人間の神経系が検出したときに、その頭の動きに対応するものである。例えば、頭を、水平面で右へ回転させると、頭の座標フレームに相対しての左への目の回転を誘発させることにより、頭が動いている間、注視の視軸を安定させ、網膜にイメージが固定され続けるようにする。更に、VORに起因するこの目の動きは、神経センサーおよび動眼神経応答からの動的な影響により、頭の動きと完全に逆のものとはならない。
[0005] 合成視覚イメージ処理を用いるHMDデバイスの現在の実施では、イメージは、通常は、目のVORの影響の動的補償をせず、感知した頭の動きに関して補償される。即ち、HMD設計の現在の実施では、頭が動いているときに目の注視の方向が変化していることと、目の注視は頭の向いている方向と同じ方向に整合すると通常は想定されることとを反映するように、表示されるイメージはシフトされる。実際には、無意識の前庭動眼反射に起因する目の動きは、頭の動きと整合せず、また、頭の動きの完全な逆の動きとも整合しない。目のVORの影響を動的に補償しない場合、結果的に得られるイメージは、不均一な地勢でのビークルのオペレーションや、乱流環境での航空機のオペレーションなどのような、振動している環境にある人間のオペレーターには、読み取り不可能となり得る。
[0006] 従って、特に、高振動環境での使用の際の、HMDデバイスのイメージの安定化および追跡の設計の性能を向上させるために、目のVORの補償を組み込むことが望ましい。更に、例示の実施形態の他の望ましい特徴および特性は、添付の図面と上記の技術分野および背景とを関連付けた後の詳細な説明および添付の特許請求の範囲から明らかになる。即ち、この開示のVOR補償を用いる例示の実施形態は、頭部装着型ディスプレイ・システムと関連するが、この開示は、表示情報の認識力を向上させるために画像処理にVOR補償を組み込むことにより、高振動の環境や変化する環境で使用される任意のイメージ・ディスプレイ・システムに適用可能であることは、明らかである。
[0007] ユーザーの前庭動眼反射(VOR)の応答に関する補償を行う頭部装着型ディスプレイ(HMD)デバイスでイメージを表示する方法は、第1イメージを生成し、前記第1イメージを前記HMDディスプレイ・デバイスで表示するステップと、前記HMDディスプレイ・デバイスの角運動を感知するステップと、前記HMDディスプレイ・デバイスの感知した前記角運動に応答して、前記ユーザーの目の角運動を推定するステップとを含む。前記推定するステップは、目の角VOR運動予測数学モデルを用いるステップと、VORの影響に起因する目の予測される位置を生成するステップと、目の角位置追跡数学モデルを用いるステップと、頭の動きが静まった後に前記目の予測される位置を修正するステップとを含む。更に、方法は、前記第1イメージに基づき且つ修正された目の予測される位置に基づき、連続するイメージのストリームの一部として、後続する第2イメージを生成することと、前記第2イメージを前記HMDディスプレイ・デバイスで表示することとを含む。
[0008] この簡潔な概要は、後の詳細な説明に更に記載する概念のうちの選択さたれものを簡潔な形で紹介するために、提供したものである。この概要は、特許請求される主題事項の鍵となる特徴や本質的な特徴を特定することは意図しておらず、また、特許請求される主題事項の範囲を決定する際の支援に用いることを意図していない。
[0009] 以下において、下記の図面と関連させて本開示を説明するが、図面では、同様の数字は同様のエレメントを表す。
[0010] 図1は、飛行ディスプレイ・システムの機能ブロック図である。 [0011] 図2は、HMDシステムの例示の実施形態である。 [0012] 図3は、図2のHMDシステムの機能ブロック図である。 [0013] 図4は、基準座標系を規定する。 [0014] 図5は、1つの軸における例示の目の角VOR運動予測モデルを示す。 [0015] 図6は、1つの軸における例示の目の角位置追跡モデルを示す。 [0016] 図7は、3つの軸における図5のモデルおよび図6のモデルの双方の統合方法を示す。
[0017] 下記の詳細な説明は、本来、単なる例示であり、主題事項の実施形態や出願、および実施形態の使用を限定することは、意図していない。ここで例として説明される全てのインプリメンテーションは、必ずしも他のインプリメンテーションより好適または有利なものであると考えなくてもよい。更に、先の技術分野、背景、簡潔な概要、または下記の詳細な説明に示された何れの明示又は暗示された理論に縛られることも、意図されていない。
序論
[0018] 本開示は、頭部装着型ディスプレイ・デバイスで用いられる合成視覚や他のイメージ呈示に関してのVORの影響を補償するための解決法を広く提供する。より広くは、最初に述べたように、本開示は、HMDデバイスでの使用に限定されず、むしろ、表示情報の認識力を向上させるために画像処理にVOR補償を組み込むことにより、高振動の環境や変化する環境で用いられる任意のイメージ・ディスプレイ・システムでの応用が見いだされるであろう。
[0019] より特定的には、本開示は、角VORの影響に起因する目の回転運動を予測するアルゴリズムを提供し、頭の動きが停止した後にHMDデバイスに表示される静的イメージを、目の運きが追跡することを可能にする。本開示のアーキテクチャーは、とりわけ、1)目の角VOR(aVOR)運動予測モデルと、2)目の角位置(頭の座標フレームで定義される)追跡数学モデルとを含むものであり、VORが生じ、そして頭の動きが静まった後に、目の位置を、頭の位置と逆になるように(即ち、面するようにするという観点から)整合させる。
[0020] 以下の幾つかの段落では、エレメント1)および2)のそれぞれの簡単な概観を提供し、その後、図面に記載されているHMDシステムと、HMDシステムを用いてのエレメント1)および2)のインプリメンテーションとの説明を提供する。最初に、エレメント1)に関して、頭が動いているときの人間の目の眼球運動機構および逆反射運動(counter reflex)を表すために、チューン可能時間遅延およびチューン可能フォワード・ゲインを用いて、目の角VOR運動予測モデル、動的一般逆行列伝達関数(dynamic pseudo-inverse transfer function)が開発される。頭の位置からの目の位置のドリフトを軽減するために、目の角位置フィードバック・ループを持つフィードバック・コントローラーが設計される。このモデルは、3軸の目の角VOR運動に関しての頭の動きの3つの角レートおよび位置を用いる。このモデルの出力は、VORにより生じるものであり頭の座標において定められる目の予測される角位置である。次に、VORに起因する目のデルタ(角)位置が、VORに起因する目の予測角位置と、逆になる頭の位置との間の差として、生成される。
[0021] 次に、エレメント2)に関して、目の角位置追跡モデルは、VORの影響が少なくなった後、頭の位置に対する目の追跡を可能にする。相対的に静止している頭の動きを検出した後に、目のデルタ位置をゼロに低減するように設計される。即ち、最終的な目の位置は、頭の動きが停止した後の頭の位置と整合させられる。同等に、この追跡の特徴は、表示されるイメージが、逆になる頭の位置によりシフトされたときに、目の動きが静止イメージを追跡することを可能にする。この追跡モデルはまた、コントローラーのノイズのジッタリングを除くためのロジックを用いて設計される。更に、このモデルは、特定の人間のオペレーターによるVORゲインおよび遅延の影響のチューニングを可能にし、従って、VORに起因する目の予測される動きを、調節することができ、従って、様々な人間のVOR応答に関して頭および目の動きと動的に相関させることができる。
[0022] ディスプレイ・システムにおける開示されるVOR補償に関して、ここでは、専門技術および科学技術を、機能および/または論理ブロック・コンポーネントに関して、および様々な計算用コンポーネントやデバイスにより行われ得るオペレーション、処理タスク、および機能のシンボル表現を参照して、説明する。そのようなオペレーション、タスク、および機能は、コンピューターで実行するもの、コンピューター化されたもの、ソフトウェアによりインプリメントされたもの、また、コンピューターによりインプリメントされたものとして呼ばれることがある。実際には、1以上のプロセッサー・デバイスが、システム・メモリのメモリ位置にあるデータ・ビットを表す電気信号を操作して、および他の信号処理により、説明するオペレーション、タスク、および機能を行うことができる。例示の実施形態の方法およびシステムは、任意の形の移動車両、例えば、自動車や船や重機、任意の形の車両以外での応用、例えば、手術や機械やビルディングのメンテナンス、テレロボティクスおよび他の遠隔視、およびビークルやスーツへの取り付けを含む任意の形の宇宙での応用で用いることができるが、航空機システムでの使用を例として説明する。
[0023] 一般に、ここで開示する例示の実施形態は、頭部装着型ディスプレイ・デバイスを含み、これは、航空機のパイロットなどのようなビークルのオペレーターが、空中にいるときや地上にいるときに、ビークルや航空機の外の実際のイメージのコンフォーマル・ビデオ・イメージを見ることを可能にする。HMD頭追跡システムは、視覚的走査のために、左から右の範囲の動き、例えば、360度の動きを提供する。表示用に生成されるグラフィックスは、パイロットの頭の動きを追跡する。例えば、ジンバル支持された頭追跡用カメラ、固定センサーのアレイ、またはデータから作成された仮想または合成環境からの入力は、物体に関して空、地形、または滑走路/誘導路を走査する能力を、オペレーター/パイロットに与える。ビークルの姿勢(方向)は、慣性センサー、加速度計、コンパス、およびエア・データ・センサーから決定することができる。HMDシステムは、例えば、カメラやセンサーから作成された、または格納されたデータから合成的に作成された実際のビデオ・イメージを処理する。
[0024] 図1を参照すると、一般化された例示のディスプレイ・システム100は、ユーザー・インターフェイス102と、プロセッサー104と、センサー112と、外部データ・ソース114と、1以上のディスプレイ・デバイス116(後に詳細に説明するHMDシステム117を含む)とを含む。ユーザー・インターフェイス102は、プロセッサー104と通信するものであり、オペレーター109から入力を受信するように、そして、ユーザーの入力に応答してコマンド信号をプロセッサー104へ供給するように、構成される。図示した実施形態では、プロセッサー104は、オンボードのRAM(ランダム・アクセス・メモリ)103と、オンボードのROM(リード・オンリー・メモリ)105とを含む。プロセッサー104を制御するプログラム命令を、RAM103とROM105との何れかまたは双方に格納することができる。プロセッサー104がどのように具体的に実装されようと、プロセッサー104は、ディスプレイ・デバイス116と通信するものであり、様々なタイプの運動データをセンサー112から受信するように、および様々な他のビークル・データを外部データ・ソース114から受信するように、結合される。プロセッサー104は、適切な表示コマンドをディスプレイ・デバイス116へ供給するように構成される。ディスプレイ・デバイス116は、表示コマンドに応答して、様々なタイプのテキスト、グラフィック、および/またはアイコンの情報を選択的に表示する。センサー112は、様々なタイプの運動データ、例えば、ビークルのスピード、進行方向、高度、および姿勢を含むビークルの状態を表す運動データ供給するために、既知の又は将来に開発される様々なタイプの慣性センサー、システム、および/またはサブシステムを用いて、インプリメントすることができる。
[0025] オペレーター109が見ることができるフォーマットでテキスト、グラフィック、および/またはアイコンの情報を表示するために適切である多数の既知のディスプレイ・デバイスのうちの任意のものを用いてディスプレイ・デバイス116をインプリメントできることが、理解されるであろう。そのようなディスプレイ・デバイスの例は、様々なタイプのLCD(液晶ディスプレイ)、TFT(薄膜トランジスター)ディスプレイ、およびプロジェクション・ディスプレイLCD光エンジンなどのような、様々なフラット・パネル・ディスプレイを含むが、これは限定ではない。ディスプレイ・デバイス116は、更に、パネル取付型ディスプレイや、多数の既知の技術の何れかのものとして、インプリメントすることができる。
[0026] 先に述べたように、ディスプレイ・デバイス116はHMDディスプレイ・システム117を含む。多くの既知のHMDシステムがある。1つの既知の例示の実施形態は、本発明の譲受人に譲渡された米国特許第8552850号に記載されており、この参照により、この文献の全体がここに組み込まれるものとする。本願の図2に示す実施形態は、HMDディスプレイ・システム117を装着しているビークルのオペレーター109を含み、オペレーター109は、航空機のフライト・クルーのメンバーなどである。HMDディスプレイ・システム117は、好適には半透明であるHMDディスプレイ208と結合されたヘッドバンド206を含む。オペレーター109が正しく装着した場合、HMDディスプレイ208は、右目210から所定の距離において右目210の視線のところに位置する。このようにして、HMDディスプレイ208上で、その先のほうに見える景色、例えば、コックピット内の制御装置や他のアイテムおよび/またはコックピットの窓を通しての外の景色と重ねて、情報をオペレーター109に呈示することができる。適切な情報をHMDディスプレイ208で呈示するために、任意の時点でオペレーター109の頭が面している方向(例えば、上に向く、下に向く、コックピットの一部の方に向く、または別の部分に向く)を感知するために、発行ダイオード(LED)214がヘッドバンド206の部分212に配される。頭の動きを追跡するための他のシステムは、ヘッドバンドにおけるカメラやエミッターを含み、また、追跡システムは、光学的なものではなく、磁気や慣性を用いるものとすることもできる。このようにして、コンフォーマル・グラフィックスおよび/または他の情報を含む適切な透明なビューをHMDディスプレイ208上に生成および呈示するために、任意の時点でのオペレーターの頭の方向を感知することができる。HMDディスプレイ・システム117の構成は、図2に示すデバイスに限定されない。例えば、HMDディスプレイ・システム117は単眼HMDディスプレイ・システムであるが、本実施形態において両眼HMDディスプレイ・システムを用いることもできる。
[0027] 図3は、本実施形態に従ったビークル・オペレーションのためのシステムのブロック図を示す。HMDディスプレイ・システム117は、HMDディスプレイ208と、HMDセンサー301と、HMD追跡コントローラー302と、オプションの慣性測定ユニット(IMU)303とを含む。HMD追跡コントローラー302は、カメラ(図示せず)などのようなHMDセンサー301から信号を受信し、HMDディスプレイ208へ提供される信号を生成する。信号は、オペレーター109へ呈示するためのコンフォーマル・グラフィックスや他の情報のビューを生成するために、適切な情報をHMDディスプレイ208で呈示する。
[0028] HMD追跡コントローラー302はまた、HMDセンサー301により監視される情報に応答して、オペレーター109の頭の方向に対応する焦点データを生成する。そのような情報は、オペレーター109の頭が外に向かって窓(図示せず)の方へ向きを変えたか及び何れの方向へ向けてか、ビークル内ディスプレイ306へと向きを変えたか、または他の興味の対象へと向きを変えたかを、含むことができる。HMD追跡コントローラー302は、オペレーター109の頭の方向に対応する焦点データを提供するために、コントローラー304と結合される。焦点データ(例えば、HMDディスプレイ・システム117の位置および方向を監視することから結果的に得られるオペレーター109頭部追跡データ)は、コンフォーマル・イメージを呈示する際にコントローラー304により用いられる。背景となる風景を参照して、コンフォーマル・イメージがロードされ、実際の環境が表示される。ビークルのナビゲーションおよび性能の情報などのような他の情報は、HMDディスプレイ・システム117を装着しているオペレーターが向いた方向にかかわらず、ディスプレイ上で静止している。
目の角VOR運動予測数学モデル
[0029] 先に説明したように、目の角VOR運動予測モデルに関して、頭が動いているときの人間の目の眼球運動機構および逆反射運動を表すために、チューン可能時間遅延およびチューン可能フォワード・ゲインを用いて、動的一般逆行列伝達関数731が開発される。フィードバック信号として目の角位置を用いるフィードバック・コントローラー730は、頭の位置からの目の位置のドリフトを軽減するように設計される。これは、3軸の目の角VOR運動に関しての頭の動きの3つの角レートおよび位置を用いる。このモデルの出力は、VORにより生じるものであり頭の座標において定められる目の予測される角位置である。次に、VORに起因する目のデルタ(角)位置が、VORに起因する目の予測角位置と、逆になる頭の位置との間の差として、生成される。このタイプのモデルの背景の理解は、2001年3月発行のNeural Networks、第12巻、第2号の第201−216ページのT. Shibataその他による「Biomimetic Gaze Stabilization based on Feedback-Error-Learning with Nonparametric Regression Networks」から得ることができ、この参照により、この文献の全体がここに組み込まれるものとする。
[0030] モデルは、運動の3つの軸、即ち、x軸とy軸とz軸との全てにおいて動作する。従って、ここで図4を紹介するのが適切であり、図4は、後に詳細に記載する目の角VOR運動予測モデルと目の角位置追跡モデルとの講義で参照するための、ユーザーの頭に関してのこれら3つの軸を例示する。図4に示すように、z軸は、ユーザーの頭を垂直に通って延び、y軸は、ユーザーの頭の横側を通って延び、x軸はユーザーの頭の前側と後ろ側とを通って延びる。下記の個々のモデルに関しての頭の角加速度、速度、および位置、および目の位置は、この座標フレームに基づいて提供する。例えば、ピッチ面は、y軸について回転すると定められ、その対応する頭の回転レート信号は、図7では、入力信号「H_Ry_rate」702yと名付けられている。
[0031] 目の角VOR運動予測数学モデル700は、図5に示している。図5は、簡素化するために、1つの軸のみに関する数学モデルを表示する。しかし、後に詳細に説明するように、および図7に更に具体的に記載されているように、モデルは、異なる数値パラメーターを用いる同じ基礎的モデルを用いて、3つの軸の全てに対して拡張されることに留意されたい。
[0032] 目の角VOR運動予測数学モデルは、入力として、ユーザーの頭の位置701(上記のように図5は1つの軸のみに関する入力を示すが、3つの軸のそれぞれにおいて定められる)と、ユーザーの頭の速度702(3つの軸のそれぞれにおいて定められる)と、チューニング「ノブ(knob)」703と呼ばれるチューニング・パラメーター(これも、3つの軸のそれぞれにおいて定められる)とを用いる。また、3つの軸のそれぞれにおける回転の各方向に関するVOR速度ゲイン(711、712)が提供される。これは、VOR修正の影響に関しての感知した頭の角レートを減衰させるためのゲインである。各軸は、異なる頭の回転方向(711、712)に関して異なるVORスピード・ゲイン・ベースラインを有する。限定ではない単なる一例として、1つの実施形態では、ベースラインVORスピード・ゲインは、約0.97ピッチ・アップおよび約1.10ピッチ・ダウンとすることができる。各ゲインは、チューニング・ノブ703で制御可能な、チューン可能バイアスを有することができる。限定ではない単なる一例として、1つの実施形態では、バイアスは約+/−0.09とすることができる。下記では、各軸に関して、および各軸における各回転方向に関しての、ゲインに対してのノブ・チューニングの効果を説明する。ノブの範囲は、各軸に関して尺度が異なる。限定ではない単なる一例として、ノブ・チューニングの最大は、ピッチ軸に関して約0.09バイアスであると解釈されるが、ヨー軸およびロール軸に関しては約0.07バイアスと解釈される。ノブが、ゼロである中央にあるとき、ベースラインのゲインおよびデフォールトの遅延の値が用いられる。ノブが右へ回されると、ベースラインからの正バイアスでゲインが増加し、その結果、ベースラインから遅延時間が低減する。代わりに、ノブが左へ回されると、ベースラインからの負バイアスでゲインが低減し、ベースラインから遅延時間が増加する。チューン可能ゲインは、人毎に変わる様々なVOR応答を補償するために提供される。
[0033] 目の角VOR運動予測数学モデルは、図5で1つの軸に関して示すように、その出力として、3つの軸のそれぞれにおける目の予測位置720を生成する。それらの出力は、後に詳細に説明する目の角位置追跡数学モデルのための入力の1つとして用いられる。
目の角位置追跡数学モデル
[0034] 先に述べたように、目の角位置追跡モデルは、VORの影響が減少した後に目が頭の位置を追跡することを可能にする。これは、静的な頭の動きを検出した後に、目のデルタ位置をゼロに低減するように設計される。即ち、最終的な目の位置は、頭の動きが停止した後の頭の位置と整合させられる。同等に、この追跡の特徴は、目の角位置が頭の位置と整合させられるので、目の動きが静止イメージを追跡することを可能にする。この追跡モデルはまた、コントローラーおよびセンサーのノイズを除去するロジックを用いて設計することができる。
[0035] 目の角位置追跡数学モデル800が図6に示されている。図6は、簡潔にするために、1つの軸のみに関する数学モデルを示している。しかし、後に詳細に説明するように、および図7に更に具体的に記載されているように、モデルは、異なる数値パラメーターを用いる同じ基礎的モデルを用いて、3つの軸の全てに対して拡張されることに留意されたい。
[0036] 目の角位置追跡数学モデルは、入力として、ユーザーの頭の位置701(上記のように図6は1つの軸のみに関する入力を示すが、3つの軸のそれぞれにおいて定められる)と、ユーザーの頭の速度702(3つの軸のそれぞれにおいて定められる)と、目の角VOR運動予測数学モデルからの目の予測位置720(これも、3つの軸のそれぞれにおいて定められる)とを用いる。更に示されるように、パラメーター801は、静的頭部運動を検出するためのパラメーターであり、ここでは、レートが秒あたりの所定の角度値(特定のインプリメンテーションに基づく)よりも少ないということが、頭の動きが停止したことを意味すると、考えられている。
[0037] 図5に示すように、図6に示すモデルは眼球運動プラント設計パラメーター732を含み、フィードバック制御ループは、静的運動状態に関してデルタ入力が「0」に設定されている。更に、モデル800は、運動のジッタリングの影響を軽減するための制御パラメーター811を含む。例えば、先に述べたように、実際の振動環境におけるIMU信号はノイズを含み、それは、頭の動きが減少または停止した後でさえ、イメージを急に変化させる。従って、通常は高周波数であり大きさは小さいものである意図されていない信号ノイズが原因で、HMDシステムは、測定された信号を実際の頭の動きであると誤解し、それに応じて表示イメージを調節し、その結果としてイメージのジッタリングが生じる。急な動き(加速度)の大きさがスレッショルドより下である場合、コンフォーマル・イメージは静止し、それにより、頭が動いている間に受信した実際のビデオ・イメージから生成され、また、急な動きが小さい大きさとして検出されたときに停止されるコンフォーマル・イメージのぎくしゃくした又は過敏な動きをなくす。望まれるように任意のスレッショルド値803を選択することができ、それは、限定ではない例示の実施形態では約0.02である。
[0038] 目の角位置追跡数学モデルは、図5において決定された目の位置を低減するために、その出力として、目の位置における変化(「デルタ」)810を生成する。図5および図6に示すモデルの出力に基づく統合された数学モデルは最終的な結果を生成し、これは、図7で後に説明するように、HMDシステムがVORの影響に対して表示イメージを修正することを可能にする。
数学モデルの統合
[0039] 図7は数学モデルを示し、これは、図5の目の角VOR運動予測数学モデル700と、図6の目の角位置追跡数学モデル800とを組み合わせたインターワーキングを示す。図7では、3つの軸のそれぞれが示されており、頭の位置に関する入力は701x,y,zであり、頭の速度に関する入力は702x,y,zである。チューニング・ノブ703x,y,zも示されている。結果は、予測された目のVOR位置720x,y,zであり、これらは目のデルタ位置810x,y,zにより修正されて、最終的な目の位置が決定され、これがHMDディスプレイの更新に用いられる。
[0040]上記の詳細な説明では少なくとも1つの例示の実施形態を示したが、多数の変形形態が存在することを理解すべきである。また、1または複数の例示の実施形態は、単なる例であること、および範囲や適用や構成を何れのように限定することも意図していないことを、理解すべきである。むしろ、上記の詳細な説明は、例示の実施形態をインプリメントするための便利なロード・マップを当業者に提供するものであり、特許請求の範囲の記載の範囲から離れずに、例示の実施形態で説明されたエレメントの機能および配置における様々な変更を行え得ることは、理解されている。

Claims (4)

  1. ユーザーの前庭動眼反射(VOR)の応答に関する補償を行う頭部装着型ディスプレイ(HMD)デバイスでイメージを表示する方法であって、
    第1イメージを生成し、前記第1イメージを前記HMDディスプレイ・デバイスで表示するステップと、
    前記HMDディスプレイ・デバイスの角運動を感知するステップと、
    前記HMDディスプレイ・デバイスの感知した前記角運動に応答して、前記ユーザーの目の角運動を推定するステップであって、目の角VOR運動予測数学モデルを用いるステップと、VORの影響に起因する目の予測される位置を生成するステップとを含む、推定するステップと
    前記第1イメージに基づき且つ目の予測される位置に基づき、連続するイメージのストリームの一部として、後続する第2イメージを生成し、前記第2イメージを前記HMDディスプレイ・デバイスで表示するステップと
    を含む方法。
  2. 請求項1の方法であって、目の角位置追跡数学モデルを用いるステップと、頭の動きを追跡するように前記目の予測される位置を修正するステップとを更に含む方法。
  3. 異なるオペレーターまたは環境に関しての前庭動眼反射(VOR)の応答の影響を外部から調節する方法であって、
    前記前庭動眼反射(VOR)の動的有効ゲインを調節するためにノブを外部からチューニングするステップと、
    前記前庭動眼反射(VOR)の動的有効時間遅延を調節するためにノブを外部からチューニングするステップと、
    を含む方法。
  4. 異なるオペレーターまたは環境に関しての前庭動眼反射(VOR)の応答の影響を調節する方法であって、
    感知したオペレーターの反応に基づいて、前記前庭動眼反射(VOR)の動的有効ゲインを調節するステップと、
    感知したオペレーターの反応に基づいて、前記前庭動眼反射(VOR)の動的有効時間遅延を調節するステップと、
    前記VORの応答のモデルを定めた幾つかのパラメーターを変化させることにより、前記前庭動眼反射(VOR)の動的応答を調節するステップと
    を含む方法。
JP2016209335A 2015-10-28 2016-10-26 ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法 Active JP6837805B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/925,012 2015-10-28
US14/925,012 US10018847B2 (en) 2015-10-28 2015-10-28 Methods of vestibulo-ocular reflex correction in display systems

Publications (2)

Publication Number Publication Date
JP2017130909A true JP2017130909A (ja) 2017-07-27
JP6837805B2 JP6837805B2 (ja) 2021-03-03

Family

ID=57189952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016209335A Active JP6837805B2 (ja) 2015-10-28 2016-10-26 ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法

Country Status (6)

Country Link
US (1) US10018847B2 (ja)
EP (1) EP3182051B1 (ja)
JP (1) JP6837805B2 (ja)
KR (1) KR20170049433A (ja)
CN (1) CN106657717B (ja)
IL (1) IL248524B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823745B1 (en) * 2012-08-30 2017-11-21 Atheer, Inc. Method and apparatus for selectively presenting content
US10147232B2 (en) 2012-08-30 2018-12-04 Atheer, Inc. Method and apparatus for selectively presenting content
EP3544851B1 (en) * 2016-11-23 2021-01-06 Telefonaktiebolaget LM Ericsson (publ) Motor vehicle and method of controlling a suspension system
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
IL253432A0 (en) 2017-07-11 2017-09-28 Elbit Systems Ltd System and method for correcting a rolling display effect
WO2019012522A1 (en) * 2017-07-11 2019-01-17 Elbit Systems Ltd. SYSTEM AND METHOD FOR CORRECTING A RUNNING DISPLAY EFFECT
GB2575628A (en) * 2018-07-09 2020-01-22 Nokia Technologies Oy Video processing
DE102018213820A1 (de) * 2018-08-16 2020-02-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
DE102018215272A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
CN109669536B (zh) * 2018-11-26 2021-11-02 中国航空工业集团公司洛阳电光设备研究所 一种驾驶舱人机视觉交互系统
FR3090137B1 (fr) * 2018-12-12 2020-11-27 Airbus Operations Sas Système et procédé d’affichage d’un aéronef
CN109696191B (zh) * 2018-12-29 2020-06-30 北京理工大学 一种虚拟现实头戴显示设备的移动延迟测量方法
CN109696188B (zh) * 2018-12-29 2020-07-21 北京理工大学 一种基于激光管的vr头盔的转动延迟测量方法
CN109696190B (zh) * 2018-12-29 2020-09-18 北京理工大学 一种基于渐变编码的vr头盔的转动延迟测量方法
CN109696189B (zh) * 2018-12-29 2020-10-23 北京理工大学 一种基于编码器的vr头盔的转动延迟测量方法
CN109737997B (zh) * 2018-12-29 2020-10-20 北京理工大学 一种虚拟现实头戴显示设备的转动延迟测量方法
US11119580B2 (en) * 2019-10-08 2021-09-14 Nextsense, Inc. Head and eye-based gesture recognition
GB2594966A (en) * 2020-05-13 2021-11-17 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
TWI746184B (zh) * 2020-09-25 2021-11-11 宏碁股份有限公司 利用視線方向調整顯示模式的顯示裝置及其操作方法
US11449137B2 (en) * 2021-02-12 2022-09-20 Rockwell Collins, Inc. Soldier and surface vehicle heads-up display imagery compensation system to align imagery with surroundings

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
WO2010032424A1 (ja) * 2008-09-18 2010-03-25 学校法人中部大学 眠気予兆検出装置
JP2014168506A (ja) * 2013-03-01 2014-09-18 Tokyo Metropolitan Univ 人の状態推定装置およびそれを備えた輸送機器
US20150212576A1 (en) * 2014-01-28 2015-07-30 Anthony J. Ambrus Radial selection by vestibulo-ocular reflex fixation

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742264A (en) 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
US5966680A (en) 1996-02-15 1999-10-12 Butnaru; Hanan Motion sickness/vertigo prevention device and method
US6497649B2 (en) 2001-01-21 2002-12-24 University Of Washington Alleviating motion, simulator, and virtual environmental sickness by presenting visual scene components matched to inner ear vestibular sensations
US7500752B2 (en) * 2004-04-28 2009-03-10 Natus Medical Incorporated Diagnosing and training the gaze stabilization system
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示系统和装置
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
WO2011143655A1 (en) 2010-05-14 2011-11-17 Advitech, Inc. System and method for prevention and control of the effects of spatial disorientation
US9072481B2 (en) * 2010-09-09 2015-07-07 The Johns Hopkins University Apparatus and method for assessing vestibulo-ocular function
US8686335B2 (en) * 2011-12-31 2014-04-01 Seno Medical Instruments, Inc. System and method for adjusting the light output of an optoacoustic imaging system
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN103018903A (zh) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 具有显示方位锁定装置的头戴式显示器及其显示方法
US20130169532A1 (en) 2011-12-29 2013-07-04 Grinbath, Llc System and Method of Moving a Cursor Based on Changes in Pupil Position
US9529197B2 (en) * 2012-03-21 2016-12-27 Google Inc. Wearable device with input and output structures
US8736692B1 (en) 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
US9370302B2 (en) * 2014-07-08 2016-06-21 Wesley W. O. Krueger System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment
US9274599B1 (en) * 2013-02-11 2016-03-01 Google Inc. Input detection
US10353460B2 (en) 2014-01-29 2019-07-16 Tarek A Shazly Eye and head tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
WO2010032424A1 (ja) * 2008-09-18 2010-03-25 学校法人中部大学 眠気予兆検出装置
JP2014168506A (ja) * 2013-03-01 2014-09-18 Tokyo Metropolitan Univ 人の状態推定装置およびそれを備えた輸送機器
US20150212576A1 (en) * 2014-01-28 2015-07-30 Anthony J. Ambrus Radial selection by vestibulo-ocular reflex fixation

Also Published As

Publication number Publication date
IL248524A0 (en) 2016-11-30
CN106657717A (zh) 2017-05-10
US20170123215A1 (en) 2017-05-04
CN106657717B (zh) 2020-08-25
KR20170049433A (ko) 2017-05-10
IL248524B (en) 2019-11-28
EP3182051B1 (en) 2022-05-18
EP3182051A1 (en) 2017-06-21
JP6837805B2 (ja) 2021-03-03
US10018847B2 (en) 2018-07-10

Similar Documents

Publication Publication Date Title
JP6837805B2 (ja) ディスプレイ・システムにおける前庭動眼反射の修正の設計および方法
US11828939B2 (en) Method and apparatus for adjusting motion-based data space manipulation
US10558043B2 (en) Worn display using a peripheral view
US9389419B2 (en) Near-to-eye display artifact reduction system and method
US9594248B2 (en) Method and system for operating a near-to-eye display
US8963742B1 (en) Head-up display/synthetic vision system predicted flight path depiction
US11815690B2 (en) Head mounted display symbology concepts and implementations, associated with a reference vector
US8907887B2 (en) Methods and systems for operating avionic systems based on user gestures
US20190049949A1 (en) Modified-reality device and method for operating a modified-reality device
TW201009802A (en) Method and system for operating a display device
US6999005B2 (en) Image compensation apparatus
US10627630B2 (en) Display system and method for an aircraft
US8294633B2 (en) Methods for reducing artifacts in near-to-eye display systems
KR20200135352A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
CA2526281A1 (en) Stabilization of the effects of jitter on a displayed image
WO2020110293A1 (ja) 表示制御システム、表示制御装置及び表示制御方法
JP2019081480A (ja) ヘッドアップディスプレイ装置
JP2017026762A (ja) 表示制御装置、表示制御方法、及びプログラム
EP4286994A1 (en) Electronic device that displays virtual objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210210

R150 Certificate of patent or registration of utility model

Ref document number: 6837805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250