JP2009292470A - 表示デバイスを動作させる方法およびシステム - Google Patents

表示デバイスを動作させる方法およびシステム Download PDF

Info

Publication number
JP2009292470A
JP2009292470A JP2009138170A JP2009138170A JP2009292470A JP 2009292470 A JP2009292470 A JP 2009292470A JP 2009138170 A JP2009138170 A JP 2009138170A JP 2009138170 A JP2009138170 A JP 2009138170A JP 2009292470 A JP2009292470 A JP 2009292470A
Authority
JP
Japan
Prior art keywords
image
display
aircraft
display device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009138170A
Other languages
English (en)
Inventor
Brent D Larson
ブレント・ディー・ラーソン
John G Suddreth
ジョン・ジー・サドレス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2009292470A publication Critical patent/JP2009292470A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】表示デバイスを動作させる方法およびシステムを提供する。
【解決手段】表示デバイスを動作させる方法およびシステムが提供される。第1のイメージは、表示デバイスで表示される。第1のイメージは、航空機上からの視界を少なくとも表すものである。第2のイメージは、表示デバイス上で第1のイメージに重ねて描写される。第2のイメージの少なくとも一部分の輝度は、時間的に変調される。
【選択図】図1

Description

本発明は、一般に表示デバイスに関し、より詳細には、ヘッド・アップ・ディスプレイ(HUD)、ヘッド・ダウン・ディスプレイ(HDD)、およびニア・ツー・アイ(NTE)・ディスプレイなどの表示デバイスを動作させる方法およびシステムに関する。
航空機などの現代の乗物は、様々な記号および情報を透明なディスプレイまたはイメージ・コンバイナへ投影するヘッド・アップ・ディスプレイ(HUD)を備えることが多く、このHUDを通じて、使用者(例えば、パイロット)は外部を同時に見ることができる。従来のHUDは、計器パネル上方の航空機の風防(フロントガラス)に配置されたり、フロントガラスとパイロットの頭部との間に直接に配置される固定式のイメージ・コンバイナを組み入れている。
最近になり、「ヘッドマウント式」HUDの開発が盛んになってきたが、この「ヘッドマウント式」HUDは、パイロットのヘルメットまたはヘッドセットに結合されるニア・ツー・アイ(NTE:near-to-eye)・ディスプレイなどのイメージ・コンバイナを使用し、このNTEディスプレイは、パイロットの頭部の位置および角度の方向の変化と共に動く。ヘッドマウント式HUDの利点は、パイロットの頭部の位置や方向にかかわらず、表示される情報がパイロットに見え得ることであるが、パイロットができるだけ障害物が目に入らない状態で地形を見ようとするときや、パイロットが計器パネルのディスプレイ(即ち、「ヘッド・ダウン」ディスプレイ)を見ているときなどのような、パイロットがNTEディスプレイの情報が見えないことを好む状況があり得る。
この意味において、固定式のイメージ・コンバイナを使用する従来のHUDは、一般に、パイロットの頭部がイメージ・コンバイナの直前にあるときにだけ、表示される情報が見える、という利点をもたらす。即ち、パイロットがイメージ・コンバイナの周りを見るために身体を横に傾けた場合、HUD上の情報は見えない。しかしながら、そうした物理的な動きは、パイロットが航空機を操作することを困難にさせる可能性がある。
他の実施されたものでは、視界の外側を表す表現は、従来のHUDで使用されているであろうもののようなオーバレイされた像と共に、ヘッド・ダウン・ディスプレイ(HDD)に示すことができる。
従って、代表的な視界をオーバレイと共に表示する従来のHUD、NTEディスプレイ、HDDなどのような表示デバイスを、HUD上の情報と、HUDイメージがオーバレイされるイメージ情報、例えば、外側の眺めとの、視認性(visibility)のバランスを改善して動作させる方法およびシステムを提供することが望ましい。更に、本発明の望ましい他の特徴および特性は、添付の図面および本発明のこの背景と併せて本発明の以下の詳細な説明および添付の特許請求の範囲から、明らかになろう。
表示デバイスを動作させる方法が提供される。第1のイメージは、表示デバイスで表示される。第1のイメージは、航空機上からの視界を少なくとも表している。第2のイメージは、表示デバイス上で第1のイメージに重ねて描写される。第2のイメージの少なくとも一部分の輝度は、時間と関連して変調される。
ヘッド・アップ・ディスプレイ(HUD)・デバイスを動作させる方法が提供される。第1のイメージは、表示デバイスで表示される。第1のイメージは、航空機上の使用者の視界を少なくとも表している。第2のイメージは、表示デバイス上で第1のイメージに重ねて描写される。第2のイメージは、複数の実質的に線形の隣接した部分を含む。第2のイメージの複数の実質的に線形の部分の輝度は、順序通りに時間時間と関連して変調される。
アビオニクス・システムが提供される。このアビオニクス・システムは、ヘッド・アップ・ディスプレイ(HUD)デバイスと、このHUDデバイスと通信する処理装置とを含む。この処理装置は、航空機上からの視界を少なくとも表している第1のイメージを表示デバイスに表示させ、複数の実質的に線形の隣接した部分を含む第2のイメージを表示デバイス上で第1のイメージに重ねて描写し、第2のイメージの複数の実質的に線形の部分の輝度を順序通りに時間時間と関連して変調するように、構成される。
本発明を図面と共に以下に説明する。図面では同じ番号は同じ要素を示す。
図1は、本発明の一実施形態による航空機の概略ブロック図である。 図2は、図1の航空機内のニア・ツー・アイ(NTE)・ディスプレイの平面図であり、その上に第1および第2のイメージが描写されている。 図3は、本発明の一実施形態による図2に似たNTEディスプレイの平面図であり、第2のイメージの時間時間と関連しての変調を示す。 図4は、NTEディスプレイの平面図であり、図3の第2のイメージの時間時間と関連しての変調を更に示す。 図5は、図3および図4のイメージの第2の部分の一部分の輝度プロファイルを示すグラフである。 図6は、本発明の別の実施形態によるNTEディスプレイの平面図であり、第2のイメージの時間的な変調を示す。 図7は、NTEディスプレイの平面図であり、図6の第2のイメージの時間時間と関連しての変調を更に示す。
以下の詳細な説明は本質的に単なる例示であり、本発明または本発明の用途および使用を限定するものではない。更に、上記の技術分野、背景、および概要、また、以下の詳細な説明に表されるいかなる明示的または黙示的な理論によっても、束縛されるものではない。図1〜図7は単なる例示であり、比例した寸法で示されていない場合があることにも留意されたい。
図1〜図7は、表示デバイスを動作させる方法およびシステムを示す。第1のイメージは、表示デバイスで表示される。第1のイメージは、航空機からの視界を少なくとも表している。第2のイメージは、表示デバイス上で第1のイメージに重ねて描画される。第2のイメージの少なくとも一部分の輝度は時間と関連して(時間的に、temporally)変調される。
一実施形態では、表示デバイスは、航空機に搭載のヘッド・アップ・ディスプレイ(HUD)・デバイスであり、第2のイメージは、記号による表示および/またはエンハンスト・フライト・ビジョン・システム(EVS:enhanced flight vision system)の特徴を含む。第2のイメージは、複数の実質的に線形の部分を含み、それらは、第2のイメージの一方の側からこの第2のイメージの反対の側まで順に変調される。変調することは、第2のイメージの一部分の輝度を増大させること、および第2のイメージのその部分の輝度を減少させることを含む。
図1は、本発明の一実施形態による航空機などの乗物20を概略的に示す。一実施形態では、乗物20は、例えば、自家用のプロペラまたジェット・エンジン駆動の航空機、商用のジェット旅客機、ヘリコプタなどのような幾つかの異なるタイプの航空機のうちの何れか1つの航空機であり得る。示される実施形態では、航空機20は、操縦室22(またはコックピット)と、アビオニクス/飛行システム24とを含む。具体的に示していないが、航空機20は、一般に理解されているように、操縦室22およびアビオニクス/飛行システム24が連結されるフレームまたはボディも含むと理解されたい。航空機20は、例示にすぎず、また、示したコンポーネント、システムおよびデータ・ソースのうち1異常のものがなくても実施できることにも留意されたい。加えて、航空機20には、1または複数の追加のコンポーネント、システムまたはデータ・ソースが備えられ得ることが理解されよう。
操縦室22は、ユーザ・インターフェース26、表示デバイス28(例えば、プライマリ・フライト・ディスプレイ(PFD))、通信用無線機30、航行無線機32、オーディオ・デバイス34、ヘッドセット36、ヘッド(および/またはアイ)モーション・トラッカ(head (and/or eye) motion tracker)38を含む。
ユーザ・インターフェース26は、使用者40(例えば、パイロット)からの入力を受け取り、使用者の入力に応答して、コマンド信号をアビオニクス/飛行システム24へ供給するように構成される。ユーザ・インターフェース26は、操縦装置(図示せず)と、以下のものだけには限らないが、マウスやトラックボールやジョイスティックなどのカーソル制御デバイス(CCD:cursor control device)、および/またはキーボード、1または複数のボタンやスイッチやノブを含む様々な知られたユーザ・インターフェース・デバイスのうちの何れか1つまたはその組合せとを、含み得る。示される実施形態では、ユーザ・インターフェース26は、CCD42およびキーボード44を含む。使用者40は、CCD42を使用して、例えば、表示デバイス28上でカーソル記号を動かし、キーボード44を使用して、例えば、テキスト・データを入力する。
図1を更に参照すると、表示デバイス28は、様々なイメージおよびデータを、グラフィック、アイコンおよび/またはテキストの形式で表示するために使用されると共に、使用者40によりユーザ・インターフェース26へ与えられるユーザ入力コマンドに応答しての視覚フィードバックを使用者40に与えるために、使用される。表示デバイス28はそれぞれ、使用者40により見える形式でイメージおよび/またはテキストのデータを描画するのに適している多数の知られたディスプレイのうち何れか、例えば、陰極線管(CRT)ディスプレイ、LCD(液晶ディスプレイ)、TFT(薄膜トランジスタ)ディスプレイなどのディスプレイのうちの何れかを用いて実施されてよいことが、理解されよう。表示デバイス28は、固定式のイメージ・コンバイナに投影される「ヘッド・ダウン」ディスプレイ(HDD)やヘッド・アップ・ディスプレイ(HUD)として操縦室22に実装されてもよい。
通信用無線機30は、一般に理解されているように、航空管制官や他の航空機のパイロットなどのような、乗物20の外側の存在と通信するために使用される。航行無線機32は、全地球測位(GPS)システムおよび自動方向探知機(ADF)などのような乗物の位置に関する様々なタイプの情報を外部のソースから受け取り、その情報を使用者に伝達するために使用される(後に説明される)。一実施形態では、オーディオ・デバイス34は、操縦室22内に取り付けられるオーディオ・スピーカである。
ヘッドセット36は、イヤホン46と、マイクロフォン48と、ニア・ツー・アイ(NTE)ディスプレイ(またはディスプレイ画面)50などの表示デバイスとの相互接続した組合せを含む。イヤホン46は、ヘッドセット36のためのフレームを実質的に形成すると共に、パイロットにより取り外し可能に着用されるように、構成される。イヤホン46およびマイクロフォン48は、通信用無線機30と通信可能であり、NTEディスプレイは、後述のアビオニクス・システム24と通信可能である。NTEディスプレイ50は、一般に理解されているように、ヘッドセット36の装着中はディスプレイ50が使用者40の目の直前に配置され得るように、イヤホン46から調整可能に吊り下げられる。一実施形態では、NTEディスプレイ50は、一般に理解されているように、イメージ・コンバイナ(即ち、実質的に透明なプレート)である。NTEディスプレイ50は、例えば、LCDディスプレイ画面などのようなフラット・パネル・ディスプレイ画面であり得る。図示しないが、ヘッドセット36は、使用者の頭部に対する使用者の目の動きを検出するための眼球運動検出器も含み得る。加えて、ヘッドセット36は、使用者の頭部の動きを検出するための慣性センサなどのような様々なハードウェアを含んでもよい。
一般に理解されているように、モーション・トラッカ38は、(単独で、またはヘッドセット36のハードウェアと併用で)パイロットの頭部、ヘッドセット36全体、および/またはNTEディスプレイ50の動き(即ち、位置および角度方向)を検出するように構成される。図示しないが、モーション・トラッカ38は、光学および/または赤外線コンポーネント、ならびにヘッドセット36内に配置される慣性センサを含む、動きを測定する様々な方法を使用できる。
図1に示すように、アビオニクス/飛行システム24は、滑走路状況認識アドバイザリ・システム(RAAS:runway awareness and advisory system)54、計器着陸システム(ILS)56、フライト・ディレクタ58、気象データ・ソース60、地形回避警報システム(TAWS:terrain avoidance warning system)62、空中衝突防止システム(TCAS)64、複数のセンサ66(例えば、気圧センサ、温度計、および風速センサ)、1または複数の地形データベース68、1または複数のナビゲーション・データベース70、ナビゲーションおよび制御システム(またはナビゲーション・コンピュータ)72、ならびに処理装置74を含む。アビオニクス/飛行システム24の様々なコンポーネントは、データ・バス76(またはアビオニクス・バス)を介して通信可能である。図示しないが、ナビゲーションおよび制御システム72は、飛行管理システム(FMS)、コントロール・ディスプレイ・ユニット(CDU)、自動操縦装置もしくは自動誘導システム、複数操縦翼面(例えば、補助翼、昇降舵、および方向舵)、エア・データ・コンピュータ(ADC)、高度計、エア・データ・システム(ADS)、全地球測位(GPS)システム、自動方向探知機(ADF)、コンパス、少なくとも1つのエンジン、およびギア(即ち、着陸装置)を含み得る。
処理装置74は、プログラム命令に応答して動作する多数の知られた汎用コントローラまたは特定用途向け処理装置のうち何れかでよく、例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、個別の論理、マイクロプロセッサ、マイクロコントローラ、およびデジタル・シグナル・プロセッサ(DSP)、またはそれらの組合せなどであり得る。示される実施形態では、処理装置74は、オン・ボードのRAM(ランダム・アクセス・メモリ)78およびオン・ボードのROM(リード・オンリ・メモリ)80を含む。処理装置74を制御するプログラム命令は、RAM78およびROM80の一方または両方に記憶され得る。例えば、オペレーティング・システム・ソフトウェアは、ROM80に記憶され、様々な動作モードのソフトウェア・ルーチンおよび様々な動作パラメータは、RAM78に記憶され得る。RAM78および/またはROM80は、後述する方法おおびプロセスを実行するためのにそれらに記憶された命令を含む。これは、オペレーティング・システム・ソフトウェアおよびソフトウェア・ルーチンを記憶するための1つの方式の例示にすぎず、様々な他の記憶方式を実施できることが理解されよう。また、処理装置74は、プログラム可能な処理装置だけではなく、様々な他の回路を用いて実施できることも理解されよう。例えば、デジタル論理回路およびアナログ信号処理回路が使用されてもよい。
航空機20の動作中、ヘッドセット36は、パイロット40(または他の使用者)により着用され、イヤホン46およびマイクロフォン48は、地上要員および他の航空機と通信するために使用される。加えて、NTEディスプレイ50は、使用者40の両目のうち少なくとも一方の直前に配置されるように調整される。
図2は、動作中のNTEディスプレイ50を示す。NTEディスプレイ50上には、第1のイメージ82および第2のイメージ84が示されている。示される実施形態では、第1のイメージ82は、下にある地形イメージであり、この地形イメージは、操縦室22からのパイロットの視界を少なくとも表している。図3に示す例示的な実施形態では、第1のイメージ82は、航空機20からの、航空機20の外側の地形の透視図を示しており、これは実質的にディスプレイ50全体に及ぶ。地形と空の間の描写はパイロットの作業(performance)に関して重要な事項であるので、第1のイメージ82は、地形部分86および空部分88を含む。一般に理解されているように、ディスプレイ50がイメージ・コンバイナ(image combiner、画像重ね合わせ装置)である実施形態では、第1のイメージ82は、単に、NTEディスプレイ50を介して見られるパイロット40の実際の物理的な地形の眺め(および/または操縦室22の内部)である。一方、NTEディスプレイ50が、例えば、LCDディスプレイである実施形態では、第1のイメージ82は、航空機20の現在の位置および/または方向(例えば、機首方位)ならびに航空機20の位置および/または方向が変化した際の変化を提供する航空機20に搭載された様々な計器からの複数の読取値と、地形データベース68および航行用データベース70(図1)とに基づいてコンピュータが生成したイメージ(例えば合成ビジョン)であり得る。図2に示すように、地形の特徴(例えば、丘、山、谷など)は、使用者40および航空機20の動作を支援するために、第1のイメージ82に示される。
図2を更に参照すると、第2のイメージ(またはHUDイメージ)84が、第1のイメージ82に重ねて表示されている。第2のイメージ84は、図3に示す実施形態において、様々な「記号表示(symbology)」の特徴90〜100と、エンハンスト・フライト・ビジョン・システム(「EVS」)の特徴102および104とを含む。記号表示の特徴は、高度計90、対気速度計92、機首方位計94、ロール計96、およびピッチ計98(水平バー100を含む)などのような複数のデジタル計器を含む。示される実施形態では、高度計90および対気速度計92は、一般に理解されているように、高度「テープ(tape)」および対気速度テープのように、それぞれ表示される。機首方位計94は、ディスプレイ50の下中央部にコンパスのように図で表示される。ロール計96は、ディスプレイ50の上部で機首方位計94の上方に表示され、ピッチ計98は、機首方位計94とロール計96との間に配置される。デジタル計器90〜98は、航空機20の位置および/または方向(即ち、機首方位、ピッチ、ロール等)の示度を使用者40に与える。水平バー100は、ピッチ計98を通じて、スクリーン50の中央付近に水平に延びている。
示されるEVSの特徴は、無線塔102および滑走路104のような地上のイメージを含む。一般に理解されているように、典型的には、EVSシステムは、赤外線カメラなどのような「視覚を向上させた(enhanced vision)」カメラもしくはセンサを使用して、航空機の外部の実世界の対象のイメージを生成し、それらを、別のイメージ(例えば、第1のイメージ82)にオーバレイして表示する。これらのオーバレイされたイメージ(例えば、102および104)は、実世界の対象(例えば、実世界の無線塔や実世界の滑走路)を明確に印付けすることによりパイロットによる航空機の操作を容易にする。
一実施形態では、第2のイメージ84(即ち、記号表示および/またはEVSでの形)全体は、比較的低い輝度(例えば、最大輝度の0%)で始まる。次いで、第2のイメージ84の様々な部分は、短い期間(例えば、パルス)の間、輝度が連続的に増大される。この短い期間の後、第2のイメージのそれらの部分のそれぞれが、薄暗くされる(例えば、指数関数的に)。このプロセスは規則的な間隔で繰り返され、それにより、パイロット40は、第2のイメージ84の様々な部分が「リフレッシュ」されるリズムに慣れる。
図3および図4に示すように、破線106は、使用者40に見えなくてもよいが、NTEディスプレイ50を横切って第2のイメージ84の第1の(または左)側108から第2のイメージ84の第2の(または右)側110へとスイープ(sweep)される。破線106が第2のイメージ84を通り越す際に、破線106で「カバー」される(または破線106と一致する)第2のイメージの部分は、その部分が使用者40により見えるように、輝度が増大する。従って、第2のイメージ84は、例えば1画素の幅である多数の垂直の直線状の部分に分割されるとみなされてよく、これらの部分は、破線106と一致する第2のイメージ84の部分に対応する。これらの部分は、スクリーンを横切って連続的に明るくされて、示される実施形態では、第2のイメージ84は左から右に視界へと「スイープ」されるようにする。一実施形態では、破線106は、第2のイメージ84を、第1の側108から第2の側110まで、例えば、0.5〜5.0秒(s)で横切る。
図5は、図4および図5に示す第2のイメージ84の直線(線形)状の部分のうちの1つの部分についての輝度プロファイル112を示す。輝度プロファイルは、パルス区間114と、減衰区間116とを含む。パルス区間114は、破線106が第2のイメージ84の特定の区間(図5)を通り越す際に生じ、輝度が、非常に低い輝度(例えば0%)から相対的に高い輝度(例えば80%)へと非常に短時間で増大することが特徴である(プロファイル112の傾きはほぼ垂直であるが、代替例として、それより長い立ち上がり時間が用いられてもよい)。破線106がイメージの別の部分へ移った後、輝度は、プロファイル112の減衰区間116により示されるように、徐々に減少する。即ち、これら部分のうち第1の部分は、薄くされ、一方、第2の部分は、上記のように「パルス」的処理を受ける。
一実施形態では、パルス区間114の持続時間は、例えば、0.05〜0.5秒であり、減衰区間116の持続時間は、例えば、0.5〜5.0秒である。従って、第2のイメージ84が破線106により視界(ビュー)の中に「スイープ」された後、第2のイメージ84は、視界から次第に消えて行くか又は薄暗くされる。図4および図5に示す本実施形態では、第2のイメージ84の左側108が右側110より先にパルス的処理を受けるので、第2のイメージ84は左から右へ次第に消えて行くようにされる。
次いで、このプロセスは、破線106が再び左側108で始まることから、再開する。この後続の破線106のスイープは、前のスイープの直後に、または例えば数秒程度後に、始まる。従って、本明細書中で説明するシステムの幾つかの特徴、例えば、破線106が第2のイメージ84を横切る速度、輝度プロファイル112のパルス区間114および減衰区間116の長さおよび/または傾き、破線106の連続するスイープ間での遅延などは、例えば、ユーザ・インターフェース26を通じて使用者40により調整可能であり得る。
図6および図7は、本発明の別の実施形態によるNTEディスプレイ50を示す。示すように、図6および図7の破線106は、図3および図4の場合とは向きが異なっている。具体的には、破線106は、ピボット点118を中心として旋回するように動き、このピボット点118は、NTEディスプレイ50の下方でNTEディスプレイ50に対して固定された位置に配置される(少なくとも事実上、ピボット点118は使用者40には見えない)。従って、破線106は、「フロントガラスのワイパ」と類似の様式で、第2のイメージ84を横切って旋回するようにスイープする。加えて、この破線は、第2のイメージ84の左側108から第2のイメージ84の右側110まで横断し、次いで、右側110から左側108まで横断する(即ち、左側108と右側110との間で行ったり来たりする)。従って、他の実施形態においては、破線106の動きの方向が代わり得るので、破線106の方向は変わり得る。別の実施形態では、ピボット点118をNTEディスプレイ50上に置いて、使用者40に見えるようにしてもよい。更に別の実施形態では、横断の方向を同じにしてもよい。更なる実施形態では、ピボット点118は、ディスプレイ以外の基準座標に対して固定されてもよく、例えば、乗物の基準系の或る点や、外側の世界の基準系の或る点とすることもできる。
上述の方法およびシステムの利点の1つは、HUDイメージが、予想通りに断続的に表示されることである。従って、HUDイメージは、使用者に対して、眺めの障害を最小限にして、情報を提供する。
他の実施形態は、コンフォーマル(等角図法)的にオーバレイされるEVSまたは合成視覚イメージを含むことができ、また、上述の方法およびシステムを航空機以外の陸上車両や船舶などの乗物で用いてもよい。上述の方法およびシステムは、HDDなどのような他のタイプの表示デバイスと併せて用いてもよく、また、無人機で使用されてもよく、無人機では、操作ディスプレイ・システムは、使用者が無人機を遠隔操作するためのステーションの一部である。
少なくとも1つの例示的な実施形態を、前述の詳細な説明で示してきたが、膨大な数の変形形態が存在することを理解されたい。1または複数の例示的な実施形態は単なる例であり、本発明の範囲、適用可能性または構成をどのようにも限定するものではないことも理解されたい。前述の詳細な説明は、1または複数の例示的な実施形態を実施するための好都合な指針を当業者に提供するものである。特許請求の範囲に記載される本発明の範囲およびその法的な均等物から逸脱することなく、要素の機能および配置の様々な変更がなされ得ることを理解されたい。

Claims (3)

  1. 表示デバイス(50)を動作させる方法であって、
    航空機(20)からの視界を少なくとも表す第1のイメージ(82)を前記表示デバイス(50)で表示させるステップと、
    前記表示デバイス(50)上で第2のイメージ(84)を前記第1のイメージ(82)に重ねて表すステップと、
    前記第2のイメージ(84)の少なくとも一部分の輝度を時間と関連して変調するステップと
    を備える方法。
  2. 請求項1に記載の方法であって、時間と関連した前記変調が、前記第2のイメージ(84)の前記少なくとも一部分の前記輝度を繰り返して増加および減少させるステップを備え、前記第2のイメージ(84)の前記少なくとも一部分が、前記第2のイメージ(84)の複数の隣接した部分を含む、方法。
  3. アビオニクス・システムであって、
    ヘッド・アップ・ディスプレイ(HUD)・デバイス(50)と、
    前記HUDデバイス(50)と通信する処理装置(74)と
    を備え、前記処理装置(74)が、
    航空機(20)からの視界を少なくとも表す第1のイメージ(82)を前記表示デバイス(50)で表示させ、
    複数の実質的に線形の隣接した部分を備える第2のイメージ(84)を前記表示デバイス(50)上で前記第1のイメージ(82)に重ねて表し、
    前記第2のイメージ(84)の前記複数の実質的に線形の部分の輝度を順に時間と関連して変調する
    ように構成される、
    アビオニクス・システム。
JP2009138170A 2008-06-09 2009-06-09 表示デバイスを動作させる方法およびシステム Withdrawn JP2009292470A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/135,801 US8026834B2 (en) 2008-06-09 2008-06-09 Method and system for operating a display device

Publications (1)

Publication Number Publication Date
JP2009292470A true JP2009292470A (ja) 2009-12-17

Family

ID=41055220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138170A Withdrawn JP2009292470A (ja) 2008-06-09 2009-06-09 表示デバイスを動作させる方法およびシステム

Country Status (5)

Country Link
US (1) US8026834B2 (ja)
EP (1) EP2133728B1 (ja)
JP (1) JP2009292470A (ja)
KR (1) KR20090127837A (ja)
TW (1) TW201009802A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013014318A (ja) * 2011-06-30 2013-01-24 General Electric Co <Ge> 航空機内の合成ビジョンシステムを動作させる方法
JP2013014496A (ja) * 2011-06-06 2013-01-24 Koei Kagaku Kogyo Kk 水稲用肥料及び水稲栽培方法
KR20130126542A (ko) * 2012-05-11 2013-11-20 아구스타웨스트랜드 에스.피.에이. 항공기 및 비행 변수와 관련된 시각 정보를 항공기의 조종사에게 표시하기 위한 방법
JP2016080984A (ja) * 2014-10-21 2016-05-16 株式会社デンソー 表示制御方法、表示制御装置、表示装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2921181B1 (fr) * 2007-09-14 2010-06-11 Thales Sa Procede de presentation d'informations d'anti-collision dans un viseur tete haute pour aeronef
US8416152B2 (en) 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
US8914166B2 (en) 2010-08-03 2014-12-16 Honeywell International Inc. Enhanced flight vision system for enhancing approach runway signatures
US8487787B2 (en) 2010-09-30 2013-07-16 Honeywell International Inc. Near-to-eye head tracking ground obstruction system and method
US20120140125A1 (en) * 2010-12-03 2012-06-07 Honeywell International Inc. Aircraft cockpit visor display
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
US8698654B2 (en) * 2011-12-28 2014-04-15 Honeywell International Inc. System and method for selecting images to be displayed
US9165366B2 (en) 2012-01-19 2015-10-20 Honeywell International Inc. System and method for detecting and displaying airport approach lights
JP2013257492A (ja) * 2012-06-14 2013-12-26 Sony Corp 制御装置、表示装置、制御方法、照明制御方法及びプログラム
FR2996670B1 (fr) * 2012-10-05 2014-12-26 Dassault Aviat Systeme de visualisation pour aeronef, et procede de visualisation associe
FR3001826B1 (fr) * 2013-02-06 2016-05-06 Airbus Operations Sas Procede d'aide au pilotage d'un aeronef par affichage adapte de symboles
US20150015698A1 (en) * 2013-07-10 2015-01-15 Gulfstream Aerospace Corporation Methods and systems for optical aircraft detection
US9811954B2 (en) * 2014-12-02 2017-11-07 Honeywell International, Inc. Near-to-eye display systems and methods for verifying aircraft components
US10540007B2 (en) * 2016-03-04 2020-01-21 Rockwell Collins, Inc. Systems and methods for delivering imagery to head-worn display systems
TWI757318B (zh) * 2017-08-03 2022-03-11 宏碁股份有限公司 儀表板顯示畫面的控制方法及使用其方法的電子裝置
US10876856B2 (en) * 2018-01-10 2020-12-29 Gulfstream Aerospace Corporation Aircraft HUD with curved tapes and flight mode annunciation boxes
US11582412B2 (en) * 2021-04-01 2023-02-14 Rockwell Collins, Inc. Camera agnostic core monitor incorporating projected images with high spatial frequency
US11960644B2 (en) 2021-08-05 2024-04-16 Rockwell Collins, Inc. System and method for gaze and pose detection to anticipate operator intent
US20230043771A1 (en) * 2021-08-05 2023-02-09 Rockwell Collins, Inc. System and method for assessing operator situational awareness via context-aware gaze detection

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4702698A (en) * 1984-09-21 1987-10-27 Harris Corporation Digital radar generator
US4752825A (en) * 1986-10-10 1988-06-21 Grumman Aerospace Corporation Video display simulator and analyzer
US5281960A (en) * 1991-11-19 1994-01-25 Silhouette Technology, Inc. Helmet mounted display
US6700692B2 (en) * 1997-04-02 2004-03-02 Gentex Corporation Electrochromic rearview mirror assembly incorporating a display/signal light
GB9807186D0 (en) * 1998-04-04 1998-06-03 Marconi Gec Ltd Display arrangements
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
JP4354085B2 (ja) * 2000-05-09 2009-10-28 本田技研工業株式会社 車両用ヘッドアップディスプレイ装置
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
WO2004099851A2 (en) * 2003-05-12 2004-11-18 Elbit Systems Ltd. Method and system for audiovisual communication
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
US8194002B2 (en) * 2004-09-14 2012-06-05 The Boeing Company Situational awareness components of an enhanced vision system
US8416152B2 (en) * 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013014496A (ja) * 2011-06-06 2013-01-24 Koei Kagaku Kogyo Kk 水稲用肥料及び水稲栽培方法
JP2013014318A (ja) * 2011-06-30 2013-01-24 General Electric Co <Ge> 航空機内の合成ビジョンシステムを動作させる方法
KR20130126542A (ko) * 2012-05-11 2013-11-20 아구스타웨스트랜드 에스.피.에이. 항공기 및 비행 변수와 관련된 시각 정보를 항공기의 조종사에게 표시하기 위한 방법
JP2013237434A (ja) * 2012-05-11 2013-11-28 Agustawestland Spa 航空機および、航空機の操縦士に飛行パラメータに関係する視覚的情報を表示するための方法
KR102123493B1 (ko) * 2012-05-11 2020-06-17 아구스타웨스트랜드 에스.피.에이. 항공기 및 비행 변수와 관련된 시각 정보를 항공기의 조종사에게 표시하기 위한 방법
JP2016080984A (ja) * 2014-10-21 2016-05-16 株式会社デンソー 表示制御方法、表示制御装置、表示装置

Also Published As

Publication number Publication date
EP2133728B1 (en) 2013-06-19
KR20090127837A (ko) 2009-12-14
EP2133728A3 (en) 2011-11-02
US8026834B2 (en) 2011-09-27
TW201009802A (en) 2010-03-01
EP2133728A2 (en) 2009-12-16
US20090303082A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
US8026834B2 (en) Method and system for operating a display device
US8416152B2 (en) Method and system for operating a near-to-eye display
EP2182326B1 (en) Methods and systems for displaying sensor-based images of an external environment
EP2437234B1 (en) Near-to-eye head tracking ground obstruction system and method
US8914166B2 (en) Enhanced flight vision system for enhancing approach runway signatures
US8065082B2 (en) Display systems with enhanced symbology
US8907887B2 (en) Methods and systems for operating avionic systems based on user gestures
US8170729B2 (en) Method and system for operating a display device on-board an aircraft
US8188890B2 (en) Systems and methods for enhancing obstacles and terrain profile awareness
EP2200005B1 (en) Method and system for managing traffic advisory information
EP3438614B1 (en) Aircraft systems and methods for adjusting a displayed sensor image field of view
US9864194B2 (en) Systems and methods for displaying FOV boundaries on HUDs
US20100145610A1 (en) Viewing device for aircraft comprising radio navigation beacon display means and associated method
US20080198157A1 (en) Target zone display system and method
US20100161158A1 (en) Systems and methods for enhancing terrain elevation awareness
US11046452B1 (en) Head-up display including supplemental indicator

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904