JP2004178589A - 3次元相互視認画像の合成方法 - Google Patents

3次元相互視認画像の合成方法 Download PDF

Info

Publication number
JP2004178589A
JP2004178589A JP2003391770A JP2003391770A JP2004178589A JP 2004178589 A JP2004178589 A JP 2004178589A JP 2003391770 A JP2003391770 A JP 2003391770A JP 2003391770 A JP2003391770 A JP 2003391770A JP 2004178589 A JP2004178589 A JP 2004178589A
Authority
JP
Japan
Prior art keywords
image
terrain
mutual
threat
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003391770A
Other languages
English (en)
Inventor
Xavier Servantie
セルヴァンティ ザヴィエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of JP2004178589A publication Critical patent/JP2004178589A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Generation (AREA)

Abstract

【課題】航空機が上空飛行中の地形上の相互視認領域の分布を表すピクセルからなる3次元マッピング画像を合成するための方法を提供する。ここで、相互視認領域とは、既知の潜在脅威のレンジ内に属する領域を意味する。
【解決手段】相互視認領域Zを、脅威のレンジを示す球面上の点からなる表面層であって、表面層の各点から同一の地理座標を有する地形T上の点までの距離を最小にした表面層で表現する。この構成によって、航空機のパイロットが必要とする情報を、明瞭かつ確認し易い形態で提供することができる。さらに、この方法は、計算資源が少なくても実施可能である。よって、機上のマッピング合成機によって簡単に実施することができる。
【選択図】図7

Description

本発明は、航空機が上空飛行中の地域内の相互視認領域または区域の分布を表すための、ピクセルからなるマッピング画像を合成するための方法に関するものである。
相互視認領域Zとは、既知の潜在脅威のレンジ内に属する領域である。図1に示すように、脅威Mのレンジの半径をRとすると、このレンジは、脅威が位置する地形Tによってその下部が画定された球面Sの一部からなる。図2に示すとおり、地形の特徴によって、レンジの半径Rより短い距離Dに位置しながら、脅威Mの相互視認領域内に位置しない個所が存在することも有り得る。航空機がある脅威の相互視認領域内に位置するか否かは、その地理的位置のみならず、その高度にも依存する。例えば、図2において、航空機Aは、高度Hでは相互視認領域外に位置するが、高度H´では相互視認領域内に位置する。
この情報は航空機の安全を確保するために非常に重要であるため、相互視認情報を航空機の計器盤のディスプレイスクリーンに表示する時、できる限り鮮明で人間工学的に優れたものでなくてはならない。従って、マッピング画像合成方法による相互視認領域の表現方法は重大かつ困難な課題である。
米国特許第5086396号公報 米国特許第4821212号公報
相互視認領域の表現は、始めはいわゆる「レイトレーシング」方法によって実現された。米国特許第5086396号は、この方法の代表的な例である。脅威の位置を中心として、その脅威の有効レンジを制限する障害物までまたは障害物がない場合に理論的なレンジの限界まで、射線が引かれる。上記米国特許の図6にその結果が示してある。相互視認領域は、射線で覆われた領域に対応する。脅威の理論的レンジは略円形の線23Aによって示される。好ましい形態である請求項7において、上記米国特許は、互いに異なる種類の脅威を表現する各射線群に異なる色を割当てることを提案する。これはパイロットが脅威の種類を識別できるようにするためであろう。このように脅威から発せられる射線のグリッドが、有色の地図の上に重ねて表示される。この従来技術による特許には、幾つかの短所がある。すなわち、この従来技術の特許では、地図が射線に覆われている個所では、陰影情報等のように地形の起伏を表している情報が失われてしまう。また、地図上で複数の同種または異種の脅威の相互視認領域内に当る個所では、射線が複雑に入り交じることによって、地図が示そうとする情報がパイロットによって読取られ難くまたは読取不可能になってしまうこともある。さらに、レンジ内の領域はその境界のみによって示されるため、その全体を正確に認識することが必ずしも可能ではない。
本出願人は、以前に「レイトレーシング」方法に対する改善策を提案した(仏国特許出願第0108669号)。その方法は、特に、2D5方式と称するマッピング表現法に適用することができるものである。2D5マッピング方式とは、従来の2次元表示に、起伏情報を陰影として示した方式である。この提案は、従来技術による対象領域を部分的に覆うグリッド状のテクスチャを設けた色を使用したものに対して、対象の相互視認領域の異なる部分を均一に覆う統一された色を使用することで従来技術の短所をすべてまた部分的に改善するものである。よって、表示対象である地図によって伝えたい情報、特に地形の起伏を表す陰影情報を失うことがない。各領域は、種類によって異なる色が割当てられる。従って、脅威のレンジ外に位置する第1の領域は第1の色を有し、脅威のレンジ内に位置するが相互視認領域外に位置する第2の領域は第2の色を有し、相互視認領域内の第3の領域は第3の色を有する。領域の大きさは、航空機の高度に依存する。例えば、航空機の高度が高くなるほど、第2の領域が小さくなる。
地形を3次元で表現した場合、相互視認領域を、相互視認領域の境界を表す半透明な球面の形式で表すことができる。
しかし、これらの方法にも短所がある。例えば、航空機が脅威のレンジ内/相互視認領域外の第2の領域に位置する場合、パイロットは、相互視認領域内に進入する高度に達するまでどれほどの余裕があるかは確認できない。同様に、相互視認領域外またはその下の、完全な安全性を維持するために必要なパスを確定することが非常に難しい。
本発明は、より人間工学的に優れた方法でパイロットに対して相互視認領域を示し、第1に、航空機が相互視認領域内にあるか、第2に、航空機が相互視認領域外にあるか、そしてその場合に航空機が相互視認領域内に進入するまでの高度差を確実に伝えることによって上述の課題を解決することを目的とする。よって、航空機の飛行安全性が実質的に改善される。
より具体的に、本発明は、航空用の画像を合成するための方法であって、該画像が、
航空機が上空飛行中の、少なくとも1つの潜在脅威を含む地形を表す3次元マッピング表現と、
該脅威のレンジを表す球体の一部と定義された相互視認領域(8)の3次元表現とを含み、
該相互視認領域の3次元表現が、相互視認領域の下面に相当する表面層からなり、該下面が、相互視認領域に属する複数の点であって、該下面の各点から同一の地理座標を有する地形上の点までの距離を最小とした複数の点からなることを特徴とする画像を合成するための方法を提供することを目的とする。
表面層の下に位置する地形を部分的に視認可能にするために、表面層を半透明に示すことが好ましい。
前記表面層が、第1面(ED)と裏面(EV)とを有し、該第1面を第1の色で示し、該裏面を第1の色と異なる第2の色で示すことが好ましい。また、表面層の第1面または裏面にテクスチャを設けることも可能である。このテクスチャは、例えば等間隔のグリッド等である。また、グリッドの線を透かすことが好ましい。
さらに、レンジの境界を認識し易くするために、脅威の最大レンジの境界を、地形上に配置された、等間隔の垂直テクスチャを設けた凸状の曲面で示すことが好ましい。このテクスチャは、例えば、地形上に配置された閉じた垂直グリッド等である。
図3は、脅威Mを含む地形Tを示した3次元斜視図である。本発明による相互視認領域Zの表現は、表面層の各点から同一の地理座標を有する地形上の点までの距離を最小にした場合の相互視認領域の下面に属する点からなる表面層のみからなる。航空機が、レンジに相当する球面の中であるが、地形と表面層の間の領域に位置する場合、脅威から隠れていることになる。そのため、相互視認領域の境界が非常に単純化される。航空機は、表面層の上に位置し、脅威によって視認され、相互視認領域内に位置するか、あるいは、表面層の下に位置し、脅威によって視認されず、相互視認領域外に位置する。よって、パイロットの安全性の基準が非常に簡単になる。
さらに、この単純化は、技術的価値が高い。実際、相互視認領域の表現は、一般的には複数の3次元表面または完全な体積を作成する必要があるのに対して、作成する表面は1つで済む。従って、計算時間を節約することができる。ビデオの規格に沿った速度、すなわち約25フレーム/秒で、リアルタイムで画像を作成する必要があることを考慮すると、この点は重大な意味を有している。
図4aおよび4bは、図示しない脅威から発生した相互視認領域Zの一部を示す、また示さない地形Tの3次元斜視図である。この領域は、第1の表示モードに従って、均一の色によって表現される。図4bに見えるように、相互視認領域Zを確認することが難しい場合もある。図5、6および7に示す相補型の表示モードによって、表現や相互視認領域の認識がより正確になる。
相互視認領域を読取可能にするためには2つの点が重要である。
−表面層の起伏を認識し易くすること
−この層に対する航空機の状況を認識し易くすること
図5には相互視認領域の表現の第2モードを示す。表面層が半透明になっているため、表面層Zの下に位置する地形T´の起伏が見える。これによって、観察者が起伏に対する層の位置を容易に確認することができる。
図6には、相互視認領域の第3表現モードを示す。表面層に第1面と裏面がある。表面の認識度を改善し、表示の裏返しを防止するために、第1面と裏面とに2つの異なる色を使用する。このように表面層の第1面と裏面の区別をはっきりさせることによって、層の認識度をさらに改善することができる。例えば、空の方向に向いている第1面を緑色で表す。この時、地面の方向に向いている裏面を、例えばピンク色で表す。その結果、パイロットが表面層を主にピンク色として認識している場合、表面層の下に位置しており、従って相互視認領域の下に位置していることが理解できる。逆に、パイロットが表面層を主に緑色として認識している場合、表面の上に位置し、相互視認領域内にいることが分かる。
図7には、相互視認領域の第4表現モードを示す。表面層の第1面および/または裏面に等間隔のテクスチャQを描く。このテクスチャによって、層の起伏が確認できる。テクスチャのパターンが大きく見えると、航空機に近いことが分かる。テクスチャのパターンが小さく見えると、航空機から離れていることを意味する。さらに、パターンの傾きの変化によって、表面層の起伏が認識し易くなる。実施が最も容易で、画像に負担が掛からないテクスチャの例として、図7に示すような等間隔のグリッドがある。ここで、テクスチャを設けるための特定の計算が必要ではない。実際、パターンの原画は、標準パターンとして保存されており、画像の全面に亘ってパターンの間隔に従って複製されるものである。
また、グリッドの線を透かすことによって図7の表現モードをさらに改善することができる。このようにすると、相互視認領域の下に位置する地形が見えるようになる。
勿論、これらの異なる表現方式を組合わせた相互視認画像を作成することもできる。
一部が重複する相互視認領域を有する脅威が複数存在する場合、その相互視認領域を、各脅威の相互視認領域の下面に属する点からなる層であって、表面層の各点から同一の地理的座標を有する地形の点までの距離を最小にした表面層として表すことができる。
図8は、脅威によって発生した相互視認領域の一部と、その脅威の最大レンジの境界Pを示した地形Tの3次元斜視図である。レンジの境界Pを表すことによって、航空機のパイロットが相互視認領域外に位置する場合、脅威によって認識され得る領域内に進入するおそれがあることを理解させることができる。境界は、等間隔の垂直テクスチャを設けた凸状の曲面によって表現される。このテクスチャは、例えば、地面上に配置された閉じた垂直グリッド等によって表すことができる。このようにすることで、危険な領域内に進入する感覚を強調することができる。
本発明による合成方法は、現在の航空機の航空システムに通常装備されている手段を必要とする。
本発明による3次元表示を可能にするシステムは、全体として、次の要素によって構成される。
−パイロットが必要とする情報を選択することを可能にする1つまたは複数の制御局型のマン/マシンインタフェース。例えば、パイロットは、航空機の本来の位置にリンクされた地形および相互視認領域とは異なるマップの表示を求める場合がある。
−航空機の地理的位置を特定するための手段であって、次の要素によって構成されるもの。
−位置センサ(慣性誘導システム、GPS(地球投影位置決定システム)型の衛星位置決定システム等。
−姿勢センサ(飛行データセンサ、ジャイロスコープセンサ、加速度計等)。
−一連のセンサのデータを処理し、航空機の地理的位置、高度および姿勢を求めるための航法装置。
−地形と少なくとも本発明による1つの表現モードによる相互視認領域の画像とを示すマッピング合成3次元画像を作成するための装置。この装置は、次の要素によって構成される。
−少なくとも地形の起伏に関する情報と各潜在脅威の特徴および位置に関する情報とを含むマッピングデータベース。
−処理装置によるデータおよびパイロットが提供する情報に基づいて、地形と相互視認領域を示す3次元画像を作成することを可能にする処理装置。
−地形および相互視認領域を表した3次元画像のリアルタイム表示を可能にする、計器盤に設けられた少なくとも1つのMFD(多機能表示)型のディスプレイ。
−システム内の各装置を接続するための電子リンク。各情報は、航空学に適した基準に従ってデータバスによって伝送される。
図1は、脅威によって発生した相互視認領域を含む地形を示す3次元斜視図である。 図2は、前記相互視認領域付近の前記地形を示す断面図である。 図3は、前記脅威によって発生した相互視認領域を含む前記地形を示し、前記領域を本発明に従って表した3次元斜視図である。 図4aおよび4bは、それぞれ脅威によって発生した相互視認領域の一部を表した/表していない地形を示し、該領域を本発明の第1の実施形態に従って表した3次元斜視図である。 図5は、本発明の第2の実施形態に従って表した相互視認領域の一部を含む図4bの地形を示す3次元斜視図である。 図6は、本発明の第3の実施形態に従って表した相互視認領域の一部を含む図4bの地形を示す3次元斜視図である。 図7は、本発明の第4の実施形態に従って表した相互視認領域の一部を含む図4bの地形を示す3次元斜視図である。 図8は、脅威によって発生した相互視認領域の一部と、該脅威の最大レンジの境界を含む地形を示す3次元斜視図である。
符号の説明
T 地形
Z 相互視認領域
M 脅威
R レンジの半径
S 理論上のレンジを表す球面
H 航空機の高度
D 脅威までの距離
ED 表面層の第1面
EV 表面層の裏面
Q テクスチャ
P 境界

Claims (10)

  1. 航空用の画像を合成するための方法であって、該画像が、
    航空機が上空飛行中の、少なくとも1つの潜在脅威を含む地形を表す3次元マッピング表現と、
    該脅威のレンジを表す球体の一部と定義された相互視認領域の3次元表現とを含み、
    該相互視認領域の3次元表現が、相互視認領域の下面に相当する表面層からなり、該下面が、相互視認領域に属する複数の点であって、該下面の各点から同一の地理座標を有する地形上の点までの距離を最小とした複数の点からなることを特徴とする画像を合成するための方法。
  2. 表面層の下に位置する地形を部分的に視認可能にするために、表面層を半透明に示した請求項1に記載の画像を合成するための方法。
  3. 前記表面層が、第1面(ED)と裏面(EV)とを有し、該第1面を第1の色で示し、該裏面を第1の色と異なる第2の色で示した請求項1または2に記載の画像を合成するための方法。
  4. 表面層の第1面または裏面にテクスチャを設けた請求項1ないし3のうちいずれか1項に記載の画像を合成するための方法。
  5. 前記テクスチャが、等間隔のグリッドである請求項4に記載の画像を合成するための方法。
  6. グリッドの線が透明である請求項4または5に記載の画像を合成するための方法。
  7. 脅威の最大レンジの境界を、地形上に配置された、等間隔の垂直テクスチャを設けた凸状の曲面で示した前記各請求項のうちいずれか1項に記載の画像を合成するための方法。
  8. 前記テクスチャが、地形上に配置された閉じた垂直グリッドである請求項7に記載の画像を合成するための方法。
  9. 航空機が上空飛行中の、少なくとも1つの脅威を含む地形を表す3次元画像を含むマッピング合成画像を作成するための装置であって、該マッピング画像がさらに該脅威の相互視認領域の画像表現を含み、該マッピング画像の合成方法が前記各請求項のうちいずれか1項に従って作成されることを特徴とするマッピング合成画像を作成するための装置。
  10. 航空機に搭載される航空システムであって、
    1つ以上の制御局型のマン/マシンインタフェースと、
    複数のセンサを有する航空機の地理的位置を決定するための手段と、
    一連のセンサから供給されるデータを処理するための航法装置と、
    少なくとも地形の起伏に関する情報と各潜在脅威の特徴および位置に関する情報とを含むマッピングデータベースと、
    航法装置によるデータおよびパイロットから提供される情報に基づいて地形および相互視認領域を表現した3次元画像を作成することを可能にするマッピング画像作成装置と、
    地形および相互視認領域を表した3次元画像のリアルタイム表示を可能にする、計器盤に設けたMFD(多機能表示)型のディスプレイと、
    システム内の各装置を接続するための電子リンクとを具備し、
    マッピング画像作成装置が、マッピング画像を、前記請求項9に従って作成することを特徴とする航空システム。
JP2003391770A 2002-11-22 2003-11-21 3次元相互視認画像の合成方法 Pending JP2004178589A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0214682A FR2847700B1 (fr) 2002-11-22 2002-11-22 Procede de synthese d'une image d'intervisibilite tridimensionnelle

Publications (1)

Publication Number Publication Date
JP2004178589A true JP2004178589A (ja) 2004-06-24

Family

ID=32241533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003391770A Pending JP2004178589A (ja) 2002-11-22 2003-11-21 3次元相互視認画像の合成方法

Country Status (5)

Country Link
US (1) US20050052451A1 (ja)
EP (1) EP1424654B1 (ja)
JP (1) JP2004178589A (ja)
DE (1) DE60303639T2 (ja)
FR (1) FR2847700B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119264A1 (ja) * 2008-03-24 2009-10-01 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体
JP2011195005A (ja) * 2010-03-19 2011-10-06 Fuji Heavy Ind Ltd 画像表示装置および画像表示装置用プログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2874258B1 (fr) * 2004-08-10 2006-11-03 Thales Sa Procede d'affichage d'informations cartographiques et de zones aeronautiques sur ecran d'aeronef
US8049644B1 (en) * 2007-04-17 2011-11-01 Rcokwell Collins, Inc. Method for TAWS depiction on SVS perspective displays
US9354633B1 (en) 2008-10-31 2016-05-31 Rockwell Collins, Inc. System and method for ground navigation
US9733349B1 (en) 2007-09-06 2017-08-15 Rockwell Collins, Inc. System for and method of radar data processing for low visibility landing applications
US9939526B2 (en) 2007-09-06 2018-04-10 Rockwell Collins, Inc. Display system and method using weather radar sensing
US9013500B2 (en) * 2012-10-22 2015-04-21 The Boeing Company Real time intervisibility analysis
US9262932B1 (en) 2013-04-05 2016-02-16 Rockwell Collins, Inc. Extended runway centerline systems and methods
US10928510B1 (en) 2014-09-10 2021-02-23 Rockwell Collins, Inc. System for and method of image processing for low visibility landing applications
US10705201B1 (en) 2015-08-31 2020-07-07 Rockwell Collins, Inc. Radar beam sharpening system and method
US10228460B1 (en) 2016-05-26 2019-03-12 Rockwell Collins, Inc. Weather radar enabled low visibility operation system and method
US10353068B1 (en) 2016-07-28 2019-07-16 Rockwell Collins, Inc. Weather radar enabled offshore operation system and method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4646244A (en) * 1984-02-02 1987-02-24 Sundstrand Data Control, Inc. Terrain advisory system
US4821212A (en) * 1984-08-08 1989-04-11 General Electric Company Three dimensional texture generator for computed terrain images
US5086396A (en) * 1989-02-02 1992-02-04 Honeywell Inc. Apparatus and method for an aircraft navigation system having improved mission management and survivability capabilities
US5179638A (en) * 1990-04-26 1993-01-12 Honeywell Inc. Method and apparatus for generating a texture mapped perspective view
US5549477A (en) * 1992-11-17 1996-08-27 Honeywell Inc. Integrated aircraft survivability equipment in-flight simulation
IL112186A (en) * 1994-01-18 1998-09-24 Honeywell Inc A device for calculating inter-point vision
US5787333A (en) * 1994-08-26 1998-07-28 Honeywell Inc. Aircraft survivability equipment training method and apparatus for low flyers
US5838262A (en) * 1996-12-19 1998-11-17 Sikorsky Aircraft Corporation Aircraft virtual image display system and method for providing a real-time perspective threat coverage display
US5936552A (en) * 1997-06-12 1999-08-10 Rockwell Science Center, Inc. Integrated horizontal and profile terrain display format for situational awareness
AU6488400A (en) * 1999-04-01 2000-11-10 Ricardo A. Price Electronic flight instrument displays
US6317690B1 (en) * 1999-06-28 2001-11-13 Min-Chung Gia Path planning, terrain avoidance and situation awareness system for general aviation
US6600489B2 (en) * 2000-12-14 2003-07-29 Harris Corporation System and method of processing digital terrain information
US6686917B2 (en) * 2000-12-21 2004-02-03 The United States Of America As Represented By The Secretary Of The Navy Mine littoral threat zone visualization program
FR2822944B1 (fr) * 2001-03-27 2003-08-29 Eads Airbus Sa Procede et dispositif d'assistance au pilotage d'un aeronef, notamment d'un avion de transport
WO2003005305A1 (en) * 2001-07-06 2003-01-16 Goodrich Avionics Systems, Inc. System and method for synthetic vision terrain display
US6980224B2 (en) * 2002-03-26 2005-12-27 Harris Corporation Efficient digital map overlays

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119264A1 (ja) * 2008-03-24 2009-10-01 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体
JP2009230543A (ja) * 2008-03-24 2009-10-08 Konami Digital Entertainment Co Ltd 画像処理装置、画像処理装置の制御方法及びプログラム
KR101135908B1 (ko) 2008-03-24 2012-04-13 가부시키가이샤 코나미 데지타루 엔타테인멘토 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 정보 기억 매체
JP2011195005A (ja) * 2010-03-19 2011-10-06 Fuji Heavy Ind Ltd 画像表示装置および画像表示装置用プログラム

Also Published As

Publication number Publication date
DE60303639D1 (de) 2006-04-27
DE60303639T2 (de) 2006-12-14
FR2847700A1 (fr) 2004-05-28
EP1424654A1 (fr) 2004-06-02
FR2847700B1 (fr) 2005-01-14
US20050052451A1 (en) 2005-03-10
EP1424654B1 (fr) 2006-02-22

Similar Documents

Publication Publication Date Title
US7619626B2 (en) Mapping images from one or more sources into an image for display
EP1908022B1 (en) Displaying obstacles in perspective view
US9176324B1 (en) Enhanced-image presentation system, device, and method
US8400448B1 (en) Real-time lines-of-sight and viewsheds determination system
US10352703B2 (en) System and method for effectuating presentation of a terrain around a vehicle on a display in the vehicle
Calhoun et al. Synthetic vision system for improving unmanned aerial vehicle operator situation awareness
US20140285661A1 (en) Methods and systems for colorizing an enhanced image during alert
US9262932B1 (en) Extended runway centerline systems and methods
US8094188B1 (en) System, apparatus, and method for enhancing the image presented on an aircraft display unit through location highlighters
US8099234B1 (en) System, apparatus, and method for generating location information on an aircraft display unit using location markers
US7301497B2 (en) Stereo display for position sensing systems
US10451422B2 (en) System and method for providing persistent mission data to a fleet of vehicles
US20100231418A1 (en) Methods and systems for correlating data sources for vehicle displays
JP2004178589A (ja) 3次元相互視認画像の合成方法
US9619935B2 (en) Method of three-dimensional representation of a scene
US7489268B2 (en) Methods and systems for producing an interpretive airborne radar map
US20180315322A1 (en) Method of visualization of the traffic around a reference aircraft in a compliant display zone, associated computer product program and visualization system
EP2015277A2 (en) Systems and methods for side angle radar training and simulation
US20080252636A1 (en) Synthesis Method for Intervisibility Images
US11112249B1 (en) Systems and methods for four-dimensional routing around concave polygon avoidances
US10636166B1 (en) System and method for correlation between 2D and 3D scenes
JP2000306084A (ja) 三次元画像表示方法
US11380024B1 (en) Instant situational awareness visualization module process and device
US20020070950A1 (en) A method of effecting a stereoscopic display
JPH01131589A (ja) 立体地形図表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309