JP2004178589A - 3次元相互視認画像の合成方法 - Google Patents
3次元相互視認画像の合成方法 Download PDFInfo
- Publication number
- JP2004178589A JP2004178589A JP2003391770A JP2003391770A JP2004178589A JP 2004178589 A JP2004178589 A JP 2004178589A JP 2003391770 A JP2003391770 A JP 2003391770A JP 2003391770 A JP2003391770 A JP 2003391770A JP 2004178589 A JP2004178589 A JP 2004178589A
- Authority
- JP
- Japan
- Prior art keywords
- image
- terrain
- mutual
- threat
- synthesizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Image Generation (AREA)
Abstract
【課題】航空機が上空飛行中の地形上の相互視認領域の分布を表すピクセルからなる3次元マッピング画像を合成するための方法を提供する。ここで、相互視認領域とは、既知の潜在脅威のレンジ内に属する領域を意味する。
【解決手段】相互視認領域Zを、脅威のレンジを示す球面上の点からなる表面層であって、表面層の各点から同一の地理座標を有する地形T上の点までの距離を最小にした表面層で表現する。この構成によって、航空機のパイロットが必要とする情報を、明瞭かつ確認し易い形態で提供することができる。さらに、この方法は、計算資源が少なくても実施可能である。よって、機上のマッピング合成機によって簡単に実施することができる。
【選択図】図7
【解決手段】相互視認領域Zを、脅威のレンジを示す球面上の点からなる表面層であって、表面層の各点から同一の地理座標を有する地形T上の点までの距離を最小にした表面層で表現する。この構成によって、航空機のパイロットが必要とする情報を、明瞭かつ確認し易い形態で提供することができる。さらに、この方法は、計算資源が少なくても実施可能である。よって、機上のマッピング合成機によって簡単に実施することができる。
【選択図】図7
Description
本発明は、航空機が上空飛行中の地域内の相互視認領域または区域の分布を表すための、ピクセルからなるマッピング画像を合成するための方法に関するものである。
相互視認領域Zとは、既知の潜在脅威のレンジ内に属する領域である。図1に示すように、脅威Mのレンジの半径をRとすると、このレンジは、脅威が位置する地形Tによってその下部が画定された球面Sの一部からなる。図2に示すとおり、地形の特徴によって、レンジの半径Rより短い距離Dに位置しながら、脅威Mの相互視認領域内に位置しない個所が存在することも有り得る。航空機がある脅威の相互視認領域内に位置するか否かは、その地理的位置のみならず、その高度にも依存する。例えば、図2において、航空機Aは、高度Hでは相互視認領域外に位置するが、高度H´では相互視認領域内に位置する。
この情報は航空機の安全を確保するために非常に重要であるため、相互視認情報を航空機の計器盤のディスプレイスクリーンに表示する時、できる限り鮮明で人間工学的に優れたものでなくてはならない。従って、マッピング画像合成方法による相互視認領域の表現方法は重大かつ困難な課題である。
米国特許第5086396号公報
米国特許第4821212号公報
相互視認領域の表現は、始めはいわゆる「レイトレーシング」方法によって実現された。米国特許第5086396号は、この方法の代表的な例である。脅威の位置を中心として、その脅威の有効レンジを制限する障害物までまたは障害物がない場合に理論的なレンジの限界まで、射線が引かれる。上記米国特許の図6にその結果が示してある。相互視認領域は、射線で覆われた領域に対応する。脅威の理論的レンジは略円形の線23Aによって示される。好ましい形態である請求項7において、上記米国特許は、互いに異なる種類の脅威を表現する各射線群に異なる色を割当てることを提案する。これはパイロットが脅威の種類を識別できるようにするためであろう。このように脅威から発せられる射線のグリッドが、有色の地図の上に重ねて表示される。この従来技術による特許には、幾つかの短所がある。すなわち、この従来技術の特許では、地図が射線に覆われている個所では、陰影情報等のように地形の起伏を表している情報が失われてしまう。また、地図上で複数の同種または異種の脅威の相互視認領域内に当る個所では、射線が複雑に入り交じることによって、地図が示そうとする情報がパイロットによって読取られ難くまたは読取不可能になってしまうこともある。さらに、レンジ内の領域はその境界のみによって示されるため、その全体を正確に認識することが必ずしも可能ではない。
本出願人は、以前に「レイトレーシング」方法に対する改善策を提案した(仏国特許出願第0108669号)。その方法は、特に、2D5方式と称するマッピング表現法に適用することができるものである。2D5マッピング方式とは、従来の2次元表示に、起伏情報を陰影として示した方式である。この提案は、従来技術による対象領域を部分的に覆うグリッド状のテクスチャを設けた色を使用したものに対して、対象の相互視認領域の異なる部分を均一に覆う統一された色を使用することで従来技術の短所をすべてまた部分的に改善するものである。よって、表示対象である地図によって伝えたい情報、特に地形の起伏を表す陰影情報を失うことがない。各領域は、種類によって異なる色が割当てられる。従って、脅威のレンジ外に位置する第1の領域は第1の色を有し、脅威のレンジ内に位置するが相互視認領域外に位置する第2の領域は第2の色を有し、相互視認領域内の第3の領域は第3の色を有する。領域の大きさは、航空機の高度に依存する。例えば、航空機の高度が高くなるほど、第2の領域が小さくなる。
地形を3次元で表現した場合、相互視認領域を、相互視認領域の境界を表す半透明な球面の形式で表すことができる。
しかし、これらの方法にも短所がある。例えば、航空機が脅威のレンジ内/相互視認領域外の第2の領域に位置する場合、パイロットは、相互視認領域内に進入する高度に達するまでどれほどの余裕があるかは確認できない。同様に、相互視認領域外またはその下の、完全な安全性を維持するために必要なパスを確定することが非常に難しい。
本発明は、より人間工学的に優れた方法でパイロットに対して相互視認領域を示し、第1に、航空機が相互視認領域内にあるか、第2に、航空機が相互視認領域外にあるか、そしてその場合に航空機が相互視認領域内に進入するまでの高度差を確実に伝えることによって上述の課題を解決することを目的とする。よって、航空機の飛行安全性が実質的に改善される。
より具体的に、本発明は、航空用の画像を合成するための方法であって、該画像が、
航空機が上空飛行中の、少なくとも1つの潜在脅威を含む地形を表す3次元マッピング表現と、
該脅威のレンジを表す球体の一部と定義された相互視認領域(8)の3次元表現とを含み、
該相互視認領域の3次元表現が、相互視認領域の下面に相当する表面層からなり、該下面が、相互視認領域に属する複数の点であって、該下面の各点から同一の地理座標を有する地形上の点までの距離を最小とした複数の点からなることを特徴とする画像を合成するための方法を提供することを目的とする。
航空機が上空飛行中の、少なくとも1つの潜在脅威を含む地形を表す3次元マッピング表現と、
該脅威のレンジを表す球体の一部と定義された相互視認領域(8)の3次元表現とを含み、
該相互視認領域の3次元表現が、相互視認領域の下面に相当する表面層からなり、該下面が、相互視認領域に属する複数の点であって、該下面の各点から同一の地理座標を有する地形上の点までの距離を最小とした複数の点からなることを特徴とする画像を合成するための方法を提供することを目的とする。
表面層の下に位置する地形を部分的に視認可能にするために、表面層を半透明に示すことが好ましい。
前記表面層が、第1面(ED)と裏面(EV)とを有し、該第1面を第1の色で示し、該裏面を第1の色と異なる第2の色で示すことが好ましい。また、表面層の第1面または裏面にテクスチャを設けることも可能である。このテクスチャは、例えば等間隔のグリッド等である。また、グリッドの線を透かすことが好ましい。
さらに、レンジの境界を認識し易くするために、脅威の最大レンジの境界を、地形上に配置された、等間隔の垂直テクスチャを設けた凸状の曲面で示すことが好ましい。このテクスチャは、例えば、地形上に配置された閉じた垂直グリッド等である。
図3は、脅威Mを含む地形Tを示した3次元斜視図である。本発明による相互視認領域Zの表現は、表面層の各点から同一の地理座標を有する地形上の点までの距離を最小にした場合の相互視認領域の下面に属する点からなる表面層のみからなる。航空機が、レンジに相当する球面の中であるが、地形と表面層の間の領域に位置する場合、脅威から隠れていることになる。そのため、相互視認領域の境界が非常に単純化される。航空機は、表面層の上に位置し、脅威によって視認され、相互視認領域内に位置するか、あるいは、表面層の下に位置し、脅威によって視認されず、相互視認領域外に位置する。よって、パイロットの安全性の基準が非常に簡単になる。
さらに、この単純化は、技術的価値が高い。実際、相互視認領域の表現は、一般的には複数の3次元表面または完全な体積を作成する必要があるのに対して、作成する表面は1つで済む。従って、計算時間を節約することができる。ビデオの規格に沿った速度、すなわち約25フレーム/秒で、リアルタイムで画像を作成する必要があることを考慮すると、この点は重大な意味を有している。
図4aおよび4bは、図示しない脅威から発生した相互視認領域Zの一部を示す、また示さない地形Tの3次元斜視図である。この領域は、第1の表示モードに従って、均一の色によって表現される。図4bに見えるように、相互視認領域Zを確認することが難しい場合もある。図5、6および7に示す相補型の表示モードによって、表現や相互視認領域の認識がより正確になる。
相互視認領域を読取可能にするためには2つの点が重要である。
−表面層の起伏を認識し易くすること
−この層に対する航空機の状況を認識し易くすること
−表面層の起伏を認識し易くすること
−この層に対する航空機の状況を認識し易くすること
図5には相互視認領域の表現の第2モードを示す。表面層が半透明になっているため、表面層Zの下に位置する地形T´の起伏が見える。これによって、観察者が起伏に対する層の位置を容易に確認することができる。
図6には、相互視認領域の第3表現モードを示す。表面層に第1面と裏面がある。表面の認識度を改善し、表示の裏返しを防止するために、第1面と裏面とに2つの異なる色を使用する。このように表面層の第1面と裏面の区別をはっきりさせることによって、層の認識度をさらに改善することができる。例えば、空の方向に向いている第1面を緑色で表す。この時、地面の方向に向いている裏面を、例えばピンク色で表す。その結果、パイロットが表面層を主にピンク色として認識している場合、表面層の下に位置しており、従って相互視認領域の下に位置していることが理解できる。逆に、パイロットが表面層を主に緑色として認識している場合、表面の上に位置し、相互視認領域内にいることが分かる。
図7には、相互視認領域の第4表現モードを示す。表面層の第1面および/または裏面に等間隔のテクスチャQを描く。このテクスチャによって、層の起伏が確認できる。テクスチャのパターンが大きく見えると、航空機に近いことが分かる。テクスチャのパターンが小さく見えると、航空機から離れていることを意味する。さらに、パターンの傾きの変化によって、表面層の起伏が認識し易くなる。実施が最も容易で、画像に負担が掛からないテクスチャの例として、図7に示すような等間隔のグリッドがある。ここで、テクスチャを設けるための特定の計算が必要ではない。実際、パターンの原画は、標準パターンとして保存されており、画像の全面に亘ってパターンの間隔に従って複製されるものである。
また、グリッドの線を透かすことによって図7の表現モードをさらに改善することができる。このようにすると、相互視認領域の下に位置する地形が見えるようになる。
勿論、これらの異なる表現方式を組合わせた相互視認画像を作成することもできる。
一部が重複する相互視認領域を有する脅威が複数存在する場合、その相互視認領域を、各脅威の相互視認領域の下面に属する点からなる層であって、表面層の各点から同一の地理的座標を有する地形の点までの距離を最小にした表面層として表すことができる。
図8は、脅威によって発生した相互視認領域の一部と、その脅威の最大レンジの境界Pを示した地形Tの3次元斜視図である。レンジの境界Pを表すことによって、航空機のパイロットが相互視認領域外に位置する場合、脅威によって認識され得る領域内に進入するおそれがあることを理解させることができる。境界は、等間隔の垂直テクスチャを設けた凸状の曲面によって表現される。このテクスチャは、例えば、地面上に配置された閉じた垂直グリッド等によって表すことができる。このようにすることで、危険な領域内に進入する感覚を強調することができる。
本発明による合成方法は、現在の航空機の航空システムに通常装備されている手段を必要とする。
本発明による3次元表示を可能にするシステムは、全体として、次の要素によって構成される。
−パイロットが必要とする情報を選択することを可能にする1つまたは複数の制御局型のマン/マシンインタフェース。例えば、パイロットは、航空機の本来の位置にリンクされた地形および相互視認領域とは異なるマップの表示を求める場合がある。
−航空機の地理的位置を特定するための手段であって、次の要素によって構成されるもの。
−位置センサ(慣性誘導システム、GPS(地球投影位置決定システム)型の衛星位置決定システム等。
−姿勢センサ(飛行データセンサ、ジャイロスコープセンサ、加速度計等)。
−一連のセンサのデータを処理し、航空機の地理的位置、高度および姿勢を求めるための航法装置。
−位置センサ(慣性誘導システム、GPS(地球投影位置決定システム)型の衛星位置決定システム等。
−姿勢センサ(飛行データセンサ、ジャイロスコープセンサ、加速度計等)。
−一連のセンサのデータを処理し、航空機の地理的位置、高度および姿勢を求めるための航法装置。
−地形と少なくとも本発明による1つの表現モードによる相互視認領域の画像とを示すマッピング合成3次元画像を作成するための装置。この装置は、次の要素によって構成される。
−少なくとも地形の起伏に関する情報と各潜在脅威の特徴および位置に関する情報とを含むマッピングデータベース。
−処理装置によるデータおよびパイロットが提供する情報に基づいて、地形と相互視認領域を示す3次元画像を作成することを可能にする処理装置。
−少なくとも地形の起伏に関する情報と各潜在脅威の特徴および位置に関する情報とを含むマッピングデータベース。
−処理装置によるデータおよびパイロットが提供する情報に基づいて、地形と相互視認領域を示す3次元画像を作成することを可能にする処理装置。
−地形および相互視認領域を表した3次元画像のリアルタイム表示を可能にする、計器盤に設けられた少なくとも1つのMFD(多機能表示)型のディスプレイ。
−システム内の各装置を接続するための電子リンク。各情報は、航空学に適した基準に従ってデータバスによって伝送される。
T 地形
Z 相互視認領域
M 脅威
R レンジの半径
S 理論上のレンジを表す球面
H 航空機の高度
D 脅威までの距離
ED 表面層の第1面
EV 表面層の裏面
Q テクスチャ
P 境界
Z 相互視認領域
M 脅威
R レンジの半径
S 理論上のレンジを表す球面
H 航空機の高度
D 脅威までの距離
ED 表面層の第1面
EV 表面層の裏面
Q テクスチャ
P 境界
Claims (10)
- 航空用の画像を合成するための方法であって、該画像が、
航空機が上空飛行中の、少なくとも1つの潜在脅威を含む地形を表す3次元マッピング表現と、
該脅威のレンジを表す球体の一部と定義された相互視認領域の3次元表現とを含み、
該相互視認領域の3次元表現が、相互視認領域の下面に相当する表面層からなり、該下面が、相互視認領域に属する複数の点であって、該下面の各点から同一の地理座標を有する地形上の点までの距離を最小とした複数の点からなることを特徴とする画像を合成するための方法。 - 表面層の下に位置する地形を部分的に視認可能にするために、表面層を半透明に示した請求項1に記載の画像を合成するための方法。
- 前記表面層が、第1面(ED)と裏面(EV)とを有し、該第1面を第1の色で示し、該裏面を第1の色と異なる第2の色で示した請求項1または2に記載の画像を合成するための方法。
- 表面層の第1面または裏面にテクスチャを設けた請求項1ないし3のうちいずれか1項に記載の画像を合成するための方法。
- 前記テクスチャが、等間隔のグリッドである請求項4に記載の画像を合成するための方法。
- グリッドの線が透明である請求項4または5に記載の画像を合成するための方法。
- 脅威の最大レンジの境界を、地形上に配置された、等間隔の垂直テクスチャを設けた凸状の曲面で示した前記各請求項のうちいずれか1項に記載の画像を合成するための方法。
- 前記テクスチャが、地形上に配置された閉じた垂直グリッドである請求項7に記載の画像を合成するための方法。
- 航空機が上空飛行中の、少なくとも1つの脅威を含む地形を表す3次元画像を含むマッピング合成画像を作成するための装置であって、該マッピング画像がさらに該脅威の相互視認領域の画像表現を含み、該マッピング画像の合成方法が前記各請求項のうちいずれか1項に従って作成されることを特徴とするマッピング合成画像を作成するための装置。
- 航空機に搭載される航空システムであって、
1つ以上の制御局型のマン/マシンインタフェースと、
複数のセンサを有する航空機の地理的位置を決定するための手段と、
一連のセンサから供給されるデータを処理するための航法装置と、
少なくとも地形の起伏に関する情報と各潜在脅威の特徴および位置に関する情報とを含むマッピングデータベースと、
航法装置によるデータおよびパイロットから提供される情報に基づいて地形および相互視認領域を表現した3次元画像を作成することを可能にするマッピング画像作成装置と、
地形および相互視認領域を表した3次元画像のリアルタイム表示を可能にする、計器盤に設けたMFD(多機能表示)型のディスプレイと、
システム内の各装置を接続するための電子リンクとを具備し、
マッピング画像作成装置が、マッピング画像を、前記請求項9に従って作成することを特徴とする航空システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0214682A FR2847700B1 (fr) | 2002-11-22 | 2002-11-22 | Procede de synthese d'une image d'intervisibilite tridimensionnelle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004178589A true JP2004178589A (ja) | 2004-06-24 |
Family
ID=32241533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003391770A Pending JP2004178589A (ja) | 2002-11-22 | 2003-11-21 | 3次元相互視認画像の合成方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20050052451A1 (ja) |
EP (1) | EP1424654B1 (ja) |
JP (1) | JP2004178589A (ja) |
DE (1) | DE60303639T2 (ja) |
FR (1) | FR2847700B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009119264A1 (ja) * | 2008-03-24 | 2009-10-01 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 |
JP2011195005A (ja) * | 2010-03-19 | 2011-10-06 | Fuji Heavy Ind Ltd | 画像表示装置および画像表示装置用プログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2874258B1 (fr) * | 2004-08-10 | 2006-11-03 | Thales Sa | Procede d'affichage d'informations cartographiques et de zones aeronautiques sur ecran d'aeronef |
US8049644B1 (en) * | 2007-04-17 | 2011-11-01 | Rcokwell Collins, Inc. | Method for TAWS depiction on SVS perspective displays |
US9354633B1 (en) | 2008-10-31 | 2016-05-31 | Rockwell Collins, Inc. | System and method for ground navigation |
US9733349B1 (en) | 2007-09-06 | 2017-08-15 | Rockwell Collins, Inc. | System for and method of radar data processing for low visibility landing applications |
US9939526B2 (en) | 2007-09-06 | 2018-04-10 | Rockwell Collins, Inc. | Display system and method using weather radar sensing |
US9013500B2 (en) * | 2012-10-22 | 2015-04-21 | The Boeing Company | Real time intervisibility analysis |
US9262932B1 (en) | 2013-04-05 | 2016-02-16 | Rockwell Collins, Inc. | Extended runway centerline systems and methods |
US10928510B1 (en) | 2014-09-10 | 2021-02-23 | Rockwell Collins, Inc. | System for and method of image processing for low visibility landing applications |
US10705201B1 (en) | 2015-08-31 | 2020-07-07 | Rockwell Collins, Inc. | Radar beam sharpening system and method |
US10228460B1 (en) | 2016-05-26 | 2019-03-12 | Rockwell Collins, Inc. | Weather radar enabled low visibility operation system and method |
US10353068B1 (en) | 2016-07-28 | 2019-07-16 | Rockwell Collins, Inc. | Weather radar enabled offshore operation system and method |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4646244A (en) * | 1984-02-02 | 1987-02-24 | Sundstrand Data Control, Inc. | Terrain advisory system |
US4821212A (en) * | 1984-08-08 | 1989-04-11 | General Electric Company | Three dimensional texture generator for computed terrain images |
US5086396A (en) * | 1989-02-02 | 1992-02-04 | Honeywell Inc. | Apparatus and method for an aircraft navigation system having improved mission management and survivability capabilities |
US5179638A (en) * | 1990-04-26 | 1993-01-12 | Honeywell Inc. | Method and apparatus for generating a texture mapped perspective view |
US5549477A (en) * | 1992-11-17 | 1996-08-27 | Honeywell Inc. | Integrated aircraft survivability equipment in-flight simulation |
IL112186A (en) * | 1994-01-18 | 1998-09-24 | Honeywell Inc | A device for calculating inter-point vision |
US5787333A (en) * | 1994-08-26 | 1998-07-28 | Honeywell Inc. | Aircraft survivability equipment training method and apparatus for low flyers |
US5838262A (en) * | 1996-12-19 | 1998-11-17 | Sikorsky Aircraft Corporation | Aircraft virtual image display system and method for providing a real-time perspective threat coverage display |
US5936552A (en) * | 1997-06-12 | 1999-08-10 | Rockwell Science Center, Inc. | Integrated horizontal and profile terrain display format for situational awareness |
AU6488400A (en) * | 1999-04-01 | 2000-11-10 | Ricardo A. Price | Electronic flight instrument displays |
US6317690B1 (en) * | 1999-06-28 | 2001-11-13 | Min-Chung Gia | Path planning, terrain avoidance and situation awareness system for general aviation |
US6600489B2 (en) * | 2000-12-14 | 2003-07-29 | Harris Corporation | System and method of processing digital terrain information |
US6686917B2 (en) * | 2000-12-21 | 2004-02-03 | The United States Of America As Represented By The Secretary Of The Navy | Mine littoral threat zone visualization program |
FR2822944B1 (fr) * | 2001-03-27 | 2003-08-29 | Eads Airbus Sa | Procede et dispositif d'assistance au pilotage d'un aeronef, notamment d'un avion de transport |
WO2003005305A1 (en) * | 2001-07-06 | 2003-01-16 | Goodrich Avionics Systems, Inc. | System and method for synthetic vision terrain display |
US6980224B2 (en) * | 2002-03-26 | 2005-12-27 | Harris Corporation | Efficient digital map overlays |
-
2002
- 2002-11-22 FR FR0214682A patent/FR2847700B1/fr not_active Expired - Fee Related
-
2003
- 2003-11-13 EP EP03104177A patent/EP1424654B1/fr not_active Expired - Lifetime
- 2003-11-13 DE DE60303639T patent/DE60303639T2/de not_active Expired - Fee Related
- 2003-11-19 US US10/715,847 patent/US20050052451A1/en not_active Abandoned
- 2003-11-21 JP JP2003391770A patent/JP2004178589A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009119264A1 (ja) * | 2008-03-24 | 2009-10-01 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、プログラム及び情報記憶媒体 |
JP2009230543A (ja) * | 2008-03-24 | 2009-10-08 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理装置の制御方法及びプログラム |
KR101135908B1 (ko) | 2008-03-24 | 2012-04-13 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 정보 기억 매체 |
JP2011195005A (ja) * | 2010-03-19 | 2011-10-06 | Fuji Heavy Ind Ltd | 画像表示装置および画像表示装置用プログラム |
Also Published As
Publication number | Publication date |
---|---|
DE60303639D1 (de) | 2006-04-27 |
DE60303639T2 (de) | 2006-12-14 |
FR2847700A1 (fr) | 2004-05-28 |
EP1424654A1 (fr) | 2004-06-02 |
FR2847700B1 (fr) | 2005-01-14 |
US20050052451A1 (en) | 2005-03-10 |
EP1424654B1 (fr) | 2006-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7619626B2 (en) | Mapping images from one or more sources into an image for display | |
EP1908022B1 (en) | Displaying obstacles in perspective view | |
US9176324B1 (en) | Enhanced-image presentation system, device, and method | |
US8400448B1 (en) | Real-time lines-of-sight and viewsheds determination system | |
US10352703B2 (en) | System and method for effectuating presentation of a terrain around a vehicle on a display in the vehicle | |
Calhoun et al. | Synthetic vision system for improving unmanned aerial vehicle operator situation awareness | |
US20140285661A1 (en) | Methods and systems for colorizing an enhanced image during alert | |
US9262932B1 (en) | Extended runway centerline systems and methods | |
US8094188B1 (en) | System, apparatus, and method for enhancing the image presented on an aircraft display unit through location highlighters | |
US8099234B1 (en) | System, apparatus, and method for generating location information on an aircraft display unit using location markers | |
US7301497B2 (en) | Stereo display for position sensing systems | |
US10451422B2 (en) | System and method for providing persistent mission data to a fleet of vehicles | |
US20100231418A1 (en) | Methods and systems for correlating data sources for vehicle displays | |
JP2004178589A (ja) | 3次元相互視認画像の合成方法 | |
US9619935B2 (en) | Method of three-dimensional representation of a scene | |
US7489268B2 (en) | Methods and systems for producing an interpretive airborne radar map | |
US20180315322A1 (en) | Method of visualization of the traffic around a reference aircraft in a compliant display zone, associated computer product program and visualization system | |
EP2015277A2 (en) | Systems and methods for side angle radar training and simulation | |
US20080252636A1 (en) | Synthesis Method for Intervisibility Images | |
US11112249B1 (en) | Systems and methods for four-dimensional routing around concave polygon avoidances | |
US10636166B1 (en) | System and method for correlation between 2D and 3D scenes | |
JP2000306084A (ja) | 三次元画像表示方法 | |
US11380024B1 (en) | Instant situational awareness visualization module process and device | |
US20020070950A1 (en) | A method of effecting a stereoscopic display | |
JPH01131589A (ja) | 立体地形図表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100309 |