JPH0375682A - High frequency signal detecting apparatus - Google Patents

High frequency signal detecting apparatus

Info

Publication number
JPH0375682A
JPH0375682A JP2123260A JP12326090A JPH0375682A JP H0375682 A JPH0375682 A JP H0375682A JP 2123260 A JP2123260 A JP 2123260A JP 12326090 A JP12326090 A JP 12326090A JP H0375682 A JPH0375682 A JP H0375682A
Authority
JP
Japan
Prior art keywords
data
parts
cell
data layer
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2123260A
Other languages
Japanese (ja)
Inventor
Timothy M Wittenburg
テイモシー・エム・ウイツテンバーグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell Inc
Original Assignee
Honeywell Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell Inc filed Critical Honeywell Inc
Publication of JPH0375682A publication Critical patent/JPH0375682A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/301Simulation of view from aircraft by computer-processed or -generated image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods

Abstract

PURPOSE: To generate a three-dimensional graphical display of digitized geographical data in real time by scanning the correspondent parts of 1st and 2nd data layers from a memory and shading the area which is specified through a process such as removing a hidden face from the scanned parts. CONSTITUTION: This method has a process 10 for scanning the correspondent parts of 1st and 2nd data layers from the memory, process 20 for removing the hidden face from the scanned parts, and process 30 for dividing the scanned parts into the plural cells of 2×2 picture elements so as to form the cell while using the adjacent picture elements from the 1st data layer. Further, this method has a process 40 for further dividing the cell into triangular parts having apexes, process 50 for projecting the apexes on an observation screen while using the coordinate and known gap value of the 2nd data layer, and process 60 for shading the area of which the boundary is specified by the projected apexes. Thus, a realistic photographic image can be generated at high speed from a digitized look-down area photograph combined and aligned with digital geographical contour data.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、一般に、図形表示システムに関し特に、デジ
タルマツプシステム又は飛行訓練用部分タスク練習装置
などの図形システムにかいて見下ろしセンサ影像力・ら
実時間で写真写実影像を高速で生成する方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates generally to graphical display systems, and more particularly, to graphical systems such as digital map systems or partial task training devices for flight training, which utilize top-down sensor imaging power and the like. This invention relates to a method for rapidly generating photorealistic images in real time.

〔従来の技術及び発明が解決しようとする問題点〕[Problems to be solved by conventional technology and invention]

現在、ある種の航空機と、航空機訓練用シミュレータの
双方にかいて、地形データ又は航空図データを図形表示
用端末装置に表示することが望筐れている。そのような
表示は航空図のデジタルマツプ、レーダー表示影像、又
は写真やその他のデジタル化データに基づく別の種類の
影像を含むものと考えられる。
Currently, it is desired to display topographic data or aeronautical chart data on a graphics display terminal for both certain types of aircraft and aircraft training simulators. Such displays may include digital maps of aeronautical charts, radar display images, or other types of images based on photographs or other digitized data.

たとえば、デジタルマツプの領域では、地形の透視図な
どを表示する能力を有していることが望!しい。表示さ
れる情報の写実性が高櫨るほど、航空機の乗員の能力も
向上する。たとえば、航空機環境の下では、従来のデジ
タルマツプシステムに既に備わっている平面図に、透視
図によるマツプ表示を加えることによって、乗員の状況
判断力は増す。1例として、譲受人の1988年5月1
1日出願の同時係属出願番号第07/192,798号
、名称r DIGITAL MAP SYSTEM J
を参照のこと。
For example, in the area of digital maps, it is desirable to have the ability to display perspective views of the terrain! Yes. The more realistic the information displayed, the better the performance of the aircraft crew. For example, in an aircraft environment, by adding a perspective map display to the plan view already provided in a conventional digital map system, the crew's ability to judge the situation will be improved. As an example, the transferee's May 1, 1988
Co-pending Application No. 07/192,798 filed on the 1st, Title r DIGITAL MAP SYSTEM J
checking ...

同様に、三次元表示能力を追加すれば、側方監視広域レ
ーダーシステム及び航空機訓練装置々どのシステムの性
能は向上するであろう。そのようなシステムに訃いては
、表示を実時間で(すなわち、毎秒30画像の速度で)
表示することが重要である。
Similarly, the addition of three-dimensional display capabilities will improve the performance of systems such as side surveillance wide area radar systems and aircraft training equipment. In such a system, the display can be performed in real time (i.e. at a rate of 30 images per second).
It is important to display

本発明により得られる結果の実例を第11図すに示す。An example of the results obtained by the present invention is shown in FIG.

第11図aは、通常の見下ろし写真であって、これを本
発明の方法を使用してDMA標高データと組合せると、
第11図すに典型的な例として示すような驚くべき側方
観察図が得られるのである。
FIG. 11a is a typical top-down photograph which, when combined with DMA elevation data using the method of the present invention, yields
A surprising side view is obtained, as shown as a typical example in FIG.

〔問題点を解決するための手段〕[Means for solving problems]

表示システムにかいて使用するための、写真写実影像の
高速生成を実行する方法が提供される。
A method is provided for performing fast generation of photorealistic images for use in a display system.

表示システムは、第1及び第2の適正に修正されたデー
タ層を記憶するメモリを含み、その第1のデータ層は、
既知の分解能及び間隔値を有するデジタル化写真から成
り、第2のデータ層は、第1のデータ層の写真に対応す
るデジタル化標高データから成る。本発明の方法は、第
1及び第2のデータ層の対応する部分をメモリから走査
する過程と、走査した部分から隠れ面を除去する過程と
、第1のデータ層からの隣接する画素を使用してセルを
形成するように、走査した部分を複数個の2画素×2画
素セルに分割する過程と、セルを頂点を有する三角形の
部分にさらに分割する過程と、第2のデータ層の座標及
び既知の間隔値を使用して頂点を観察スクリーンに投影
する過程と、投影した頂点により境界を規定される領域
をシェージングする過程とから成る。
The display system includes a memory storing first and second suitably modified data layers, the first data layer comprising:
The second data layer is comprised of digitized photographs having known resolution and spacing values, and the second data layer is comprised of digitized elevation data corresponding to the first data layer photographs. The method of the present invention includes the steps of scanning corresponding portions of the first and second data layers from memory, removing hidden surfaces from the scanned portions, and using adjacent pixels from the first data layer. dividing the scanned portion into a plurality of 2 pixel x 2 pixel cells to form a cell, further dividing the cell into triangular parts having vertices, and determining the coordinates of the second data layer. and shading the region bounded by the projected vertices.

本発明の一実施例においては、隠れ面は修正ペインター
ズアルゴリズムを適用することによって除去される。本
発明の別の実施例では、隠れ面の除去を実行するために
2バンフアを使用するであろう。
In one embodiment of the invention, hidden surfaces are removed by applying a modified Painter's algorithm. Another embodiment of the invention would use two banfas to perform hidden surface removal.

本発明の1つの目的は、デジタル地形標高データと組合
され且つ位置合せされているデジタル化見下ろし領域写
真から写真写実影像を高速で生成する方法を提供するこ
とである。
One object of the present invention is to provide a method for rapidly generating photorealistic images from digitized top-down area photographs that are combined and registered with digital terrain elevation data.

本発明の別の目的は、元の見下ろし写真を任意の三次元
視点から見た側面図を生成することである。
Another object of the invention is to generate a side view of the original top-down photograph from any three-dimensional perspective.

本発明のさらに別の目的は、デジタル化地形データの三
次元図形表示を実時間で発生するコンピュータアルゴリ
ズムを提供することである。
Yet another object of the invention is to provide a computer algorithm that generates a three-dimensional graphical representation of digitized terrain data in real time.

本発明のその他の目的、特徴及び利点は、好筐しい実施
例の説明、特許請求の範囲及び添付の図面から当業者に
は明白になるであろう。図面中、同じ図中符号は同じ要
素を指す。
Other objects, features, and advantages of the invention will become apparent to those skilled in the art from the description of the preferred embodiment, the claims, and the accompanying drawings. In the drawings, like reference numbers refer to like elements.

〔実施例〕〔Example〕

以下、添付の図面を参照して本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

筐ず、第1図に関して説明する。第1図には、本発明に
従って側方観察影像のデータベースを高速生成する方法
のフローチャートが示されている。
This will be explained with reference to FIG. FIG. 1 shows a flowchart of a method for rapidly generating a database of side view images in accordance with the present invention.

本発明の方法は、メモリを走査する過程10と、隠れ面
を除去する過程20と、層をセルに分割する過程30と
、セルを三角形にさらに分割する過程40と、頂点を投
影する過程50と、三角形を充填する過程60とから成
る。簡単にいえば、第1図にフローチャートの形で示さ
れる本発明のコンピュータアルゴリズムは、第2図に示
すようにDMA地形データと組合され且つ重ね合せされ
たデジタル化見下ろし航空写真を入力として受取る。
The method of the present invention includes the steps of scanning the memory 10, removing hidden surfaces 20, dividing the layer into cells 30, subdividing the cells into triangles 40, and projecting the vertices 50. and a step 60 of filling the triangle. Briefly, the computer algorithm of the present invention, shown in flowchart form in FIG. 1, receives as input a digitized top-down aerial photograph combined and overlaid with DMA terrain data as shown in FIG.

本発明のコンピュータアルゴリズムは、元の見下ろし写
真を任意の三次元視点から見た側面図を生成する。RD
(1,−デイスプレィアルゴリズムと呼ばれる本発明の
コンピュータアルゴリズムの−実施例は、ミネソタ州ミ
ネアポリスのHoney wellInc、  により
、シリコン・グラフィックス・ワークステーションにお
いて、Cプログラミング言語で実現されている。
The computer algorithm of the present invention generates a side view of the original top-down photograph from any three-dimensional perspective. R.D.
An embodiment of the computer algorithm of the present invention, referred to as the Display Algorithm (1), has been implemented in the C programming language on a Silicon Graphics workstation by Honeywell Inc., Minneapolis, Minnesota.

本発明の実施例は、それが実現された状況では、512
 X 512画素のデータベースの図を1つにつき5秒
で生成することができる。RDG−デイスプレィアルゴ
リズムを超高速集積回路(Vl(SIC)で実現するこ
とによう、同じ動作を実時間で実行できると考えられる
。そのよう々集積回路の一例はHoneywel+ I
nc、によって製造されておや、また、本発明中にも参
考として取シ入れられている譲受人の囲時係属米国特許
出願番号第07/3073548−1989年2月7日
出願、発明者はMill@r他−に記載されている。第
2図によれば、本発明の方法のコンピュータアルゴリズ
ムは、共通位置にあるデータの2つの矩形層がメモリに
常駐していると仮定する。第1の層はデジタル化写真7
0である。
Embodiments of the invention, in the context in which it is implemented, may
Each X 512 pixel database diagram can be generated in 5 seconds. By implementing the RDG-display algorithm on an ultra-high-speed integrated circuit (VI (SIC)), it is thought that the same operation can be performed in real time.An example of such an integrated circuit is the Honeywel+ I
No. 07/3073,548 filed February 7, 1989, filed February 7, 1989 by Assignee, which is also incorporated herein by reference. As described in Mill@r et al. According to FIG. 2, the computer algorithm of the method of the invention assumes that two rectangular layers of co-located data reside in memory. The first layer is the digitized photo 7
It is 0.

写真の分解能はわかっておシ、画像中の連続する画素と
画素の一定の間隔として表わされる。第2の層72にお
ける各要素は、写真層の共通位置にある画素に対応する
地面の標高である。本発明の好ましい実施例では、標高
層72の分解能は写真層700分解能と等しく々ければ
ならない。すなわち、写真層の間隔は標高層の間隔と等
しくなければならない。2つの層は、壕とめて考えたと
き、正しく修正されていると思われる。本質的には、こ
れら2つの層、すなわち、写真データから成る第1の層
と、標高データから成る第2の層とは、地表の狭い一部
分の三次元写真表示を構成する。
The resolution of a photograph is known and is expressed as the constant spacing between successive pixels in the image. Each element in the second layer 72 is a ground elevation corresponding to a pixel at a common location in the photographic layer. In a preferred embodiment of the invention, the resolution of the elevation layer 72 should be equal to the resolution of the photographic layer 700. That is, the spacing between the photographic layers must be equal to the spacing between the elevation layers. The two layers seem to have been corrected correctly when considered as a moat. Essentially, these two layers, a first layer of photographic data and a second layer of elevation data, constitute a three-dimensional photographic representation of a small portion of the Earth's surface.

当業者であれば知っているであろうが、このコンピュー
タアルゴリズムに必要な標高データは合衆国の大半の地
域について既に収集されてシb、たとえば、Natio
nal Cartographic Informat
ionCenter (NCIC)などから購入できる
。欧州を始め、他の国々についても高分解能の標高デー
タを利用することが可能である。本発明の方法がN(J
Cに由来する標高データに依存するのではないことはも
ちろんであう、たとえば、双眼写真などの別のデータ源
からデータを取出すことも可能である。
As those skilled in the art will know, the elevation data required for this computer algorithm is already collected for most areas of the United States, such as
nal Cartographic Informat
It can be purchased from ionCenter (NCIC), etc. High-resolution elevation data is available for Europe and other countries as well. The method of the present invention is N(J
It is of course possible to retrieve the data from another data source, such as binocular photography, rather than relying on elevation data derived from C.

本発明の方法をさらにわかシやすく説明するために、特
定の例を挙げて本発明を説明する。この例で使用される
特定の例が単に実例を示すという目的で挙げられておシ
、本発明を限定するものでないことは、当業者には明白
であろう。以下で採用すべき特定の例においては、次の
基準が適用される: 1、標高データは16ビツトの整数として表わされる。
In order to more clearly explain the method of the present invention, the present invention will be described using specific examples. It will be apparent to those skilled in the art that the specific examples used in this example are given for illustrative purposes only and are not intended to limit the invention. In the specific example to be adopted below, the following criteria apply: 1. Elevation data is expressed as a 16-bit integer.

2、写真層の画素強さ値は8ビツトの整数である。2. The pixel intensity value of the photographic layer is an 8-bit integer.

3、タイミングの都合上、各層のサイズば512×51
2画素の長さをもつと仮定する。
3. Due to timing reasons, the size of each layer is 512 x 51.
Assume that it has a length of 2 pixels.

4、地表座標系は右回9である。4. The ground coordinate system is clockwise 9.

5、観察スクリーン座標系の原点は左下角にある。5. The origin of the viewing screen coordinate system is at the lower left corner.

第3図は、本発明の方法を論じる上で使用する座標系へ
のDMA標高セグメントの位置合せを示すO 次に、第4図に関して説明する。第4図には、2画素×
2画素セルの2つの交互に現われる三角形の形状が示さ
れている。各セル80ば4つの隣接する画素82によう
形成される。各セルの4つの角の点は同一の平面に位置
している必要はないので、各セルを8OA及び80Bで
示すような2つの交互三角形形状に分割することができ
る。それぞれの三角形の頂点は、1ず、標高層の座標と
、間隔値とを使用して、観察スクリーンに投影される。
FIG. 3 shows the alignment of the DMA elevation segments to the coordinate system used in discussing the method of the present invention. Reference will now be made to FIG. In Figure 4, 2 pixels ×
Two alternating triangular shapes of two-pixel cells are shown. Each cell 80 is formed into four adjacent pixels 82. Since the four corner points of each cell do not need to lie in the same plane, each cell can be divided into two alternating triangular shapes as shown at 8OA and 80B. The vertices of each triangle are first projected onto the viewing screen using the elevation layer coordinates and spacing values.

次に、投影された頂点により境界を限定された領域が、
Gouraudシェージングアルゴリズムの補間部分と
、写真層から取出した対応する強さ値とを使用して充填
される。2つの層の512 X 512画素により形成
された全ての三角形についてこの「投影−充填」動作を
繰返すと、その結果、第11図に示すような衝撃的な側
面図が得られるのである。
Then, the region bounded by the projected vertices is
It is filled using the interpolated part of the Gouraud shading algorithm and the corresponding intensity values taken from the photographic layer. Repeating this "project-fill" operation for all the triangles formed by the 512 x 512 pixels of the two layers results in the striking side view shown in FIG.

以上、本発明の方法の概要を大甘かに説明したので、次
に、本発明の過程をさらに詳細に説明する。ある特定の
時点で、スクリーンに表示すべきデータを求めてメモリ
が走査された後、最初の処理過程は隠れ面を除去するこ
とから成る。本発明の別の実施例においては、ハードウ
ェアで2バツフアを実現することができる。当業者には
わかっているであろうが、2バツフアは、スクリーンに
表示するために処理されている地形情報に対応する2深
さ値を記憶するレジスタである。当該技術分野では良く
知られているように、2バツフアは、たとえば、ある情
報が同時に表示すべき別のデータの背後に位置している
ために、その別のデータにより「隠れる」ことになる場
合に、その情報のスクリーン又はフレームメモリへの書
込みを抑制するために使用可能である。ここでは、本発
明の隠れ面を除去する機能を実行するために、従来の2
バンフアを使用できるということを述べておけば十分で
ある。
Having briefly explained the outline of the method of the present invention above, the process of the present invention will now be explained in more detail. At a certain point, after the memory has been scanned for data to be displayed on the screen, the first processing step consists of removing hidden surfaces. In another embodiment of the invention, two buffers can be implemented in hardware. As those skilled in the art will appreciate, the 2 buffer is a register that stores 2 depth values corresponding to the terrain information being processed for display on the screen. As is well known in the art, two-buffers occur when, for example, some information is located behind another data that is to be displayed at the same time, so that it is "hidden" by that other data. can be used to suppress the writing of that information to screen or frame memory. Here, in order to perform the hidden surface removal function of the present invention, we will use the conventional
Suffice it to say that Banhua can be used.

本発明の別の実施例では、隠れ面の除去は、修正したベ
インターズアルゴリズムを使用することによって実行さ
れる。Hang)rvell Inc、  によ、6c
言語バージョンで実現されているデモンストレーション
用ソフトウェアは、この方法をきわめて有効に利用した
ものである。第1の層と第2の層は既に空間的にプレイ
として編成されているので、ソーティングが必要である
標準形のベインターズアルゴリズムを採用するときとは
異なり、ソーティングは不要である。
In another embodiment of the invention, hidden surface removal is performed by using a modified Bainter's algorithm. Hang) rvell Inc, Yo, 6c
The demonstration software implemented in the language version makes very effective use of this method. Since the first and second layers are already spatially organized as plays, no sorting is required, unlike when employing the standard Bainter's algorithm, which requires sorting.

矩形の写真層と標高層を考えた場合、ペインターズアル
ゴリズムは、1ず、観察者力・ら最も遠い位置にある面
を周知の描出技術を利用して描くことにより動作する。
Considering a rectangular photographic layer and an elevation layer, the Painter's algorithm operates by first drawing the surface furthest from the viewer using known rendering techniques.

描出は、観察者に最も近い面に向かって続く。本質的に
は、シーンは「後から前へ」という方式で構成される。
Delineation continues toward the side closest to the viewer. Essentially, the scene is constructed in a "back to front" fashion.

この方式では、隠れている面も描出されてしオうのであ
るが、観察者により近い面が隠れ面の上に重ねて描出さ
れるときに、隠れ面は覆い隠される。
In this method, hidden surfaces are also depicted, but when a surface closer to the viewer is depicted superimposed on the hidden surface, the hidden surface is covered up.

次に、第3図に関して説明する。ここで、観察者の三次
元位置を■とし、観察者が見ている三次元の点をPとす
る。ベクトル差りはp−vに等しい。ベクトルDは、D
のX成分及び2成分から測定された極角度phiにより
表わされる観察方向を指している。
Next, FIG. 3 will be explained. Here, the three-dimensional position of the observer is assumed to be ■, and the three-dimensional point that the observer is looking at is assumed to be P. Vector difference is equal to p−v. Vector D is D
It points to the observation direction represented by the polar angle phi measured from the X component and the two components.

pht −m−1(Px−Vx)/(P2−V2)MQ
d 360修正ベインターズアルゴリズムH1phiの
括弧の中の値に応じて、4つの場合をセットアツプする
ことにより実現される。1つの場合は、第5図に示すよ
うに、4つのゾーンを規定する矩形セルの辺ごとに実現
される。
pht -m-1(Px-Vx)/(P2-V2)MQ
It is realized by setting up four cases depending on the values in the parentheses of the d360 modified Bainter's algorithm H1phi. In the case of one, as shown in FIG. 5, it is realized for each side of a rectangular cell defining four zones.

phlの範囲   描出を開始する方角2   315
<=phi  45        東1    45
<−ph+135         北3    13
5<=ph+225         西0225<=
phi315南 ゾーン データの短形層を描出するために、phiの値に応じて
、4つのルーチンの中の1つを呼出す。第7図かられか
るように、ペインターズアルゴリズムも最も遠い距離の
第1の規則を満足させるためには、三角形の向きを2種
類考えれば良い。連続するセルを正しい順序で描出する
には、方向ごとに1つずつ、合わせて4つのルーチンが
必要である。既に述べた向きの違いは別として、4つの
ルーチンのそれぞれに見られる主な相違点は、セル処理
の順序の違いである。第9図は、修正ベインターズアル
ゴリズムの処理方向をゾーンごとに示す。
Range of phl Direction to start drawing 2 315
<=phi 45 east 1 45
<-ph+135 North 3 13
5<=ph+225 West 0225<=
To render the rectangular layer of the phi315 south zone data, one of four routines is called, depending on the value of phi. As can be seen from FIG. 7, in order to satisfy the first rule of the farthest distance in the Painter's algorithm, it is sufficient to consider two types of triangle orientations. Four routines are required to render successive cells in the correct order, one for each direction. Apart from the directional differences already mentioned, the main difference between each of the four routines is the different order of cell processing. FIG. 9 shows the processing direction of the modified Bainter's algorithm for each zone.

第6図に戻って説明する。第6図には、矩形地形データ
ベースを見下ろした図が示されている。
The explanation will be returned to FIG. 6. FIG. 6 shows a view looking down on the rectangular terrain database.

本発明の修圧ペインターズアルゴリズムを説明する都合
上、地形100は平坦であると仮定するが、以下の説明
は、任意の複雑さをもつ地形データベースに適用される
。データベースの下方領域に示す視線ベクトルは、右の
方向を指している。小さな正方形は2×2画素のセル8
0を表わす。データベースは、データベース中のそれぞ
れの2×2セル80の頂点B2ごとに、次の情報を含む
:1、事前にわかっている間隔パラメータに基づ(x、
y座標 2、標高層かられかっているa高を表わす2座標 3、写真層から取出された強さ値 本発明の修正ベインタ・−ズアルゴリズムヲ使用する場
合には、1ず、視線ベクトルDを、たとえば、第5図に
示すように、データベースの中心に移動し、移動した視
線ベクトルを含むゾーンを角度phiを利用して確定す
る。次に、第9図に示すように、適切なゾーン関連描出
手順を選択する。
For convenience in describing the Reconsolidation Painters algorithm of the present invention, it is assumed that the terrain 100 is flat, but the following discussion applies to terrain databases of arbitrary complexity. The line of sight vector shown in the lower area of the database points in the right direction. The small square is 2x2 pixel cell 8
Represents 0. The database contains the following information for each vertex B2 of each 2x2 cell 80 in the database: 1. Based on a priori known spacing parameter (x,
y coordinate 2, representing the a-height that is removed from the elevation layer 2 coordinate 3, the intensity value extracted from the photographic layer When using the modified Bainter's algorithm of the present invention, first, the line of sight vector D is , for example, as shown in FIG. 5, move to the center of the database and determine the zone containing the moved line-of-sight vector using the angle phi. Next, as shown in FIG. 9, an appropriate zone-related rendering procedure is selected.

次に、適切々地形図を一度に1セルずつ描出する。Next, the appropriate topographical map is drawn one cell at a time.

第7図に示す通り、それぞれのセルは、1ず、セル描出
動作を2回の三角形描出動作に分解することによって描
出される。適切な描出手順が選択された後、セルを描出
する方法として2つの方法が考えられる。第1の方法は
、第7図(a)に示すようにセルを左上から右下へ横切
る対角線を使用する、これに対し、第2の方法は、第7
図(b)に示すようにセルを左下から右上へ横切る対角
線を使用する。
As shown in FIG. 7, each cell is drawn by first decomposing the cell drawing operation into two triangle drawing operations. After the appropriate rendering procedure has been selected, there are two possible ways to render the cells. The first method uses a diagonal line that crosses the cell from the top left to the bottom right as shown in FIG.
A diagonal line that crosses the cell from the bottom left to the top right is used as shown in Figure (b).

単一のセルの内部で、実験によれば、全てのゾーンの中
の全てのセルについてどちらの対角線を選択しても良く
、重大な影響は生じないことがわかっている。全てのゾ
ーンにおいて重要であるのは、1つのセルの2つの三角
形を正しい順序で描出するということである。いずれの
場合にも、視線ベクトルDからよシ離間した位置にある
三角形を先に描出しZければならない。さらに、観察者
に最も近いセルの行に先立って、観察者から最も遠いセ
ルの行を描出し々ければならない。また、実時間画像生
成中のアーティファクトを回避するために、全てのゾー
ンについて選択される対角Mは一貫してい々ければなら
ない。
Within a single cell, experiments have shown that either diagonal can be chosen for all cells in all zones without significant effects. What is important in all zones is that the two triangles of a cell are drawn in the correct order. In either case, a triangle located far away from the line-of-sight vector D must be drawn first. Furthermore, the row of cells furthest from the viewer must be rendered before the row of cells closest to the viewer. Also, the diagonal M selected for all zones must be consistent to avoid artifacts during real-time image generation.

この方法の大きな利点の1つは、セルのうちどれを描出
するかを判定するためにデータベースをソートする必要
がないことである。これは、データ層と写真層がコンピ
ュータメモリに空間的に順序付けされた状態で記憶され
ているからである。
One of the major advantages of this method is that there is no need to sort the database to determine which cells to render. This is because the data and photographic layers are stored in computer memory in a spatially ordered manner.

4つの場合、すなわち、4つのゾーンは、全て、セルの
連続するラインを順方向又は逆方向に走査するか、ある
いは、セルの列を順方向又は逆方向に走査することがで
きるメモリを使用して描出されれば良い。この4モード
メモリ読取シ能力は先に説明した4つのゾーンに対応し
、デモンストレーション用ソフトウェアにかいて実現さ
れている。
All four cases, i.e., all four zones, use a memory that can scan successive lines of cells in a forward or reverse direction, or scan columns of cells in a forward or reverse direction. It would be good if it was depicted as such. This four-mode memory read capability corresponds to the four zones described above and is implemented in demonstration software.

模擬乗シ物が地形データベースを通って「飛行している
ものと考える。phtが変化し、写真画像が描出されて
ゆくにつれて、4つの描出手順相互の間のいずれかの箇
所で遷移が起こる。全てのゾーンに訃ける全てのセルに
ついて選択された対角線が一貫している限や、各ゾーン
に対応する描出手順間の遷移はアーティファクトを発生
させない、すなわち、ゾーン1からゾーン2への遷移に
よう発生される連続するシーンは人間の目に見えない検
出不可能な動きであることが実証されている。
Assume that the simulated vehicle is flying through the terrain database. As the pht changes and the photographic image is rendered, a transition occurs somewhere between the four rendering procedures. As long as the diagonals selected for all cells in all zones are consistent, the transitions between the rendering steps corresponding to each zone will not generate artifacts, i.e., the transition from zone 1 to zone 2 will not produce artifacts. It has been demonstrated that the sequence of scenes generated is an undetectable motion that is invisible to the human eye.

この品質は望ましいものであシ、ここで説明する方法を
飛行シミュレータへの適用にきわめて適する内容にして
いる。
This quality is desirable and makes the method described herein highly suitable for flight simulator applications.

第8図に示す4つの境界条件の中の1つを考えてみる。Consider one of the four boundary conditions shown in FIG.

第8図は、第6図に示すデータベースを、視線ベクトル
に沿った視点から表わしている。この場合、視線ベクト
ルDはゾーン1とゾーン2とを接合線に正確に沿って位
置する。この場合には、観察者には混乱状態として出現
するアーティファクトを発生せずに、描出手順をゾーン
1又はゾーン2のいずれからも選択できる。
FIG. 8 shows the database shown in FIG. 6 from a viewpoint along the line-of-sight vector. In this case, the line of sight vector D locates zone 1 and zone 2 exactly along the joining line. In this case, the rendering procedure can be selected from either Zone 1 or Zone 2 without producing artifacts that appear confusing to the observer.

以上、本発明の方法のコンピュータアルゴリズムで採用
する隠れ面除去方式を説明したので、次に、三角形ごと
に要求される図形表示動作を説明する。三角形ごとに要
求される動作は次の通シである: 1、三角形ごとに3つの頂点をスクリーンに投影する。
Now that the hidden surface removal method employed in the computer algorithm of the method of the present invention has been explained, the graphic display operation required for each triangle will now be explained. The operations required for each triangle are as follows: 1. Project the three vertices of each triangle onto the screen.

2、投影した三角形を補間シェージング、すなわち、修
正Gourandシェージングを利用して充填する。
2. Fill the projected triangles using interpolative shading, ie, modified Gourand shading.

頂点をスクリーンに投影する第1の過程に関しては、透
視変換マトリクスと、それぞれの三次元三角形頂点とを
乗算したければならない。変換マトリクス自体の内容は
フレームごとに唯−度決定され、そのような変換マトリ
クスを利用することは当該技術分野では良く知られてい
る。観察者座標系からの回転、移動、変換の全てと、観
察スクリーンへの投影とを考慮した上で、衆終的なマト
リクスは次の形態を有する。
For the first step of projecting the vertices onto the screen, we have to multiply each 3D triangle vertex by the perspective transformation matrix. The contents of the transformation matrix itself are determined uniquely on a frame-by-frame basis, and the use of such transformation matrices is well known in the art. Taking into account all rotations, translations, and transformations from the observer coordinate system and projection onto the viewing screen, the final matrix has the following form:

rll      r12     r13     
0r21      r22    r23     
0r31      r32    r33     
0tエ    ty   t2   1 r項は正弦と余弦との積であるので、値0と値1との間
にあるべきである。この例では、便宜上、マトリクス係
数は、全て、32ピクトの浮動小数点値である。512
 X 512画素の層を例にとると、全ての三角形をス
クリーンに投影するためには、26.2144回のマト
リクス乗算演算を実行しなければならない。
rll r12 r13
0r21 r22 r23
0r31 r32 r33
Since the r term is the product of sine and cosine, it should lie between the values 0 and 1. In this example, for convenience, the matrix coefficients are all 32-pict floating point values. 512
Taking a layer of X 512 pixels as an example, 26.2144 matrix multiplication operations must be performed to project all the triangles onto the screen.

三角形の頂点を観察スクリーンに投影したならば、今度
は、本発明の方法により充填動作を実行する。スクリー
ンへの投影後は、二次元の三角形となっている。この三
角形を修正Gouraudシェージングアルゴリズムを
使用して充填するのである。
Once the vertices of the triangle have been projected onto the viewing screen, a filling operation is now performed according to the method of the invention. After being projected onto the screen, it becomes a two-dimensional triangle. This triangle is then filled using a modified Gouraud shading algorithm.

Gouraudシェージングは、最も純粋な形では、4
つの過程を含み、そのうち最初の3つの過程は頂点ごと
の強さに帰する。本発明の方法によう生成すべき三次元
画像に周知のGOuraudシェージングを適用する場
合、強さは写真層から直接得られるので、既知の値とい
うことになる。本発明の別の実施例においては、ライテ
ィング(xtghttng)モデルを追加しても良い。
In its purest form, Gouraud shading is
The first three processes are attributed to the strength of each vertex. When applying the well-known Gouraud shading to the three-dimensional image to be produced in accordance with the method of the invention, the intensities are obtained directly from the photographic layer and are thus known values. In another embodiment of the invention, a lighting (xtghttng) model may be added.

ライティングモデルは、本質的には、第1に面法線(ク
ロス乗積)を確定し、第2に、面法線及び光ベクトルか
ら照明強さ(点乗積)を確定することから成ると考えら
れる。
The lighting model essentially consists of firstly determining the surface normal (cross product) and secondly determining the illumination intensity (point product) from the surface normal and light vector. Conceivable.

次に、充填動作中に照明値を強さと回数分解する。The illumination value is then decomposed into intensity and number of times during the filling operation.

この演算は三角形ごとに一度計算されなければならない
This operation must be calculated once for each triangle.

その結果、残る動作は三角形充填動作であり、これは不
質的には双線形補間である。補間ば、捷ず、三角形の辺
に沿って起こり、次に、辺の間でスクリーンの各走査線
に沿って起こる。
As a result, the remaining operation is a triangle filling operation, which is essentially a bilinear interpolation. The interpolation occurs along the sides of the triangle, without interpolation, and then between the sides along each scan line of the screen.

ll  78       ’l  ’8上記の式は、
三角形の辺に沿った強さ補間のための値を表わす。三角
形は頂点11.I2及び工3で既知の強さを有する。I
、、I、及び工、は走査線Sに沿った強さであって、上
記の式に従ってII、I2及びI3から補間される。こ
れは、従来の技術でも採用されている良く知られた方法
である。
ll 78 'l '8 The above formula is
Represents the value for strength interpolation along the sides of the triangle. The triangle has apex 11. It has a known strength in I2 and Technique 3. I
, , I, and I are the intensities along the scan line S and are interpolated from II, I2, and I3 according to the equations above. This is a well-known method employed in the prior art.

以上、本発明を、特許法に従うように、また、当業者が
この新規な原理を適用し且つそのような特殊化された構
成要素を必要に応じて構成し、使用するために必要な情
報を与えるように、かなシ詳細に説明した。ただし、本
質的に異なる機器や装置によっても本発明を実施できる
こと、及び装置の詳細と、動作手順の双方に関して、本
発明自体の範囲から逸脱せずに様々な変形を達成できる
ことを理解してDかなければならない。
The foregoing has described the present invention in a manner consistent with patent law, and provides information necessary for those skilled in the art to apply the novel principles and to construct and use such specialized components as desired. As if to give, I explained in detail. It is understood, however, that the invention may be carried out with essentially different equipment and apparatus and that various modifications may be made both as to details of the apparatus and as to operating procedures, without departing from the scope of the invention itself. I have to do it.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、側方観察影像の高速データベース生成のため
の本発明の方法を示すフローチャート、第2図は、本発
明の方法によう側方観察影像を生成するために使用され
るDMA標高情報と、それと共通の位置にある航空写真
とを図表により示す図、 第3図は、第2図に示すような写真層と標高層が本発明
の方法により利用されるべき配置されている右回I)座
標系を示すグラフ、 第4図は、写真層中の隣接する画素により形成される2
×2セルを分割する2つの方法を示し、各画素は幻応す
る標高値を有し、また、それぞれのセルは、本発明の方
法に従って2つの交互三角形形状に分割できることを表
わす図、 第5図は、本発明の方法によう採用される修正ベインタ
ーズアルゴリズムで利用する親線ベクトルDから取出さ
れる極角度phiに基づいて、スペースを4つのゾーン
に区画することを示す図、第6図は、2×2画素セルを
表わす小さなセルを含み、データベースの下方領域には
右を指す視線ベクトルが配置されている矩形の地形デー
タベ−スを見下ろした図、 第7図は、本発明の修正ベインターズアルゴリズムを使
用して2×2画素セルを処理する順序を示す図、 第8図は、視線ベクトルが本発明の方法に従って区画さ
れたスペース内のゾーンの間の境界に沿ってアライメン
トされている場合を示す図、第9図は、ペインターズア
ルゴリズムの処理方向と、本発明の方法によう採用され
る4つのゾーンとの関係を図表で示す図、 第10図は、三角形の辺に沿った強さ補間の公知の方法
を示す図、 第11図aは、見下ろす図、 第11図すば、第11図aの画像を使用して本発明の方
法に従って得られる種類の三次元表示の1つの見本を表
わす図である。 80・・・・セル、80A 、 80B・・・・三角形
、82・・・・頂点。
FIG. 1 is a flowchart illustrating the method of the present invention for rapid database generation of side view images, and FIG. 2 shows DMA elevation information used to generate side view images according to the method of the present invention. FIG. 3 is a diagrammatic representation of a photographic layer and an elevational layer as shown in FIG. 2 to be utilized by the method of the invention. I) A graph showing the coordinate system, FIG.
FIG. FIG. 6 shows the partitioning of the space into four zones based on the polar angle phi extracted from the parent line vector D used in the modified Bainter's algorithm adopted in the method of the invention, FIG. 7 is a view looking down on a rectangular terrain database containing small cells representing 2×2 pixel cells, with a gaze vector pointing to the right located in the lower area of the database. FIG. FIG. 8 shows the order of processing a 2×2 pixel cell using Bainter's algorithm; FIG. 9 is a diagram illustrating the relationship between the processing direction of the Painter's algorithm and the four zones adopted in the method of the invention; FIG. Figure 11a is a top-down view of a three-dimensional representation of the kind obtained according to the method of the invention using the image of Figure 11a. It is a figure showing one sample. 80...Cell, 80A, 80B...Triangle, 82...Vertex.

Claims (1)

【特許請求の範囲】[Claims] (1)第1及び第2の適正に修正されたデータ層を記憶
するメモリを含み、その第1のデータ層は、既知の分解
能及び間隔値を有するデジタル化写真から成り、第2の
データ層は、第1のデータ層の写真に対応するデジタル
化標高データから成るようなデジタル表示システムで使
用するための、写真写実影像の高速生成を実行する方法
において、 (a)第1のデータ層及び第2のデータ層の対応する部
分をメモリから走査する過程と;(b)走査した部分か
ら隠れ面を除去する過程と; (c)第1のデータ層に関して隣接する画素を使用して
セルを形成するように、走査した部分を複数個の2画素
×2画素セルに分割する過程と; (d)セルを頂点を有する三角形の部分をさらに分割す
る過程と; (e)第2のデータ層の座標と、既知の間隔値とを使用
して、頂点を観察スクリーンに投影する過程と; (f)投影した頂点により境界を規定される領域をシエ
ージングする過程とから成る方法。
(1) a memory storing first and second suitably modified data layers, the first data layer consisting of a digitized photograph having known resolution and spacing values; provides a method for performing rapid generation of photorealistic images for use in a digital display system, comprising digitized elevation data corresponding to photographs in a first data layer, comprising: (a) a first data layer; (b) removing hidden surfaces from the scanned portion; (c) resolving cells using adjacent pixels with respect to the first data layer; dividing the scanned portion into a plurality of 2 pixel by 2 pixel cells so as to form; (d) further dividing the cell into triangular portions having vertices; (e) a second data layer; (f) sizing the region bounded by the projected vertices.
JP2123260A 1989-05-15 1990-05-15 High frequency signal detecting apparatus Pending JPH0375682A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/351,466 US4985854A (en) 1989-05-15 1989-05-15 Method for rapid generation of photo-realistic imagery
US351466 1989-05-15

Publications (1)

Publication Number Publication Date
JPH0375682A true JPH0375682A (en) 1991-03-29

Family

ID=23381054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2123260A Pending JPH0375682A (en) 1989-05-15 1990-05-15 High frequency signal detecting apparatus

Country Status (3)

Country Link
US (1) US4985854A (en)
EP (1) EP0398136A3 (en)
JP (1) JPH0375682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0668238A (en) * 1992-08-13 1994-03-11 Konami Kk Game device

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU7313491A (en) * 1990-02-16 1991-09-03 Silicon Graphics, Inc. Method and apparatus for providing a visually improved image by converting a three-dimensional quadrilateral to a pair of triangles in a computer system
US5179638A (en) * 1990-04-26 1993-01-12 Honeywell Inc. Method and apparatus for generating a texture mapped perspective view
US5194969A (en) * 1990-12-04 1993-03-16 Pixar Method for borderless mapping of texture images
US5161013A (en) * 1991-04-08 1992-11-03 Honeywell Inc. Data projection system with compensation for nonplanar screen
GB2256567B (en) * 1991-06-05 1995-01-11 Sony Broadcast & Communication Modelling system for imaging three-dimensional models
CA2112101C (en) * 1991-06-21 1998-08-18 David A. Wysocki Real time three dimensional geo-referenced digital orthophotograph-basedpositioning, navigation, collision avoidance and decision support system
GB2259432A (en) * 1991-09-06 1993-03-10 Canon Res Ct Europe Ltd Three dimensional graphics processing
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69301308T2 (en) * 1992-02-18 1996-05-23 Evans & Sutherland Computer Co IMAGE TEXTURING SYSTEM WITH THEME CELLS.
JP2634126B2 (en) * 1992-07-27 1997-07-23 インターナショナル・ビジネス・マシーンズ・コーポレイション Graphics display method and apparatus
GB9302271D0 (en) * 1993-02-05 1993-03-24 Robinson Max The visual presentation of information derived for a 3d image system
US5660547A (en) * 1993-02-17 1997-08-26 Atari Games Corporation Scenario development system for vehicle simulators
US5474453A (en) * 1993-02-17 1995-12-12 Atari Games Corporation Scenario development system for vehicle simulators
US5664077A (en) * 1993-09-06 1997-09-02 Nec Corporation Three-dimensional graph displaying system
IL112186A (en) * 1994-01-18 1998-09-24 Honeywell Inc Device executing intervisibility calculation
US5751612A (en) * 1995-08-24 1998-05-12 Lockheed Martin Corporation System and method for accurate and efficient geodetic database retrieval
US6034695A (en) * 1996-08-02 2000-03-07 Autodesk, Inc. Three dimensional modeling and animation system
US5969723A (en) * 1997-01-21 1999-10-19 Mcdonnell Douglas Corporation Method for incorporating high detail normal vector information into polygonal terrain databases and image display system which implements this method
US6111583A (en) 1997-09-29 2000-08-29 Skyline Software Systems Ltd. Apparatus and method for three-dimensional terrain rendering
US6154564A (en) * 1998-07-10 2000-11-28 Fluor Corporation Method for supplementing laser scanned data
JP2002532795A (en) 1998-12-07 2002-10-02 ユニバーサル シティ スタジオズ インコーポレイテッド Image correction method for compensating viewpoint image distortion
US20030158786A1 (en) * 1999-02-26 2003-08-21 Skyline Software Systems, Inc. Sending three-dimensional images over a network
GB9909163D0 (en) 1999-04-21 1999-06-16 Image Scan Holdings Plc Automatic defect detection
US7233326B1 (en) 1999-04-29 2007-06-19 Autodesk, Inc. Three dimensional modeling and animation system using master objects and modifiers
US7072487B2 (en) * 2001-01-26 2006-07-04 Digimarc Corporation Watermark detection using adaptive color projections
US20030059743A1 (en) * 2001-08-29 2003-03-27 The Boeing Company Method and apparatus for automatically generating a terrain model for display during flight simulation
JP4174559B2 (en) * 2001-10-26 2008-11-05 独立行政法人 宇宙航空研究開発機構 Advanced visibility information providing system and method using satellite image and flight obstacle recognition system and method
US7891818B2 (en) 2006-12-12 2011-02-22 Evans & Sutherland Computer Corporation System and method for aligning RGB light in a single modulator projector
US8201102B2 (en) * 2007-09-04 2012-06-12 Apple Inc. Opaque views for graphical user interfaces
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US8503826B2 (en) * 2009-02-23 2013-08-06 3DBin, Inc. System and method for computer-aided image processing for generation of a 360 degree view model
US20130016099A1 (en) * 2011-07-13 2013-01-17 2XL Games, Inc. Digital Rendering Method for Environmental Simulation
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5418892B2 (en) * 1973-06-30 1979-07-11
US4017985A (en) * 1975-08-22 1977-04-19 General Electric Company Multisensor digital image generator
NO154209C (en) * 1979-03-21 1986-08-20 Solartron Electronic Group MACHINE-IMPLEMENTED PROCEDURE FOR DETERMINING A SIMULATED TERRACE REPRESENTATIVE DISPLAY FROM DATA REPRESENTING TERRAIN CONTOURS.
US4313678A (en) * 1979-09-24 1982-02-02 The United States Of America As Represented By The Secretary Of The Interior Automated satellite mapping system (MAPSAT)
US4660157A (en) * 1981-10-02 1987-04-21 Harris Corporation Real time video perspective digital map display method
JPS5952380A (en) * 1982-09-17 1984-03-26 Victor Co Of Japan Ltd Interpolating device
US4584646A (en) * 1983-06-29 1986-04-22 Harris Corporation System for correlation and recognition of terrain elevation
US4682160A (en) * 1983-07-25 1987-07-21 Harris Corporation Real time perspective display employing digital map generator
US4583185A (en) * 1983-10-28 1986-04-15 General Electric Company Incremental terrain image generation
US4821212A (en) * 1984-08-08 1989-04-11 General Electric Company Three dimensional texture generator for computed terrain images
US4819192A (en) * 1985-02-26 1989-04-04 Sony Corporation Method of displaying image
US4685068A (en) * 1985-08-20 1987-08-04 The Singer Company Generic database generator system and method
WO1987003980A2 (en) * 1985-12-19 1987-07-02 General Electric Company Comprehensive distortion correction in a real time imaging system
US4805121A (en) * 1986-05-30 1989-02-14 Dba Systems, Inc. Visual training apparatus
FR2610752B1 (en) * 1987-02-10 1989-07-21 Sagem METHOD FOR REPRESENTING THE PERSPECTIVE IMAGE OF A FIELD AND SYSTEM FOR IMPLEMENTING SAME
US4821210A (en) * 1987-04-02 1989-04-11 General Electric Co. Fast display of three-dimensional images
EP0288629A1 (en) * 1987-04-30 1988-11-02 International Business Machines Corporation Gouraud shading on graphics display apparatus
US5084830A (en) * 1987-10-26 1992-01-28 Tektronix, Inc. Method and apparatus for hidden surface removal
US4855938A (en) * 1987-10-30 1989-08-08 International Business Machines Corporation Hidden line removal method with modified depth buffer
US4903216A (en) * 1988-04-11 1990-02-20 Hughes Aircraft Company Method for displaying intervisibility data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0668238A (en) * 1992-08-13 1994-03-11 Konami Kk Game device

Also Published As

Publication number Publication date
US4985854A (en) 1991-01-15
EP0398136A2 (en) 1990-11-22
EP0398136A3 (en) 1993-06-23

Similar Documents

Publication Publication Date Title
JPH0375682A (en) High frequency signal detecting apparatus
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
Greene et al. Creating raster omnimax images from multiple perspective views using the elliptical weighted average filter
EP0454129B1 (en) System for generating a texture mapped perspective view
US6157385A (en) Method of and apparatus for performing perspective transformation of visible stimuli
KR910009101B1 (en) Image synthesizing apparatus
US6504535B1 (en) Display techniques for three-dimensional virtual reality
EP0638875B1 (en) A 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
JPS63502464A (en) Comprehensive distortion correction in real-time image generation systems
EP0930585B1 (en) Image processing apparatus
JPH05507166A (en) image generator
JP3225882B2 (en) Landscape labeling system
KR910009102B1 (en) Image synthesizing apparatus
GB2256568A (en) Image generation system for 3-d simulations
US6731284B1 (en) Method of and apparatus for performing perspective transformation of visible stimuli
EP0656609B1 (en) Image processing
US6351262B1 (en) Display techniques for three-dimensional virtual reality
Produit et al. An open tool to register landscape oblique images and generate their synthetic model.
EP1111546B1 (en) Display techniques for three-dimensional virtual reality
JP4642431B2 (en) Map display device, map display system, map display method and program
EP0250588B1 (en) Comprehensive distortion correction in a real time imaging system
JP4624617B2 (en) Improved S-buffer anti-aliasing method
JP3156649B2 (en) Deformable label landscape labeling device and system
JPH1131239A (en) Direction under consideration landscape labeling device and system
JP4187164B2 (en) A method for displaying images on the surface of water in a video game machine