JPS5998275A - Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array - Google Patents

Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array

Info

Publication number
JPS5998275A
JPS5998275A JP58140426A JP14042683A JPS5998275A JP S5998275 A JPS5998275 A JP S5998275A JP 58140426 A JP58140426 A JP 58140426A JP 14042683 A JP14042683 A JP 14042683A JP S5998275 A JPS5998275 A JP S5998275A
Authority
JP
Japan
Prior art keywords
image
line
mapping
pixel
pass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58140426A
Other languages
Japanese (ja)
Other versions
JPH0154748B2 (en
Inventor
カ−ル・ピイ・グラ−フ
キム・エム・フエアチヤイルド
カ−ル・エム・フアント
ジヨ−ジ・ダブリユ・ルスラ−
マイケル・オ−・シユレ−ダ
デニス・デイ・フア−ガソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell Inc
Original Assignee
Honeywell Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell Inc filed Critical Honeywell Inc
Publication of JPS5998275A publication Critical patent/JPS5998275A/en
Publication of JPH0154748B2 publication Critical patent/JPH0154748B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は全体としてコンピュータ制御イメージ/グ装置
に関するものであゃ、更に詳しくいえば、オペレータま
たはオペレータと同等の71−ドウエア/ソフトウェア
によシ映像をリアルタイムまたはほぼリアルタイムで解
析できるのに十分な処理速度で、映像ライブラリから表
示のために光景の逐次流れを組立および構成できる能力
を有するデジタル映像処理装置に関するものでちる。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates generally to computer-controlled imaging devices and, more particularly, to computer-controlled imaging devices and, more particularly, to computer-controlled imaging devices and, more particularly, to the field of computer-controlled imaging devices. The present invention relates to a digital video processing apparatus having the ability to assemble and compose a sequential stream of scenes from a video library for display at processing speeds sufficient to permit real-time or near-real-time analysis of images.

そのような装置の多くの可能な応用のうちの1つの例は
、航空機の7ライト・シミュレーションのような乗物の
シミュレーションの分野に関するものでおる。そのよう
な装置においては、航空機のフライト・シミュレーショ
ン装置内の可視サブシステムがフライト・シミュレーシ
ョン・コンピュータから飛行データを受け、定められた
すなわち「ゲーミング領域」データベースから地形デー
タを受ける。可視シミュレーション装置内のデータ処理
装置が飛行データと地形データを総合して、航空機の操
縦席に居る観察者に表示するシミュレートされた可視表
示を発生する。
One example of the many possible applications of such a device is in the field of vehicle simulation, such as seven-light simulation of aircraft. In such systems, a visibility subsystem within an aircraft flight simulation device receives flight data from a flight simulation computer and terrain data from a defined or "gaming area" database. A data processor within the visibility simulation device combines the flight data and terrain data to generate a simulated visual display for display to an observer in the cockpit of the aircraft.

たとえばヘリコプタ用のシミュレータである乗物シミュ
レータの可視装置は「シミュレートされた周囲の状況を
窓を通して見た光景」を含み、そのような周囲の状況に
対する任意の希望方向に「乗物」を誘導するだめの制御
を行う。この装置の「窓を通して見た光景という用語は
、たとえば約60〜260Krr12(約25〜100
平方マイル)の広い地域をカバーする地形に相当するシ
ミュレータされた環境の、通常は映像の形態の、表示を
意味するものである。このシミュレートされた周囲の状
況のことをここでは定められた地域またはゲーミング地
域と呼ぶことにする。
For example, the visibility system of a vehicle simulator, such as a simulator for a helicopter, includes a "view through a window of the simulated surroundings," and a means to guide the "vehicle" in any desired direction relative to such surroundings. control. The term "view seen through the window" of this device is, for example, approximately 60 to 260 Krr12 (approximately 25 to 100 Krr12).
refers to a display, usually in the form of a video, of a simulated environment that corresponds to terrain covering a large area (200 square miles). This simulated surrounding situation will be referred to herein as a defined area or gaming area.

乗物制御器の動作により乗物はゲーミンク地域の内部で
、ゲーミング地域の周囲を、2よ、びゲーミング地域を
通って、誘導される。そして、−窓を通して見えるもの
、すなわち映像表示、が何であるかを決定するものが、
乗物制御器に対する装置の応答である゛。「窓」を湧し
て見えるもののことを視界すなわちFOVと呼ぶことに
する。
Operation of the vehicle controller directs the vehicle within, around, and through the gaming area. - What determines what is visible through the window, i.e. the video display, is
This is the device's response to the vehicle controller. What we see through the "window" is called the field of view, or FOV.

〔従来技術〕[Prior art]

「コンピュータ発生形象J(CGI)装置として知られ
ている従来の装置の1つは、データベースから映像を表
示可能な形象を発生するためにコンピュータ装置を利用
している。CGI装置においては、映像表示可能な光景
を構成するための対象物と地面が、対象物と表面との境
界を定める点の形で格納されている純粋に機械的なモデ
ルからとシ出される。
One conventional device, known as a computer-generated imagery (CGI) device, utilizes a computer device to generate images from a database that can display images. Objects and grounds for constructing possible scenes are derived from a purely mechanical model, which is stored in the form of points delimiting objects and surfaces.

CGIの強度はそれの表面の表れ方にある。実際の地面
または人工的な表面は、指定された点、通常は一様な格
子の交点における高度を得るために測定できる。標本の
高度を結びつけることにより、地面をコンピュータによ
り再構成できる。現実的な地面の表現に加えて、CGI
はその地面上における物体の設置も制御する。高度デー
タは一様な格子によシ与えられるのが普通であるから、
他の物体の設置はこの同じ格子上で指定できる。木、岩
、潅木、家屋、道路のよ、うな典型的な物体は、データ
ベースの格子系において定められた位置を有することが
できる。
The strength of CGI lies in its surface appearance. A real ground or artificial surface can be measured to obtain the altitude at a specified point, usually the intersection of a uniform grid. By linking the heights of the specimens, the ground can be reconstructed by computer. In addition to realistic ground representation, CGI
also controls the placement of objects on the ground. Since altitude data is usually given on a uniform grid,
The placement of other objects can be specified on this same grid. Typical objects such as trees, rocks, shrubs, houses, roads, etc. may have defined positions in the grid system of the database.

正確な照明と透視もCGIからの大きな寄与である。正
確な照明は、表示される各ピクセルに対する地面垂線を
見出すごとにより達成される。この垂線は、ピクセルの
ための輝度を計算するために、視線、光源からの垂線プ
ラス周囲の明るさとともに用いられる。観察点から各表
面点までの距離がわかっているから、正確な透視が達成
される。この距離は透視変換においては重要な変量であ
る。
Accurate lighting and perspective are also major contributions from CGI. Accurate illumination is achieved by finding the ground normal for each displayed pixel. This normal is used along with the line of sight, the normal from the light source plus the ambient brightness, to calculate the brightness for the pixel. Accurate perspective is achieved because the distance from the observation point to each surface point is known. This distance is an important variable in perspective transformation.

このCGIの弱点は現実性に欠けることである。The weakness of this CGI is that it lacks realism.

物体は正確に位置させることができ、正確に照明でき、
かつ正しく透視できるが、物体自体は現実的に表示でき
ない。CGI物体表示における現在の技術状態は、物体
が非常に線画的に表示される−ような程度である。不毛
な地形、砂および雲などのようなある種の光景要素は、
木、草または詳細な人工物のような複雑な物体よりは現
実的に表示できる。そのような複雑な物体は単に現実感
に欠けるだけである。
Objects can be precisely positioned, accurately illuminated,
Although the object can be viewed correctly, the object itself cannot be realistically displayed. The current state of the art in CGI object display is such that objects are displayed in a very linear manner. Certain scenic elements, such as barren terrain, sand and clouds,
Can be displayed more realistically than complex objects such as trees, grass, or detailed artifacts. Such complex objects simply lack realism.

別の映像発生装置は「コンピュータ合成形象」すなわち
C8Iと呼ばれている。C8I技術はたとえばビデオ表
示可能な映像のような映像もデータベースから発生する
が、そのデータベースに格納されでいる物体と地面は、
CGIにおけるそれらの物体などの数学的モデルではな
くて、物体と地面の現実世界の電磁媒体影像として表示
される。
Another video generator is called a "computer composite image" or C8I. C8I technology also generates images such as video displayable images from a database, but the objects and ground stored in the database are
Rather than a mathematical model of those objects in CGI, they are displayed as real-world electromagnetic media images of the objects and the ground.

したがって、 CGIは純粋に数学的なデータベースか
ら形象を発生するためにコンピュータを用いるのに対し
て、C8Iは格納されている現実□の映像を基にして光
景内に物体をはめこむためにコンピュータを用いる。周
囲の環境において相互作用させるために構成および表示
すべき光景をCGIは巧妙に制御するが、信頼度は低く
、シたがって表示される光景の現実感に乏しい。C8I
はこれと正反対である。忠実度は極めて高いが、光景の
構造の制御は制約される。
Thus, whereas CGI uses a computer to generate images from a purely mathematical database, C8I uses a computer to fit objects into a scene based on stored images of reality. . Although CGI provides great control over the scenes that are constructed and displayed to interact with the surrounding environment, it is less reliable and therefore less realistic in the scenes displayed. C8I
is the exact opposite. Fidelity is extremely high, but control over the structure of the scene is limited.

C8Iの強みは光景中に写真のような現実の画像を用い
ることに存する。現在入手できるビデオ機器では写真デ
ータを容易にとりあつかえる。文字どおシに刺子という
個々の写真をビデオディスクに記録でき、それらの写真
の呼出しは、磁気デイスフに格納されているデジタルデ
ータのケースと全く同様に、索引装置により制御できる
。更に、映像信頼度は確かで帝シ、出方された画像は入
力されて格納されているものと同一である。
C8I's strength lies in the use of real-world images, such as photographs, in the scene. Currently available video equipment can easily handle photographic data. Individual photographs, such as sashiko characters, can be recorded on a video disc, and their recall can be controlled by an indexing device, just as is the case for digital data stored on a magnetic disc. Furthermore, the reliability of the image is reliable and the output image is the same as the input and stored image.

C8Iの弱点は、それの光景が「カメラ」の撮影点に限
定されることである。すなわち、一連の光景を初めから
終シまで撮影した一連の写真を用いない限り、その光景
を動的に航行できないことである。妥当な寸法の任意の
ゲーミンク地域に対しては初めから終りまでの一連の光
景写真の数は利用できないほどの多さである。
The weakness of the C8I is that its view is limited to the "camera" shooting point. In other words, it is not possible to dynamically navigate a scene unless a series of photographs are taken of the scene from beginning to end. For any gaming area of reasonable size, the number of sequence shots from beginning to end is prohibitively large.

〔発明の概要〕[Summary of the invention]

本発明によ−、り、CGI装置を新しく開発されたC8
工技術に組合わせて「コンピュータにより発生された合
成形象」すなわちCGS I装置を、構成できる。ここ
では、本発明はCGS Iを構成するために、2つの技
術CGIとcs工の最も良い所を組合わせることを含む
ものである。光景は、CGIまたはC8Iにより発生さ
れた指定された地面すなわち背景上に、個々の、通常は
詳しい、物体を高い忠実度で(C8I)置くことにより
、構成される。CGS Iの光景はω工の光景とほとん
ど同様にして作ることができ、地面の高度と物体の位置
は一様な格子の上に置かれる。その光景に使用される個
々の物体は透視のために調整され、寸法と、位置と、回
転と、ねじ曲げおよび輝度を含む場所と変換は要求に応
じて各画像ごとに実行される。地面はCGIによる構成
とすることもできれば、一連のC8I地面はめこみとす
ることができる。・光景は、観測点すなわち光景認識装
置から最も離れてい、る物体から始まり、最も近くの物
体が置かれる萱で、物体を置くことにより構成されるの
が普通である。CGSIは可視スペクトラム、IRスペ
〜クトラム、MMwスペクトラム、レーダス4クトラム
などを含む電磁スペクトラムの任意の部分からの形象に
より構成できる。
According to the present invention, the CGI device is newly developed C8.
In combination with engineering technology, a ``computer-generated composite figure'' or CGSI device can be constructed. Here, the invention involves combining the best of two technologies, CGI and CS engineering, to construct CGS I. The scene is constructed by placing individual, usually detailed, objects in high fidelity (C8I) on a specified ground or background generated by CGI or C8I. CGSI sights can be constructed in much the same way as ω-engine sights, with ground elevations and object positions placed on a uniform grid. Individual objects used in the view are adjusted for perspective, and location and transformations, including dimensions, positions, rotations, torsions, and brightness, are performed for each image as required. The ground may be a CGI composition, or it may be a series of C8I ground inlays. - A scene is usually constructed by placing objects starting from the object furthest from the observation point, that is, the scene recognition device, and placing the objects at the point where the nearest object is placed. CGSI can be constructed from features from any portion of the electromagnetic spectrum, including the visible spectrum, IR spectrum, MMw spectrum, radar spectrum, etc.

したがって、本発明の目的はデータベース内の現実世界
の映像を使用することを含む、新規かつ改良したコンピ
ュータ発生形象装置を得ることである。
Accordingly, it is an object of the present invention to provide a new and improved computer-generated modeling system that includes the use of real world images in a database.

以下、図面を参照して本発明の詳細な説明する。Hereinafter, the present invention will be described in detail with reference to the drawings.

〔実施例〕〔Example〕

写真Iは戦場を空中から見たものである。その戦場のこ
とをゲーミング地域または定められた地域と呼ぶことが
でき、実際め制約内で、約60〜260Km”(約25
〜1o、o平方マイル)ヲカハーする地域が普通である
Photo I shows the battlefield seen from the air. The battlefield can be called a gaming area or a defined area, and within practical constraints is approximately 60 to 260 km” (approximately 25
~1 o, o square miles) areas are common.

たとえば、ヘリコプタの動作をシミュレ−1j−るため
に本発明のビデオ表示形象装置を用いるものとすると、
写真Iに示すようなシミュレートされたゲーミング地域
を、ヘリコプタを飛行させるための環境として選択でき
る。このヘリコプタ・シミュレータの可視装置は、ゲー
ミンク地域を「窓を通して見た光景」を連続して表示す
る。その表示は、ゲーミング地域に対するヘリコプタの
位置と高度に対応する、ゲーミング地域内でパイロット
が見た光景の流れのビデオ表示である。ヘリコプタ・シ
ミュレータには、ゲーミング地域内、ゲーミンク地域の
周辺およびゲーミンク地域を通る、任意の方向にヘリコ
プタを自由飛打で誘導または飛行させるための制御装置
が組込まれる。シミュレータはその制御装置に応答して
ビデオ表示装置の「窓」の中に何が見えるかを決定する
For example, if the video display visualization device of the present invention is used to simulate the operation of a helicopter,
A simulated gaming area as shown in Photo I can be selected as the environment in which to fly the helicopter. The helicopter simulator's visualization system provides a continuous "through-the-window" view of the gaming area. The display is a video representation of the sequence of sights seen by the pilot within the gaming area, corresponding to the position and altitude of the helicopter relative to the gaming area. The helicopter simulator incorporates a control device for freely guiding or flying the helicopter in any direction within the gaming area, around the gaming area, and through the gaming area. The simulator is responsive to its controller to determine what is visible within the "window" of the video display.

写真IIは写真Iのゲーミンク地域内のどこが、おそら
くは木立の陰の光景を示すものである。その光景は、ヘ
リコプタ・シミュレータの訓練室内の窓を模しているビ
デオ表示器上にある時刻に挑われたものである。訓練生
が制御装置を持続して操作することによシ、ゲーミンク
地域内でのヘリコプタの動きが定められ、□ビデオ表示
器で表示されている光景はヘリコプタの各瞬時位置に従
う。
Photo II shows a scene somewhere within the gaming area of Photo I, probably in the shade of a grove of trees. The scene was challenged by the time on a video display that mimics the windows inside a helicopter simulator's training room. By the continuous operation of the control device by the trainee, the movement of the helicopter within the gaming area is determined, and the scene shown on the video display follows each instantaneous position of the helicopter.

写真IIA、IIBは、本発明の原理に従って発生され
た、ゲーミング地域内の表示されたビデオ表示光景の撮
影写真の実際のコピーである。それらの写真から、・細
部をぼかす作用をするいくつかの処理過程を経て光景の
画像が得られたにもかかわらず、物体の細部の現実感に
注意されたい。また、物体から背景への移シ変9の滑ら
かなことは、光景がマンガ的な表現がなく表されている
ことを示すものである。
Photos IIA, IIB are actual copies of captured photographs of displayed video display scenes within the gaming area, generated in accordance with the principles of the present invention. From these photographs, note the realism of the details of the objects, even though the images of the scene were obtained through several processing steps that had the effect of blurring the details. Furthermore, the smooth transition 9 from the object to the background indicates that the scene is represented without a cartoonish expression.

第1図はCGS I装置のブロック図である。FIG. 1 is a block diagram of the CGS I device.

写真III −XIは第1図のブロック12で終る典型
的なC3GI装置の構成における過程を示すものである
。それらの写真も表示された画像を撮影したものである
Pictures III-XI illustrate the steps in the construction of a typical C3GI device ending at block 12 of FIG. These photographs were also taken of the displayed images.

Cps I光景の構成は地面、水面、空をまず置くこと
によシ始まるのが普通である。その後で、大きい物体と
小さい物体を置く。物体としては木、岩、家屋、かん木
、道路、照明灯、乗物、ヘリコプタ、有翼航空機、動物
、女性などがある。最後に、希望により特殊効果を付加
でき、それらの特殊効果−には煙、はこ先雲、陰などが
ある。CGS Iがどのように機能するかを示すために
、写真エエ■〜XIを参照して見本の光景の組立につい
て説明する。
The composition of a Cps I scene usually begins by placing the ground, water, and sky first. After that, place the large object and the small object. Objects include trees, rocks, houses, shrubs, roads, lights, vehicles, helicopters, winged aircraft, animals, and women. Finally, you can add special effects if you wish, such as smoke, clouds, shadows, etc. To illustrate how CGS I works, the construction of sample scenes will be described with reference to photographs E-XI.

写真IIIから始まって、ある距離の背景の上に空を区
分して付加する。空を区分することにより、頂と谷とで
写真に示されているような地平線を形成できる。この例
においては、空を5つに区分した。一般に、区分の下側
縁部はまっすぐである必要はないが、なだらかな起伏、
急な丘または山なみをシミュレートするためにわん曲さ
せたシ、ぎざぎざにすることもできる。最低と最高のデ
ータを基にした仰角と、観察点とを基にして個々の区分
部分をどのようにしてねじ曲げるかについての説明は、
後で詳しく行う。
Starting from photo III, a section of sky is added on top of the background at a certain distance. By dividing the sky, peaks and valleys can form the horizon shown in the photo. In this example, the sky is divided into five parts. In general, the lower edge of the segment need not be straight, but may be gently undulating,
It can also be curved or jagged to simulate steep hills or mountains. A description of how to twist individual sections based on elevation angles based on the lowest and highest data and observation points can be found at
More on this later.

写真IVには前景または山のふもとの丘を形成するため
に、ざらざらした地面が区分部分に付加される。山のふ
もとと空の間の手を加えていない部分は、遠い背景内の
山々として境われる。その後の写真で、地面多角形のス
クリーン座標に適合するようにねじ曲げられた格納され
ているざらざらしている地面が光景に付加される。各地
面の輝度は距離その他の希望のパラメータに応じて変え
ることができる。
In Photo IV, rough ground is added to the section to form the foreground or foothills of the mountain. The untouched area between the base of the mountain and the sky is bounded by mountains in the distant background. In subsequent photographs, a stored textured ground plane is added to the scene, distorted to fit the screen coordinates of the ground polygon. The brightness of each ground can be varied depending on distance and other desired parameters.

写真Vは計画された道路部分を示すものである。Photo V shows the planned road section.

その道路部分のために、スクリーン座標に適合するよう
にデータベース地面ライブラリィ内の道路表現がねじ曲
げられる。地面ライブラリィは種々の道路表面と、流れ
および池のような他の特殊な地面を含むことができる。
For that road portion, the road representation in the database ground library is warped to fit the screen coordinates. The ground library may include various road surfaces and other special ground surfaces such as streams and ponds.

写真VIは計画された比較的小さい二次元(2D)物体
の例を示すものである。それらの物体は全スクリーンの
所定の割合以下を占める。一実施例においては光景の面
積の1/16以下を占める物体は2Dで表される。その
理由は、多数の用途においては、木、やぶ、岩のような
比較的小さい自然物体は、現実感をほとんど失わずに一
方の側から、すなわち、二次元物体として表すことがで
きるためである。大きな建物、またはタンク、船舶のよ
うな特別な興味をひく物体のように一方の側から表すこ
とができない物体は三次元物体(3D)と呼ばれ、その
ように表される。比較的小さい2D物体は、3D物体お
よび表面を処理するために必要なものよシ安価な処理用
のハードウェア/ソフトウェアにより処理できる。ある
光景の中を飛行している間は、2D物体がその光景の面
積の予め選択された割合以上を占めた時に、その2D物
体は3D処理器へ移すことができる。
Photo VI shows an example of a relatively small two-dimensional (2D) object that has been planned. Those objects occupy less than a predetermined percentage of the total screen. In one embodiment, objects occupying less than 1/16 of the area of the scene are represented in 2D. This is because, in many applications, relatively small natural objects such as trees, bushes, and rocks can be represented from one side, i.e. as two-dimensional objects, with little loss of realism. . Objects that cannot be represented from one side, such as large buildings or objects of special interest such as tanks, ships, etc., are called three-dimensional objects (3D) and are represented as such. Relatively small 2D objects can be processed with less expensive processing hardware/software than that required to process 3D objects and surfaces. While flying through a scene, a 2D object can be transferred to a 3D processor when it occupies more than a preselected percentage of the area of the scene.

写真VIIは多重視すなわち3Dとしてのタンクを示す
。タンクの多重視は格納され、タンクの行路、高度およ
び観察者の視点を基にして、光景の構成に正しい眺めが
用いられる。タンクは移動していてもよく、かつ非常に
大きくてもよい。
Photo VII shows the tank in multiple views or 3D. Multiple views of the tank are retracted and the correct view is used to compose the scene based on the tank's path, altitude and observer's perspective. The tank may be mobile and may be very large.

写真VIIIは多重表面すなわち3Dの建物の例である
家屋を示す。その家はいくつかの表面部分と、いくつか
の屋根部分(両側が同一であれば1つ)と、2つの端部
と、2つの側面とに分離される。
Photo VIII shows a house that is an example of a multi-surface or 3D building. The house is separated into several surface parts, several roof parts (one if both sides are the same), two ends and two sides.

その家の個々の表面は、スクリーン座標により指示され
た透視図を形成するために正規化された眺めからねじ曲
げることができ、それから互いに結びつけることができ
る。
The individual surfaces of the house can be twisted from the normalized view to form a perspective directed by screen coordinates, and then tied together.

写真IXは大きな2D物体を示す。それらの物体は光景
の面積の所定の量以上を占めることができる。要求があ
れば、それらの物体は膨張させて、物体がスクリーンの
全表面より大きくすることができる。
Photo IX shows a large 2D object. Those objects can occupy more than a predetermined amount of the area of the scene. If desired, the objects can be expanded so that they are larger than the entire surface of the screen.

写真Xは雲、はこり、煙、陰を含む透明な媒体のために
使用される特殊効果技術を示すものである。マスクが透
過機能を制御し、第2の入力語が輝度と色を制御する。
Photo X illustrates special effects techniques used for transparent media including clouds, flakes, smoke, and shadows. The mask controls the transparency function and the second input word controls the brightness and color.

写真XIは完全なCGSIの光景を示すものでちる。Photo XI shows the complete CGSI view.

その光景は写真lに示されているゲーミング地域のどこ
かに現われるものである。
The scene appears somewhere in the gaming area shown in Photo I.

第1図のブロック図は次に参照する。そのブロック図の
データベース構造から特殊効果のはめ込みまでの各項目
については下に簡単に説明し、後で詳しく説明する。
The block diagram of FIG. 1 will now be referred to. Each item, from the database structure of the block diagram to the incorporation of special effects, will be briefly explained below and detailed later.

データベース構造 データベースは、物体ライブラリィとゲーミング地域に
それぞれ関連する、非常に異なる種類の2つのデータを
有する。物体ライブラリィ・ノ・−ドウエアは形象を発
生し、それらの形象を光ディスクに高忠実度で格納する
。ゲーミング地域ハードウェアは物体と、表面と、特殊
効果との場所をロードするために用いられる。
Database Structure The database contains two very different types of data, each related to an object library and a gaming region. The object library software generates features and stores those features on optical disks with high fidelity. Gaming region hardware is used to load locations of objects, surfaces, special effects, and more.

物体ライブラリィの融通性はほとんど制限がない。物体
ライブラリィは物体の影像と、地面の影像と、特殊効果
の透過マスクとを含むことができる。それらは多数の電
磁放射スペクトラム帯の1つで表すことができる。これ
により、可視領域ばかりでなく、検出したIRスペクト
ラム、■傳スペクトラム、レーダ・スペクトラムなどを
基にした人力/出力もシミュレーションできる。
The flexibility of object libraries is almost limitless. The object library may include images of objects, images of the ground, and special effects transmission masks. They can be represented by one of a number of electromagnetic radiation spectrum bands. As a result, it is possible to simulate not only the visible range but also human power/output based on the detected IR spectrum, ■den spectrum, radar spectrum, etc.

物体ライブラリィは2D映像と3D映像の混ったものを
含むこともできる。それらの映像は昼/夜の条件、毎日
の条件を表すことができる。可視物体ライブラリィは写
真物を通常含んでいる。物体ライブラリィから高忠実度
物体を構成する際には、個々の現実世界の要素、非常に
正確なモデル、絵画、写真などのライブラリィに格納さ
れている物体が呼出されて「完全に近い」画像を形成す
る。
The object library can also contain a mixture of 2D and 3D images. Those images can represent day/night conditions, daily conditions. The visible object library typically contains photographic objects. When constructing a high-fidelity object from an object library, objects stored in the library such as individual real-world elements, highly accurate models, paintings, photographs, etc. are recalled to create a "near-perfect" object. form an image.

これは、縁部を復旧し、背景から物体を分離し、輝度と
色を修正し、現実的な色を発生し、系の基準点から物体
の位置を決め、高忠実度のCGI物体を発生し、グラフ
ィック・データ、すなわち、光源を発生することにより
行われる。着地点と高度基準点も加えられる。「完全に
近い」物体と、地面および特殊効果は高速アクセスおよ
び高速データ率媒体に格納される。[完全に近い訃とい
う用語は、入力映像の品質に関する忠実度が高いことを
意味する。
It restores edges, separates objects from the background, corrects brightness and color, generates realistic colors, positions objects from system reference points, and generates high-fidelity CGI objects. This is done by generating graphic data, ie, a light source. A landing point and altitude reference point are also added. "Near perfect" objects, terrain and special effects are stored on fast access and high data rate media. [The term near-perfect means high fidelity with respect to the quality of the input video.

ゲーミンク地域データベースは、物体ライブラリィの内
容と、地面と、特殊効果とを格子すなわちゲーミング地
域の上に置くために必要な情報を与える。物体はオペレ
ータが置くこともできれば、コンピュータによりランダ
ムに置くこともできる。
The gaming region database provides the information necessary to place the contents of the object library, terrain, and special effects onto a grid or gaming region. Objects can be placed by an operator or randomly by a computer.

ライブラリィ内の物体は静止させたり、動かしたりでき
る。この機能の出力は光景の内容を決定する。
Objects in the library can be held still or moved. The output of this function determines the content of the scene.

乗物シミュレーション計算 乗物シミュレーション計算は、乗物の数学的モデルと制
御入力を基にして、主乗物の可視装置すなわちセンサ装
置の場所と見る方向を決定する。
Vehicle Simulation Calculations Vehicle simulation calculations are based on a mathematical model of the vehicle and control inputs to determine the location and viewing orientation of the primary vehicle's visual or sensor devices.

また、計算は、乗物のモデルと、選択された経路とを基
にして、第2の乗物について行うことができる。この出
力は観察者の場所を決定する。
Calculations can also be performed for a second vehicle based on the vehicle model and the selected route. This output determines the observer's location.

通信サブシステム もちろん、乗物シミュレーション装置の入力/出力すな
わちIloと、CGSI装置のIloは効率的なやり方
でインターフェイスせねばならない。通信サブシステム
は2つの装置をインターフェイスする双方向リンクおよ
びバッファとすることができる。
Communication Subsystem Of course, the input/output or Ilo of the vehicle simulation device and the Ilo of the CGSI device must interface in an efficient manner. A communications subsystem can be a bidirectional link and buffer that interfaces two devices.

視界と座標変換計算 FOV処理装置は、構成中の光景中の物体、地面および
特殊効果の存在を決定する。変換マトリックス(V)の
出力は現実世界の座標をスクリーンの座標に変換する。
Field of View and Coordinate Transformation Calculation The FOV processor determines the presence of objects, ground, and special effects in the scene being constructed. The output of the transformation matrix (V) transforms real world coordinates to screen coordinates.

変換マトリックスからのこのデータにより物体の任意の
部分と、地面と、特殊効果との全てが光景中に存在する
ならば、迅速な試験と決定を行うことができる。データ
ベース中に全ての物体が存在するかどうかの試験を避け
るために、「スマート」なアルゴリズムが光景に近接し
ている物体および表面だけを試験する。FOV処理装置
はFOV内の物体の表と1.それらの物体・地面または
特殊効果のチャンネル割当の表とを保持する。FOVコ
ンピュータの機能は観察者が見ることができるものを決
定できることである。物体、地面、特殊効果の制御装置
は、FOvの計算中に発生された制御機能を「ファンア
ウト」および処理する。処理された制御機能は物体/地
面/特殊効果チャンネルへ送られる。制御装置により実
行される主な機能は、ゲーミング地域座標のスクリーン
座標への変換と、オペレータによシ制御される乗物から
FOv内の各物体までの距離データの処理と、距離と物
体との識別を基にした各物体の輝度の決定と、正確な画
像データを検索することを物体ライブラリィ・ベースに
指令することである。
This data from the transformation matrix allows rapid testing and determination of any part of the object, ground, and special effects that are all present in the scene. To avoid testing whether all objects exist in the database, a "smart" algorithm tests only objects and surfaces that are close to the scene. The FOV processing device generates a table of objects within the FOV and 1. A table of channel assignments for those objects/grounds or special effects is maintained. The function of the FOV computer is to be able to determine what the observer can see. The object, ground, and special effects controllers "fan out" and process the control functions generated during FOv calculations. The processed control functions are sent to the object/ground/special effects channel. The main functions performed by the control unit are converting gaming area coordinates to screen coordinates, processing distance data from the vehicle controlled by the operator to each object in the FOv, and identifying distances and objects. Instruct the object library base to determine the brightness of each object based on the image data and to search for accurate image data.

制御装置の機能は、FOvデータを「ファンアウト」し
、光景のだめの精密な制御データを発生することである
The function of the controller is to "fan out" the FOv data and generate precise control data for the scene.

物体、地面および特殊効果のだめのライブラリィこのラ
イブラリィは光景の構成に用いられる映像を格納する。
Library of Objects, Grounds, and Special Effects This library stores images used in scene composition.

制御装置は、処理チャンネルへ送られる選択された映像
を指令する。ライブラリィの唯一の機能゛は映像を格納
し、正しい映像を指令に応じて与えることである。
A controller directs selected images to be sent to the processing channel. The library's only function is to store images and provide the correct images on command.

物体、地面および特殊効果のための処理チャンネル個々
の処理チャンネルすなわち「パイプライン処理装置」は
チャンネル当91つの大きな項目(物体、地面または特
殊効果)を1度に通常処理する。処理チャンネルは複数
のより小さい項目を並列に処理できる能力を有すること
ができる。全ての処理チャンネルはそのような各項目に
ついて同一のやり方で動作する1、というのは、チャン
ネルの機能を指定するのは項目の性質だからである。
Processing Channels for Objects, Grounds, and Special Effects Individual processing channels or "pipeline processors" typically process 91 large items (objects, grounds, or special effects) at a time per channel. A processing channel may have the ability to process multiple smaller items in parallel. All processing channels operate in the same way for each such item1, since it is the nature of the item that specifies the channel's functionality.

一実施例においては、各処理チャンネルは物体ライブラ
リィからの1つの大きい項目、または16の小さい項目
を、制御機能により指定された変換により修正する。す
なわち、物体と、地面と、または特殊効果の処理チャン
ネルは、正常なまっすぐな透視法で格納されている映像
を、映像と、位置と、寸法と、回転と、ねじ曲げとを変
えることにより、光景の座標を基にして変更する。画像
の輝度は距離および物体の種類を基にして変えられる。
In one embodiment, each processing channel modifies one large item or sixteen small items from the object library with transformations specified by the control function. That is, the object, ground, or special effects processing channel takes the image stored in normal straight perspective and transforms it into a scene by changing the image, position, dimension, rotation, and distortion. Change based on the coordinates of . Image brightness is varied based on distance and object type.

そうすると、それらの並列パイプツイン処理チャンネル
の機能は、与えられた光景中で用いられる各物体、地面
および特殊効果を要求に応じて修正することである。
The function of those parallel pipe twin processing channels is then to modify each object, ground and special effect used in a given scene as required.

光景の構成 光景構成モジュールは各処理チャンネルから個々の映像
をとり、その映像を背景から分j@シ、距離を基にして
光景を組立るものである。このようにして、近い物体が
より遠くの物体をしめ出す。
Scene Construction The scene construction module takes individual images from each processing channel, separates the images from the background, and assembles a scene based on distance. In this way, closer objects crowd out more distant objects.

個々の映像から光景を構成することにより発生された高
周波縁部はガウス関数により滑らかにできる。この動作
は縁部と内部周波数を一致させる。
High frequency edges generated by constructing a scene from individual images can be smoothed by a Gaussian function. This action matches the edge and internal frequencies.

光景構成モジュールは2つの物体制御器から距離情報を
受ける。その距離は、おる特定の物体がその光景内の他
の物体の前または後にある力≧苦力1を決定するために
用いられる。ある特定の物体ピクセルがその光景内で最
も近くの占められたピクセルであるとすると、それが表
示されるピクセルとなる。このことを「最も近い」処理
と呼ぶ。
The scene construction module receives distance information from two object controllers. That distance is used to determine the force ≧force 1 that a particular object is in front of or behind other objects in the scene. If a particular object pixel is the closest occupied pixel in the scene, then that is the pixel that will be displayed. This is called "nearest" processing.

光景構成機能は、FOvコンピュータにより決定された
各ビデ゛オチャンネルと背景レベル源力λらビデオ入力
を受ける。この機能においては、出力は特殊効果に対す
るリアルタイム・ビデオ信号とすることかできる。
The scene composition function receives video input from each video channel and background level source λ determined by the FOv computer. In this function, the output can be a real-time video signal for special effects.

デジタル光景構成機能は次のような副機能を有する。1
)物体チャンネルの組合せ、2)光景全体の輝度修正の
だめの光量値調整、3)物体と物体の境界および物体と
背景の境界を補償するための平滑化。
The digital scene composition function has the following sub-functions. 1
2) Light intensity value adjustment for brightness correction of the entire scene; 3) Smoothing to compensate for object-to-object boundaries and object-to-background boundaries.

特殊効果 光景の発生後に半透明の特殊効果が発生される。Special effects A translucent special effect occurs after the sight occurs.

特殊効果モジュールは距離を蒸にして特殊効果を付加す
るものである。煙またはほこりのような特殊効果は光景
中の画像の前または後に発生させる果の透過率を制御す
る。輝度値入力が黒煙や白い雲のような特殊効果の輝度
/色を制御する。
The special effects module adds special effects by varying the distance. Special effects such as smoke or dust control the transmittance of effects that occur before or after the image in the scene. The brightness value input controls the brightness/color of special effects such as black smoke or white clouds.

データベース データベース・ノ・−ドウエアは、データベース自体に
似て、物体ライブラリィ・ノ・−ドウエアとゲーミング
地域ハードワエアとを含む2つのサプシステムに分離で
きる。物体ライブラリィ・ノ% −ドウエアは形象を高
忠実度で発生し、それを光ディスクに格納する。ゲーミ
ング地域ノ・−ドウエアは物体、地面、特殊効果などの
場所をロードするために用いられる。それから、データ
ベース・ノ1−ドウエアが非実時間で動作して、制御さ
れている背景上に高品質の画像を生ずる。それらの画像
は光ディスクへ送られてそこに格納される。
Databases Database hardware, like the database itself, can be separated into two subsystems, including object library hardware and gaming area hardware. The Object Library No. % -ware generates features in high fidelity and stores them on optical disks. Gaming region hardware is used to load locations such as objects, terrain, special effects, etc. The database nodeware then operates in non-real time to produce a high quality image on the controlled background. Those images are sent to an optical disk and stored there.

ライブラリィ・ハードウェアはディスク制御器と、ディ
スク駆動機構と、信号調整モジュールと、光ディスクと
より成る。画像の格納のためにビデオ(アナログ)ディ
スクまたはデジタル・ディスクのいずれも使用できる。
The library hardware consists of a disk controller, a disk drive, a signal conditioning module, and an optical disk. Either video (analog) discs or digital discs can be used for storing images.

ビデオディスクは約6〜8ビツト、または64〜256
種類の灰色調を生ずる。デジタル・ディスクは12ビツ
トまでのデータを与えることができる。あらゆる場合に
おいて(ただし、画像力が非常に高いセンナ画像を除く
)、工業用の525線非接触ビデオデイスクは適切な忠
実度の画像を生ずる。
Video discs are approximately 6-8 bits, or 64-256
Produces various gray tones. Digital discs can provide up to 12 bits of data. In all cases (with the exception of Senna images, where the image quality is very high), industrial 525 line non-contact video discs produce images of adequate fidelity.

ビデオディスクの使用はよく知られている。画像は引き
続く行により走査される。それは実際にはフレームの列
走査を構成する。しかし、後で説明するように、ビデオ
ディスクの出力の第1パス列処理により、ここで説明し
ているねじ曲げ処理のいずれかをスタートさせることは
通常は一層効率的である。これを心に留めておくことに
よシ、第1パス列処理を容易にするためにディスクの出
力が実際に列の形であるように、映像を90度ずれた向
きで、ビデオディスクに格納することがしたがって望ま
しい。
The use of video discs is well known. The image is scanned by successive lines. It actually constitutes a column scan of the frame. However, as will be explained later, it is usually more efficient to start any of the warping processes described herein with the first pass sequence processing of the output of the video disc. Keeping this in mind, it is best to store the footage on a video disc with a 90 degree offset orientation so that the output of the disc is actually in the form of columns to facilitate first pass column processing. Therefore, it is desirable to do so.

もちろん、何らかの理由で、正常の向きすなわち垂直な
向きでフレームをビデオディスクに格納することが望ま
しいものとすると、それは容易に行うことができ、利用
されるねじ曲げシーケンスの処理特性を適合させるため
にバッファ内のデータを適切に向けさせる処理チャンネ
ルのために前端部処理装置を設けることができる。
Of course, if for some reason it is desirable to store frames on a video disk in their normal or vertical orientation, it can be easily done and buffered to suit the processing characteristics of the contortion sequences utilized. A front-end processing device can be provided for the processing channel to properly direct the data within.

光ディスクに関連して他の装置も画業者なら思いつくで
あろうが、CGSIの概念は非常に良好に機能すること
が認められており、それの実現は特に困難でもなければ
、とくに費用がかかるわけでもな己。ビデオディスクに
は次のような利点がある。
Artists may think of other devices related to optical disks, but the CGSI concept has been found to work very well and is neither particularly difficult nor particularly expensive to implement. But me. Video discs have the following advantages:

a)高密度記録:12インチディスクの片面当り約54
000 フレーム。
a) High-density recording: approximately 54 per side of a 12-inch disc
000 frames.

b)デニタ記録費用が比較的低い。b) Denture recording costs are relatively low.

C)優れた等速呼用し性:ある改良により工業用ディス
クは60サイクル・フィールド時間すなわち16−(9
秒ごとにプラスマイナヌ50〜100 フレームを”容
易に飛越せるようである。実際の飛越しは帰線消去期間
中に行われるから画像データが失われることはない。
C) Excellent constant-velocity callability: Certain improvements have made industrial disks faster than 60 cycle field times, or 16-(9
It appears that 50 to 100 frames plus or minus can be easily skipped every second. The actual skipping occurs during the blanking interval, so no image data is lost.

d)高いデータ速度:ビデオ速度でデータを生ずるO e)長寿命およびデータの安全性:ディスクは非接触で
あり、読出し専用であって、ヘッドの衝突や、オペレー
タの誤操作によりデータが損われることはあり得ない。
d) High data rate: produces data at video speeds; e) Long life and data security: the disk is non-contact and read-only, meaning no head collisions or operator errors can cause data loss. That's impossible.

f)複製が容易。f) Easy to replicate.

非実時間データベース・ノ1−ドクエアの装置ブロック
図を第2図に示す。この装置においては、縁部が復旧さ
れ、背景が物体から分離され、輝度と色が修正され、現
実的な色が発生され、システムの基準点に対して物体が
位置させられ、非実時間の高忠実度CGI物体が発生さ
れ、グラフィックデータ(光源)が発生される。
FIG. 2 shows a block diagram of the non-real-time database node 1-doquare. In this device, edges are restored, the background is separated from the object, brightness and color are corrected, realistic colors are generated, the object is positioned relative to the system's reference point, and non-real-time High fidelity CGI objects are generated and graphic data (light sources) are generated.

データベースーゲーミング地域 ゲーミング地域には地面、物体および特殊効果の場所を
定めるだめの基準点が含まれる。ゲーミング地域は手動
モードと自動モードの2つのやり方のうちのいずれかで
設定できる。
Database - Gaming Region Gaming regions include reference points that define the location of ground, objects, and special effects. Gaming regions can be set up in one of two ways: manual mode or automatic mode.

手動モードにおいては、オペレータは物体ライブラリィ
をサーチし、どの物体をゲーミング地域内に置くかを選
択する。物体ファイルとしてはやぶ、木立、地面、山、
道路、湖、または1つのファイル上の小さな物体群のよ
うな個々の物体である。ゲーミング地域内に2D物体を
置くために、オペレータはゲーミング地域の空間内にx
、y、 zの地面基準点を選択する。ちなみに、x、y
、zはそれぞれ水平軸、鉛直軸、距離軸を表す。第2の
x、y、z基準点が高さと位置を決定する。したがづて
、物体が真の鉛直位置に直立しているものとすると、X
と2の基準は一定に保たれ、Y基準は物体の高さだけ変
化する。それらの軸の一方に物体が傾くとX(!:zの
軸基準点の少くとも一方が変化する。地面は4つのx、
y、z基準点にょシ定めることができる。それらの各点
は各隅に1つずつ対応する。これには、たとえば家屋の
側面、湖、道路、川などが含まれる。細部を非常に正確
に表すために、方位と仰角の両方に1度の増分を表す一
連の画像中に三次元多重画像物体を格納できる。
In manual mode, the operator searches the object library and selects which objects to place within the gaming area. Object files include bushes, trees, ground, mountains,
Individual objects such as roads, lakes, or groups of small objects on one file. To place a 2D object within the gaming region, the operator must
, y, and z. By the way, x, y
, z represent the horizontal axis, vertical axis, and distance axis, respectively. A second x, y, z reference point determines the height and position. Therefore, if the object is assumed to be standing upright at its true vertical position, then
and 2 are kept constant, and the Y reference varies by the height of the object. When an object tilts to one of those axes, at least one of the X(!:z axis reference points changes. The ground has four x,
The y and z reference points can be determined. Each of those points corresponds to one in each corner. This includes, for example, the sides of houses, lakes, roads, rivers, etc. To represent detail with great accuracy, three-dimensional multi-image objects can be stored in a series of images representing one degree increments in both azimuth and elevation.

それらは、中心接着点を表す3つの基準点と、中心の高
さと、方向ベクトルすなわちポインチング・ベクトルに
より定めることができる。
They can be defined by three reference points representing the center attachment point, the center height, and the direction or pointing vector.

自動モードは手動モードとほとんど同様にして行われる
。コンピュータが物体を処理し、制御しク装置く。これ
については後で説明する。物体は種類と密度に応じて置
かれる。
Automatic mode operates in much the same way as manual mode. Computers are devices that process and control objects. This will be explained later. Objects are placed according to type and density.

データベース−物体ライブラリィ 物体ライブラリィには画像が含まれる。それらの画像は
物体、地面、特殊−効果の基本的な3つの種類に分類で
きる。
Database - Object Library The object library contains images. These images can be classified into three basic types: object, ground, and special-effects.

物体と地面の場合には、固体表面の物体は二次元、三次
元−軸、三次元二軸および光源に更に分類できる。物体
と地面をほぼ完全な高忠実度で光ディスクに記録する方
法を第4,5図に示す。
In the case of objects and ground, solid surface objects can be further classified into two-dimensional, three-dimensional-axis, three-dimensional biaxial, and light sources. Figures 4 and 5 show a method for recording objects and the ground on an optical disc with almost perfect high fidelity.

それらの図について次に詳しく説明する。These figures will be explained in detail below.

物体−二次元 前記したように、岩、木、やぶ、低い木などのような自
然界に見られるほとんどの物体は、十分な現実感をもっ
て二次元で表すことができる。希望のシミュレーション
で用いられる平均アスペクト角で物体の写真が撮影され
る。高度が変ると物体は基準点の間で変換される。その
ために、透視のやυ方に応じて高くなったり、低くなっ
たりする。木立およびやぶの場合には、物体の表面は、
飛行経路中のように、観察者に垂直なままである。
Objects - Two Dimensions As mentioned above, most objects found in nature, such as rocks, trees, bushes, low trees, etc., can be represented in two dimensions with sufficient realism. A photo of the object is taken at the average aspect angle used in the desired simulation. As the altitude changes, the object is translated between reference points. Therefore, it becomes higher or lower depending on the angle of perspective. In the case of trees and bushes, the surface of the object is
As in the flight path, it remains perpendicular to the observer.

経験によれば、この効果は目立たないことが判明してい
る。他の物体に対する物体の関係と、寸法および寸法の
変化に加えて、そ2関係が変化する速さは深さの指示を
与える。二次元物体に対しては、1つの写真を光ディス
クのトラックに格納でき、適切な回転、寸法および位置
を得るためにねじ曲げ操作により処理できる。
Experience has shown that this effect is not noticeable. The relationship of an object to other objects, its dimensions and changes in dimensions, as well as the rate at which those relationships change, give an indication of depth. For two-dimensional objects, a single photograph can be stored in a track on an optical disc and manipulated by twisting operations to obtain the appropriate rotation, dimensions and position.

物体−三次元一軸 フライオーバー中にある物体が追跡されるものとするさ
、視界は90度変化する。この場合には、シミュレーシ
ョンには鉛直軸の一連の写真を更に要することがある。
Object - Assume that an object is tracked during a three-dimensional uniaxial flyover, the field of view changes by 90 degrees. In this case, the simulation may require an additional series of vertical axis photographs.

物体−三次元二軸 三次元/二軸物体すなわち表面は3種類の手法で扱うこ
とができる。第1に、方位と仰角の双方で1度という小
さい増分を表す一連の写真を格納することである。これ
は強力な提示技術であって、物体が高い表面忠実度を要
する細部を有する時に極めてうまくゆく。ヘリコプタ、
タンク、家屋のような大きな物体のモデルを2つの非常
に精密な回転台上で回転し、各設定ごとに物体を撮影す
ることにより精密な増分を得ることができる。三次元物
体を発生する第2の方法は、第3図に示されている家の
ように、物体を小さな表面に分けることにより行われる
。この図に示されているような家はビデオ表示器では一
連の光景内で種々の透視図で見ることができるが、コン
ピュータによるもし、構成できる。第3の方法は丘のよ
うな大きい物体に適用できるもので、一連の一定の高さ
の所で、物体を完全に囲む方位内で30度間隔のような
比較的大きい間隔で物体の写真を撮影することである。
Objects - 3D Biaxial 3D/Biaxial objects or surfaces can be treated in three different ways. The first is to store a series of photographs representing small increments of 1 degree in both azimuth and elevation. This is a powerful presentation technique and works extremely well when objects have details that require high surface fidelity. helicopter,
Precise increments can be obtained by rotating a model of a large object, such as a tank or a house, on two very precise turntables and photographing the object at each setting. A second method of generating three-dimensional objects is by dividing the object into smaller surfaces, such as the house shown in FIG. A house such as the one shown in this figure can be seen in various perspectives in a series of views on a video display, but can also be constructed by a computer. A third method, applicable to large objects such as hills, is to take pictures of the object at a series of fixed heights and at relatively large intervals, such as 30 degree intervals, in an orientation completely surrounding the object. It's about taking pictures.

たとえば、はとんどのシミュレーションに対しては1つ
の高度、典型的には15度を使用でき、物体の周囲を3
0度おきに撮影した一連の写真が適切であることが見出
されている。
For example, you can use one altitude, typically 15 degrees, for most simulations, and 3 degrees around the object.
A series of photographs taken at 0 degree intervals has been found to be suitable.

物体−光源 光源はメモリに格納されている一連の点から並べられ、
ねじ曲げアルゴリズムが正常な視界から乗物から見たも
のへ表面をねじ曲げる。このやシ方は非常に良く機能し
、実演用の着陸テープを作るために用いられている。
Object-Light Source The light source is aligned from a series of points stored in memory,
A contortion algorithm contorts the surface from normal view to what is seen from the vehicle. This method works very well and has been used to make demonstration landing tapes.

特殊効果 特殊効果に関しては、半透明の物体または画像が煙、霧
、陰、はこり、もやを生じさせることにより光景に現実
感が更に与えられる。それらの物体は輪郭、形および透
過率を決定するマスクとして格納できる。マスクは物体
と特殊効果の組合せ率を決定する。第2の変量が特殊効
果の輝度または色を制御する。マスクは特殊効果と、背
景に固定された変量制御間隔との混合比を決定する。こ
の技術は、たとえば、動いているタンクの後に舞い上る
ほこりを発生させるために使用できる。ねじ曲げ操作は
、特殊効果と、動きを生じさせるために用いられる一連
の逐次フレームとをひずませるために加えることもでき
る。
Special Effects Regarding special effects, translucent objects or images create smoke, fog, shadows, smudges, and haze to add more realism to the scene. These objects can be stored as masks that determine their contour, shape, and transmittance. Masks determine the combination rate of objects and special effects. A second variable controls the brightness or color of the special effect. The mask determines the mixing ratio of special effects and variable control intervals fixed to the background. This technique can be used, for example, to generate dust that is kicked up after a moving tank. Twisting operations can also be added to distort special effects and the series of sequential frames used to create motion.

したがって、半透明の物体は静止させることもできれば
、動かすこともできる。特殊効果の物体は、物体ライブ
ラリィにおける透過マスクに関して定められている。こ
のことは、物体ライブラリィ内のデータが、存在する背
景物体のパーセントと、存在する特殊効果のパーセント
を次式により決定する。
Therefore, a translucent object can be either stationary or moving. Special effect objects are defined in terms of transmission masks in the object library. This means that the data in the object library determines the percentage of background objects present and the percentage of special effects present by the following equations.

ピクセル値(灰色レベル)=(’z−マスク)×(背景
(灰色レベル)×(%殊効果値−(灰色値月特殊効果値
は特殊効果の灰色の陰を決定する。
Pixel value (gray level) = ('z - mask) x (background (gray level) x (% special effect value - (gray value) The special effect value determines the gray shade of the special effect.

これを第6図に示す。静止特殊効果のためのマスクは白
紙の上に灰色調のマーカーを用いて容易に描くことがで
きる。このようにして、多くの一般的なまたは特殊な雲
、はこり、煙、もや2よび霧を慣れない人でも容易に描
くことができる。特殊効果の物体は典型的には2Dの物
体として処理される。マスクの組合せを多イプラリイに
格納できる。4種類の特別の特殊効果が次のようにして
実現される。
This is shown in FIG. Masks for static special effects can be easily drawn using a gray marker on a blank sheet of paper. In this way, many common or special clouds, clouds, smoke, haze, and fog can be easily drawn even by an inexperienced person. Special effects objects are typically processed as 2D objects. Multiple mask combinations can be stored in multiple rallies. Four types of special effects are realized as follows.

1、動く煙 煙のマスクは輪郭と透過率を定めるものであって、写真
と、その煙の数学的な緒特性を基にして技術者により発
生される。1番上と1番下は同じ場所になければならず
、写真XIIのAに示すように同じ幅でなければならな
い。次に一連のフレーム、おそらく480、が発生され
る。各ピクセルは、連続する循環ループを生ずるために
フレームが再生される時に、各ピクセルをY軸で1つま
たはそれ以上のピクセルずつ増すことができる。これを
写真XIIのBに示す。次に、各フレームの煙の1番上
をそぎ落して(写真XIIのC)、煙が大気中に拡散す
る様子に似せる。写真XIIのCに示すようにフレーム
をビデオディスクに順次記録し、拡散に似せるために1
番上を膨張させ、風速に合わせて画像を切り、距離を基
にして雲の寸法を定め、雲を光景内に位置させるために
、特殊効果プロセッサ内のねじ曲げ関数を用いる。
1. Moving Smoke The smoke mask, which defines the outline and transmittance, is generated by an engineer based on the photograph and the mathematical characteristics of the smoke. The top and bottom must be in the same place and must be the same width as shown at A in Photo XII. A series of frames, perhaps 480, are then generated. Each pixel can be incremented by one or more pixels in the Y axis as the frame is played back to create a continuous circular loop. This is shown in Photo XII, B. Next, shave off the top of the smoke in each frame (C in Photo XII) to simulate smoke dispersing into the atmosphere. The frames were recorded sequentially on a video disc as shown in Photo XII C, and 1
A contortion function within the special effects processor is used to inflate the top, crop the image to match wind speed, size the cloud based on distance, and position the cloud within the scene.

最初の条件パラメータが雲の色または輝度をセットする
。煙の再生速度は流れる速さを決定する。
The first condition parameter sets the cloud color or brightness. The playback speed of the smoke determines how fast it flows.

2、動くほこり たとえば、5〜10個のほこり透過マスクを作ることが
できる。種々のマスク(1−2,1−3,・・・・・1
−10.・・・・9−10)の間の一連の直線補間によ
り一連のフレームが発生される。それらのフレームはビ
デオディスクに記録される。特殊効果処理チャンネル内
のねじ曲げ関数が正しい眺望位置にマスクを置き、光景
内の寸法と位置を定め、最初の設定条件により色と輝度
を決定する。これが写真XIIIに示されている。
2. Moving dust For example, 5-10 dust transmission masks can be made. Various masks (1-2, 1-3,...1
-10. A series of frames are generated by a series of linear interpolations between . . . 9-10). Those frames are recorded on a video disc. A contortion function in the special effects processing channel places the mask in the correct viewing position, determines its dimensions and position within the scene, and determines the color and brightness according to the initial setup conditions. This is shown in Photo XIII.

3、陰 陰はほこりと煙に似た半透明の物体として処理される。3. Yin Shadows are treated as translucent objects similar to dust and smoke.

陰のための透過マスクが物体ライブラリィ内の画像から
発生される。陰の透過を決定する1つの灰色レベルに、
物体中の全てのピクセルをセットすることにより、透過
マスク、陰を作ることができる。ゲーミング地域におい
ては、物体の4つの基準点が地面に投写される。地面上
の新しい点は陰の基準点である。陰、透過マスクは、陰
の基準点を基にして光景に適合するように、ねじ曲げら
れる。この手順が第7図に示されている。
A transmission mask for shadows is generated from images in the object library. One gray level that determines the transmission of shadows,
By setting all pixels in an object, we can create a transparency mask, a shadow. In the gaming area, four reference points of objects are projected onto the ground. The new point on the ground is the shadow reference point. The shadow, transmission mask is twisted to fit the scene based on the shadow reference point. This procedure is illustrated in FIG.

4、輝きときらめき 通常は、輝きときらめきは表面の正常なデータである。4. Shine and sparkle Shine and glitter are usually normal data on the surface.

しかし、CGSI装置においては、物体がCGI節点デ
ータから発生されるのでない限り、表面の正常なデータ
は利用できない。輝きときらめきを生じさせるために、
第8図に関連して示す次の表に示されるように、 太陽の角度表 表1 種々の太陽角度により発生された輝きときらめきの領域
を基にして扇形のマスクが発生される。そのマスクの扇
形は灰色レベルである。すなわち、物体ライブラリィに
格納されている時は、扇形1の輝度値は8、扇形2の輝
度値は16、等である。
However, in CGSI devices, surface normal data is not available unless the object is generated from CGI nodal data. To create shine and sparkle,
As shown in the following table shown in conjunction with FIG. 8, a fan-shaped mask is generated based on the areas of shine and sparkle generated by various solar angles. The sectors of the mask are gray levels. That is, when stored in the object library, the brightness value of sector 1 is 8, the brightness value of sector 2 is 16, and so on.

太陽角表のデータは物体プロセッサ内に調査表を設定す
る。太陽が扇形2の中にあるものとすると、調査表にお
ける入力値16が出方の輝き値ときらめき値を所定のレ
ベルにセットする。調査表における残りの出力値は零で
ある。その結果として、扇形2の中に明るい点が生ずる
。砲塔が回ったり、太陽が動くと、扇形は変る。この方
法においては、輝きときらめきの動きは太陽と乗物の動
きを基にしている。
The solar angle table data is used to set up a survey table in the object processor. Assuming that the sun is within sector 2, input value 16 in the survey table sets the resulting brightness and twinkle values to predetermined levels. The remaining output values in the survey table are zero. As a result, a bright spot appears within sector 2. As the turret rotates or the sun moves, the fan shape changes. In this method, the movement of sparkles and sparkles is based on the movement of the sun and the vehicle.

データベースー一般的な説明 CGS Iデータベースは極めて融通性に富み、実際の
物体とシミュレートされた特殊な効果とよ構成る。これ
によシ達成される現実感は、ある特定のシミュレーショ
ンを構成するオペレータの能力に依存する。このデータ
ベースは熟練したプログラマを必要とせず、ある特定の
応用に対して自然に熟達させるようになっている。ある
グループがある領域、すなわち、IR,可視、ミリメー
タ波またはレーダ波で動作するものとすると、そのセン
ナからの形象が物体ファイルにロードされる。
Database - General Description The CGS I database is extremely flexible and consists of real objects and simulated special effects. The sense of realism achieved hereby depends on the operator's ability to configure a particular simulation. This database does not require a skilled programmer and is designed to naturally develop proficiency for a particular application. If a group operates in a certain area, ie, IR, visible, millimeter waves, or radar waves, the features from that sensor are loaded into the object file.

この形象はセンサをシミュレートする。なぜなら、その
形象はセンサから来るからである。また、ライブラリィ
の作成中、または実時間処理中の輝度値の設定において
、画像またはセンサのノくラメータを修正できる。IR
の例が第9図に示されている。この図においては、セン
サまたは多くの他のパラメータへの変化をシミュレート
するために、選択されている放射率は変えることができ
る。ある特定の領域またはある種の地形を調べているも
のとすると、その形象を、プログラマの手助け、または
面倒で費用のかかるデータベースの変更などを必要とす
ることなしに、物体ファイルにロードできる。CGI装
置の現在の技術状態とは反対に、CGS Iデータベー
スは、ある範囲の複雑な人的要因状況に対して、迅速な
設定と速成の訓練に非常に良く適する。CGSIが融通
性に富むことは、年1日のうちの時刻、気象条件および
他のほとんどのパラメータを、ソフトフェアについて完
全に知ってはいない実験者が選択でき、かつ容易に実現
できることにより示される。データベース−2D装置と
3D装置についての説明 2D自然物体 「2D自然物体」という分類には木、やぶ、小さい岩が
含まれる。前記したように、たとえば15度の伏角で描
かれた1つ映像は、0〜40度の伏角と、全ての方位角
における眺望に対して十分である。優れた視覚効果は、
光景中の他の自然物に対する任意の物体の幾何学的な関
係と、寸法の変化であることが明らかである。ある物体
の静止内部の細部が、はるかに多くの必要な細部を付加
することにより光景の現実感が増大する。ヘリコプタが
木の周囲を円形を描いて飛行すると、木の葉の様子が変
えないという事実を平均的な観察者は知覚できない。し
かし、ホバーリングの目印のためにヘリコプタの操縦士
により用いられた場合の葉の落ちた木は異って感ぜられ
、3Dの多重画像を必要とすることがある。
This figure simulates a sensor. This is because the image comes from the sensor. Furthermore, the parameters of the image or sensor can be modified during library creation or when setting brightness values during real-time processing. IR
An example is shown in FIG. In this figure, the selected emissivity can be varied to simulate changes to the sensor or many other parameters. If we are examining a particular area or type of terrain, we can load the features into an object file without the need for programmer assistance or tedious and expensive database changes. Contrary to the current state of the art in CGI equipment, the CGS I database is very well suited for rapid setup and quick training for a range of complex human factors situations. The flexibility of CGSI is demonstrated by the fact that the time of day, weather conditions, and most other parameters can be selected and easily implemented by experimenters without complete knowledge of the software. . Database - Description of 2D and 3D devices 2D natural objects The category "2D natural objects" includes trees, bushes, and small rocks. As mentioned above, one image drawn at an inclination of 15 degrees, for example, is sufficient for inclinations of 0 to 40 degrees and views at all azimuthal angles. Excellent visual effects
It is clear that the geometric relationship of any object to other natural objects in the scene and the change in dimensions. The static interior details of an object increase the realism of the scene by adding much more necessary detail. The average observer cannot perceive the fact that when a helicopter flies in a circle around a tree, the leaves do not change shape. However, leafless trees when used by helicopter pilots for hovering landmarks may look different and require multiple images in 3D.

2D人工物体 人工物体は乗物の前方または側方というような一定の向
きを有する。しかし、それらについて検証するために、
人工物体すなわち向きを定められた物体(古いトラック
、車、墓石など)が近くにある道路上を走行しているタ
ンクのシミュレーションを開発した。このシミュレーシ
ョンニおイテは、物体は観察者に対して常に垂直である
が、テープを見る時はそれらの物体の2D性質は検出で
きない。小〜中程度の大きさの物体は、画像の、品質が
目立つほど低下することなしに、プラスマイナス15度
の方位角と仰角で提示できるようである。しかし、完全
なフライ・アラウンド状態のためには3D処理を必要と
する。
2D Artificial Objects Artificial objects have a fixed orientation, such as to the front or side of the vehicle. However, in order to verify them,
We developed a simulation of a tank driving on a road with artificial or oriented objects (such as old trucks, cars, and tombstones) nearby. In this simulation, objects are always perpendicular to the viewer, but the 2D nature of those objects cannot be detected when viewing the tape. It appears that small to moderate sized objects can be presented at azimuth and elevation angles of plus or minus 15 degrees without appreciably reducing the quality of the image. However, a complete fly-around condition requires 3D processing.

2Dつぎはぎ技術 非常にざらざらした広い連続した表面を形成するために
、しげみまたは小さいつぎ部をねじ曲げ、置くことがで
きる。たとえば、タンク駆動動作においては、高度の現
実感を生ずるように個々に寸法を定められ、かつ個々に
位置させられた蒲の多くの小さいつぎ部を集めることに
よシ、蒲のファイルを非常にうまく表示した。実演用の
ビデオテープのヘリコプタの部においては、ヘリコプタ
はまず離陸し、一連のつぎはぎ部で構成された草原の上
を飛行する。つぎはぎ部を使用することは、非常に詳細
な地面情報を付加するだめの非常に強力な技術を表すも
のである。この技術は水面、岩、道路、鉄道線路などに
も使用できる。
2D Patching Technique Brush or small patches can be twisted and placed to form a very rough, wide continuous surface. For example, in a tank drive operation, the file of the cap can be made very large by assembling many small joints of the cap that are individually dimensioned and individually positioned to create a high degree of realism. Displayed well. In the helicopter portion of the demonstration videotape, the helicopter first takes off and flies over a patchwork field of grass. The use of patches represents a very powerful technique for adding highly detailed ground information. This technique can also be used on water surfaces, rocks, roads, railroad tracks, etc.

更に、各つぎはぎ部は動きを行うこともできる。Furthermore, each patch can also perform movement.

すなわち、風または回転翼の回転により草または水が動
かされる。この効果は、一連の動的なフレームを光ディ
スクに格納し、煙の動きのシミュレーションと同様に、
それらのフレームを地面プロセッサへ与えることにより
、シミュレートされる。
That is, the grass or water is moved by the wind or the rotation of the rotor. This effect involves storing a series of dynamic frames on an optical disk, similar to the simulation of smoke movement.
It is simulated by feeding those frames to the ground processor.

この技術も、ある距離の所にある物体群を表すために使
用できる。ヘリコプタの場合には、「飛び上シ」中に示
されるトクモロコシ畑を、トウそロコシ畑のいくつかの
同一のつぎはぎ部を用いて構成した。これと同じゃシ方
を、密生した木立、背景、その他の非常に細かい任意の
ざらざらした地面のために使用できる。
This technique can also be used to represent objects at a certain distance. In the case of the helicopter, the cornfield shown in the "flyover" was constructed using several identical patches of cornfields. This same method can be used for dense groves, backgrounds, and any other very fine textured surfaces.

2D表面 ざらざらした形象の全体の領域をねじ曲げてざらざらし
た表面を生ずることができる。この概念を拡張して滑走
路、鉄道線路、道路、クリーク、流れなどのような細く
て長い「物体」に適用することができる。直線ねじ曲げ
技術をほぼ正方形の[物体Jに使用できるが、画像の歪
を避けるために、細長い「物体」を現実的に表現するた
めには真の透視的ねじ曲げを使用すべきである。
The entire area of the 2D surface textured feature can be twisted to create a textured surface. This concept can be extended to apply to long, thin objects such as runways, railroad tracks, roads, creeks, streams, etc. Linear twisting techniques can be used for approximately square objects J, but true perspective twisting should be used to realistically represent elongated "objects" to avoid image distortion.

2D表面は側方に限定する必要はなく、光源(点光源ま
たは線光源)、なだらかな起伏の丘、砂丘、池または小
さい湖を含むことができる。
The 2D surface need not be limited to the sides and can include light sources (point or line sources), rolling hills, sand dunes, ponds or small lakes.

CGSI技術を用いてシミュレートされる市街地は地面
、街路、歩道、建物の前部から構成できる。
The urban area simulated using CGSI technology can consist of the ground, streets, sidewalks, and building fronts.

3D多重表面 はとんどの人工物体は建物またはトラックの側面のよう
な多くの表面に小さく分けることができる。各側面を2
D表面として処理し、その物体の見ることができる側面
を光景内でコンピュータが構成できるよ・うにすること
により、個々の側面の小さいデータベースから3D物体
を作ることができる。たとえば、2つの側面と、2つの
端面と、2つの屋根との部分を有する家屋について考え
てみる。各部分は4つの(x、y、z)基準点により決
定される。したがって、(4つの隅)かける(3つの基
準点)かける(6つの側面)=72の座標数となる。そ
れらの座標数は家屋の全ての細部をゲーミンダ領域内に
位置させるために必要である。
3D multiple surfaces allow most man-made objects to be subdivided into many surfaces, such as the side of a building or a truck. 2 on each side
A 3D object can be created from a small database of individual sides by treating it as a D-surface and allowing the computer to construct the visible sides of the object within the scene. For example, consider a house that has two side, two end, and two roof sections. Each section is determined by four (x, y, z) reference points. Therefore, the number of coordinates is (4 corners) times (3 reference points) times (6 sides) = 72. These coordinate numbers are necessary to locate all the details of the house within the gameminder area.

CGS I技術により求められる物体の多くの眺望は、
見積9寸法データから発生され、または実際の部材の実
際の写真からデジタル化されたモデルから得ることがで
きる。
The many views of objects required by CGS I technology are
Estimates can be generated from dimensional data or obtained from digitized models from actual photographs of actual parts.

3D多重眺望 複雑な高忠実度物体画像は、平らな表面またはわん曲し
た表面にされた時に、忠実度を失う。その2つの例は枝
が生えている葉のない木と、多くの不規則な表面を有す
るタンクとである。それらの物体は、スクリーンの面積
の3分の1以上を占めることがあるが、方位角と仰角の
増分として1度という小さい値をとった、2D眺望の長
いつながりとして格納できる。この多重眺望のやシ方に
は約(90X360)32400 を必要とする。この
フレーム数は、1つの物体当り 54000 のフレー
ムを保持しているビデオディスクの約60%を占める。
3D multi-view complex high-fidelity object images lose fidelity when rendered into flat or curved surfaces. Two examples are a leafless tree with branches and a tank with many irregular surfaces. These objects can occupy more than a third of the screen area, but can be stored as a long series of 2D views with azimuth and elevation increments as small as 1 degree. The width of this multiple view requires approximately (90x360) 32400. This number of frames accounts for about 60% of a video disc holding 54000 frames per object.

第10図に示されている最も需要の多い航空路は、仰角
を変えながら物体を囲むものである。
The most popular airways shown in Figure 10 are those that encircle an object while changing elevation.

ビデオディスクにおいてフレームに仰角の0〜9゜の角
度値を1度きざで索引としてつけたとすると(それは方
位角の各1度の増分変化に対するものである)、飛行路
がほとんど平らであったとしても、対象とする次のフレ
ームに達するためには、ディスクは約100フレーム飛
びこさなければならない。各TVフィールドの垂直帰線
中にディスクはプラスマイナス約100フレームの飛び
こしができねばならない。これにより、物体の周囲を6
秒おきの種々の仰角(360度/6oフィールド/秒)
で飛行できることになる。これは現実的な限界である。
If on a video disc the frames were indexed with angular values from 0 to 9 degrees of elevation in 1 degree increments (for each 1 degree incremental change in azimuth), then if the flight path was almost flat, However, the disk must jump about 100 frames to reach the next frame of interest. During the vertical retrace of each TV field, the disk must be able to jump about plus or minus 100 frames. This makes the circumference of the object 6
Various elevation angles every second (360 degrees/6o field/second)
You will be able to fly. This is a realistic limit.

というのは、6秒きっちシで360度旋回でもパイロッ
トは目が回りそうになるからである。
This is because even a 360 degree turn in exactly 6 seconds can make a pilot dizzy.

30の多重眺望物体に対して直線および非直線の内挿法
を含む他のアイデアも提案されたが、現在まで本発明に
等しい細部を描くのに成功したものはない。
Other ideas have been proposed, including linear and non-linear interpolation methods for 30 multi-view objects, but to date none have been successful in achieving the same level of detail as the present invention.

特殊効果 特殊効果は、透過マスクを使用することを除き、2D物
体および表面と同様に処理される。マスクは動的(はこ
り、煙などに対するものと同様に各フレームで変る)の
ものとすることができる。また、物質の色と輝度も制御
できる。それら全ての特殊効果技術はCGS Iビデオ
出力モードで示されている。
Special Effects Special effects are processed similarly to 2D objects and surfaces, except using transmission masks. The mask can be dynamic (changes each frame, similar to those for flakes, smoke, etc.). You can also control the color and brightness of the material. All those special effects techniques are demonstrated in CGS I video output mode.

掩蔽 CGSIの概念により物体には孔または窓があっても良
い。すなわち、たとえば、枝の隙間を通じて次の物体ま
たは背景を決定された現実感で見ることができる。観察
点に近い特徴またはそれの一部は、遠い方の特徴または
それの一部を常に掩蔽する。先に説明したように、光景
構成モジュールは、最終的に得られる光景内の各ビクセ
ルを選択するために距離データを使用する。距離データ
を用いる掩蔽性能を示すために、3つの例について説明
する。それらの例は第11〜14図に示されている。
According to the concept of occultation CGSI, objects may have holes or windows. That is, for example, the next object or background can be seen with determined realism through a gap in a branch. Features or parts of them that are closer to the observation point always obscure features or parts of them that are further away. As previously explained, the scene construction module uses the distance data to select each vixel in the final scene. Three examples are described to illustrate the occultation performance using distance data. Examples thereof are shown in FIGS. 11-14.

第11図に示す第1の例においては、3本の木の陰蔽は
ゲーミンク地域の基準点までの距離データを基にできる
。この例では、木T0が木T2とT8を陰し、木T、が
木T8を陰す。
In the first example shown in FIG. 11, the shading of the three trees can be based on distance data to a reference point in the gaming area. In this example, tree T0 shadows trees T2 and T8, and tree T shadows tree T8.

第2の例においては、細長い乗物が木の周囲を動いてい
る。第12図に示すように、乗物に対して1つの距離点
を用いると不正確な掩蔽が行われる。第12図A、Bに
おいて、乗物は木の前方にある。しかし、Bにおいては
、Rvがkより大きいから、乗物は木のうしろに置かれ
る。この方法は十分ではない。第13図に2いて、最大
と最小の2つの距離データ点が乗物のために維持されて
いる。いまの場合には、木の距離ベクトルに量も近い乗
物の距離ベクトルを用いることにより、乗物の距離を決
定できる。第13図のA−Dは木の周囲を動いている乗
物がうまく置かれた例を示すものである。゛ 第3の例は、第14図に示すように2つの乗物の間の問
題を扱うものである。この例でも、最も近い乗物ベクト
ルを用いることにより距離を正しく選択できる。この方
法では任意の数の物体をアドレスできる。
In the second example, an elongated vehicle is moving around a tree. As shown in FIG. 12, using a single range point for the vehicle results in inaccurate occultation. In Figures 12A and 12B, the vehicle is in front of the tree. However, at B, Rv is greater than k, so the vehicle is placed behind the tree. This method is not sufficient. In Figure 13, two distance data points are maintained for the vehicle, a maximum and a minimum. In this case, the distance of the vehicle can be determined by using the distance vector of the vehicle, which is close in magnitude to the distance vector of the tree. FIGS. 13A-13D show an example of a well-placed vehicle moving around a tree. A third example deals with a problem between two vehicles, as shown in FIG. In this example, the distance can also be correctly selected by using the closest vehicle vector. This method can address any number of objects.

2D/3D結論 以上の説明は、物体と特殊効果を光景の中に置くための
2Dと3Dのやり方、およびそれらを具体化するための
技術についての概要を述べたものである。それらの技術
により、現実の世界で遭遇するほとんどの物体および条
件をシミュレートすることが可能である。適切な2D/
3D技術の用途は当業者には明らかであろう。
2D/3D Conclusion The above discussion provides an overview of 2D and 3D methods for placing objects and special effects in a scene, and techniques for implementing them. With these techniques it is possible to simulate most objects and conditions encountered in the real world. Appropriate 2D/
Applications of 3D technology will be apparent to those skilled in the art.

乗物のシミュレーション 訓練生の乗物またはその他の光景認識装置のゲーミング
地域に対する場所と、ゲーミング領域内を動く物体の場
所との発生用ハードウェアおよびソフトウェアは、それ
自体としては本発明のCGS I装置の構成部分ではk
い。しかし、それらの乗物の瞬時位置を示すx、y、z
のロール信号、ピッチ信号、ヨウ信号はCGS I装置
により検出され、かつそれらの信号に応答して、ビデオ
表示器はシミユレートされたゲーミンク地域の光景を発
生する。
The hardware and software for generating the location of a vehicle simulation trainee's vehicle or other scene recognition device relative to the gaming area and the location of objects moving within the gaming area, as such, constitutes a CGS I device of the present invention. k in part
stomach. However, the x, y, z that indicates the instantaneous position of those vehicles
The roll, pitch, and yaw signals of the CGS I device are detected by the CGS I device, and in response to those signals, the video display generates a scene of the simulated gaming area.

通信サブシステム CGSI装置を乗物のシミュレータにインターフェイス
するためのハードウェアは、用途ごとに独特のも1.の
であるようである。各ユーザーは決定された乗物シミュ
レーション・コンピュータを有し、CGS I装置は標
準大刀を有することができる。そのシミュレーション・
コンピュータからのデジタル出力信号を変換して、cG
sIFovコンピュータへの入力に一致させるのはイン
ターフェイス・ハードウェアである。このハードウェア
は簡単なケ−7”ルカラ、バッファおよびマイクロプロ
セッサを含む複雑なインターフェイスに及ぶ。
Communications Subsystem The hardware for interfacing CGSI devices to vehicle simulators is unique for each application. This seems to be the case. Each user has a determined vehicle simulation computer and the CGSI device can have a standard sword. The simulation
Converts the digital output signal from the computer to cG
It is the interface hardware that matches the input to the sIFov computer. This hardware ranges from simple 7" cables to complex interfaces including buffers and microprocessors.

視界と座標変換計算 第15図にはゲーミング地域に対するFOV機能の線図
が示されている。ゲーミンク地域座標系の原点20であ
り、観察者の眼はゲーミング地域内の任意の点2°1で
ある。観察者すなわちν11練生の直前に設けられてい
るスクリーンまたはCRTは輪郭22を有し、スクリー
ンの座標系の原点は点23である。地形のつぎあて部分
の四隅がCRTにより投写される。そのつぎあて部分は
航空機の前面ガラスであり、輪郭24はスクリーン上の
地形つぎあて部分の投写を表す。それはオペレータが見
ることができる。
Field of View and Coordinate Transformation Calculations Figure 15 shows a diagram of the FOV function for the gaming area. This is the origin 20 of the gaming area coordinate system, and the observer's eye is at an arbitrary point 2°1 within the gaming area. The screen or CRT placed immediately in front of the observer, i.e. the v11 exerciser, has a contour 22 and the origin of the coordinate system of the screen is a point 23. The four corners of the patched part of the terrain are projected by a CRT. The patch is the windshield of the aircraft, and the contour 24 represents the projection of the terrain patch on the screen. It can be viewed by the operator.

FOVプロセッサに供給される2種類の乗物シミュレー
ション計算は、(1)地形の座標系の原点に対する航空
機の変化する位置を定める位置ベクトル、(2)地形座
標系の原点に対する航空機の変化する姿勢を定める回転
データ(ヨウ、ピッチ、ロール)である。このデータを
表す式を次の表に示す。
Two types of vehicle simulation calculations are provided to the FOV processor: (1) position vectors that define the changing position of the aircraft relative to the origin of the terrain coordinate system; and (2) position vectors that define the changing attitude of the aircraft relative to the origin of the terrain coordinate system. Rotation data (yaw, pitch, roll). The formula representing this data is shown in the table below.

世界系座標で表した眼の座標 tZ = X   θ=ヨウ ty = y   φ=ピッチ tz−Z  ψ=ロール + ■は次のものを含む Vll  V12  Vll! V21  V22V28  sinψ Vlll  VB2  vaa  cosψV41V&
2  V48 表2 公知の原理に従って、第16図に示されている式の形の
乗物データを処理して、スクリーン22からの、地形の
つぎあて部のような任意の物体または地面の距離と、四
隅の点のスクリーン座標、またはスクリーン上への物体
または表面の投写の頂点のスクリーン座標を発生できる
。実際に、先行技術の性能は、地形のつぎ当て部分また
は任意の物体あるいは任意の表面が任意の形の凸状多角
形と任意の寸法を有し、かつそれらの多角形の複数の頂
点の座標を計算できるようなものである。
The eye coordinates expressed in world system coordinates tZ = X θ = Yoty = y φ = Pitch tz - Z ψ = Roll + ■ include the following Vll V12 Vll! V21 V22V28 sinψ Vllll VB2 vaa cosψV41V&
2 V48 Table 2 The vehicle data in the form of the equation shown in FIG. 16 is processed according to known principles to determine the distance of any object or ground, such as a patch of terrain, from the screen 22; The screen coordinates of the four corner points or the vertices of the projection of an object or surface onto the screen can be generated. In fact, the performance of the prior art is that a patchwork of terrain or any object or surface has convex polygons of any shape and dimensions, and the coordinates of the vertices of those polygons are It is possible to calculate .

しかし、物体と、表面と、特殊効果をデータベースに格
納するやυ方のために、先行技術のこの進歩した性能を
利用する必要性は本発明にはない。
However, there is no need in the present invention to take advantage of this advanced capability of the prior art for storing objects, surfaces, and special effects in a database.

先に説明し、かつ第16図に示すように、物体と地面の
写真がビデオディスクに格納され、それらの格納された
ものの呼出しが、FOvプロセッサにより制御されるイ
ンデックスにより制御される。
As explained above and shown in FIG. 16, photographs of objects and ground are stored on a video disk, and the recall of these stores is controlled by an index controlled by a FOv processor.

各物体または各表面はフレーム内にそれぞれの入力画像
を有する。そのフレームの寸法はビデオスは1本の走査
縁当#)512個のビクセルすなわち画素を有する51
2本の走査線を有する。
Each object or surface has its own input image within the frame. The frame size of the video is 512 pixels or pixels (1 scan frame).
It has two scanning lines.

データベースはゲーミンク地域内の全ての物体と、全て
の表面と、全ての特殊効果(個々に略語08SEにより
全体的に示されている)の表を有する。ゲーミンク地域
内でのそれらの物体などの場所はゲーミング地域の座標
により示される。また、データベースはその内部の物体
の高さについての情報を含む。FOVソフトウェアによ
り、視界内の08SEと、ビデオスクリーンからの08
SEのそれぞれの距離を実時間で決定できる。
The database has a table of all objects, all surfaces, and all special effects (individually indicated overall by the abbreviation 08SE) within the gaming area. The locations of those objects, etc. within the gaming area are indicated by gaming area coordinates. The database also contains information about the height of objects within it. The FOV software allows 08SE in the field of view and 08SE from the video screen.
The distance of each SE can be determined in real time.

第17図において、物体の入力映像を含んでいるフレー
ム25の形は、物体の真の形に依存し、FOVプロセッ
サは、ビデオスクリーン26の対応するスクリーン座標
1〜4を決定するために、表2の変換式においてその高
さを使用する。中間映像27は直線ねじ曲げアルゴリズ
ムの重要な部分である。その”アルゴリズムは、入力フ
レーム25からの映像のスクリーン・フレーム26への
マツピングを容易にする。これについては後で詳しく説
明する。
In FIG. 17, the shape of the frame 25 containing the input image of the object depends on the true shape of the object, and the FOV processor uses the table to determine the corresponding screen coordinates 1-4 of the video screen 26. The height is used in the conversion equation 2. Intermediate image 27 is an important part of the linear twisting algorithm. The "algorithm facilitates the mapping of video from input frames 25 to screen frames 26, which will be discussed in more detail below.

一要約すれば、FOv関数に対して、乗物シミュレーシ
ョン計算からのデータを処理することにより、(1)視
界内の08SEが決定され、(2)観察者の場所からの
各08SEの距離が決定され、(3)各08SEの入力
映像がマツピングされる閉じた空間に対する4つの頂点
のスクリーン座標が決定される。各08SEに対する上
記のデータは、後で説明するように、08SE処理チヤ
ンネルへ与えられる。
In summary, for the FOv function, by processing data from vehicle simulation calculations, (1) the 08SEs within the field of view are determined, and (2) the distance of each 08SE from the observer's location is determined. , (3) The screen coordinates of the four vertices for the closed space into which each 08SE input image is mapped are determined. The above data for each 08SE is provided to the 08SE processing channel, as explained below.

物体/地面/特殊効果(O8SE)チャンネル処理チャ
ンネルすなわちossaチャンネルはデータベース・ラ
イブラリィからの物体データと、地面データと、特殊効
果データを処理する。前記したように、それら3つの全
ての機能に対して同一のチャンネル・ハードウェアが適
当である。
Object/Ground/Special Effects (O8SE) Channel The processing channel or ossa channel processes object data, ground data, and special effects data from the database library. As mentioned above, the same channel hardware is appropriate for all three functions.

08SEチヤンネルはCGSI装置にとって重要で、必
須のものである。08SEチヤンネルの可能なハードウ
ェアの実施例を第17図に示す。
The 08SE channel is important and essential for CGSI equipment. A possible hardware implementation of the 08SE channel is shown in FIG.

正しい輝度、色、映像、寸法、位置、回転および眺望を
得るために、下記のように、08SEチヤンネルにより
ライブラリィ・データについていくつかの機能が実行さ
れる。
Several functions are performed on the library data by the 08SE channel to obtain the correct brightness, color, image, dimensions, position, rotation and view, as described below.

a)高速(約100ナノ秒・標本)アナログ−デジタル
変換器30が物体の映像をデジタル形式に変換する。通
常は、デジタル形式は1本当り512個の画素を有する
実効走査線を480本(総数は525本)を有する。1
個の画素は8ビツト(256階調)を含む。
a) A high speed (approximately 100 nanoseconds/sample) analog-to-digital converter 30 converts the image of the object into digital format. Typically, digital formats have 480 effective scan lines (525 total) with 512 pixels each. 1
Each pixel includes 8 bits (256 gradations).

b)高速メモリカード32がX@またはY軸のデジタル
データを受ける。ローディングの軸と方向は画像の回転
に依存する。処理ノ(ス中のビクセル圧縮を最少限に抑
えるためにデータがロードされる。たとえば、画像を6
0度回転させる代りに(60度回転させると画像がある
程度失われる)、データは垂直軸(90度)にロードさ
れ、30度何回転せられる。
b) High speed memory card 32 receives X@ or Y axis digital data. The loading axis and direction depend on the image rotation. Data is loaded to minimize pixel compression during processing. For example, if an image is
Instead of rotating 0 degrees (rotating 60 degrees would result in some image loss), the data is loaded on the vertical axis (90 degrees) and rotated by 30 degrees.

メモリカード32は、光デイスク制御器が新しいトラッ
ク(画像)を選択している時に、処理のために物体の画
像も保持する。物体がディスクに90度増分で格納され
るか、回転が+45度以下であれば、このカードは省く
ことができる。
Memory card 32 also holds images of objects for processing when the optical disk controller is selecting a new track (image). This card can be omitted if the object is stored on the disk in 90 degree increments or if the rotation is less than +45 degrees.

C)調査表すなわぢtut34が、距離感とコントラス
ト効果を得るために、画像輝度値を修正する。この操作
にはビクセル数個分だけ遅らせる必要がある。
C) The research tool 34 modifies the image brightness values to obtain distance and contrast effects. This operation requires a delay of several pixels.

d〉ねじ曲げカード36がY軸の画像を線ごとに変換す
る。スタート点(オフセット)と倍率は各線のビクセル
を移動、圧縮または伸長させる。この操作によりビクセ
ルの流れが1線分だけ遅延させられる。
d> Twisting card 36 transforms the Y-axis image line by line. The starting point (offset) and scaling factor move, compress or stretch the pixels of each line. This operation delays the flow of pixels by one line.

e)第2の同一の高速読出し/書込みXおよびY軸メモ
リカードが、フレームを形成するために奇数番のフィー
ルドと偶数番のフィールドのための変換されたYデータ
を受けて、それを格納する。Y軸フィールドがY軸にロ
ードされた後でX軸データが線により読出され、かつ偶
数番と奇数番のフィールドにより読出される。このバッ
ファ動作には1ビデオフレームを必要とする。
e) A second identical high speed read/write X and Y axis memory card receives and stores the converted Y data for the odd and even fields to form a frame. . After the Y-axis field is loaded into the Y-axis, the X-axis data is read out by line and by the even and odd fields. This buffer operation requires one video frame.

f)カード36と同一の第2のねじ曲げカード40が線
の移動、伸長または圧縮にょシX軸データを・処理する
f) A second twisting card 40, identical to card 36, processes the X-axis data for line translation, stretching or compression.

輝度制御 調査表の輝度制御器はメモリ制御器と物体調査表52を
含む。表示時間の活動部分中は、調査表、 、、、(L
!JT、)をアト−レスするために入力ビデオが用いら
れ、LUTのデータ出力が、それ以上の処理を行うため
にカード36,38.40にょシ構成されたねじ曲げ機
能へ送られる。この手順にょシ入カ輝度値入力が、I、
TJTに格納されているデータを介して出力輝度値に効
果的にマツピングされる。垂直帰線消去期間中に、メモ
リ制御器5oはLUT52のアドレッシング制御を行う
ことができ(物体制御器によりそのように指令された時
に)、新しい物体を形成するためにLUTに新しい1組
の値をロードし、または以前に選択された物体の外観を
修正する。
The brightness controller of the brightness control survey table includes a memory controller and an object survey table 52. During the active part of the display time, the survey table, , , (L
! The input video is used to address the JT, ) and the data output of the LUT is sent to the contortion function configured on the card 36, 38, 40 for further processing. In this procedure, the input brightness value is I,
It is effectively mapped to the output luminance value via the data stored in the TJT. During the vertical blanking period, the memory controller 5o can take addressing control of the LUT 52 (when so directed by the object controller) and fill the LUT with a new set of values to form a new object. or modify the appearance of previously selected objects.

輝度制御は、カード34により実行されるある特定の物
体に関連する輝度補正を行う機能と、後で説明するよう
な、全体の光景に関係する輝度補正を行う機能との2つ
の機能に分けられる。
Brightness control is divided into two functions: a function that performs brightness corrections related to a particular object, performed by the card 34, and a function that performs brightness corrections related to the overall scene, as will be explained later. .

メモリ制御器50はワンチップ・マイクロプロセッサに
より構成でき、LUT52は、ビデオデータとメモリ制
御器5o内のデータとからアクセスできるようにするた
めに、マルチプレックスおよび制御回路を有するRAM
として構成できる。
The memory controller 50 can be implemented by a one-chip microprocessor, and the LUT 52 is a RAM with multiplexing and control circuitry to provide access from the video data and the data in the memory controller 5o.
It can be configured as

直線ねじ曲げ技術 本発明に関連する1つの直線ねじ曲げ技術はカード36
.38.40により実現され、輝度値のマトリックスと
して表されるデジタル画像に対して空間的な変換を行う
だめの手順を含む。光ディスクのデータベースからアク
セスされた長方形の入力画像を与えられると、この技術
は出力画像の四隅の点をビデオスクリーン上に直線的に
描く。第16図に示されているように、これは2つの直
交パスによシ行われる。各パスは各入力線を異なる寸法
に直線的に補間し、それを出方画像中に位置させる。各
補間のための寸法と位置パラメータが入力画像の隅の座
標と、出方の隅の座標から決定される。この補間は連続
する入力ビクセルを消費して、連続する出力ピクセルを
発生する。それら2つのパスは相互に作用して寸法の変
換、翻訳の変換、回転の変換、プラス非標準マツピング
を実行する。
Linear Thread Bending Technique One linear twist technique related to the present invention is the card 36
.. 38.40 and includes a procedure for performing a spatial transformation on a digital image represented as a matrix of brightness values. Given a rectangular input image accessed from a database on an optical disk, this technique draws the four corner points of the output image in a straight line on the video screen. This is done in two orthogonal passes, as shown in FIG. Each pass linearly interpolates each input line to a different size and positions it in the output image. The dimensions and position parameters for each interpolation are determined from the input image corner coordinates and the exit corner coordinates. This interpolation consumes successive input pixels to produce successive output pixels. The two passes interact to perform dimension transformations, translation transformations, rotation transformations, plus non-standard mapping.

このプロセスは、ビデオスクリーン上の4つの出力隅を
計算したFOVO式とは独立している。4つの出力隅が
ひとたび設定されると、それは全ての変換に対して計算
上に不変である。それは引き続くピクセル値の列に向け
られた流れと線に対して働きかけるから、実時間ハード
ウェア実現のためには理想的に適する。
This process is independent of the FOVO formula that calculated the four output corners on the video screen. Once the four output corners are set, they are computationally invariant to all transformations. Since it operates on streams and lines directed to successive sequences of pixel values, it is ideally suited for real-time hardware implementation.

各パスは入力線の寸法を単に定め(拡大または縮小)、
その入力線を出力ビデオ画像内に位置させる(オフセッ
ト)だけである。それら2つの動作はビクセルの離散し
ているフィールドに対する連続補間により行われる。こ
れにより線の連続寸法決定と、出力線および出力列のサ
ブビクセルの位置ぎめを行えるようにする。それにより
対角線方向の縁部別の名前がつけられることが完全にな
くされる。この技術の核心は、個別の入力線の寸法決定
を連続して行うことと、その入力線の個別出力格子に関
連する位置調整を装置が行えるようにする方法である。
Each pass simply dimensions (grows or shrinks) the input line,
It simply positions (offsets) its input line within the output video image. These two operations are performed by continuous interpolation over discrete fields of pixels. This allows for continuous sizing of lines and sub-vixel positioning of output lines and columns. This completely eliminates naming of diagonal edges. At the heart of this technique is a method that allows the device to sequentially size and adjust the position of individual input lines relative to individual output grids.

補間 第21図は第16図に示したプロセスに対する連続補間
動作のための流れ図である。第21図において、記号5
IZFACは入力画像線へ与えられる「寸法係数」でア
夛、lN5FACは5IZFACノ逆であって、出力ピ
クセルの形成のために入力ピクセルのどの部分が求めら
れるかを示すという付加的な意味を有する。I NS 
EGは対応する出力ピクセルに寄与するために利用でき
る現在の入力ピクセルの部分であ、j5.0UTSEG
はまだ完成させるべき出力ピクセル部分のことである。
Interpolation FIG. 21 is a flowchart for the continuous interpolation operation for the process shown in FIG. In Figure 21, symbol 5
IZFAC is the "size factor" applied to the input image line, and lN5FAC is the inverse of 5IZFAC, with the additional meaning of indicating which part of the input pixel is sought to form the output pixel. . INS
EG is the portion of the current input pixel available to contribute to the corresponding output pixel, j5.0UTSEG
refers to the portion of the output pixel that still needs to be completed.

上記の定義によp1プロセスはlN5EGと0tJTS
EGとの値の比較から始まる。OUT S EGがlN
5EGより小さい時は、出力ピクセルを完成するために
利用できる入力ピクセルが十分にあることを意味する。
According to the above definition, the p1 process has lN5EG and 0tJTS
It begins with a comparison of values with EG. OUT S EG is IN
When it is less than 5EG, it means there are enough input pixels available to complete the output pixels.

これとは逆に、lN5EGが0UTSEGより小さい時
は、出力ピクセルを完成するために利用できる入力ピク
セルが十分には残されていないことを意味する。
Conversely, when lN5EG is less than 0UTSEG, it means that there are not enough input pixels left available to complete the output pixel.

したがって、現在の入力ピクセルがずっと用いられ、出
力ピクセルを完成するためには新しいピクセルを引き出
してこなければならない。それら2つの条件の下におい
てのみ、出力ピクセルを完成することなしに入力ピクセ
ルがずっと用いられ、または入力ピクセルを用いること
なしに出力ピクセルが完成されるのである。
Therefore, the current input pixel is always used and new pixels must be drawn to complete the output pixel. Only under those two conditions will an input pixel be used forever without completing an output pixel, or an output pixel be completed without using an input pixel.

出力ピクセルが完成させられるようにされたままである
とすると、現在のピクセル値に0UTSEGが乗ぜられ
、その積がアキュムレータに加えられる。入力ピクセル
のその部分の使用法を指示するためにlN5EGは0U
TSEGの値だけ減少させられ、それから0UTSEG
がlN5FACにイニシャライズさせられで、完全な出
力ピクセルが満されるために留まっていることを指示す
る。アキュムレータの内容は5IZFACにより換算さ
れ、その結果は次の出力ビクセルの値である。それから
プロセスはlN5ECとOU’I’SEGとの新しい値
を比較するために戻る。
Assuming the output pixel is left to be completed, the current pixel value is multiplied by 0UTSEG and the product is added to the accumulator. lN5EG is 0U to indicate the usage of that portion of the input pixel.
is decreased by the value of TSEG, then 0UTSEG
is initialized by the IN5FAC to indicate that a complete output pixel is reserved for filling. The contents of the accumulator are scaled by 5IZFAC and the result is the value of the next output pixel. The process then returns to compare the new values of IN5EC and OU'I'SEG.

入力ピクセルが使用されるために残っているとすると、
現在のピクセル値にlN5EGが掛けられ、その積がア
キュムレータに加えられる。0UTSEGがlN5EG
の値だけ減少させられて、出力ピクセルの部分が満され
たことを示す。それからlN5EGが1.0に再びイニ
シャライズされ、次の入力ピクセルがとり出される。そ
れから、プロセスはlN5EGと0UTSEGとの新し
い値を比較するために戻る。
Assuming there are input pixels left to be used,
The current pixel value is multiplied by lN5EG and the product is added to the accumulator. 0UTSEG is lN5EG
to indicate that the portion of the output pixel has been filled. Then IN5EG is reinitialized to 1.0 and the next input pixel is retrieved. The process then returns to compare the new values of IN5EG and 0UTSEG.

このプロセスの核心は、入力ビクセルを出力ピクセルに
基準化するためのlN5EGと0UTSEGの間の相互
作用である。その効果は、ピクセルの基準化と、連続補
間プロセスにより1つの個別格子から別の個別格子への
移動との1つである。もちろん、この連続基準化プロセ
スの成功はlN5EGとOUT S EGの小さい精度
に依存する。精度が十分に高いと、2つの個別格子の間
で完全に滑らかなピクセル移動が行われるという効果が
得られる。
The core of this process is the interaction between IN5EG and 0UTSEG to scale input pixels to output pixels. The effect is one of scaling the pixels and moving them from one individual grid to another by a continuous interpolation process. Of course, the success of this continuous scaling process depends on the small accuracy of IN5EG and OUT S EG. A sufficiently high precision has the effect of a completely smooth pixel movement between the two individual grids.

0UTSEGをI NS FAGのある百分率にイニシ
ャライズして、部分的な第1の出力ピクセルを作るこト
ニより、サブピクセルのフェージングが行われる。入力
ビクセルを使いきってしまった時には最後の出力ピクセ
ルを完成できないことがお9、その結果として最後の出
力ピクセルは部分的なものとなる。これにより、個別の
ピクセル格子に対する関係で出力ピクセルを連続して位
置させることができるようにされ、縁部に別の名前がつ
けられることがなくなる。
Subpixel fading is performed by initializing 0UTSEG to a percentage of INSFAG to create a partial first output pixel. When the input pixels are used up, the last output pixel may not be completed, resulting in the final output pixel being partial. This allows the output pixels to be placed consecutively in relation to the individual pixel grids, and avoids having separate names for the edges.

個別の出力格子に関連して個別の入力線の寸法を定める
ことと、位相を定めることを連続して行えることにより
、四辺形へのねじ曲げは、第1のパスの各列と、第2の
パスの各線とに対する寸法パラメータ、位相パラメータ
、出力場所ノ(ラメータを決定する事柄となる。
By sequentially sizing and phasing the individual input lines with respect to the individual output grids, the quadrilateral twisting can be done with each column of the first pass and the second The dimension parameters, phase parameters, and output location parameters for each line of the path are determined.

第1のパス(第16図)は入力画像を読出し、中間の画
像を垂直方向に左から右へ書込む。物体は全てのピクセ
ルをそれぞれの正しい垂直軸の向きに移動させる。これ
は、第1の列をYlとY2の間にマツピングし、最後の
列がY2で始まってY3・で終るように他の全ての列に
対して直線的に補間することにより行われる。。
The first pass (Figure 16) reads the input image and writes intermediate images vertically from left to right. The object moves all pixels along their correct vertical axis. This is done by mapping the first column between Y1 and Y2 and linearly interpolating to all other columns such that the last column starts at Y2 and ends at Y3. .

第2のパスは中間画像から行を読出し、行を出力に書込
む。今では全てのピクセルがそれぞれの正しい行にある
から、2〜1フィールド飛越しのような任意の順序で行
を独立に処理できる。第2のパスの目的は全てのピクセ
ルをそれぞれの正しい水平軸の向きへ移動させることで
ある。
The second pass reads lines from the intermediate image and writes lines to the output. Since all pixels are now in their correct rows, rows can be processed independently in any order, such as interlacing 2 to 1 fields. The purpose of the second pass is to move all pixels to their correct horizontal axis orientation.

第2のパス・マツピングは、中間画像の破線により示さ
れているように、3つの処理領域において考慮せねばな
ら々い。異なる出力場所デルタが各領域ごとにあり、中
間領域処理の間だけ、寸法係数がそれのデルタにより更
新させられる。正しい初期値とデルタにより、各隅はそ
れの出力X座標にマツプされ、画像の残りは適切な関係
に従う。
The second path mapping must be considered in three processing regions, as indicated by the dashed lines in the intermediate image. There is a different output location delta for each region, and only during intermediate region processing the size factor is updated by that delta. With the correct initial values and deltas, each corner will be mapped to its output X coordinate and the rest of the image will follow the appropriate relationship.

初期出力場所は1−4の縁部と、最も上の隅を通る水平
線との交点である。上部領域に対する場所デルタは、隅
1が最も上であれば、1−4の縁部の勾配であり、隅2
が最も上であれば、2−3の縁部の勾配である。中間領
域に対する場所デルタは、1−4の縁部の勾配である。
The initial output location is the intersection of the 1-4 edge and the horizontal line passing through the top corner. The location delta for the top region is the edge slope of 1-4 if corner 1 is the topmost and corner 2
If is the topmost, then the slope of the edge is 2-3. The location delta for the intermediate region is the edge slope of 1-4.

下側領域に対する場所デルタは、隅4が1番下であれば
、1−4の縁部の勾配であり、隅3が最も下であれば、
2−3の縁部の勾配である。最初の寸法係数は、2番目
に高い隅から水平方向に反対側の縁部までの水平線分の
長さである。寸法デルタは、3番目に高い隅の類似の値
から差し引かれた値を、2番目に高い隅と3番目に高い
隅の垂直距離で割った値である。
The location delta for the lower region is the edge slope of 1-4 if corner 4 is the bottommost, and if corner 3 is the bottommost
2-3 edge slope. The first size factor is the length of the horizontal line segment from the second highest corner to the horizontally opposite edge. The dimension delta is the value subtracted from the similar value of the third-highest corner, divided by the vertical distance between the second-highest corner and the third-highest corner.

このようにして、入力画像の隅1,2,3.4が出力画
像の隅1,2,3.4にマツプされる。このマツピング
には、ここで説明したマツピング操作に先立って、入力
画像を90度、180度または270度だけ予め向きを
定めて2くことが求められることがある。この向きは可
能な4つの中間画像の面積を計算し、面積を最大とする
向きを選択することによって決定される。向きを予め定
めた後は、入力画像の隅と出力画像の隅は、隅1が左上
の隅であるように再びラベルがつけられる。
In this way, corners 1, 2, 3.4 of the input image are mapped to corners 1, 2, 3.4 of the output image. This mapping may require preorienting the input image by 90 degrees, 180 degrees, or 270 degrees prior to the mapping operations described herein. This orientation is determined by calculating the areas of four possible intermediate images and selecting the orientation that maximizes the area. After predetermining the orientation, the corners of the input image and the corners of the output image are relabeled such that corner 1 is the top left corner.

それから、ねじ曲げ機能は列ごとのパスと線ごとのパス
を用いてプロセスを実現する。第19図は、定められた
3つの副機能を有するねじ曲げ機能のためのトップレベ
ルのブロック図でおる。カード36.40の上に配置さ
れている同一の物体プロセッサ60.62が用いられる
。各プロセッサは一次元のねじ曲げを行うことができる
。X物体プロセッサ60は列ごとのねじ曲げを行い、X
物体プロセッサ62は線ごとのねじ曲げを行p0その点
まで用いられていた直列データ流中の列に向けられたデ
ータではなくて行データをX物体プロセッサ62がアク
セスできるようにするために、フレーム・バッファ64
が中間画像(X方向でなくてY方向にねじ曲げられた〕
を格納するために用いられる。
Then, the twist function implements the process using row-by-column passes and line-by-line passes. FIG. 19 is a top level block diagram for the twisting function with three subfunctions defined. The same object processor 60.62 located on the card 36.40 is used. Each processor can perform one-dimensional twisting. The X object processor 60 performs column-by-column twisting and
Object processor 62 performs a line-by-line twist on row p0 to allow X object processor 62 to access row data rather than column-directed data in the serial data stream that had been used up to that point. buffer 64
is an intermediate image (twisted in the Y direction instead of the X direction)
Used to store.

このアルゴリズムの実現のために必須の、YパスとXパ
スのための大きさパラメータとオフセット・パラメータ
が、適切な物体制御器からY軸プロセッサ60 トX軸
7’ロセツサ62ヘフレーム速度で送られる。大きさお
よびオフセットの線ごと(−!、たけ列ごと)の計算は
軸プロセッサ自体で行わねばならない。
The magnitude and offset parameters for the Y and X passes essential to the implementation of this algorithm are sent at frame rate from the appropriate object controller to the Y-axis processor 60 and the X-axis 7' processor 62. Line-by-line (-!, column-by-column) calculations of magnitude and offset must be done in the axis processor itself.

直線ねじ曲げ技術の実現 第20図に示すように、入力メモリ70と、第1パス・
プロセッサ60と、中間メモリ64と、第2パス・プロ
セッサ62とを用いてノくイブライン構造で2パス技術
が構成される。中間メモリは、第1パス・プロセッサ6
2がそれの結果を1つのバッファに書込んでやる間に、
第2のノくス・プロセッサがそれの入力を別のノ(ソフ
ァから読出すことができるように、二重)くソファであ
る。両方のプロセス段は同一の71−ドウエア設計とす
ることができる。
Realization of linear twisting technology As shown in FIG. 20, the input memory 70 and the first pass
Processor 60, intermediate memory 64, and second pass processor 62 are used to implement a two-pass technique in a network architecture. The intermediate memory is the first pass processor 6
While 2 writes its results into one buffer,
The second node processor reads its inputs from another node (double, so that it can be read from another node). Both process stages can be of the same 71-ware design.

−のサブシステムには3つの外部交信点が設けられてい
る。入力画像メモリ70には画像データベースからロー
ドされ、それは10MHz 、  8ビツトのI10ポ
ートである。ホストはサブ画像座標と出力隅座標を制御
器72へ送らねばならない。これは高速PS232また
は共用されるDMAポートである。この第3のポートは
10MHz % 8ビツトの、同期された、ピクセルの
2−1飛越し流として与えられる出力画像である。
- The subsystem is provided with three external communication points. The input image memory 70 is loaded from the image database and is a 10 MHz, 8 bit I10 port. The host must send sub-image coordinates and output corner coordinates to controller 72. This is a high speed PS232 or shared DMA port. This third port is the output image presented as a 10 MHz % 8 bit, synchronized, 2-1 interlaced stream of pixels.

ホストは第16図のフレーム25の内部に示されている
ように入力画像の設定と、スクリーン・フレーム26内
に示されている画像隅の点1〜4の供給とを行わねばな
らない。このサブシステムは次に、ホストが一方または
他方を変えるまで、供給された画像に対して指示された
変換を行う。
The host must configure the input image as shown within frame 25 of FIG. 16 and provide image corner points 1-4 as shown within screen frame 26. This subsystem then performs the directed transformations on the supplied images until the host changes one or the other.

サブシステム内部での制御と処理はフレーム段と、線膜
と、ピクセル段との3つの階層段に自然に区分される。
Control and processing within the subsystem is naturally divided into three hierarchical levels: frame level, film level, and pixel level.

フレーム処理と線処理はピクセル処理よりも帯域幅が狭
く、入手できる16ビツト・マイクロプロセッサで行う
ことができる。ピクセル処理はデータ速度が非常に高い
から、特別設計のハードウェアを必要とする。
Frame processing and line processing have lower bandwidth than pixel processing and can be performed on available 16-bit microprocessors. Pixel processing requires specially designed hardware because the data rates are very high.

フレームレベル制御にはメモリの設定と、ホストとの交
信および線プロセッサの開始とが含まれる。7v−ムレ
ベルにおいてはいくつかの制御タスクが実行される。入
力段のアクセスの向きは、最大の中間画像を生ずる向き
を見出すことにより決定される。これは第17図のフレ
ーム27により示されている。4つの可能な向きと出力
位置が存在し、寸法係数と関連するデルタを計算して第
20図の線プロセッサへ送らねばならない。第2のパス
のためには、それらの計算は第1のノくスに2けるそれ
よりもいくらか複雑であり、それに加えて、いくらかの
スクリーン・クリッピング計算を行わねばならない。
Frame level control includes setting up memory, communicating with the host and starting the line processor. Several control tasks are performed at the 7v-me level. The orientation of the input stage access is determined by finding the orientation that yields the largest intermediate image. This is illustrated by frame 27 in FIG. There are four possible orientations and output positions, and the size factors and associated deltas must be calculated and sent to the line processor of FIG. 20. For the second pass, the calculations are somewhat more complex than those for the first pass, and in addition, some screen clipping calculations must be performed.

フレームに向けられた計算の実行、には33ミリ秒の時
間を利用でき、二重整数算術演算を行うことにより、そ
れらのタスクは、たとえばM2SO4においては僅かに
約15ミリ秒必要とするだけである。したがって、それ
らの計算とサブシステムの制御を実行するために、1台
のマイクロコンピュータで十分な処理能力がある。
33 ms of time is available for performing frame-directed computations, and by performing double-integer arithmetic, those tasks require only about 15 ms in M2SO4, for example. It is. Therefore, one microcomputer has sufficient processing power to perform these calculations and control the subsystems.

線レベル処理は出力位置と寸法係数を増大し、出力位置
についてのクリッピング計算を実行し、入力および出力
メモリ内のアドレスをセットし、処理を開始することを
ビクセル・プロセッサに合図する。この処理のために利
用できる時間は63マイクロ秒である。少くとも50マ
イクロ秒を必要とするもめと見積られている。これは限
界に近いから、各パスに対する線計算の性能を確保する
ためには2台のマイクロコンピュータを必要とすること
かある。
Line level processing increases the output position and size factor, performs clipping calculations on the output position, sets addresses in input and output memory, and signals the pixel processor to begin processing. The time available for this process is 63 microseconds. It is estimated that the conflict will take at least 50 microseconds. Since this is close to the limit, two microcomputers may be required to ensure line calculation performance for each path.

各パスのために別の線プロセッサを必要とするが、ただ
1つのフレームプロセッサでよい。したがって合計5台
のマイクロプロセッサを必要とする。各プロセスのため
には非常にわずかなデータ格納を要するだけで、必要な
プログラムも短い。
A separate line processor is required for each pass, but only one frame processor is required. Therefore, a total of five microprocessors are required. Each process requires very little data storage and the required program is short.

したがって、非常に小容量のメモリで良く、全部で5つ
のマイクロプロセッサは1枚のボードにとりつけられる
Therefore, a very small amount of memory is required, and a total of five microprocessors can be mounted on one board.

第22図は入カビ・クセルを消費して出力ビクセルを発
生する補間法を実行するだめの典型的な補間プロセッサ
を示すものである。このプロセッサは、ハードウェアで
容易にパイプライン構造でできる2状態補間ループ技術
を実現するものである。
FIG. 22 shows a typical interpolation processor for performing an interpolation method that consumes input pixels to generate output pixels. This processor implements a two-state interpolation loop technique that can be easily implemented in hardware with a pipeline structure.

出力ピクセルは100ナノ秒ごとに1個という最高速度
で容易に発生できるはずである。このアルゴリズムは出
力ピクセルの発生に2サイクルを要するから、パイプラ
インは50ナノ秒サイクルで動作できねばならない。こ
の処理はハードウェアの数が最少で高速のパイプライン
に適合する。
Output pixels could easily be generated at a maximum rate of one every 100 nanoseconds. Since this algorithm requires two cycles to generate an output pixel, the pipeline must be able to operate in 50 nanosecond cycles. This process requires minimal hardware and is compatible with high speed pipelines.

単一パイブライン段のために回帰結合75E存在する。A recursive combination 75E exists for a single pipeline stage.

これはlN5EGと0UTSEGの比較である。入力ビ
クセル(INSEG)を基準化するために1を用いるこ
と、および比較をもとにして他力)ら1を弓1くことに
より、その時に再び比較される1に対して新しい値が生
ずる。基準化のために選択された係数は次段のレジスタ
ヘクロック制御により入力され、そこに保持される。し
かし、1つの段においては1つのサイクル中に比較と減
算が必ず行われる。
This is a comparison between IN5EG and 0UTSEG. Using 1 to scale the input pixel (INSEG) and subtracting 1 from INSEG based on the comparison results in a new value for the 1 that is then compared again. The coefficients selected for scaling are input to the next stage register under clock control and held there. However, in one stage, comparison and subtraction are always performed during one cycle.

これは第22図に示されている。This is shown in FIG.

初段の動作 画像の寸法を小さくするものとすると、0UTSEGは
lN5EGより小さく、出力ピクセルは完成させられる
。OUT S EGは次段の係数レジスタに格納され、
lN5EGから引かれる。lN5E)Gの新しい値〃ぶ
それのレジスタに格納される。OUT S EGはlN
5EG 75”ら再び初期設定され、次dサイクルのた
めに比較75S設定される。
If the size of the first stage motion image is to be reduced, 0UTSEG is smaller than IN5EG, and the output pixel is completed. OUT S EG is stored in the coefficient register of the next stage,
Derived from lN5EG. lN5E) The new value of G is stored in its register. OUT S EG is lN
5EG 75'' are initialized again and comparison 75S is set for the next d cycle.

これとは逆に、lN5EGがou’rsgaより、J−
さいと、入力ピクセルが完結される。lN5EGは次段
の係数レジスタに入れられ、0UTSEGから引かれる
On the contrary, lN5EG is more sensitive to J-
When the input pixel is completed, the input pixel is completed. lN5EG is placed in the coefficient register of the next stage and subtracted from 0UTSEG.

0UTSEGの新しい値がその段のレジスタに格納され
、lN5EGは1.0に再初期設定され、ノ<イブライ
ン段は次のサイクルのためにセットされる。残りの段も
これと同様な動作を行う。
The new value of 0UTSEG is stored in that stage's register, lN5EG is reinitialized to 1.0, and the NO<iB line stage is set for the next cycle. The remaining stages perform similar operations.

第2段 第2段は入力ピクセル値に選択された換算係数を乗する
。入力ビクセルがなくなると次の入力ビクセルがビクセ
ル・レジスタに入力される。乗算の結果がパイプライン
の次の段すなわち第3段へ与えられる。
Second Stage The second stage multiplies the input pixel value by a selected scaling factor. When the input vixel is exhausted, the next input vixel is input into the vixel register. The result of the multiplication is provided to the next stage of the pipeline, the third stage.

第3段 第3段は入力ピクセルの基準化されたイ直を累算−1−
4゜入力ピクセルがすって用いられているとすると、処
理は終る。出力ピクセルiE完結されると、累積されて
いる値が次段へ与えられ、アキュムレータは零にクリヤ
される。
3rd stage The 3rd stage accumulates the scaled a-square of the input pixel -1-
Assuming that all 4° input pixels have been used, the process ends. When the output pixel iE is completed, the accumulated value is given to the next stage and the accumulator is cleared to zero.

第4段 第4段は第3段から与えられた値を桁送りして、出力基
準化乗算器へ入力させるために/J%数点位置を正規化
する。この正規化については後で説明する。
Fourth stage The fourth stage shifts the value given from the third stage and normalizes the position of /J% several points in order to input it to the output standardization multiplier. This normalization will be explained later.

第5段 第5段では、累積された値に5IZFACが乗ぜられる
。これはlN5FACの逆である。この操作により次の
出力ピクセルのための値が得られる。その値はメモリへ
与えられて、それの次の出力ピクセル場所に格納される
Fifth Stage In the fifth stage, the accumulated value is multiplied by 5IZFAC. This is the opposite of IN5FAC. This operation yields the value for the next output pixel. The value is applied to memory and stored in its next output pixel location.

演算精度 補間は出力輝度値と、それらの値の空間の向きとの両方
で演算精度に敏感である。コンピュータのシミュレーシ
ョンによれば、lN5EG ト0UTSEGの値は、広
い範囲の変換にわたって、非常に高い出力忠実度を達成
するためには、小数8ビツトで十分なことが判明してい
る。
Arithmetic precision interpolation is sensitive to the precision of both the output luminance values and the spatial orientation of those values. Computer simulations have shown that a value of 8 fractional bits is sufficient to achieve very high output fidelity over a wide range of conversions.

INIGの値は1.0を決してこえないから、表示のた
めには9ビツトでよい。0UTSEGは16ビツト、う
ち8ビツトが小数点以下で表すことができる。次段のだ
めの換算係数として2つの値のうちの小さい方が常に選
択されることが容易にわかる。
Since the value of INIG never exceeds 1.0, 9 bits are sufficient for display purposes. 0UTSEG can be represented by 16 bits, of which 8 bits are below the decimal point. It is easy to see that the smaller of the two values is always selected as the conversion factor for the next stage.

このことは、1.0またはそれの8ビツト小数の換算係
数だけが存在するであろうことを意味する。
This means that there will only be a conversion factor of 1.0 or an 8-bit fraction thereof.

係数の1.0は検出でき、尺度乗算をバイパスし、ピク
セル値をアキュムレータへ直接与えルトいう特殊なケー
スとして処理される。これにより8つの小数ビットを有
する換算係数だけが残される。
A coefficient of 1.0 can be detected and treated as a special case that bypasses the scale multiplication and feeds the pixel value directly to the accumulator. This leaves only the scale factor with 8 fractional bits.

基準化のためには8x8の乗算器で十分であシ、そうす
るとその積は小数ビットが8である16ビツト値である
For scaling, an 8x8 multiplier is sufficient, so the product is a 16-bit value with 8 fractional bits.

アキュムレータはそれらの値を累算する。また、2つの
可能性が存在する。lN5FACが1.0以下であると
すると、関連するピクセルビットが積の小数部分に入り
こむから、ただ1つの累算を生ずる。
Accumulators accumulate their values. There are also two possibilities. If lN5FAC is less than or equal to 1.0, the associated pixel bits will fall into the fractional part of the product, resulting in only one accumulation.

一方、lN5FACが1.0より大きいと、関連するピ
クセルビットが高位のビットに入シこむから、いくつか
の累算が存在することがある。したがって、アキュムレ
ータは24ビツト幅で、小数ビットを8ビット含まなけ
ればならない。
On the other hand, if lN5FAC is greater than 1.0, there may be several accumulations because the associated pixel bits go into the higher order bits. Therefore, the accumulator must be 24 bits wide and include 8 fractional bits.

アキュムレータの値は5IZFACにより最終の出力値
にしだいに基準化されてゆく。この最終的な基準化のう
ちの8ビツトだけを必要とする。小数点の左側の8ビツ
トが希望のビットである。累算できる可能な値はlN5
FACと5IZFACの値に直接関連づけられる。した
がって、5IzFACの値はアキュムレータ内の可能な
値の範囲に直接関連づけられ、希望の8ビツトを発生す
る、5IZFACとアキュムレータとの関連するビット
を決定できる。
The accumulator value is progressively scaled to the final output value by the 5IZFAC. Only 8 bits of this final scaling are required. The 8 bits to the left of the decimal point are the desired bits. The possible values that can be accumulated are lN5
It is directly related to the values of FAC and 5IZFAC. Therefore, the value of 5IzFAC is directly related to the range of possible values in the accumulator, and it is possible to determine the associated bits in 5IZFAC and the accumulator that produce the desired 8 bits.

5IZFACは、それの高位ビットが1であるように正
規化できる。その値がそれの高位の8ビツト以上が切り
捨てられ、それの結果の小数点に注目すると、得られた
値はたとえば小数点以下のビットを6個含むかも知れな
い。S I ZFACの値を基にすると、関連するビッ
トは小数ビットを8ビツト有するアキュムレータからと
9出される。とり出された値は、それと5IZFACの
間の小数ビットの総計を8にするために十分なビットを
有する。2つの数を互いにかけ合わせると、16ビツト
の積は8つの小数ビットを有し、高位の8ビツト性出カ
ピクセル値のだめの小数点の左側の希望のビットである
5IZFAC can be normalized so that its high order bit is 1. If the value has its eight or more significant bits truncated and the resulting decimal point is noted, the resulting value may contain, for example, six decimal bits. Based on the value of S I ZFAC, the relevant bits are taken out of the accumulator with 8 fractional bits. The retrieved value has enough bits to bring the total number of fractional bits between it and 5IZFAC to 8. When two numbers are multiplied together, the 16-bit product has eight fractional bits, the desired bit to the left of the decimal point in the upper 8-bit output pixel value.

二軸高速メモリ メモリは、指定された行または列の連続するピクセルの
流れを送ったり、受けたりすることによりピクセル・プ
ロセッサのために機能する。線マイクロコンピュータは
画像の行アドレスと列アドレスをメモリのアドレス・カ
ラ/りにロードする。
A dual-axis high speed memory memory functions for the pixel processor by sending and receiving streams of successive pixels in designated rows or columns. The line microcomputer loads the row and column addresses of the image into memory address columns.

線マイクロコンピュータはそのアドレスを行または列と
して増加させるべきか否か、および読出し動作と書込み
動作のいずれを実行すべきかを指定する。メモリはピク
セル・プロセッサからの次のピクセルに対する要求に応
答する。新しい各線に対して、メモリは新しい行または
列のアドレスへ線マイクロプロセッサによってり七ッ卜
される。
The line microcomputer specifies whether the address should be incremented as a row or column and whether a read or write operation should be performed. The memory responds to requests for the next pixel from the pixel processor. For each new line, memory is loaded by the line microprocessor to the new row or column address.

メモリは100ナノ秒ごとに1回という最高速度で要求
に応答せねばならない。この速度は、メモリをそれぞれ
8ビツトの4つのバンクに統合することを含む技術によ
り達成される。このやり方では、1メモリサイクルに4
個のピクセルを供給または格納できる。そして、ピクセ
ルは基本メモリ速度が可能とする速度の4倍の速さで動
かすことができる。第24図に示すように、画像の行と
列における高速呼出した、その画像をメモリへらせん状
にマツピングして、任意の行または列の連続する4個の
ピクセルが別々のメモリバンク格納されるよりにするこ
とにより達成される。
The memory must respond to requests at a maximum rate of once every 100 nanoseconds. This speed is achieved through a technique that involves consolidating the memory into four banks of 8 bits each. In this way, one memory cycle has 4
pixels can be supplied or stored. Pixels can then be moved four times faster than the base memory speed allows. As shown in Figure 24, by fast recalling an image in a row and column, and mapping that image into memory in a spiral manner, four consecutive pixels in any row or column are stored in separate memory banks. This is achieved by doing more.

画像アドレス−メモリアドレス・マツピング第24〜2
6図は画像アドレス−メモリアドレス・マツピングがど
のようにして行われるかを示すものである。行と列の画
像アドレスはアップ/ダウンカウンタに格納され、内部
でメモリアドレスにマツプされる。マツピングによシ、
列に向けられた呼出しのだめの行アドレス、または行に
向けられた呼出しのための列アドレスの増加が伴う。
Image address-memory address mapping No. 24-2
FIG. 6 shows how image address-memory address mapping is performed. Row and column image addresses are stored in up/down counters and internally mapped to memory addresses. Matupingyosi,
This involves increasing the row address for a column-directed call, or the column address for a row-directed call.

16ビツト・メモリアドレスの下位2ビツトの決定と、
各メモリバンクのための入力レジスタと出力レジスタの
アドレスの向きの回転の制御は、アドレス・マツピング
の一層難解な点である。
Determining the lower two bits of the 16-bit memory address,
Controlling the rotation of the address orientation of input and output registers for each memory bank is a more difficult aspect of address mapping.

16ビツト・メモリアドレスの上位7ビツトは、9ピッ
ト列アドレスの上位7ビツトを含む。メモリアドレスの
下位2ビツトは、行77列フラッグを関弊である。行に
向けられた呼出しモードの場合には、各バンクの下位2
ビツトは同じであって、行アドレスの下位2ビツトであ
る。列に向けられた呼出しの場合には、下位の2アドレ
スビツトはメモリバンクごとに異なシ、列アドレスの下
位2ビツトに従って回転させられる。
The upper 7 bits of the 16-bit memory address include the upper 7 bits of the 9-pit column address. The lower two bits of the memory address are responsible for the row 77 column flag. For row-directed recall mode, the lower two of each bank
The bits are the same, the lower two bits of the row address. For column-directed calls, the lower two address bits are rotated according to the lower two bits of the column address, which are different for each memory bank.

下位2メモリビツト 下位2列ビット  バンクA  バ/りB  バンクC
バンクD00      00    01    1
0   110’l       11    00 
    Q    1010      10    
11    00   0111      01  
  10    11   00人カー出力レジスタの
制御は行と列の呼出しモードの双方で同じであり、行と
列の両方の下位2ビツトの関数である。レジスタのアド
レス割当は、呼出される行または列に応じて回転する。
Lower 2 memory bits Lower 2 column bits Bank A Bar/B Bank C
Bank D00 00 01 1
0 110'l 11 00
Q 1010 10
11 00 0111 01
The control of the 10 11 00 car output register is the same in both row and column access modes and is a function of the lower two bits of both row and column. Register address assignments rotate depending on the row or column being called.

下位2ビツトだけについて考えると、零列に対する零ピ
クセルはバンクCにある等である。行の場合でも同様で
ある。この回転レジスタ・アドレスはバンクAに0を、
バンクBに1を、等のように各バンクに1または0を割
当て、列と行のアドレスの下位2ビツトに法4を加える
ことにより実現できる。
Considering only the lower two bits, the zero pixel for the zero column is in bank C, and so on. The same applies to rows. This rotation register address has 0 in bank A,
This can be achieved by assigning 1 or 0 to each bank, such as 1 to bank B, and adding modulo 4 to the lower two bits of the column and row addresses.

プロセッサからの各要求に対して、行または列ヤh アドレスの適切な方が増大させられる。ビクセルは出力
レジスタから多重化され、または多重化されてから入力
レジスタに入力される。増加しているアドレスの下位2
ビツトが11からOOへ変ると、メモリ・サイクルが開
始されて4つの人力ピクセルを格納し、または次の4個
のピクセルを読出す。
For each request from the processor, the appropriate row or column address is incremented. The pixels are multiplexed from the output register or multiplexed before entering the input register. Lower 2 of increasing addresses
When the bit changes from 11 to OO, a memory cycle is initiated to store the 4 manual pixels or read the next 4 pixels.

大型/小型チャンネル・プロセッサ CGS I光景を構成するためには、先に説明したよう
に、各物体、地面、特殊効果(ossg)の画像が処理
チャンネルを通る。各08SEの寸法はビクセルからス
クリーン全体にまで及ぶ。はとんどの光景においては、
小さい(スクリーンの16分の1以下の面積)の物体が
大きい(たとえばスクリーンの面積の16分の1以上)
物体よシ多い。処理チャンネルは全体のフレームで動作
できるように構成される。それらは大型チャンネル・プ
ロセッサと呼ばれる。したがって、フレームのたった1
/16のような小さい部分を使用することは全く効率が
悪い。この場合には選択すべき手段が3つある。すなわ
ち、大型のフレーム・プロセッサを低効率のまま並列で
使用する、専用の小型08SEプロセツサを作る、また
は、複数、たとえば16のossgを大型のチャンネル
・プロセッサで処理する、がそれである。もちろん、最
後の選択が実用面からは最も遠い。
Large/Small Channel Processor CGS I To construct the scene, each object, ground, special effects (ossg) image is passed through the processing channel as previously described. The dimensions of each 08SE range from pixels to the entire screen. In most scenes,
Small objects (for example, 1/16th of the screen area or less) and large objects (for example, 1/16th of the screen area or more)
There are many objects. The processing channels are configured to operate on an entire frame. They are called large channel processors. Therefore, only one of the frames
Using parts as small as /16 is completely inefficient. In this case, there are three options to choose from. That is, using large frame processors in parallel with low efficiency, creating a dedicated small 08SE processor, or processing multiple, say 16, ossgs with a large channel processor. Of course, the last choice is the least practical.

複数の小さい08SEsを、第27図に示すように、並
列または直列に大型のチャンネル・プロセッサで処理さ
せることができる。並列の場合には、16の小さい08
SEが1つのメモリプレーンにロードプレーンにロード
される。、ossgはメモリプレーンのそれぞれのメモ
リセルの中に位置させられる。
Multiple small 08SEs can be processed by a large channel processor in parallel or series, as shown in FIG. In case of parallel, 16 small 08
The SE is loaded into one memory plane into the load plane. , ossg are located in respective memory cells of the memory plane.

セルのXとYのスクリーン・アドレスと、それらのセル
内の08SEのアドレスは、光景構成モジュールのだめ
に画像の位置を決定する。直列法の場合には、全部の小
さい画像がプロセッサを最初はYに、次にXに入って処
理される。この直列法は16枚の小型の入力用と出力用
のメモリプレーンを使用する。
The X and Y screen addresses of the cells and the 08SE addresses within those cells determine the position of the image in the eyes of the scene composition module. In the serial method, all the small images enter the processor first in Y and then in X to be processed. This serial method uses 16 small input and output memory planes.

先に説明したように、CG工両画像発生技術1つの固有
の問題に、物体から背景へ移シ変る際に、縁部の移り変
りに円滑性が欠け、マンガのような表現になることがあ
ることである。本発明の連続補間装置の1つの目立つ利
点は、絵画的な画像の縁部の細部構造に生ずる不自然さ
がなくなったことである。たとえば写真により得られる
絵画的な画像は物体を現実性を持って再現しておシ、各
物体と背景の間の境界の多い変シが急激なものではなく
て軽やかな移り変りである。本発明の補間特性は、・物
体と背景の間に生ずるそれらの微妙な輝度変化を忠実に
再現する。これは、隣り合うピクセルの輝度レベルが大
きく異なって、縁部を鋭いように感じさせ、前記のよう
にマンガの絵のような効果を生じさせる先行技術とは鋭
い対比を成す。
As explained earlier, one inherent problem with CG engineering image generation technology is that when transitioning from an object to a background, the edges lack smoothness, resulting in a cartoon-like appearance. That's true. One notable advantage of the continuous interpolator of the present invention is the elimination of artifacts in the edge detail of pictorial images. For example, a painterly image obtained by photography reproduces objects realistically, and the transitions between each object and the background, which have many boundaries, are not abrupt but light transitions. The interpolation characteristics of the present invention: - Faithfully reproduce the subtle luminance changes that occur between the object and the background. This is in sharp contrast to the prior art, where adjacent pixels have widely different brightness levels, giving the appearance of sharp edges and creating a cartoon-like effect as described above.

斜視曲げ技術 直線的な曲げの場合には、補間技術の利点は、非常に変
化する計算のほとんどを、多くの時間を利用できるフレ
ームレベルで行えることである。
Perspective Bending TechniquesFor straight bending, the advantage of interpolation techniques is that most of the highly variable calculations can be done at the frame level, where most of the time is available.

線の計算は非常に簡単で、ピクセルの補間はほんの僅か
なパラメータで行える。直線補間法は斜視変換のだめの
正確な輪郭を得ることができるが、内部データのマツピ
ングは非直線的であるから、そのようなマツピングは正
確ではない。
Line calculations are very simple, and pixel interpolation can be done with just a few parameters. Although the linear interpolation method can obtain an accurate contour of the perspective transformation pool, such mapping is not accurate since the mapping of internal data is non-linear.

この非直線性は、新しい各出力ピクセルのだめの連続し
て変化する寸法係数の態様における連続補間で明らかに
される。すなわち、直線変換ではlN5FACの値は列
全体すなわち線全体にわたって一定であるのに対して、
斜視変換では、lN5FACの値は出力ピクセルごとに
異なることがある。
This non-linearity is manifested by continuous interpolation in the form of continuously varying size factors of each new output pixel pool. That is, in the linear transformation, the value of lN5FAC is constant over the entire column or line, whereas
In perspective transformation, the value of lN5FAC may be different for each output pixel.

lN5FACの値を変えるため、または寸法係数を変え
るための関数は、低価格の実時間ハードフェアに組込む
ことができるほど十分簡単に計算できるものであること
が望ましい。これは2バス操作で行うことができる。こ
れは、垂直パスと水平パスを、行および列の代りに、垂
直面と水平面によって考えるものである。第1のパスは
、各物体列の垂直面への一連の投写を利用し、第2のパ
スは、スクリーン上の各線を通じて原点から投写された
平面と物体の一連の交差を利用するものである。
It is desirable that the function for changing the value of IN5FAC or for changing the size factor be simple enough to compute so that it can be incorporated into low cost real-time hardware. This can be done with a two-bus operation. This considers vertical and horizontal paths in terms of vertical and horizontal planes instead of rows and columns. The first pass uses a series of projections of each object column onto a vertical plane, and the second pass uses a series of intersections of the object with a plane projected from the origin through each line on the screen. .

平面に関する計算が第28図に示されている。The calculations for the plane are shown in FIG.

0点における観察者の眼がある座標系の原点となる。直
線ABはスクリーンを表す。直線CDはスクリーンのう
しろの空間内の物体を表す線である。
The observer's eye at point 0 is the origin of a coordinate system. Straight line AB represents the screen. Straight line CD is a line representing an object in the space behind the screen.

原点から出ている線はスクリーンABに1ビクセルの増
分で交差している視線光線を示す。それらの光線も直線
CDと交差する。光線が物体直線と交差する点は、スク
リーン上の同じその光線がスクリーンと交差する点に写
像される。
Lines emanating from the origin indicate line-of-sight rays intersecting screen AB in 1-pixel increments. Those rays also intersect straight line CD. The point where a ray intersects the object line is mapped to the point on the screen where the same ray intersects the screen.

したがって、複体線のうち、任意の2本の光線の交点の
間の部分は、゛それら2本の光線とスクリーンとの交点
の間でスクリーンのピクセルに写像される入力画像の部
分である。任意の2本の光線の間の物体線の線分の長さ
は入力ピクセルの数である、すなわち、lN5FACの
値である。その入力ピクセルは対応する出力ピクセルに
寄与する。
Therefore, the portion of the complex line between the intersections of any two rays is the portion of the input image that is mapped to pixels on the screen between the intersections of those two rays and the screen. The length of the object line segment between any two rays is the number of input pixels, ie, the value of lN5FAC. Its input pixels contribute to the corresponding output pixels.

補間パワー・プロセッサのための各出力ピクセル用のl
N5FACの値を得るためKは、物体線の始まりから終
りまで光線を追跡し、各光線の交差を解き、交差の間の
距離を知ることが必要である。
l for each output pixel for the interpolating power processor
To obtain the value of N5FAC, K needs to trace the rays from the beginning to the end of the object line, solve the intersections of each ray, and know the distance between the intersections.

交差方程式は非常に簡単で、はとんどの部分に定数項を
含んでいる。光線は原点を通り、スクリーンまでの距離
と、スクリーンの座標に依存する光線の勾配により特徴
づけられる。スクリーンの座標は、光線を追跡するにつ
れて変化する方程式の唯一の値である。
The intersection equation is very simple and contains constant terms in most parts. The ray passes through the origin and is characterized by the distance to the screen and the slope of the ray, which depends on the coordinates of the screen. The screen coordinates are the only value in the equation that changes as the ray is traced.

物体線方程式はそれの端部の点によシ特徴づけられる。The object line equation is characterized by its end points.

MOJBは直線の勾配として定義される。MOJB is defined as the slope of a straight line.

交差方程式は2本の直線の交点の2座標について解く。The intersection equation is solved for the two coordinates of the intersection of two straight lines.

前の交差点の2座標を差し引くことにより、2つの交点
の間の水平距離が得られる。
By subtracting the two coordinates of the previous intersection, the horizontal distance between the two intersection points is obtained.

第28図から、物体線CDが座標内で直角を成し、各交
点のセグメントも同様な直角を成す。直線CDの長さと
、点CとDの間の水平距離との比は、各交点間の長さと
、それらの点の間の水平距離との比に等しい。この一定
の比RATIOは直線CDの端の点と入力線の長さから
直接決定でき、線分の長さと、lN5FACの次の値を
決定するために、交点の間の水平距離に直接適用できる
From FIG. 28, the object line CD forms a right angle in the coordinates, and the segments at each intersection point also form a right angle. The ratio of the length of straight line CD to the horizontal distance between points C and D is equal to the ratio of the length between each intersection to the horizontal distance between those points. This constant ratio RATIO can be determined directly from the end points of the straight line CD and the length of the input line, and can be applied directly to the length of the line segment and the horizontal distance between the intersection points to determine the following value of lN5FAC: .

この計算は、変化するスクリーン座標を方程式を介して
適用することに存する。第30図に示すように、これは
ハードウェアでパイプライン構成とすることは容易であ
る。パイプラインは、新しいビクセルごとに、lN5F
ACの新しい値を補間プロセッサへ与える。
This calculation consists in applying the varying screen coordinates via equations. As shown in FIG. 30, this can easily be implemented as a pipeline configuration in hardware. For each new pixel, the pipeline
Provide the new value of AC to the interpolation processor.

各列と各行のための正確な物体線CDは、3つの空間内
の物体の平面への投影と、交差とにより特徴づけること
ができる。
The exact object line CD for each column and each row can be characterized by the projection and intersection of the objects in three spaces onto the plane.

第31図に示されている第1のパスは垂直平面YZと、
物体の列の平面への投影とを用いている。
The first path shown in FIG. 31 is in the vertical plane YZ and
The projection of a row of objects onto a plane is used.

これは三次元空間内での物体の映像における各ビクセル
列の頂部と底部とのYZ座標を決定することにより行う
ことができる。関連する各列におけるそれら2つの点の
YZ座標は、第28図に表されているように、補間法に
おいて光線により追跡されるyz平面内の物体線の端点
である。
This can be done by determining the YZ coordinates of the top and bottom of each pixel column in the image of the object in three-dimensional space. The YZ coordinates of those two points in each relevant column are the end points of the object line in the yz plane traced by the ray in the interpolation method, as represented in FIG.

第2のパス(第29.32図)は、原点から引き続く各
線を通ってスクリーン上に投影される平面を利用する。
The second pass (Figure 29.32) uses a plane that is projected onto the screen through each line leading from the origin.

その平面と物体との交点は、光線追跡法のた峠の直線を
再び定める。この直線はその平面内におけるその直線の
端点により定められ、それらの端点け、3つの空間内の
物体の縁部により形成される2本の三次元直線の平面と
の交点を見出すことにより見つけられる。
The intersection of that plane and the object re-defines the straight line of the ray-tracing pass. This straight line is defined by the end points of the straight line in the plane and is found by finding the intersection of those end points with the plane of two three-dimensional straight lines formed by the edges of objects in three spaces. .

連続補間法を実行するために、投影された物体線に沿っ
て追跡する光線を利用する2パス法は、平面画像のスク
リーンへの、数学的に正確で、忠実度の高い斜視変換を
達成するものである。これは直線の場合と斜視の場合の
両方について第35図に示している。
A two-pass method that utilizes rays tracing along projected object lines to perform continuous interpolation achieves a mathematically accurate, high-fidelity perspective transformation of a planar image onto a screen. It is something. This is shown in Figure 35 for both the straight and perspective cases.

斜視における画像の処理については技術的な項目の所で
説明した。画像の斜視図的ねじ曲げをより理解できるよ
うにするために以下に説明を行う。
The processing of images in strabismus was explained in the technical section. In order to better understand the perspective distortion of an image, an explanation is given below.

スクリーン上に直角投影または斜角投影された任意のフ
レームはメモリに同じようにして格納されるということ
については先に説明した。フレームのデータは512 
X 512の行と列のビクセル・アレイであって、それ
ぞれに輝度値が組合わされている。
It was previously explained that any frame projected orthogonally or obliquely onto the screen is stored in memory in the same manner. Frame data is 512
A pixel array of 512 rows and columns, each associated with an intensity value.

斜視の場合には、FOvプログラムが二空間内のフレー
ムの四隅の座標を計算する。その二空間は光景認識装置
のレセプタを有する座標系である。
In the case of strabismus, the FOv program calculates the coordinates of the four corners of the frame in two spaces. The bispace is the coordinate system with the receptors of the scene recognition device.

そのレセプタは観察者などであって、座標系の原点とし
て扱われる。二空間内のフレーム100の例が第31.
32図に示されている。第28 、29 。
The receptor is an observer, and is treated as the origin of the coordinate system. An example of frame 100 in two spaces is No. 31.
This is shown in Figure 32. 28th and 29th.

31.32図を参照して、原点すなわち観察者の眼0の
前方のスクリーンABは、原点から所定の距離だけ離れ
ているxy平面である。
Referring to Figures 31 and 32, the origin, ie, the screen AB in front of the observer's eye 0, is an xy plane that is a predetermined distance away from the origin.

第31図に示すように、フレーム1000512個の列
はYZ平面内で直線CDへ順次投影される。
As shown in FIG. 31, the 1000512 columns of frames are sequentially projected onto the straight line CD in the YZ plane.

YZ ’l’面はX軸に対する方向は有しない。各場合
において、直線CD (物体線)は、フレームのそれぞ
れの列が斜辺を成すような直角三角形の一辺である。各
物体線CDの興味のちる特性は、Yz平面内におけるそ
の直線の端部点である。その端部点の座標は計算されて
、メモリに格納される。
The YZ 'l' plane has no direction with respect to the X axis. In each case, the straight line CD (object line) is one side of a right triangle, of which each column of the frame forms the hypotenuse. The interesting property of each object line CD is the end point of that line in the Yz plane. The coordinates of the end points are calculated and stored in memory.

512本の各物体線CDには、第29図に示す垂直パス
操作を加える。その操作はYZ平面内で行われる。視線
101が原点すなわち眼6から出てスクリーンAHと交
わる。観察者の一対の眼の間隔は1ビクセル間隔である
。視線101は物体線CDとも図示のように交わる。
A vertical path operation shown in FIG. 29 is applied to each of the 512 object lines CD. The operation is performed in the YZ plane. A line of sight 101 exits from the origin, that is, the eye 6, and intersects with the screen AH. The distance between a pair of observer's eyes is 1 pixel. The line of sight 101 also intersects with the object line CD as shown.

物体線CDは512個のビクセルを有するフレーム列か
ら得られたもので、計算のために、512単位に換算さ
れた対応する長さを有するものとする。
The object line CD is obtained from a frame sequence with 512 pixels and is assumed to have a corresponding length converted to 512 units for calculation purposes.

交差する視線101により形成された直線CDの線分1
02は不定の長さで、その長さは、直線CDのための5
12単位の全長を基にして、次の第3表に(表 3) Y = MRAYヶ2        光線の線方程式
Y−YD=MOBJ(Z−ZD)     物体の線方
程式(一定)INSFAC=(Z−PREVZ)、、、
RATIO次のスクリーン・ピクセルに写像す 線分102の長さが既知であると、直線CDの仮定しり
512単位の全長は個々の線分に比例配分される。この
段階で各線分102と、スクリーンABの対応する線分
との間のピクセル比が得られる。
Line segment 1 of straight line CD formed by intersecting lines of sight 101
02 is an indefinite length, the length is 5 for straight line CD
Based on the total length of 12 units, the following Table 3 shows (Table 3) Y = MRAY 2 Line equation of ray Y-YD = MOBJ (Z-ZD) Line equation of object (constant) INSFAC = (Z- PREVZ),,,
RATIO Once the length of the line segment 102 that maps to the next screen pixel is known, the assumed total length of straight line CD 512 units is proportionally distributed to the individual line segments. At this stage, the pixel ratio between each line segment 102 and the corresponding line segment on screen AB is obtained.

この比は各線分102に対するlN5FAC値である。This ratio is the lN5FAC value for each line segment 102.

線分102の長さは互いに変化するから、それぞれの線
分に対するlN5FACの値はそれに対応して変化する
Since the lengths of line segments 102 vary from one another, the value of lN5FAC for each line segment varies correspondingly.

各フレーム列の格納されているピクセル輝度値を用いる
ことにより、直線ねじ曲げに関連して先に説明した寸法
決定法と補間法を用いて、中間画像のためのスクリーン
ABにおける対応する線分105を得る。
By using the stored pixel intensity values of each frame row, we can calculate the corresponding line segment 105 in screen AB for the intermediate image using the sizing and interpolation methods described above in connection with linear twisting. obtain.

512本の各物体線CDに対して上記の操作を反復する
ことによシ、中間斜視図が得られる。この中間斜視図に
おいて、フレーム10口の列に対応する512本の垂直
線は、最終的な画像の正しく大きさを定められ、かつ正
しい位置に置かれた垂直成分を構成する。中間画像は水
平の向きを有しない。
By repeating the above operation for each of the 512 object lines CD, an intermediate perspective view is obtained. In this intermediate perspective view, the 512 vertical lines corresponding to the rows of 10 frames constitute a properly sized and positioned vertical component of the final image. The intermediate image does not have a horizontal orientation.

第32図に示されている第2の段階においては、原点か
ら出てスクリーンABを行104で横切って延びる平面
103は、フレーム100と交差する。行104の長さ
は1ピクセルの大きさに等しい。半面103とフレーム
100との交わる直線部の両端PI。
In the second stage, shown in FIG. 32, a plane 103 extending from the origin and across screen AB in rows 104 intersects frame 100. The length of row 104 is equal to the size of one pixel. Both ends PI of the straight line where the half surface 103 and the frame 100 intersect.

Q′の線分111/qは、垂直バスの直線CDにある程
度類似する。
The line segment 111/q of Q' is somewhat similar to the straight line CD of the vertical bus.

中間画像の列は、第1パスの処理後は1ピクセル分だけ
隔てられるから、中間画像はメモリにおいて特定の幅を
有する。その幅はいくらか任意である。したがって、最
終的な画像を得るために第2パスの計算において用いら
れることを除いては、その幅内体は重要ではない。
Because the columns of the intermediate image are separated by one pixel after the first pass of processing, the intermediate image has a particular width in memory. Its width is somewhat arbitrary. Therefore, the in-width field is not important except that it is used in the second pass calculation to obtain the final image.

線分FIqは第2パス構造線と考えることができる。そ
の理由は、各構造が、原点を含むXZ平面に投影される
からである。この半面は第29図に示されているXz平
面である。第29図においては線F/Qは線PQとして
示されている。
Line segment FIq can be considered as a second path structure line. The reason is that each structure is projected onto the XZ plane that includes the origin. This half plane is the Xz plane shown in FIG. In FIG. 29, line F/Q is shown as line PQ.

各構造線Flqに対応する中間画像の幅は第2バス物体
線PQの長さに等しい。スクリーンABO線104は線
Flctからの投影であって、最終的な出力線である。
The width of the intermediate image corresponding to each structure line Flq is equal to the length of the second bus object line PQ. Screen ABO line 104 is a projection from line Flct and is the final output line.

線yqと同じレベルで中間画像を通る直線は、対応する
スクリーン上の直線104に写像させられる。
A straight line passing through the intermediate image at the same level as line yq is mapped to a corresponding straight line 104 on the screen.

4ここで第29図を参照して、原点と、スクリーンAB
’と(1ピクセル分だけ隔てられて)、第2パス物体線
PQのうちの1本を通る垂直平面106は線PQを一連
の線分XI、X2.X3  ・・・に分割する。それら
の寸法は本来的に異なる。
4 Now, referring to Figure 29, set the origin and screen AB.
' and (separated by one pixel), a vertical plane 106 passing through one of the second pass object lines PQ connects the line PQ to a series of line segments XI, X2 . Divide into X3... Their dimensions are inherently different.

直線PQの長さは直線104の垂直レベルにおいて中間
画像の幅に一致する。中間画像のピクセル列は等間隔で
隔てられる。その理由は、第1のパス操作により入力フ
レーム100の列の水平間隔が乱され力かったからであ
る。
The length of straight line PQ corresponds to the width of the intermediate image at the vertical level of straight line 104. The pixel columns of the intermediate image are equally spaced. The reason for this is that the horizontal spacing of the columns of the input frame 100 was disturbed by the first pass operation.

各第2パス線PQの線分XI、X2.等はそれぞれの長
さに対応するいくつかの中間画像ピクセルを表し、それ
らのピクセルがそれらの線分に関して比例配分させられ
る。視線106が直線104に交差する時の視線106
の間隔はピクセル1つ分の大きさに等しいから、各線分
XI、X2等により表されるピクセルの数とスクリーン
ABの直線104における対応するビクセル1つ分の間
隔との比はlN5FACに等しい。このlN5FACは
直線PQの各線分X1.X2等により異なる値を有する
ことがある。
Line segments XI, X2 . etc. represent a number of intermediate image pixels corresponding to each length, which pixels are proportionally distributed with respect to the line segment. Line of sight 106 when line of sight 106 intersects straight line 104
Since the spacing is equal to the size of one pixel, the ratio of the number of pixels represented by each line segment XI, X2, etc. to the corresponding spacing of one pixel in straight line 104 of screen AB is equal to lN5FAC. This lN5FAC corresponds to each line segment X1. of the straight line PQ. It may have different values depending on X2 etc.

中間画像における各直線の格納されているピクセル輝度
値を用いると、直線ねじ曲げアルゴリズムに関連して先
に説明した寸法決定および補間法を用いてスクリーンA
Bにおける対応する直線104と、最終的な画像のため
の他の全ての線を得ることができる。
Using the stored pixel intensity values of each straight line in the intermediate image, screen A is
The corresponding straight line 104 in B and all other lines for the final image can be obtained.

物体が観察者に近づいても高い解像力を保持しなければ
ならない場合に別の装置を使用できる。
Other devices can be used when high resolution must be maintained as the object approaches the observer.

この装置では、格子としてアドレスできるメモリに入力
画像が格納されると仮定する。格子の交点は入力画像の
輝度が既知であるような点である。
The device assumes that the input image is stored in a memory that can be addressed as a grid. The intersections of the grid are such points that the brightness of the input image is known.

各出力ピクセルは入力画像の格子中に投影できる。Each output pixel can be projected into the input image grid.

出力ピクセルの相対的な輝度が、投影された出力ビクセ
ルにより占められている面積から計算される。第35図
において、投影された出力ピクセルは破線で構成された
多角形により表されている。
The relative brightness of the output pixel is calculated from the area occupied by the projected output pixel. In FIG. 35, the projected output pixels are represented by dashed polygons.

出力ピクセルに対して計算された輝度は、投影された出
力ピクセルを形成する小さい領域の面積で重みづけられ
た平均値とすることができる。
The calculated brightness for the output pixel may be an area weighted average of the small region forming the projected output pixel.

このやり方を、第33図にょシ■つの典型的な投影され
た出力ピクセルについて説明することにする。図におい
て、入力画像格子の行は記号A。
This approach will be illustrated for a typical projected output pixel in FIG. In the figure, the rows of the input image grid are marked A.

B、C,Dで表され、列は記号a、b、c、d、e  
で表されている。投影された出力ピクセルの内側を形成
している小さい格子領域は数字1,2,3.4,5゜6
.7,8.9  で表されている。小さい各領域は実線
と破線の少くとも一方で囲まれている。たとえば、領域
1は上と1番左側の破線および行Aの下の線と列すの右
垂直線とにょシ囲まれている。
B, C, D, columns are symbols a, b, c, d, e
It is expressed as. The small grid areas forming the inside of the projected output pixels are numbers 1, 2, 3.4, 5°6
.. It is expressed as 7,8.9. Each small region is surrounded by at least one of a solid line and a dashed line. For example, region 1 is bounded by the top and leftmost dashed lines, the bottom line of row A, and the right vertical line of column A.

出力ピクセルの輝度は面積で重みづけられた平均値であ
る。すなわち、 出力−ε  (輝度))(面積)) ノ=1 ここに、 輝度ノーε (小さい各領域に対して隅の輝度)面積ノ
は破線の多角形で囲まれている投影された出力ピクセル
の全面積の百分比として表される小さい領域の面積であ
る。
The brightness of the output pixel is an area weighted average value. That is, the output - ε (brightness)) (area)) = 1 where the brightness ε (corner brightness for each small area) is the projected output pixel surrounded by the dashed polygon. is the area of a small region expressed as a percentage of the total area of .

小さい領域に対する隅の輝度は、行Aと列すで形成され
た正方形の四隅の収線型補間である。領域1の右下隅の
輝度は行Bと列Cにより形成されている正方形の四隅の
収線型補間である。領域1の左下隅の輝度は行Bと列す
により形成された正方形の四隅の収線型補間である。領
域1の隅についてのそれらの輝度は平均化されて輝度j
 (ノー1)を形成する。これに、面積jが乗ぜられて
、加え合わされて投影された出力ピクセルの輝度を計算
する9つの積のうちの1つとなる。このようにして、小
さな各領域に対する隅の輝度が同様に補間され、それか
ら平均値が求められて1つの値を生じ、それに各領域の
面積を乗する(その面積は大きい領域の百分比として表
されている。次にそれらの積を加え合わせて出力ピクセ
ルの輝度を計算する。、 情景構成 情景構成モジュールは単一情景またはフレームに処理さ
れた個々の物体を他の物体との前後関係を考慮しつ\適
正配置するものである。
The corner brightness for a small area is a convergent interpolation of the four corners of the square already formed in row A and column. The brightness at the lower right corner of region 1 is a convergent interpolation of the four corners of the square formed by row B and column C. The brightness at the lower left corner of region 1 is a convergent interpolation of the four corners of the square formed by rows B and columns. Those brightnesses for the corners of region 1 are averaged to give brightness j
(No. 1) is formed. This is multiplied by area j and becomes one of nine products that are added to calculate the brightness of the projected output pixel. In this way, the corner brightness for each small area is similarly interpolated and then averaged to yield a single value, which is then multiplied by the area of each area (the area is expressed as a percentage of the larger area). The products are then summed to calculate the brightness of the output pixel.The scene composition module considers the context of each object processed into a single scene or frame. It is something that should be properly placed.

このモジュール党ブロック図を第34図に示す。A block diagram of this module is shown in FIG.

この図はこうしたモジュール機能に必要な全ての包抱的
な作業を補足するに必要なサブ機能を示している。以下
サブ機能について詳述する。
This diagram shows the sub-functions necessary to supplement all the overarching tasks required for these modular functions. The sub-functions are detailed below.

チャンネル結合器80はモジュールの心臓部を構成して
いる。複数のソースまたはチャンネルからのデータはこ
\ではビクセル−ビクセル・ペースで結合され最終情景
または画像を形成する。こ\でチャンネルとはビデオデ
ータを意味する。勿論、各ソースは1つ以上の色彩を含
むように拡張されてもよい。第35図に示すように、チ
ャンネル結合器80は表面および物体チャンネルからビ
デオを受ける。チャンネル結合器はまた、各表示物体に
対する範囲情報を物体並びに第3図のソフトフェア制御
器から受けとる。チャンネル結合器はビデオデータのチ
ャンネルとトリガ信号とを平滑化サブ機能を果す平滑人
力82に対して出力する。
Channel combiner 80 forms the heart of the module. Data from multiple sources or channels is now combined on a pixel-to-pixel basis to form the final scene or image. Here, channel means video data. Of course, each source may be extended to include more than one color. As shown in FIG. 35, channel combiner 80 receives video from the surface and object channels. The channel combiner also receives range information for each displayed object from the object as well as the software controller of FIG. The channel combiner outputs the video data channels and trigger signals to a smoother 82 which performs the smoothing subfunction.

チャンネル結合補足は第35図に示されている。The channel binding supplement is shown in Figure 35.

三つの基本要素は物体スイッチと、直列−並列境界(s
/p −L/F )とトリガ発生器84のチャンネル組
合せを補足するように決定される。
The three basic elements are the object switch and the series-parallel boundary (s
/p-L/F) and the trigger generator 84 channel combination.

第35図に示すように、最終物体スイッチ素子85は二
つのチャンネルソースからビデオデータを受けると共に
表面および物体制御装置(直列−並列境界を介して)か
または前の物体スイッチのいづれかから範囲に関する情
報を受ける。そして物体スイッチはビクセル−ビクセル
・ベースで選択されたビデオチャンネルと、そのチャン
ネルの適切な範囲を出力する。この選択基準は“最近地
占有” (nearest occupled)と称さ
れ、ビデオ出力が実際にはゼロでないビクセル・ブータ
ラ有している目視者に対して最も近い物体のビデオ出力
となる。一つの単一範囲の値は2次元および3次元物体
のいづれをも描写するのに用いられる。
As shown in FIG. 35, the final object switch element 85 receives video data from two channel sources and range information from either the surface and object controller (via the series-parallel boundary) or the previous object switch. receive. The object switch then outputs the video channel selected on a pixel-to-pixel basis and the appropriate range of that channel. This selection criterion is referred to as "nearest occupied", where the video output is actually the video output of the closest object to the viewer that has a non-zero pixel bootara. One single range of values can be used to describe both two-dimensional and three-dimensional objects.

物体データは“フィールド・ゼo ” (field 
zeroe+s)に埋め込まれていると仮定する。アレ
イ中の各物体スイッチは亦、トリガ発生器84に対する
入力となる“スイッチ選択信号゛を出力する。
Object data is “field
zeroe+s). Each object switch in the array also outputs a "switch selection signal" which is an input to trigger generator 84.

第35図に示すようにトリガ発生器84はスイッチ選択
信号をアレイ中の物体スイッチ全てから受は取る。トリ
ガ発生器84の出方は平滑化開始を制御する平滑装置8
2によって使用される単一のトリガ信号である。信号発
生器の特徴は(1)表示装置に与えられるビデオ出力に
影響を有するスイッチ選択信号入力におけるすべての変
化が活性化のためのトリガ信号を起さなければならない
こと、(2) ) ’)ガ発生器のパイプラインの段数
によって生ずるスループット遅延は平滑化のサブ機能に
対するビデオパスの遅れに一致しなければならないこと
である。
As shown in FIG. 35, a trigger generator 84 receives switch selection signals from all object switches in the array. The output of the trigger generator 84 is the smoothing device 8 that controls the start of smoothing.
A single trigger signal used by 2. The characteristics of the signal generator are that (1) every change in the switch selection signal input that has an effect on the video output provided to the display device must cause a trigger signal for activation; The throughput delay caused by the number of pipeline stages in the generator must match the delay in the video path for the smoothing subfunction.

情景値の調整は情景値調整ユニット86によって行われ
、このユニットは情景幅強度訂正が必要な時に使用され
る。この訂正は、昼夜の照明、霞。
Scene value adjustment is performed by a scene value adjustment unit 86, which is used when scene width intensity correction is required. This correction includes day and night lighting, haze.

雨等の画像補償に適用される。これらは代表的な初期条
件であったり、極めてゆっくりとした条件変更であった
りする。調整器はチャンネル結合器80からビデオデー
タを受けると共に、FOvコンピュータから強度訂正値
を受は取る。このサブ機能からの出力ビデオは平滑化サ
ブ機能に与えられる。平滑ユニット82によって実行さ
れる平滑サブ機能はセンサのエッヂ特性をシュミレート
するのに利用される。エッヂは境界が存在する表示線上
の隣接ビクセルに帰するものである。そのような境界は
他の物体に重なる物体によって生ず木かまたは背景から
物体に移行する時に生ずる境界線である。数種のエッヂ
平滑アルゴリズムが利用できるが、ガクス・ビクセル荷
重を用いた2対8ピクセル・プロセスが望ましい。
Applied to image compensation for rain, etc. These may be typical initial conditions or extremely slow changes in conditions. The regulator receives video data from channel combiner 80 and receives intensity correction values from the FOv computer. The output video from this subfunction is provided to the smoothing subfunction. The smoothing sub-function performed by smoothing unit 82 is utilized to simulate the edge characteristics of the sensor. Edges are attributed to adjacent pixels on the display line where the border lies. Such boundaries are trees caused by objects overlapping other objects, or boundaries that occur when transitioning from the background to an object. Although several edge smoothing algorithms are available, a 2 by 8 pixel process with Gax-Vixel weighting is preferred.

特殊効果 特殊効果ユニット12によって実行される特殊効果機能
は半透明物体例えば煙、霞、霧または塵埃といったもの
を情景導入するのに利用される。
Special Effects The special effects functions performed by the special effects unit 12 are utilized to introduce translucent objects into the scene, such as smoke, haze, fog, or dust.

これらの効果はまた一つの範囲を有し、情景画像内で他
の物体の前または後に導入され表現される。
These effects also have a scope and can be introduced and rendered before or after other objects in the scene image.

第36図に特殊効果機能に関するブロック図を示した。FIG. 36 shows a block diagram regarding special effect functions.

二つのサブ機能はこの機能即ち、直列−並列界面(vp
 −VF)および特殊効果スイッチ88を補足するのに
必要である。
Two sub-functions exist for this function, namely the series-parallel interface (vp
-VF) and special effects switch 88.

S/P −I力はFOVコンピュータから直列データを
受は特殊効果スイッチの範囲レジスタに並列範囲データ
を負荷することによってその機能を果す。
The S/P-I power performs its function by receiving serial data from the FOV computer and loading parallel range data into the range registers of the special effects switches.

特殊効果スイッチ88は物体スイッチに極めてよく似て
いて、最近地占有アルゴリズムは次のステージに対し送
られる範囲値を選択するのに利用され、i番目のビデオ
チャンネルとi+1番目のビデオチャンネルがどのよう
に組合さる。かに影響を与える、実際の組合せは物体ス
イッチのBIIIJXによって補足されるような簡単な
スイッチではなく、最適地占有チャンネル決定およびF
OVコンピュータからの制御および選択信号によって影
響される数学的組合せである。実際の組合せ方法は多分
Y=ai+b(i+2) またはbl+a(i+11な
る式に類似のものである。
The special effects switch 88 is very similar to the object switch, in that the nearest occupancy algorithm is used to select the range values to be sent to the next stage, and determines how the i-th and i+1-th video channels are handled. to be combined. The actual combination that affects the
It is a mathematical combination influenced by control and selection signals from the OV computer. The actual combination method is probably similar to the equation Y=ai+b(i+2) or bl+a(i+11).

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明によるCGS Iシステムの概要を示す
ブロック図、第2図はデータベース構成に用いるハード
ウェアのシステムブロック図、第3図はサブ表面に物体
を分けて三次元の像を得る方法を家屋に適用した時の図
、第4図、第5図はデータベースの物体情報を格納する
光ディスクに高忠実度の物体および表面を与える処理過
程を示す図、第6図、第7図は特殊効果物体として扱わ
れる煙。 塵、陰影等と光透過対象の取扱いを示す図、第8図はC
GS Iシステムによって輝光および閃光効果を発生さ
せる扇型マスクの利用方法を示す図、第9図はCGS 
IデータベースにおけるIR像、第10図は大物体の周
囲の飛行路を示す図、第11図〜第14図はCGS I
システムの吸収能力を示す図、第15図は視野機能の概
要図、第1゛6図は三方イメージワーピング技術を図式
化した図、第17図ワーピンダ技術を用いてデータベー
スからの物体。 表面、特殊効果データを処理するチャンネルまたはパイ
プラインを示すブロック図、第18図は第17図のチャ
ンネルのロックアツプテーブルの強い制御機能を実行す
るだめの流れ図、第19図はワープ技術を行うに当って
、1つの入力像を二方向処理するだめの二つの同じ対象
プロセッサのブロック図、第20図はパイプライン状に
形成した二方向ワーピンクを示す図、第21図は、第1
6図に示すプロセスに対する連続インターブリチージョ
ン技術のためのフローチャート、第22図は第16図に
示したプロセスを実行するためのピクセル・インタープ
リチージョン・プロセッサ、第23図はピクセル処理の
ためのメモリに像をスパイラルマツピングする方法を示
す図、第24〜第26図は像アドレスがメモリアドレス
に測知にマツピングされるかを示す図、第27図は直列
および並列の物体2表面および特殊効果チャンネルのプ
ロセスを示す図、第28図、第29図は視点に対するス
クリーン上に対する物体ラインの水平および垂直マツピ
ングを示す図、第30図は表3の式を実行するハードワ
エアパイプラインを示す図、第31図は第1パス垂直物
体ライン投影を示す図、第32図は第2バス水平物体ラ
イン投影を示す図、第33図は交互プロセスアルゴリズ
ムに対応する出力ピクセルを示す図、第34図は単一ス
クリーンに個々の物体を合成するためのスクリーン構成
モジュールを示すブロック図、第35図は最終画像を形
成するためにピクセル−ピクセル・ベースで複数源から
ビデオ・データを結合するチャンネル結合装置を示す図
、第36図は第1図のブロック図で示される特殊効果ユ
ニット12によって実行される特殊効果機能のブロック
図。 30・・・・A/Dカード、32・・・・アクセスメモ
リ・カード、34・・・・調査表カード、36・ ・・
 ・Y軸ねじまげカード、40・ ・ ・・X軸ねじま
げカード、56・・・・メモリ制御、52・・・・物体
調査、60・・・・Y軸プロセッサ、62・・・・X輔
プロセッサ、64・・・・フレームバッファ、70・・
・・フレーム・バッファ。 特許出願人  ハネウェル・インコーポレーテツド復代
理人 山川政樹(L/ピ)1名) FIG、 3 ・尺・ FIG、  q− ′秤1hす FIG、  5 1F?’I/4  えM/zrs ) FIG、  6 八 η FIG、  7 FI G、 g r−1仰山 FIG、12 A            8           
   CD                   E
FIG、  I5 ×8εG             XENDFIG、
  IG 7、・y74 −−−− FIG、23 512、+  512.2 512.3 512.4 
 ・・・  512,512tLI傘r v、vt”y
7°゛ Fl、2’7 ダ差1’) −1・壬Pトtレベリ望 FIG、27 FIG、 28 FIG、  2’1 1t(y、30 FIG、  −’I FIG、 32 FIG、 36 第1頁の続き 優先権主張 @1982年7月30田沖米国(US)■
403386 @1982年7月30 日@米国(US)[有]403
393 @1983年6月20日@米国(US)■505630 0発 明 者 ジョージ・ダブリュ・ルスラーアメリカ
合衆国55113ミネソタ 州ローズビル・ドランドビュー ・アヴエニュウ・ウェスト347 0発 明 者 マイケル・オー・シュレーダアメリカ合
衆国55418ミネソタ 州セント・アンソニイ36テイエ イチ・アヴエニュウ・ノースイ ースト3405 0発 明 者 デニス・ディ・ファーガソンアメリカ合
衆国55105ミネソタ 州セント・ポール・ジュリエッ ト・アヴエニュウ1947 手続補正書(大弐つ 1、事件の表示 昭和ら乙年特   許願第14−04−2 G号事件と
の関係    特    許出願人乏Wのlイ:]  
 昭和5;乙年 11 月2−′j 日fi’−= −
、−’d と補正の対象 (1ン明細書 (−2)図面
Figure 1 is a block diagram showing an overview of the CGS I system according to the present invention, Figure 2 is a system block diagram of the hardware used for database configuration, and Figure 3 is a method for dividing an object into sub-surfaces to obtain a three-dimensional image. Figures 4 and 5 are diagrams showing the process of applying high-fidelity objects and surfaces to optical disks that store object information in a database. Figures 6 and 7 are diagrams showing special Smoke treated as an effect object. A diagram showing the handling of dust, shadows, etc. and light transmission objects, Figure 8 is C
A diagram showing how to use a fan-shaped mask to generate luminous and flashing effects with the GS I system, Figure 9 is a CGS
IR images in the I database, Figure 10 is a diagram showing the flight path around a large object, Figures 11 to 14 are CGS I
Figure 15 is a diagram showing the absorption capacity of the system, Figure 15 is a schematic diagram of the visual field function, Figure 1-6 is a diagram illustrating the three-way image warping technique, and Figure 17 is an object from the database using the warpinder technique. Figure 18 is a block diagram showing the channels or pipelines for processing surface and special effects data; Figure 18 is a flowchart for implementing the strong control functions of the channel lock-up table of Figure 17; Figure 19 is a flowchart for implementing the warping technique; 20 is a block diagram of two same target processors that are used to process one input image in two directions. FIG.
FIG. 22 is a flowchart for the continuous interbleaching technique for the process shown in FIG. 6; FIG. Figures 24 to 26 are diagrams showing how image addresses are mapped to memory addresses in a spiral manner; Figure 27 is a diagram showing how images are spiral mapped to memory; Figures 28 and 29 are diagrams illustrating the process of the effect channel; Figures 28 and 29 are diagrams illustrating the horizontal and vertical mapping of object lines on the screen to the viewpoint; Figure 30 is a diagram illustrating the hardware pipeline that implements the equations in Table 3. , FIG. 31 shows the first pass vertical object line projection, FIG. 32 shows the second bus horizontal object line projection, FIG. 33 shows the output pixels corresponding to the alternating process algorithm, and FIG. 35 is a block diagram illustrating a screen construction module for compositing individual objects onto a single screen; FIG. FIG. 36 is a block diagram of special effect functions performed by the special effects unit 12 shown in the block diagram of FIG. 30... A/D card, 32... Access memory card, 34... Survey sheet card, 36...
・Y-axis twist card, 40... X-axis twist card, 56... memory control, 52... object investigation, 60... Y-axis processor, 62... X-axis processor, 64...Frame buffer, 70...
...frame buffer. Patent Applicant Honeywell Incorporated Sub-Agent Masaki Yamakawa (L/P) (1 person) FIG, 3 ・Shaku・FIG, q-' 1h FIG, 5 1F? 'I/4 E M/zrs) FIG, 6 8 η FIG, 7 FIG, gr-1 Yozan FIG, 12 A 8
CD E
FIG, I5 ×8εG XENDFIG,
IG 7, y74 ----- FIG, 23 512, + 512.2 512.3 512.4
... 512,512tLI umbrella r v, vt"y
7°゛Fl, 2'7 Difference 1') -1・壬PtLevel Desired FIG, 27 FIG, 28 FIG, 2'1 1t(y, 30 FIG, -'I FIG, 32 FIG, 36th Continued from page 1 Priority claim @July 30, 1982 Taoki United States (US)■
403386 @ July 30, 1982 @ United States (US) [Yes] 403
393 @ June 20, 1983 @ United States (US) ■ 505630 0 Inventor George W Ruessler 347 Drandview Avenue West, Roseville, Minnesota 55113 0 Inventor Michael O. Schrader United States 55418 St. Anthony, Minnesota 36T Avenue Northeast 3405 0 Inventor Dennis De Ferguson United States 55105 St. Paul, Minnesota Juliette Avenue 1947 Procedural Amendment Patent Application No. 14-04-2 Relationship with Case G: Lack of Patent Applicants: ]
Showa 5; Otsu year November 2-'j day fi'-= -
, -'d and the subject of amendment (1) Specification (-2) Drawings

Claims (1)

【特許請求の範囲】 (1)ある座標系の主軸上に観察点を有する前記座標内
の観察平面と、前記主軸に対して垂直に延び、かつ前記
観察点から隔てられている観察平面とに画像をマツピン
グする方法であって、この方法は、列と行になって配置
されて、ピクセルの輝度値のマトリックスとして表され
る長方形のデジタル入力画像に適用され、前記入力画像
は前記観察平面のうち前記観察点から反対の側にあり、
隅座標は前記主軸に関連させられる、画像を観察平面ヘ
マツビングする方法において、 前記入力画像の上で中間画像を形成する第1のパスと、
前記中間画像の上で出力画像を形成する第2のパスとの
直交する2つのパスを行う過程と、 前記第1のパスにおいて線変換を行う過程と、前記第2
のパスにおいて線変換を行う過程と、前記各線変換に対
して計算を行う過程と、マツピングを行う過程と、 加算と平均化を行う過程と、 を備え、 前記中間画像列に対する前記入力画像列の長さを定める
それぞれの比が存在するように、前記入力画像列からと
り出された長さを有する中間の画像列へ前記入力画像列
を変換し、 前記出力画像性に対する前記中間画像性の長さを定める
それぞれの比が存在するように、前記各入力画像性から
得た長さを有する、前記観察スクリーン上の、出力画像
性へ中間画像性を変換し、 前記計算は、前記中間画像列のだめの出力ピクセルと前
記最後の画像性のだめの出力ピクセルとを作るために、
前記入力画像の前記列と、前記中間画像の前記性とから
それぞれ求められる入力ピクセルの数を、前記比を基に
して行い、前記マツピングを行う過程は、前記各線変換
のための前記出力ピクセルを形成するために前記入力ピ
クセルを順次少しずつマツピングし、加算と平均化を行
う前記過程は、各出力ピクセルに加えることができる前
記入力ピクセルの輝度値を加え合わせて、それの平均値
を得、そのようにして得られた複合値は前記出力ピクセ
ルにそれぞれ成る、 ことを特徴とする画像を観察平面ヘマッピングする方法
。 (2)ある平面内で輝度値の長方形ピクセル・マ) I
Jノックスして表されている列と行に配置されているデ
ジタル入力直交画像を、任意の凸状四辺形に直線的にマ
ツピングする方法において、前記入力画像から中間画像
を形成する第1のパスと、前記中間画像から出力画像を
形成する第2のパスとの、直交する2つの走査パスを逐
次実行する過程と、 調整過程と、 マツピング過程と、 を備え、 前記第1のパスは変換を更に行い、その変換においては
、入力画像の座標と前記四辺形の座標とから決定される
長さおよび位置を有する整列させられた中間垂直列へ前
記入力画像の列を変換し、前記第2のパスは前記中間画
像を更に処理して線変換を行い、それにより、前記中間
画像の隅と前記四辺形の座標とから決定される長さと位
置を有する整列させられた水平出力行へ前記性を変換し
、 前記調整過程は、−出力ピクセルを作るために要する入
力ピクセルの数を調整し、 前記マツピング過程は、前記各線変換に対して、前記入
力ピクセルを順次、少しずつ前記出力ピクセルにマツピ
ングすることを特徴とするデジタル入力直交像を任意の
凸状四辺形に直線的にマツピングする方法。 (3)デジタル入力画像を観察平面ヘマツピングする方
法であって、前記画像は、3D座標系内に、ビクセル輝
度値のマトリックスを表す列と行に配置される要素を備
え、前記座標系はそれの主軸上に観察点を有し、かつそ
の観察点から隔てられて、前記軸に垂直に延びる観察平
面を有し、前記座標系は、前記主軸に交わって、前記観
察平面に対して垂直に延びる基準平面を定める、デジタ
ル入力画像を観察平面ヘマツビングする方法において、
前記入力画像の前記列を前記基準平面まで順次、直角方
向に投写させて、前記基準平面内に第1パス物体線を形
成する過程と、 投写されている発散線と前記観察平面との交点が中間画
像線を描くように、前記観察平面を通る前記原点と前記
対応する第1の物体線から少くとも1ビクセルの大きさ
だけ隔てられている前記投写される発散線をシミュレー
トするやυ方で前記第1の各パス物体線を処理する過程
と、前記第1のパス物体線の線分に対する比を得る過程
と、 各列のピクセルを、対応する1つの前記中間画像線のセ
グメントに対する前記第1の各パス物体線のセグメント
に対するピクセル比を得る過程と、各列のビクセルを対
応する第1ノくス物体線の第1パス物体線のセグメント
へ順次少しずつマツピングする過程と、 前記観察平面に交差して最後の画像線を形成し、かつ前
記入力画像に交差して第2のパス物体線を形成し、かつ
少くとも1つのビクセルだけ分離されている発散平面を
前記原点から前記観察平面の行を通って投写させる過程
と、 第2のパス発散線を、前記原点から、少くとも1つのピ
クセル分だけ隔てられている前記観察平面の列と前記第
2のパス物体線を通って延ばすことにより、前記第2の
各パス物体線を処理する過程と、 前記各中間画像性に対して、前記各第2のノくス物体線
のセグメントと、前記最後の画像の線のセグメントの対
応する1つに対するビクセル比を得る過程と、 行のピクセルを対応する第2のノ(ス物体線の第2のパ
ス物体線セグメントへ順次少しずつマツピングする過程
と、 を備え、 前記中間画像線は、前記発散する線を分離するビクセル
の数に等しい長さを有するセグメントを前記発散する線
の間に有し、 前記第2のパス発散線は前記観察面に交差して、水平方
向に延びて正しく位置させられる最終的な画像線を形成
し、この最終的な画像線は、前記第2のパス発散線を分
離するビクセルの数に等しい長さを有し、かつ前記第2
のパス物体線と交差してセグメントを形成するセグメン
トを有する、ことを特徴とするデジタル入力画像を観察
面ヘマツピングする方法。 (4)前記軸に対して垂直に延び、かつ前記観察点から
隔てられる観察平面を有する3D座標系内でマツピング
する方法であって、前記座標系は、前記主軸を含んで、
前記観察面に対して垂直に延びる基準平面を有し、前記
方法は、列と行に配列されて、ピクセル′輝度値のマト
リックスとして表されるデジタル入力画像に適用され、
前記入力画像は前記観察平面の、前記観察点から反対側
にあり、前記方法は、前記入力画像を前記観察平面にマ
ツプするために適用できる、3D座標系においてマツピ
ングを行う方法において、 前記入力画像の前記列を前記基準平面まで次々に垂直方
向に投写させて、基準平面内に第1のパス物体線を形成
する過程と、 前記原点から前記観察平面と前記第1のパス物体線を通
って、前記基準平面内を放射線を照射することにより前
記第1の各パス物体線を順次処理する過程と、 前記入力画像性の総数を割当てる過程と、前記各入力列
に対して、その入力列のビクセルを、対応する第1のパ
ス物体線の第1のパス物体線のセグメントへ順次少しず
つマツピングする過程と、 加算および平均化過程と、 前記入力画像を処理過程と、 前記第2の各パス物体線を処理する過程と、第2の割当
てる過程と、 行のビクセルをマツピングする過程と、第2の加算2よ
び平均化する過程と、 を備え、 前記放射線は前記観、察平面に交差してセグメントを有
する中間画像線を形成し、各セグメントは1つのビクセ
ルの長さを有し、各セグメントは前記第1のパス物体線
に交差して異なる長さのセグメントを形成し、 前記割当てる過程は、前記各第1のパス物体線セグメン
トと対応する1つの前記中間画像線セグメントとのビク
セル比を得るために、前記入力画像性の総数を前記第1
のパス物体線セグメントに割当て、 前記加算および平均化過程は、前記各第1のパス物体線
に対して、それにマツプされた輝度値を加算して平均値
を求め、複合値を対応する中間画像線のセグメントに加
え、 前記入力画像を処理する過程は、放射平面を、1つのピ
クセ°ルだけ分離されている前記観察平面の原点から前
記入力画像を通って延長させることにより前記入力画像
を処理し、前記各放射平面は、前記観察平面と交差して
帝終的な画像を形成し、かつ前記入力画像と交差して第
2のパス物体線を形成し、 前記第2の各パス物体線を処理する前記過程は、第2の
パス放射線を、1つのビクセルだけ分離している前記観
察平面の列と、前記第2のパス物体線とを通るように前
記原点から延ばすことにより、前記第2の各パス物体線
を処理し、 前記第2のパス放射線は前記観察平面に交差して、水平
方向に延びて正しく位置させられる最終的な画像線を形
成し、 前記第2の割当てる過程は、前記第2のパス物体線セグ
メントと前記最後の画像の線セグメントの対応する1つ
とに対するピクセル比を得るために、前記中間画像性の
総数を前記第2のパス物体線セグメントに割当て、 行のビクセルをマツピングする過程は、前記各中間画像
性に対して、行のビクセルを対応する第2のパス物体線
の第2のパス物体線セグメントに順次少しずつマツピン
グし、 前記第2の加算および平均化する過程は、前記第2の各
パス物体線の各セグメントに対して、それにマツプされ
た、最終的な各画像ピクセルに加えることができる、各
ピクセルの輝度値を加え合わせて、その平均を求め、複
合値を対応する最終的な画像線のセグメントへ与える、
ことを特徴とする3D座標系においてマツピングする方
法。 (5)3D座標系においてマツピングする方法であって
、その座標系は、それの主軸上の観察点と、前記軸に対
して垂直に延び、かつ前記観察点から隔てられた観察平
面と、前記主軸を含んで、前記観察平面に垂直に延びる
基準平面とを有し、列と・行に配置されてピクセル輝度
値のマトリックスとして表され、前記平面のうちの少く
とも1つに対して斜めに延びるデジタル入力画像に適用
されて、その入力画像を前記観察平面にマツピンクする
ために適用できる、3D座標系においてマツピングする
方法において、 前記入力画像の前記列を前記基準平面に対して直交する
ようにして順次投写させ、前記基準平面内に第1のパス
物体線を形成する過程と、前記観察平面と交差して、1
ビクセルの長さをそれぞれ有するセグメントを有する中
間画像線を成し、かつ前記第1のパス物体線と交差して
、それぞれ異なる長さのセグメントを形成する放射線を
前記原点から、前記観察平面と前記第1のパス物体線を
通って延ばすことにより、前記第1の各パス物体線を処
理する過程と、 前記容筒1のパス物体線と前記中間映像線のセグメント
の対応する1つとのピクセル比を得る°ために、前記入
力画像行の総数を前記第1のパス物体線セグメントに割
当てる過程と、 ′前記各入力列に対してその入方列のピクセルを、対応
する第1のパス物体線の第1のパス物体線のセグメント
に対して順次少しずつマツピングする過程と、 前記第1の各パス物体線の各セグメントに対して、それ
にマツプされた各ピクセルの輝度値を加算して、その平
均を求め、複合値を対地する中間、画像線のセグメント
へ与える過程と、前記観察平面に交差・して最終的な画
像線を形成し1、かつ前記入力画像と交差して最終的な
画像線を形成し、更に前記入力画像と交差して第2のパ
ス構造線を形成する放射平面を、前記原点から、1つの
ピクセルだけ分離している前記観察平面の行と、前記入
力画像とを通って延ばすことにょシ前記入力画像を処理
する過程と、 前記観察平面に垂直であって、前記主軸を含む平面に前
記各構造線を投写して第2のパス物体線を形成する過程
と、 前記観察平面と交差して、1つのピクセルの長さを有す
るセグメン)?有する、水平に延びて正しく位置させら
れる最終的な画像線を形成し、かつ前記第2のパス物体
線と交差して、異なる長さをそれぞれ有するセグメント
を形成する第2のパス放射線を前記原点から、1つの、
ビクセル分だけ分離している前記観察表面の列と前・記
第2のパス物体線を通づて延ばすことにより、前記第2
の各パス物体線を処理する過程と、 前記第2の各パス物体線のセグメントと前記最終的な画
像の線のセグメントの対応する1つとのピクセル比を得
るため1に、前記中間画像の総数を前記第2のパス物体
線のセグメントに比例して割当てる過程と、 前記各中間画像行に、対七で、その行のピクセルを対応
する第2のパス物体線の第2のパス物体線のセグメント
に順次少しずつマツピングする過程と、 前記第2の各パス物体線の各セグメントに対して、それ
に対してマツプされた、最終的な各画像ピクセルに加え
ることができる、各ピクセルの輝度値を加え合わせて、
その平均を求め、複合値を対応する最終的な画像線のセ
グメントへ与、える、ことを特徴とする3D座標系内で
マツピングする方法。 (6)ある平面内の輝度値の長方形格子として表されて
いるデジタル入力画像を任意の凸状四辺形へ直線的にマ
ツピングする方法において、 前記四辺形内の各出力ピクセルを前記格子へ投写す゛る
過程と、 前記出力ビクセルにより占め、られている前記格子上の
領域から前記各出力ピクセルの輝度を計算する過程とを
備え、 前記各出力ピクセルの前記輝度は、その上に前記各出力
ビクセルが投写される前記格子の全体の領域と部分領域
との全ての領域の輝度値の面積によシ重みづけられた平
均値であることを特徴とするある平面内の輝度値の長方
形格子として表されているデジタル入力画像を任意の気
状四辺形へ直線的にマツピングする方法。 (7)画像の任意の行と任意の列の任意の2N個の連続
するビクセルに対応するメモリ素子が種々のバジクに存
在し、かつ同時に呼出すことができるように、前記画像
のピクセルを独立して呼出すことができる2N個のメモ
リバンクにマツピングする過程を備えることを特徴とす
る二軸正方形アレイ画像(D、画IFy トvスをメモ
リのアドレスヘマッピングする方法。 (8)画像の任意の行と任意の列の任意の2N個の連続
するピクセルに対応するメモリ素子が種々のメモリバン
クに存在し1.かつ同時に呼出すことができるように、
二軸(AXA)正方゛形アレイ画像のビクセルを2N個
のメモリバンクに多重化を解除するようにしてマツピン
グする過程を備えることを特徴とする画像アドレスをメ
モリのアドレスヘマッピングする方法。 (9)独立して呼出すことができる2N個のメモリバン
クと、二軸(AXA)JIE方形アレイの水平アドレス
走査または垂直アドレス走査を行う行カウンタ装置およ
び列カウンタ装置と、画像の任意の行と任意の列との任
意の2N個の連続するビクセルが種々のバンク内に存在
して、同時に呼゛出すことができるよう−に、前記プレ
イのピクセルを前記バンク内ヘマツビングするためのデ
マルチプレックス装置とを備えることを特徴とする二軸
(AXA)正方形アレイの画像アドレスをメモリアドレ
スにマツピングするだめの回路装置。 (1のデジタル三軸座標系を有する定められた地域と、
二次元画像の電磁スペクトラム帯表現の複数の二次元画
像フレームを有するライブラリィとを有するデータさ−
スと、 ゛ 前記定められた地域の座標系に対する光景認識装置の場
所と視界を定める観察データを供給するためのシミュレ
ーショ、ン装置と、 前記観察データを受けるだめのインターフェイス装置と
、 前記データベースとインターフェイス装置に組、合わさ
れ、前記画像フレームのうちのどれが前記視界中に含ま
れているか、およびそれらのフレームの前記観察データ
と前記フレームデータとに対するそれぞれの距離を決定
して、前記含まれている各画像フレームの隅の定められ
た地域の座標に対応する隅の座標を計算するための装置
を含む視界プロセッサ装置と、 この視界プロセッサに接続され、それからデータを受け
る装置を含む制御装置と、 この制御装置により制御される処理チャンネル装置と、 光景構成装置と、 を備え、 前記データベースの前記定められた地域部は、前記座標
系に対する前記各フレームの場所と寸法を定める光景合
成データを有し、 前記制御装置は前記データベースのライブラリィ部にも
接続され、 前記視界装置から受ける前記データは前記視界装置に含
まれている前記画像フレームと同一のものと、前記含ま
れている画像フレームの前記距離と、前記含まれている
各画像フレームの座標とを含み、 前記処理チャンネル装置は前記データベースの前記ライ
ブラリィ部に接続され、前記データベースの前記ライブ
ラリィ部は前記制御装置と前記処理チャンネル装置の間
に接続され、前記チャンネル装置は前記含まれているフ
レームを、前記隅の座標の対応する1つの座標により定
められた囲まれている空間ヘマツプするように動作し、
前記光景構成装置は、前記光景認識装置に最も近い含ま
れているフレームが、前記含まれているフレームのうち
゛のより遠い1つのフレームを含むように、前記含まれ
ているフレームの前記距離を基にして、出力光景をデジ
タルベースで組立てるために前記処理チャンネルに接続
されることを特徴とする光景認識装置の位置と向きに応
答するコンピュータ制御画像発生装置。 (11)光景認識装置の位置データと向きデータに応答
して、光景認識装置の視界内の三次元装置の一部の二次
元透視図を形成するラスク型表示装置ヘラスタ表示デー
タを与えるコンピュータ制御画像発生装置において、 ナシタル三軸座標系を有する定められた地域部と、画像
の電磁スペクトラム帯の複数の二次元長方形画像フレー
ムを有するライブラリィ部とを有するデータベースと、 前記定められた地域の座標系に対する前記光景認識装置
の場所と視界を定める観察データを供給する装置と、 前記観察データを受けるためのインターフェイス装置と
、 前記観察データな呼出すために前記インターフェイス装
置に接続され、かつ前記データベースの前記定められた
地域部に接続される視界プロセッサ装置と、 この視界プロセッサ装置に接続され、それから計算され
たデータを受ける装置を含む制御装置と、前記データベ
ースの前記ライブラリィ部に接続され、前記制御装置に
より制御される少くとも1つの処理チャンネル装置と、 光景構成装置と、 を含み、 前記データベースの前記定められた地域部は、前記座標
系に対する前記各画像フレームの場所と寸法、およびそ
れの尺度を定めるフレームデータを有゛し、 前記プロセッサ装置は、前記画像フレームのうちのどれ
が前記光景認識装置の視界中に含まれるか、およびそれ
らのフレームの前記観察データと前記フレームデータに
対するそれぞれの距離を決定し、前記含まれている各画
像フレームの隅の定められた地域座標に対応するスクリ
ーンの隅の座標を計算する装置を含み、 前記制御装置の計算された前記データを受ける前記装置
が受けるデータには、前記視界内に含まれた前記画像フ
レームと同一のものと、前記含まれているフレームの前
記距離と、前記含まれている各画像フレームの座標とが
含まれ、 前記データベースの前記ライブラリィ部は前記制御装置
と少くこも1つの前記処理チャンネルに接続され、前記
少くとも1つの各処理チャンネルは、前記含まれている
フレームの少く、とも1つを、前記スクリーンの隅の対
応する1つによシ定められる囲まれた空間にマツプする
ように動作し、前記光景構成装置は、前記含まれている
フレームの前記距離を基にして光景をデジタルベースで
組立て、前記観察者に最も近い含まれているフレームは
1.5前記含まれているフレームのよシ遠い方のフレー
ムを隠す、 ことを特徴とするコンピユー・夕制御画像発生装置。
[Scope of Claims] (1) An observation plane within the coordinate system that has an observation point on the principal axis of a coordinate system, and an observation plane that extends perpendicularly to the principal axis and is separated from the observation point. A method of mapping an image, the method being applied to a rectangular digital input image arranged in columns and rows and represented as a matrix of pixel intensity values, said input image being arranged in columns and rows, said input image being mapped to said viewing plane. It is on the opposite side from the observation point,
forming an intermediate image on the input image; a first pass forming an intermediate image on the input image;
performing two passes perpendicular to a second pass forming an output image on the intermediate image; performing line transformation in the first pass;
a step of performing a line transformation in the pass of the line transformation, a step of performing calculation for each of the line transformations, a step of performing mapping, and a step of performing addition and averaging, converting said input image sequence into an intermediate image sequence having a length taken from said input image sequence such that there is a respective ratio defining the length of said intermediate image quality to said output image quality; converting intermediate image features into output image features on the viewing screen, having lengths obtained from each of the input image features, such that there is a respective ratio that determines the length of each input image feature; To make the output pixel of the nodame and the output pixel of the last imageable nodule,
The number of input pixels determined from the rows of the input image and the properties of the intermediate image is calculated based on the ratio, and the mapping process includes determining the number of input pixels for each line transformation. The process of mapping, summing and averaging the input pixels piece by piece to form a summation of the luminance values of the input pixels that can be added to each output pixel to obtain an average value thereof; A method for mapping an image to a viewing plane, characterized in that the composite values so obtained constitute each of said output pixels. (2) Rectangular pixel matrix of luminance value in a certain plane) I
In a method for linearly mapping digital input orthogonal images arranged in columns and rows represented as J-Knox onto an arbitrary convex quadrilateral, a first pass forming an intermediate image from said input image and a second pass for forming an output image from the intermediate image; an adjustment process; and a mapping process, wherein the first pass performs a transformation. further comprising transforming said input image columns into aligned intermediate vertical columns having lengths and positions determined from input image coordinates and said quadrilateral coordinates; A path further processes the intermediate image to perform a line transformation, thereby converting the properties into aligned horizontal output rows with lengths and positions determined from the corners of the intermediate image and the coordinates of the quadrilateral. the adjusting step: -adjusting the number of input pixels needed to create an output pixel; and the mapping step sequentially maps the input pixels to the output pixels, bit by bit, for each line transform. A method for linearly mapping a digital input orthogonal image onto an arbitrary convex quadrilateral, characterized by: (3) A method of mapping a digital input image to a viewing plane, the image comprising elements arranged in columns and rows representing a matrix of pixel intensity values in a 3D coordinate system, the coordinate system being an observation point on a principal axis and an observation plane spaced from the observation point and extending perpendicular to the axis, the coordinate system intersecting the principal axis and extending perpendicular to the observation plane; In a method of determining a reference plane and mapping a digital input image to an observation plane,
forming a first pass object line in the reference plane by sequentially projecting the rows of the input image to the reference plane in a perpendicular direction; simulating the projected divergent line passing through the observation plane and being separated from the origin and the corresponding first object line by an amount of at least one pixel, so as to draw an intermediate image line; processing each of said first pass object lines in a step of calculating the ratio of said first pass object lines to line segments; obtaining a pixel ratio for each first pass object line segment; mapping each row of pixels bit by bit to a corresponding first pass object line segment of the first pass object line; and said observation. said observing from said origin a diverging plane intersecting a plane to form a final image line and intersecting said input image to form a second pass object line and separated by at least one vixel; projecting a second path divergent line through a column of said viewing plane and said second path object line spaced from said origin by at least one pixel; processing each second pass object line by lengthening; and for each intermediate image property, processing each second pass object line segment and the last image line segment; obtaining a pixel ratio for a corresponding one; and mapping the pixels of a row to a corresponding second pass object line segment of the corresponding second path object line, step by step; has segments between the divergent lines having a length equal to the number of pixels separating the divergent lines, the second path divergent lines intersecting the viewing plane and extending horizontally; to form a final image line correctly positioned with a length equal to the number of pixels separating said second path divergent line;
A method for mapping a digital input image to a viewing surface, the method comprising: having a segment that intersects a path object line to form a segment. (4) A method of mapping within a 3D coordinate system having an observation plane extending perpendicular to the axis and separated from the observation point, the coordinate system including the principal axis,
having a reference plane extending perpendicular to the viewing plane, the method is applied to a digital input image represented as a matrix of pixel brightness values arranged in columns and rows;
A method for mapping in a 3D coordinate system, wherein the input image is on the opposite side of the observation plane from the observation point, and the method is applicable to map the input image to the observation plane, comprising: vertically projecting the columns one after another to the reference plane to form a first path object line in the reference plane; , sequentially processing each of the first pass object lines by irradiating radiation within the reference plane; assigning the total number of input image features; a step of sequentially mapping pixels to segments of the first pass object line of the corresponding first pass object line; an addition and averaging step; a step of processing the input image; and each of the second passes. a step of processing an object line; a second assigning step; a step of mapping row pixels; and a second summing and averaging step, wherein the ray intersects the observation plane. forming an intermediate image line having segments, each segment having a length of one pixel, each segment intersecting the first path object line to form segments of different lengths; is the total number of input image features in the first pass object line segment to obtain a vixel ratio of each first pass object line segment to a corresponding one of the intermediate image line segments.
The addition and averaging process adds the luminance values mapped to each of the first pass object lines to obtain an average value, and calculates the average value by adding the luminance values mapped to each of the first pass object lines, and calculates the average value by adding the luminance values mapped to each of the first pass object lines. In addition to line segments, the process of processing the input image includes extending a radial plane through the input image from an origin of the observation plane that is separated by one pixel. and each of the radiation planes intersects with the observation plane to form a final image and intersects with the input image to form a second path object line, and each of the second path object lines intersects with the input image to form a final image. Said process of processing said second pass ray by extending a second pass ray from said origin through said row of observation planes separated by one pixel and said second pass object line. processing each pass object line of 2, the second pass ray intersecting the observation plane to form a horizontally extending and properly positioned final image line; , assigning the total number of intermediate image properties to the second pass object line segment to obtain a pixel ratio for the second pass object line segment and the corresponding one of the line segments of the last image; The process of mapping vixels includes, for each of said intermediate image properties, mapping the pixels of a row to the second pass object line segment of the corresponding second pass object line bit by bit, and said second addition and averaging. For each segment of each second pass object line, the luminance values of each pixel mapped to it and which can be added to each final image pixel are added together, and the average is calculated. and give the composite value to the corresponding final image line segment,
A method for mapping in a 3D coordinate system, characterized by: (5) A method of mapping in a 3D coordinate system, the coordinate system comprising: an observation point on its principal axis; an observation plane extending perpendicular to said axis and spaced from said observation point; a reference plane including a principal axis and extending perpendicularly to said observation plane, represented as a matrix of pixel intensity values arranged in columns and rows, and arranged obliquely to at least one of said planes; A method of mapping in a 3D coordinate system, which may be applied to an elongated digital input image to map the input image to the viewing plane, comprising: making the columns of the input image orthogonal to the reference plane; a step of sequentially projecting a first path object line within the reference plane;
A ray forming an intermediate image line having segments each having a length of a vixel and intersecting the first path object line to form segments of different lengths is directed from the origin to the observation plane and the processing each said first pass object line by extending through a first pass object line; and a pixel ratio between the pass object line of said container 1 and a corresponding one of the segments of said intermediate image line. ' Assigning the total number of input image rows to the first pass object line segments in order to obtain '' for each input column the pixels of that input column in the corresponding first pass object line a step of sequentially mapping the segments of the first pass object line, and adding the luminance value of each pixel mapped to each segment of the first pass object line; averaging and applying composite values to intermediate, image line segments that intersect with said observation plane to form a final image line; and intersect with said input image to form a final image line; a line of the observation plane that separates a radial plane that forms a line and further intersects the input image to form a second path structure line from the origin by one pixel, and the input image; processing the input image by extending it through; projecting each structure line into a plane perpendicular to the observation plane and including the principal axis to form a second pass object line; (segment that intersects the observation plane and has a length of one pixel)? a second pass ray extending horizontally and correctly positioned to form a final image line, having a second pass ray extending horizontally and intersecting said second pass object line to form segments each having a different length from said origin. From, one
the second pass object line by extending through the second pass object line and the row of observation surfaces separated by a pixel;
processing each pass object line of the second pass object line to 1 to obtain a pixel ratio between each pass object line segment and a corresponding one of the line segments of the final image; assigning, to each intermediate image row, pixels of that row proportionally to segments of the second pass object line of the corresponding second pass object line; a step-by-step process of mapping the segments, and for each segment of each second pass object line, the luminance value of each pixel mapped to it, which can be added to each final image pixel; In addition,
A method for mapping within a 3D coordinate system, characterized in that the average is determined and the composite value is applied to the corresponding final image line segment. (6) A method of linearly mapping a digital input image, represented as a rectangular grid of luminance values in a plane, onto an arbitrary convex quadrilateral, the method comprising: projecting each output pixel within said quadrilateral onto said grid; and calculating the brightness of each output pixel from the area on the grid occupied by the output pixel; expressed as a rectangular grid of luminance values in a certain plane, characterized in that it is an area-weighted average value of the luminance values of all regions of the entire region and partial regions of the grid. A method for linearly mapping a digital input image into an arbitrary quadrilateral. (7) The pixels of said image are separated so that memory elements corresponding to any 2N consecutive pixels of any row and column of said image exist in different pixels and can be recalled simultaneously. (8) A method for mapping a two-axis square array image (D) to an address in memory, the method comprising mapping a two-axis square array image (D) to 2N memory banks that can be called by such that memory elements corresponding to any 2N consecutive pixels of a row and any column reside in different memory banks 1. and can be accessed simultaneously;
1. A method of mapping image addresses to addresses in memory, comprising the step of demultiplexing mapping of the vixels of a two-axis (AXA) square array image into 2N memory banks. (9) 2N independently recallable memory banks, row and column counter devices for horizontal or vertical address scanning of a two-axis (AXA) JIE rectangular array; a demultiplexing device for mapping pixels of said play into said banks such that any 2N consecutive pixels with any column are present in different banks and can be called simultaneously; 1. A circuit device for mapping image addresses of a two-axis (AXA) square array to memory addresses, comprising: (a defined area having a digital triaxial coordinate system of 1;
A library containing a plurality of two-dimensional image frames representing electromagnetic spectrum bands of two-dimensional images;
a simulation device for supplying observation data that determines the location and field of view of the scene recognition device with respect to the coordinate system of the defined area; an interface device for receiving the observation data; and the database. coupled to an interface device for determining which of the image frames are included in the field of view and their respective distances relative to the observed data and the frame data; a view processor device including a device for calculating the coordinates of a corner corresponding to the coordinates of a defined region of a corner of each image frame in the image frame; a control device including a device connected to the view processor and receiving data therefrom; a processing channel device controlled by the control device; and a scene composition device, wherein the defined region portion of the database includes scene composition data defining the location and dimensions of each frame relative to the coordinate system. , the control device is also connected to a library section of the database, and the data received from the viewing device is identical to the image frame contained in the viewing device and the data of the image frame included in the viewing device is the processing channel device is connected to the library portion of the database, the library portion of the database is connected to the control device and the coordinates of each of the included image frames; the channel device is operative to map the included frame into an enclosed space defined by a corresponding one of the coordinates of the corner;
The scene constructor determines the distance of the included frames such that the included frame closest to the scene recognizer includes one of the included frames that is more distant. computer-controlled image generation device responsive to the position and orientation of a scene recognition device, characterized in that it is connected to said processing channel for assembling an output scene on a digital basis. (11) A computer-controlled image that provides a raster display data for a rusk-type display that, in response to position data and orientation data of the scene recognition device, forms a two-dimensional perspective view of a portion of the three-dimensional device within the field of view of the scene recognition device. a database having a defined region section having a Nasital triaxial coordinate system and a library section having a plurality of two-dimensional rectangular image frames of image electromagnetic spectrum bands; and a coordinate system of the defined region. an interface device for receiving the observation data; an interface device connected to the interface device for retrieving the observation data; a controller connected to the library section of the database, the controller comprising: a visual field processor device connected to the local region section; a controller connected to the visual field processor device and including a device for receiving data calculated therefrom; at least one processing channel device to be controlled; and a scene composition device, wherein the defined region portion of the database defines the location and dimensions of each image frame relative to the coordinate system and the scale thereof. frame data; the processor unit determines which of the image frames are included in the field of view of the scene recognition device and their respective distances relative to the observation data and the frame data; and a device for calculating the coordinates of a corner of the screen corresponding to defined regional coordinates of a corner of each image frame included, the device receiving the calculated data of the control device includes the same image frames included in the field of view, the distance of the included frames, and the coordinates of each included image frame; The unit is connected to the control device and at least one of the processing channels, each of the at least one processing channel transmitting at least one of the included frames to a corresponding one of the corners of the screen. the scene constructor digitally assembles a scene based on the distances of the included frames, and the scene constructor is operable to digitally assemble a scene based on the distances of the included frames, A computer/event control image generation device characterized in that the included frame hides a frame that is further away than the included frame.
JP58140426A 1982-07-30 1983-07-30 Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array Granted JPS5998275A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US40339182A 1982-07-30 1982-07-30
US403391 1982-07-30
US403386 1982-07-30
US505630 1990-04-06
US403393 2006-04-13

Publications (2)

Publication Number Publication Date
JPS5998275A true JPS5998275A (en) 1984-06-06
JPH0154748B2 JPH0154748B2 (en) 1989-11-21

Family

ID=23595597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58140426A Granted JPS5998275A (en) 1982-07-30 1983-07-30 Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array

Country Status (2)

Country Link
JP (1) JPS5998275A (en)
CA (1) CA1206260A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6190275A (en) * 1984-10-09 1986-05-08 Sharp Corp Image processing device
JPS62274469A (en) * 1986-05-23 1987-11-28 Nippon Telegr & Teleph Corp <Ntt> Sight image synthesizing and processing system
JPH06348860A (en) * 1993-06-10 1994-12-22 Namco Ltd Picture synthesizing device and game device using the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552981B2 (en) 2017-01-16 2020-02-04 Shapetrace Inc. Depth camera 3D pose estimation using 3D CAD models

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6190275A (en) * 1984-10-09 1986-05-08 Sharp Corp Image processing device
JPH0234069B2 (en) * 1984-10-09 1990-08-01 Sharp Kk
JPS62274469A (en) * 1986-05-23 1987-11-28 Nippon Telegr & Teleph Corp <Ntt> Sight image synthesizing and processing system
JPH06348860A (en) * 1993-06-10 1994-12-22 Namco Ltd Picture synthesizing device and game device using the same

Also Published As

Publication number Publication date
CA1206260A (en) 1986-06-17
JPH0154748B2 (en) 1989-11-21

Similar Documents

Publication Publication Date Title
US4645459A (en) Computer generated synthesized imagery
US4835532A (en) Nonaliasing real-time spatial transform image processing system
US4667190A (en) Two axis fast access memory
US5630718A (en) Weather simulation system
US5841441A (en) High-speed three-dimensional texture mapping systems and methods
US4807158A (en) Method and apparatus for sampling images to simulate movement within a multidimensional space
US6747649B1 (en) Terrain rendering in a three-dimensional environment
US5317689A (en) Digital visual and sensor simulation system for generating realistic scenes
US6031540A (en) Method and apparatus for simulating movement in multidimensional space with polygonal projections from subhemispherical imagery
US4677576A (en) Non-edge computer image generation system
US5561745A (en) Computer graphics for animation by time-sequenced textures
JP2508513B2 (en) Image generator
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
US5409379A (en) Weather simulation system
EP0100097B1 (en) Computer controlled imaging system
EP0313101A2 (en) Fractional pixel mapping in a computer-controlled imaging system
IL98338A (en) 3-d weather digital radar landmass simulation
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
GB2051525A (en) C.G.I.-Surface textures
EP0473310A2 (en) Oblique photographic data base generation
EP0315051A2 (en) Perspective mapping in a computer-controlled imaging system
JPS5998275A (en) Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array
JPH0241785B2 (en)
Graf et al. Computer graphics and remote sensing–a synthesis for environmental planning and civil engineering
Feibush et al. Geo-spatial visualization for situational awareness