JPH08272288A - Simulation angular-range-of-view apparatus - Google Patents

Simulation angular-range-of-view apparatus

Info

Publication number
JPH08272288A
JPH08272288A JP7173795A JP7173795A JPH08272288A JP H08272288 A JPH08272288 A JP H08272288A JP 7173795 A JP7173795 A JP 7173795A JP 7173795 A JP7173795 A JP 7173795A JP H08272288 A JPH08272288 A JP H08272288A
Authority
JP
Japan
Prior art keywords
data
rain
image
control unit
generation control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7173795A
Other languages
Japanese (ja)
Inventor
Kazuhito Yaegashi
一仁 八重樫
Toshiomi Watanabe
俊臣 渡邊
Kaoru Yamamoto
薫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RINKU KK
Hitachi Denshi KK
Original Assignee
RINKU KK
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RINKU KK, Hitachi Denshi KK filed Critical RINKU KK
Priority to JP7173795A priority Critical patent/JPH08272288A/en
Publication of JPH08272288A publication Critical patent/JPH08272288A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: To provide a simulation angular-range-of-view apparatus capable of displaying the simulated angular-range-of-view videos of rain and clouds having the feel of reality with simple means by providing the video generator of the simulation angular-range-of-view apparatus with a rain and cloud generation control section combined with a pattern memory. CONSTITUTION: This simulation angular-range-of-view apparatus has at least a map database memory device 20, a host computer 1, the image generator 18 and a display device 19. The apparatus has the image generator 18 equipped with a plane generation control section 15 which generates plane data, a light point generation control section 16, a texture generation section 7, a visibility control section 8, the rain and cloud generation control section 9 which generates rain and cloud data by reading rain and cloud patterns out of the pattern memory 10 and an image synthesizing section 17 which synthesizes respective sets of the data. The apparatus generates >=1 rain and clouds in required positions by the rain and cloud patterns from the pattern memory 10 for inputting the data to the rain and cloud generation control section 9 and simulates the rainfall environment or the rain and clouds.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、飛行訓練用模擬視界装
置(フライトシミュレータ)に代表される訓練用模擬視
界装置(シミュレータ)、特に雨雲の発生について改良
をした模擬視界装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulated visual field apparatus (simulator) for training represented by a simulated visual field apparatus for flight training (flight simulator), and more particularly to a simulated visual field apparatus improved for rain cloud generation.

【0002】[0002]

【従来の技術】模擬視界装置は、人命重視、安全性、費
用の節減等の諸問題から、航空機、船舶、自動車等の操
縦、操作の訓練や非常時の訓練等に使用されているもの
である。この模擬視界装置で表示される映像は、例えば
実際に飛行機の操縦を行なった場合に操縦室の外部に見
えてくる滑走路、風景、建物等を、訓練において想定し
た航空機の位置、姿勢、パイロットの目の位置等の情報
と、あらかじめ作成しておいた例えば滑走路、建物等の
データのような視界対象物情報との相対関係で、コンピ
ュータを使用した作図を行ない、実際の視界変化と同じ
速度でスクリーン上に表示させるものであり、いかにし
て操縦室外部のスクリーンに表示する映像を、現実に近
い状態で見せるかという技術を使用するものである。
2. Description of the Related Art Due to various problems such as importance of human life, safety, and cost reduction, simulated field-of-view devices have been used in the training, operation training, and emergency training of aircraft, ships, automobiles, etc. is there. The image displayed by this simulated field-of-view device is, for example, the position, attitude, and pilot of the aircraft that was assumed in the training, such as the runway, scenery, buildings, etc. that appear outside the cockpit when the aircraft is actually operated. The relationship between the eye position information and the visual object information such as runway and building data that was created in advance is used to draw the image using a computer, and it is the same as the actual visual field change. It is displayed on the screen at a speed, and uses a technique of how to display the image displayed on the screen outside the cockpit in a state close to reality.

【0003】図8に、従来の模擬視界装置(以下、飛行
訓練用模擬視界装置を、例として説明する。)の概略構
成図を示し、動作を説明する。図8において、32は模
擬視界装置の目的に合わせ、滑走路、建物、道路等の形
状や位置、航空灯、街灯等ライトの位置等の大量の地形
データを記憶する地図データベース記憶装置、31は訓
練装置である飛行機の想定位置や姿勢データ等の飛行運
動パラメータによる演算、シーンの選択情報による設定
を行ない、地図データベース記憶装置32に記憶されて
いるデータベースの中から該当するデータを読み出し画
像発生装置33へ転送するホストコンピュータ、34
は、気象、昼間、夜間等シーンの選択を行ない、ホスト
コンピュータ31でのシーン選択操作をする操作部、3
5は、画像発生装置33から出力される模擬視界の映像
を表示する表示装置、36は模擬視界映像を構成する面
の映像データを発生する平面発生制御部、37は模擬視
界映像を構成する面の発光点のサイズ、輝度、色を示す
ライトポイントデータを発生するライトポイント発生制
御部、38は、平面発生制御部36が発生する面の映像
データの例えば滑走路や道路等にテクスチャ(模様)を
付加するテクスチャデータを発生するテクスチャ発生
部、39は、平面発生制御部36が発生する面の映像デ
ータに、例えば霧の発生による模擬視界映像全面の視程
の変化を与える制御データと雨雲のデータとを発生する
視程制御部、40は、乗算器41、加算器42、D/A
変換器43からなり、前記各データを乗算および加算し
てアナログ信号として出力する画像合成部を示す。
FIG. 8 shows a schematic configuration diagram of a conventional simulated field-of-view device (hereinafter, a simulated flight-field device for flight training will be described as an example), and its operation will be described. In FIG. 8, 32 is a map database storage device for storing a large amount of topographical data such as shapes and positions of runways, buildings, roads, etc., positions of lights such as aviation lights and street lights according to the purpose of the simulated visibility device, and 31 is An image generator is a training device that performs calculations based on flight motion parameters such as assumed position and attitude data of an airplane and settings based on scene selection information, and reads the corresponding data from the database stored in the map database storage device 32. Host computer for transfer to 33, 34
Is an operation unit for selecting scenes such as weather, daytime, nighttime, etc., and performing scene selection operation on the host computer 31.
Reference numeral 5 is a display device for displaying the image of the simulated visual field output from the image generating device 33, 36 is a plane generation control unit for generating image data of the surface forming the simulated visual field image, and 37 is a surface forming the simulated visual field image. The light point generation control unit 38 for generating light point data indicating the size, brightness, and color of the light emitting point of the, 38 is a texture (pattern) on the image data of the surface generated by the plane generation control unit 36, for example, on a runway or road The texture generation unit 39 generates texture data for adding the control data and the rain cloud data to the image data of the surface generated by the plane generation control unit 36, for example, for changing the visibility of the entire simulated visual field image due to fog generation. And a visibility control unit 40 for generating a multiplier 41, an adder 42, a D / A
The image synthesizing unit which is composed of the converter 43 and which multiplies and adds the respective data and outputs as an analog signal is shown.

【0004】従来の模擬視界装置の動作を説明する。訓
練装置の図示しない訓練用コックピットに着座したパイ
ロットによる操縦装置の操作および操作部34の設定操
作にもとづき、飛行機の想定位置や姿勢データ、シーン
の選択情報等がホストコンピュータ31に入力される。
ホストコンピュータ31は、入力した飛行機の想定位置
や姿勢データ等の飛行運動パラメータによる演算とシー
ンの選別情報によるシーン設定を行ない、地図データベ
ース記憶装置32から、パイロットの操作に適応するデ
ータベースを読み出し、画像発生装置33に備えた平面
発生制御部36、ライトポイント発生制御部37、テク
スチャ発生部38、視程制御部39へ転送する。平面発
生制御部36は、入力したデータベースをもとに、模擬
視界映像を構成する面の映像データを発生し、発生した
映像データを画像合成部40の乗算器41へ出力する。
The operation of the conventional simulated vision device will be described. Based on the pilot's operation on the training cockpit (not shown) of the training apparatus and the setting operation of the operation unit 34, the assumed position and attitude data of the airplane, scene selection information, etc. are input to the host computer 31.
The host computer 31 performs calculation based on flight motion parameters such as input assumed position and attitude data of the airplane and scene setting based on scene selection information, reads a database suitable for pilot operation from the map database storage device 32, and displays an image. The data is transferred to the plane generation control unit 36, the light point generation control unit 37, the texture generation unit 38, and the visibility control unit 39 included in the generation device 33. The plane generation control unit 36 generates image data of the planes forming the simulated visual field image based on the input database, and outputs the generated image data to the multiplier 41 of the image synthesizing unit 40.

【0005】ライトポイント発生制御部37は、入力し
たデータベースをもとに、模擬視界映像を構成する面の
発光点のサイズ、輝度、発光色を示すライトポイントデ
ータを発生し、発生したライトポイントデータを画像合
成部40の加算器42へ出力する。テクスチャ発生部3
8は、入力したデータベースをもとに、模擬視界映像を
構成する面のテクスチャデータを発生し、発生したテク
スチャデータを画像合成部40の乗算器41へ出力す
る。
The light point generation control unit 37 generates light point data indicating the size, brightness, and emission color of the light emitting point of the surface forming the simulated visual field image based on the input database, and the generated light point data Is output to the adder 42 of the image synthesizing unit 40. Texture generator 3
The reference numeral 8 generates texture data of the surface forming the simulated visual field image based on the input database, and outputs the generated texture data to the multiplier 41 of the image synthesizing unit 40.

【0006】視程制御部39は、入力したデータベース
をもとに、模擬視界映像を構成する面の映像データに、
模擬視界映像全面の視程の変化を与える制御データを発
生し、発生した視程制御データを画像合成部40の乗算
器41へ出力する。また、視程制御部39は、入力した
データベースをもとに、雨雲の模擬視界映像を表示する
場合は、模擬視界映像全面の視程制御データとして円状
パターンを発生し、発生した円状パターンを画像合成部
40の乗算器41へ出力している。
Based on the input database, the visibility control unit 39 converts the image data of the surfaces forming the simulated visual field image into
The control data for changing the visibility of the entire simulated visual field image is generated, and the generated visibility control data is output to the multiplier 41 of the image synthesizing unit 40. Further, when displaying the simulated view image of the rain cloud based on the input database, the visibility control unit 39 generates a circular pattern as the visibility control data of the entire simulated view image, and the generated circular pattern is imaged. It is output to the multiplier 41 of the combining unit 40.

【0007】画像合成部40は、乗算器41に入力し
た、平面発生制御部36からの映像データと、テクスチ
ャ発生部38からのテクスチャデータと、視程制御部3
9からの視程制御データとを乗算し、テクスチャを付加
され、視程を制御され、さらには、雨雲を付加された映
像データを加算器42へ出力する。加算器42は、入力
した映像データにライトポイント発生制御部37から入
力されたライトポイントデータを加算し、パイロットが
操縦している飛行機の想定位置や姿勢データ、選択した
シーンとなった映像データを、D/A変換器43へ出力
する。D/A変換器43は、ディジタルデータとして制
御、乗算、加算等の処理をされてきて入力した映像デー
タを、アナログ信号へ変換し、表示装置35へ出力す
る。表示装置35は、パイロットが操作している飛行機
の想定位置や姿勢データ、選択したシーンの映像を表示
する。
The image synthesizing unit 40 inputs the video data from the plane generation control unit 36, the texture data from the texture generation unit 38, and the visibility control unit 3 which are input to the multiplier 41.
The image data to which the visibility control data from 9 is added, the texture is added, the visibility is controlled, and the rain cloud is added is output to the adder 42. The adder 42 adds the light point data input from the light point generation control unit 37 to the input video data, and outputs the assumed position and attitude data of the airplane piloted by the pilot and the video data of the selected scene. , D / A converter 43. The D / A converter 43 converts the input video data, which has been subjected to processing such as control, multiplication, and addition, as digital data into an analog signal and outputs the analog signal to the display device 35. The display device 35 displays the assumed position and attitude data of the airplane operated by the pilot and the image of the selected scene.

【0008】前述の模擬視界装置の動作説明では、画像
発生装置33が備えているライトポイントやテクスチャ
の付加、視程制御とすべてが一斉に動作する説明をした
が、パイロットの操作や選択により、動作しない付加や
制御があることは、もちろんのことである。なお、模擬
視界装置に関する先行技術が開示されているものとし
て、「フライトシミュレータ用ビジュアルシステム」
(渋谷、雨宮ほか:1990年12月17日発表、テレ
ビジョン学会技術報告書)がある。
In the above description of the operation of the simulated field-of-view device, it has been explained that the light points and textures provided in the image generation device 33 and the visibility control all operate at the same time. Of course, there are additions and controls that do not. It should be noted that as a prior art related to the simulated field of view device is disclosed, "visual system for flight simulator"
(Shibuya, Amemiya et al .: Announced December 17, 1990, Technical Report of the Television Society).

【0009】[0009]

【発明が解決しようとする課題】模擬視界装置におい
て、表示装置に表示される模擬視界の映像は、できるだ
け現実に近づけ、現実感のある映像を表示する必要があ
る。従来の模擬視界装置の視程制御部で発生し制御して
いた円パタ−ンによる雨雲は、雨雲として見ることはで
きるが、円パターンという形がきまったものであるため
現実感に乏しいものであった。しかし、純粋な科学的見
地から雲粒子を表示して、雲粒子の動きを制御する手段
を使用すると、コンピュータによる莫大な計算量を必要
とし、実時間で映像を発生し映像を表示しなければなら
ない模擬視界装置には適さないものとなる。本発明は、
前記問題を解決するため、模擬視界装置の画像発生装置
にパターンメモリと組み合わせた雨雲発生制御部を設
け、簡便な手段で、現実感のある雨雲の模擬視界映像を
表示できる模擬視界装置を提供することを目的とする。
In the simulated field-of-view device, it is necessary that the image of the simulated field of view displayed on the display device should be as close to reality as possible to display a realistic image. The rain clouds generated by the circular pattern that were generated and controlled by the visibility control unit of the conventional simulated field of view can be seen as rain clouds, but the shape of the circular pattern is not realistic and is not realistic. It was However, displaying the cloud particles from a pure scientific point of view and using the means for controlling the movement of the cloud particles requires a huge amount of calculation by a computer, and the image must be generated and displayed in real time. It will not be suitable for a simulated field of view device. The present invention
In order to solve the above-mentioned problem, a rain cloud generation control unit combined with a pattern memory is provided in the image generator of the simulated field of view device, and a simulated field of view device capable of displaying a realistic simulated field image of a rain cloud by a simple means is provided. The purpose is to

【0010】[0010]

【課題を解決するための手段】前記目的を達成するため
に、本発明の模擬視界装置は、少なくとも、物体の形状
や位置の地形データやライトポイントデータ等が記憶さ
れている地図データベース記憶装置と、模擬視界により
操縦や操作の訓練を行なう装置の想定位置や前記操縦や
操作の訓練を行なう装置の姿勢データ等により映像発生
に必要なパラメータを演算し、該演算の結果と選択設定
されたシーン情報とにより前記地図データベース記憶装
置から該当する地形データ等を読み出し、転送するホス
トコンピュータと、該ホストコンピュータから転送され
た地形データ等にもとずき、模擬視界データの発生、制
御、合成等の処理を行ない模擬視界の映像信号を発生す
る画像発生装置と、前記模擬視界の映像信号により映像
を表示する表示装置とを有する模擬視界装置において、
入力された地形データ等にもとづき、平面データを発生
する平面発生制御部と、ライトポイントデータを発生す
るライトポイント発生制御部と、テクスチャデータを発
生するテクスチャ発生部と、画面全体の視程距離の変化
を制御する視程制御部と、雨雲パターンを発生するパタ
ーンメモリから雨雲パターンを読み出し雨雲データを発
生する雨雲発生制御部と、前記各データを合成する画像
合成部とを備えた画像発生装置を有しており、前記雨雲
発生制御部に入力する前記パターンメモリからの雨雲パ
ターンにより1つ以上の雨雲を所要の位置に発生し、降
雨環境あるいは雨雲を模擬するものである。
In order to achieve the above object, a simulated field-of-view device of the present invention comprises a map database storage device in which at least topographical data of the shape and position of an object, light point data and the like are stored. , The parameters required for image generation are calculated based on the assumed position of the device for training the operation and the operation based on the simulated visual field and the posture data of the device for the training for the operation and the operation, and the result of the operation and the selected and selected scene Based on the topographic data transferred from the host computer and the host computer that reads and transfers the corresponding topographical data from the map database storage device based on the information, the generation, control, synthesis, etc. of the simulated visual field data An image generator that performs processing to generate a video signal of a simulated field of view and a display device that displays an image by the video signal of the simulated field of view. In simulated vision device with bets,
Based on the input terrain data etc., the plane generation control unit that generates plane data, the light point generation control unit that generates light point data, the texture generation unit that generates texture data, and the change in the visibility distance of the entire screen A visibility control unit for controlling the rain cloud pattern, a rain cloud generation control unit for reading rain cloud patterns from a pattern memory for generating rain cloud patterns and generating rain cloud data, and an image generation device including an image synthesis unit for synthesizing the respective data. Accordingly, one or more rain clouds are generated at a required position by the rain cloud pattern from the pattern memory input to the rain cloud generation control unit, and the rain environment or the rain cloud is simulated.

【0011】さらに詳しくは、画像合成部は、少なくと
も、平面発生制御部とテクスチャ発生部と視程制御部と
からのデータとを乗算する乗算器と、該乗算器の出力デ
ータとライトポイント発生制御部からのデータとを加算
する加算器と、該加算器の出力データとパターンメモリ
からの雨雲パターンにより1つ以上の雨雲を所要の位置
に発生した雨雲発生制御部からのデータとを乗算する乗
算器とを備えているものである。
More specifically, the image synthesizing unit multiplies at least the data from the plane generation control unit, the texture generation unit and the visibility control unit, the output data of the multiplier and the light point generation control unit. From the rain cloud generation control unit that has generated one or more rain clouds at a required position according to the rain cloud pattern from the pattern memory and the output data of the adder It is equipped with and.

【0012】[0012]

【作用】本発明の模擬視界装置は、少なくとも、物体の
形状や位置の地形データやライトポイントデータ等が記
憶されている地図データベース記憶装置と、模擬視界に
より操縦や操作の訓練を行なう装置の想定位置や前記操
縦や操作の訓練を行なう装置の姿勢データ等により映像
発生に必要なパラメータを演算し、該演算の結果と選択
設定されたシーン情報とにより前記地図データベース記
憶装置から該当する地形データ等を読み出し、転送する
ホストコンピュータと、該ホストコンピュータから転送
された地形データ等にもとずき、模擬視界データの発
生、制御、合成等の処理を行ない模擬視界の映像信号を
発生する画像発生装置と、前記模擬視界の映像信号によ
り映像を表示する表示装置とを有する模擬視界装置であ
って、入力された地形データ等にもとづき、平面発生制
御部は平面データを発生し、ライトポイント発生制御部
はライトポイントデータを発生し、テクスチャ発生部は
テクスチャデータを発生し、視程制御部は画面全体の視
程距離の変化を制御し、雨雲発生制御部は雨雲パターン
を発生するパターンメモリから雨雲パターンを読み出し
雨雲データを発生し、画像合成部は前記各データを合成
し、前記雨雲発生制御部に入力する前記パターンメモリ
からの雨雲パターンにより1つ以上の雨雲を所要の位置
に発生し、降雨環境あるいは雨雲を模擬する。
The simulated field-of-view device of the present invention is assumed to be at least a map database storage device in which topographical data of the shape and position of an object, light point data, and the like are stored, and a device for carrying out training of operation and operation by simulated field-of-view. Parameters required for image generation are calculated based on the position and attitude data of the device for training the operation and operation, and the corresponding terrain data from the map database storage device based on the result of the calculation and the selected and set scene information. A computer for reading out and transferring the image, and an image generator for generating a video signal of the simulated field of view by performing processing such as generation, control and synthesis of the simulated field of view data based on the topographical data transferred from the host computer. And a display device for displaying an image according to the image signal of the simulated field of view, Based on the data etc., the plane generation control unit generates plane data, the light point generation control unit generates light point data, the texture generation unit generates texture data, and the visibility control unit changes the visibility distance of the entire screen. The rain cloud generation control unit reads the rain cloud pattern from the pattern memory that generates the rain cloud pattern to generate rain cloud data, and the image synthesis unit synthesizes each of the data, and inputs the data to the rain cloud generation control unit from the pattern memory. One or more rain clouds are generated at a required position according to the rain cloud pattern of 1 to simulate a rain environment or a rain cloud.

【0013】[0013]

【実施例】本発明による模擬視界装置(以下、飛行訓練
用模擬視界装置を、例として説明する。)の一実施例を
図1〜図9を使用して説明する。図1は、本発明による
模擬視界装置の概略ブロック図である。図1において、
20は滑走路、建物、道路、山等の形状や位置、航空灯
や街灯等ライトの位置等の地形データが記憶されている
地図データベース記憶装置、1は訓練装置である飛行機
の想定位置や飛行機の姿勢デ−タ等の映像発生に必要な
パラメ−タを演算し、地形デ−タが記憶されている地図
データベース記憶装置20から該当する地形デ−タを読
み出し画像発生装置18に転送するホストコンピュー
タ、21は気象条件、昼間、夜間、薄暮の設定等を行う
操作部、19は、画像発生装置18から出力される模擬
視界の映像を表示する表示装置、15は、透視図形作成
部2、線画作成部3、画面作成部4を備え、滑走路、建
物、道路、山等の平面デ−タを処理する平面発生制御
部、16は、透視図形作成部5、フレームバッファ6を
備え、画面の中の発光点のサイズ、輝度、色を示すライ
トポイントデータを処理するライトポイント発生制御
部、7は滑走路、道路、山、空などに現実感を与えるた
めの模様を発生するテクスチャ発生部、8は例えば霧な
どによる画面全体の視程距離の変化を制御する視程制御
部、9は画面の一部に雨雲を発生し制御する雨雲発生制
御部、10は、雨雲発生制御部9へ雨雲のパターンを出
力するパターンメモリ、17は、乗算器11および1
3、加算器12、D/A変換器14を備え、前記各デー
タを乗算および加算しアナログ信号に変換し出力する画
像合成部を示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the simulated field-of-view device according to the present invention (hereinafter, the simulated field-of-view device for flight training will be described as an example) will be described with reference to FIGS. FIG. 1 is a schematic block diagram of a simulated field-of-view device according to the present invention. In FIG.
Reference numeral 20 is a map database storage device in which topographical data such as shapes and positions of runways, buildings, roads, mountains, etc., positions of lights such as aviation lights and street lights are stored, and 1 is an assumed position of an airplane as a training device and an airplane A host that calculates parameters necessary for image generation such as posture data of the robot, reads out the corresponding terrain data from the map database storage device 20 in which the terrain data is stored, and transfers it to the image generation device 18. A computer, 21 is an operation unit for setting weather conditions, daytime, nighttime, twilight, and the like, 19 is a display device for displaying an image of a simulated field of view output from the image generation device 18, and 15 is a perspective figure creation unit 2, A plane generation control unit 16 that includes a line drawing creation unit 3 and a screen creation unit 4 and processes plane data such as runways, buildings, roads, and mountains, a perspective graphic creation unit 5, and a frame buffer 6 Luminous in A light point generation control unit that processes light point data indicating the size, brightness, and color of the texture, 7 is a texture generation unit that generates a pattern for giving a sense of reality to the runway, roads, mountains, sky, etc. A visibility control unit that controls changes in the visibility distance of the entire screen due to, for example, 9 is a rain cloud generation control unit that generates and controls a rain cloud on a part of the screen, and 10 is a pattern that outputs a rain cloud pattern to the rain cloud generation control unit 9. Memory, 17 is a multiplier 11 and 1
3 shows an image synthesizing unit which includes an adder 12 and a D / A converter 14, and which multiplies and adds the respective data, converts the data into analog signals, and outputs the analog signals.

【0014】訓練装置の飛行機と同様の運動を行なう図
示しない訓練用のコックピットの操縦席に着座したパイ
ロットの操縦による飛行機の想定位置(地図デ−タ上の
X,Y,Z座標位置)、姿勢のデータと、気象条件や昼
間、夜間、薄暮の設定等を訓練の目的に合わせ設定操作
した操作部21からのデータがホストコンピュ−タ1に
入力される。ホストコンピュ−タ1は、入力されたデー
タにもとづく地形データを地図データベース記憶装置2
0から読み出し、画像発生装置18へ転送し、例えば3
3msec毎に映像を発生させ、表示装置19にパイロ
ットが操縦している飛行機の想定位置、姿勢での映像を
表示する。さらには、データに合わせ、テクスチャデー
タ、視程制御データ、雨雲データを発生する。
An assumed position (X, Y, Z coordinate position on the map data) and attitude of an airplane operated by a pilot seated in the cockpit of a training cockpit (not shown) performing the same movement as the airplane of the training device. And the data from the operation unit 21 in which the weather conditions and the settings of daytime, nighttime, twilight, etc. are set and operated according to the purpose of training, are input to the host computer 1. The host computer 1 stores the topographical data based on the input data in the map database storage device 2
It is read from 0, transferred to the image generating device 18, and, for example, 3
An image is generated every 3 msec, and the display device 19 displays the image at the assumed position and attitude of the airplane operated by the pilot. Furthermore, texture data, visibility control data, and rain cloud data are generated according to the data.

【0015】画像発生装置18に備えた平面発生制御部
15は、まずホストコンピュ−タ1から入力された地形
デ−タを、透視図形作成部2において、図2に示すよう
な視点Pが原点で、視線方向をYo軸、左右方向をXo
軸、上下方向をZo軸とする3次元座標系(以下、視点
座標系と記す。)に変換し、さらに、この視点座標系で
表わされた座標を表示装置19に表示したときの表示装
置の座標に変換し、線画作成部3へ出力する。ここで得
られるデ−タを、仮に映像として表示(実際には走査変
換をしなければ映像として見ることはできないが、説明
のため概念を示す。)すると、図3に示すような映像a
を表示することになる。
The plane generation controller 15 provided in the image generator 18 first receives the terrain data input from the host computer 1 in the perspective figure generator 2 so that the viewpoint P as shown in FIG. Then, the gaze direction is the Yo axis, and the left and right directions are the Xo
A display device when the axes are converted into a three-dimensional coordinate system (hereinafter referred to as a viewpoint coordinate system) having the Zo axis in the vertical direction, and the coordinates represented by the viewpoint coordinate system are displayed on the display device 19. The coordinates are converted into coordinates and output to the line drawing creation unit 3. If the data obtained here is displayed as a video (it cannot be viewed as a video without scanning conversion, but the concept is shown for explanation), a video a as shown in FIG. 3 is displayed.
Will be displayed.

【0016】線画作成部3は、入力した表示装置の座標
に変換されているデ−タを、ラスタスキャン用にデ−タ
を並べ替える走査変換を行ない、走査変換後にさらに隠
面処理を行ない、画面作成部4へ出力する。隠面処理を
行なった結果得られる映像は、表示すると図4に示す映
像bようなものとなる。なお、ここでいう走査変換と
は、透視図形作成部2から出力される図形が走査線に対
し順不同に出力されてくるので、これを走査線の上から
下へ、また走査線上で左から右へ並び替えを行なう処理
であり、隠面処理とは、ランダムに送られてくる図形
を、手前にある図形から順に探し出し、図形の重なりを
考慮して並び替え、図形の隠れる部分を消去する処理で
ある。画面作成部4は、線画作成部3から入力したデ−
タの各図形部分に対応した色彩を施す処理を図5の映像
cに示すように行ない、平面発生制御部15の出力とし
て、データを画像合成部17の乗算器11へ出力する。
The line drawing creating section 3 performs scan conversion for rearranging the data converted into the input coordinates of the display device for raster scan, and further performs hidden surface processing after the scan conversion. Output to the screen creation unit 4. The image obtained as a result of the hidden surface processing becomes the image b shown in FIG. 4 when displayed. Note that the term "scan conversion" used here means that the figures output from the perspective figure creating unit 2 are output in any order with respect to the scanning lines, so that the figures are output from the top to the bottom of the scanning line or from the left to the right on the scanning line. Is a process of rearranging to, and the hidden surface process is a process of locating randomly sent figures in order from the foreground figure, rearranging in consideration of overlapping figures, and erasing hidden parts of figures. Is. The screen creation unit 4 uses the data input from the line drawing creation unit 3.
The processing for applying the color corresponding to each graphic portion of the data is performed as shown in the image c of FIG. 5, and the data is output to the multiplier 11 of the image synthesizing unit 17 as the output of the plane generation control unit 15.

【0016】ライトポイント発生制御部16は、入力し
た地形データを平面発生制御部15と同様に透視図作成
部5で座標変換し、フレ−ムバッファ6でデ−タの並べ
替えを行ない、さらに視点から発光点までの距離に応じ
て発光点のサイズ、輝度を制御した滑走路の航空灯、街
並の明かり等の発光点を示すライトポイントデータを発
生し、画像合成部17の加算器12へ出力する。テクス
チャ発生部7は、入力した地形データと制御データをも
とに、模擬視界の映像を構成する滑走路、道路、山、空
等に現実感を与える模様を付加するテクスチャデータを
発生し、画像合成部17の乗算器11へ出力する。視程
制御部8は、入力した地形データと制御データををもと
に、例えば霧が滑走路に発生しているように、模擬視界
の映像全面の視程距離に応じた変化を与える視程制御デ
ータを発生し、画像合成部17の乗算器11へ出力す
る。
The light point generation control unit 16 transforms the input terrain data into coordinates in the perspective drawing creation unit 5 similarly to the plane generation control unit 15, rearranges the data in the frame buffer 6, and further changes the viewpoint. The light point data indicating the light emitting point such as the size of the light emitting point, the brightness of the runway, the brightness of the runway, the lights of the city, etc. is generated according to the distance from the Output. The texture generation unit 7 generates texture data that adds a pattern that gives a sense of reality to a runway, roads, mountains, sky, etc. that make up the image of the simulated field of view, based on the input topographical data and control data, and the image is generated. Output to the multiplier 11 of the synthesizing unit 17. Based on the input terrain data and control data, the visibility control unit 8 generates visibility control data that changes according to the visibility distance of the entire image of the simulated field of view, such as fog occurring on the runway. It is generated and output to the multiplier 11 of the image synthesis unit 17.

【0017】つぎに、本発明の特徴的動作である雨雲の
発生について説明をする。本発明では、雨雲を粒子レベ
ルで模擬視界の映像とするのではなく、例えば霧などの
ような不透明な浮遊物が多数重ね合わさっているものと
して、雨雲に対応する部分のみのパターンが多数重ね合
わさる模擬視界の映像とするものである。雨雲の発生に
おいて、不透明な浮遊物の輝度をIとし、画面上のX
軸、Y軸それぞれの軸方向の輝度分布をXi、Yiとし
て、X軸、Y軸それぞれの輝度分布を例えば図6
(a)、(b)に示すように設定すると、輝度Iは式
(1)で表すことができ、X軸、Y軸として見る不透明
物の形状は図6(c)に示すものとなる。 I=(Xi+Yi)×Io ・・・・・(1) 但し、 I:輝度 Xi:X方向の輝度分布 Yi:Y方向の輝度分布 Io:定数
Next, the generation of rain clouds, which is a characteristic operation of the present invention, will be described. In the present invention, the rain cloud is not made to be an image of the simulated field of view at the particle level, but it is assumed that a large number of opaque suspended matter such as fog are superposed, and a large number of patterns of only the portion corresponding to the rain cloud are superposed. This is an image of a simulated field of view. When a rain cloud is generated, the brightness of an opaque floating object is I and X on the screen is
Let Xi and Yi be the brightness distributions in the axial directions of the X-axis and the Y-axis, respectively.
When the settings are made as shown in (a) and (b), the brightness I can be expressed by the equation (1), and the shape of the opaque object viewed as the X axis and the Y axis is as shown in FIG. 6C. I = (Xi + Yi) × Io (1) where: I: luminance Xi: luminance distribution in X direction Yi: luminance distribution in Y direction Io: constant

【0018】図6(c)に示すような不透明物の形状
を、異なる所要の位置に複数個発生させることにより、
複数の雨雲を発生することができる。雨雲発生制御部9
は、入力した地形データと制御データををもとに、パタ
−ンメモリ10より不透明物の形状の最適なぼかしとし
て使用できる輝度パタ−ンを読み出し、式(1)に示さ
れる条件に従い処理を行ない雨雲を発生し、雨雲データ
を画像合成部17の乗算器13へ出力する。このように
して、図5に示した映像に、テクスチャを合成の上、雨
雲を合成すると、図7に示すような映像となる(発光点
の図示は省略。)。
By generating a plurality of opaque material shapes as shown in FIG. 6C at different required positions,
Multiple rain clouds can be generated. Rain cloud generation control unit 9
Reads out a brightness pattern that can be used as an optimum blur of the shape of an opaque object from the pattern memory 10 based on the input topographical data and control data, and performs processing according to the condition shown in equation (1). A rain cloud is generated and the rain cloud data is output to the multiplier 13 of the image synthesizing unit 17. In this way, when the texture is combined with the image shown in FIG. 5 and the rain clouds are combined, an image as shown in FIG. 7 is obtained (light emitting points are not shown).

【0019】画像合成部17は、乗算器11に入力し
た、平面発生制御部15からの映像データと、テクスチ
ャ発生部7からのテクスチャデータと、視程制御部8か
らの視程制御データとを乗算し、テクスチャを付加さ
れ、視程を制御された映像データを加算器12へ出力す
る。加算器12は、入力した映像データにライトポイン
ト発生制御部16から入力されたライトポイントデータ
を加算した映像データを乗算器13へ出力する。乗算器
13は、入力した映像データに雨雲発生制御部9から入
力された雨雲データを乗算し、パイロットが操縦してい
る飛行機の想定位置や姿勢データ、選択設定したシーン
となった映像データを、D/A変換器14へ出力する。
D/A変換器14は、ディジタルデータとして発生、制
御、乗算、加算等の処理をされてきて入力した映像デー
タを、アナログ信号へ変換し、表示装置19へ出力す
る。表示装置19は、パイロットが操作している飛行機
の想定位置や姿勢データ、選択したシーンの映像を表示
する。なお、前記雨雲発生制御の他の手段として、不透
明な浮遊物の形状は、パターンメモリにあらかじめ記憶
しておき、表示位置、大きさに応じて記憶したパターン
の読み出しアドレスを制御する手段としてもよい。
The image synthesizing unit 17 multiplies the image data from the plane generation control unit 15, the texture data from the texture generation unit 7, and the visibility control data from the visibility control unit 8 which are input to the multiplier 11. , And the image data to which the texture is added and the visibility is controlled is output to the adder 12. The adder 12 outputs the video data, which is obtained by adding the light point data input from the light point generation control unit 16 to the input video data, to the multiplier 13. The multiplier 13 multiplies the input video data by the rain cloud data input from the rain cloud generation control unit 9, and calculates the assumed position and attitude data of the airplane operated by the pilot, and the video data of the scene selected and set, Output to the D / A converter 14.
The D / A converter 14 converts the input video data, which has been subjected to processing such as digital data generation, control, multiplication and addition, into an analog signal and outputs it to the display device 19. The display device 19 displays the assumed position and attitude data of the airplane operated by the pilot and the image of the selected scene. As another means for controlling the rain cloud generation, the shape of the opaque floating matter may be stored in the pattern memory in advance, and the read address of the stored pattern may be controlled according to the display position and the size. .

【0020】[0020]

【発明の効果】本発明によれば、模擬視界装置の画像発
生装置にパターンメモリと組み合わせた雨雲発生制御部
を設け、簡便な手段で、現実感のある雨雲の模擬視界映
像を表示できる模擬視界装置を提供することができる。
According to the present invention, a simulated field of view capable of displaying a realistic simulated field of view of a rain cloud by a simple means by providing a rain cloud generation control unit combined with a pattern memory in an image generator of the simulated field of view device. A device can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による模擬視界装置を示す概略ブロック
図。
FIG. 1 is a schematic block diagram showing a simulated vision device according to the present invention.

【図2】視点座標系の説明図。FIG. 2 is an explanatory diagram of a viewpoint coordinate system.

【図3】透視映像の例を示す図。FIG. 3 is a diagram showing an example of a perspective image.

【図4】線画作成映像の例を示す図。FIG. 4 is a diagram showing an example of a line drawing creation video.

【図5】塗りつぶし映像の例を示す図。FIG. 5 is a diagram showing an example of a filled image.

【図6】本発明による模擬視界装置の雨雲発生における
(a)X軸ぼかし度分布図、(b)Y軸ぼかし度分布
図、(c)X軸、Y軸ぼかし度分布図。
FIGS. 6A and 6B are (a) X-axis blurring degree distribution map, (b) Y-axis blurring degree distribution map, and (c) X-axis and Y-axis blurring degree distribution map when rain clouds are generated by the simulated visual field device according to the present invention.

【図7】本発明による模擬視界映像の一例を示す図。FIG. 7 is a diagram showing an example of a simulated visual field image according to the present invention.

【図8】従来の模擬視界装置を示す概略ブロック図。FIG. 8 is a schematic block diagram showing a conventional simulated vision device.

【符号の説明】[Explanation of symbols]

1、31…ホストコンピュータ、2…(平面系)透視図
形作成部、3…(平面系)線画作成部、4…(平面系)
画面作成部、5…(ライトポイント系)透視図形作成
部、6…フレームバッファ、7、38…テクスチャ発生
部、8、39…視程制御部、9…雨雲発生制御部、10
…パターンメモリ、11、13、41…乗算器、12、
42…加算器、14、43…D/A変換器、15、36
…平面発生制御部、16、37…ライトポイント発生制
御部、17、40…画像合成部、18、33…画像発生
装置、19、35…表示装置、20、32…地図データ
ベース記憶装置、21、34…操作部。
1, 31 ... Host computer, 2 ... (Plane system) perspective graphic creation unit, 3 ... (Plane system) line drawing creation unit, 4 ... (Plane system)
Screen creation unit, 5 (light point system) perspective graphic creation unit, 6 ... Frame buffer, 7, 38 ... Texture generation unit, 8, 39 ... Visibility control unit, 9 ... Rain cloud generation control unit, 10
... Pattern memory, 11, 13, 41 ... Multiplier, 12,
42 ... Adder, 14, 43 ... D / A converter, 15, 36
... Plane generation control unit, 16, 37 ... Light point generation control unit, 17, 40 ... Image synthesizing unit, 18, 33 ... Image generating device, 19, 35 ... Display device, 20, 32 ... Map database storage device, 21, 34 ... Operation part.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 薫 東京都小平市喜平町一丁目5番10号 株式 会社リンク内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kaoru Yamamoto 1-5-10 Kiheicho, Kodaira-shi, Tokyo Stock Company Link

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも、物体の形状や位置の地形デ
ータやライトポイントデータ等が記憶されている地図デ
ータベース記憶装置と、 模擬視界により操縦や操作の訓練を行なう装置の想定位
置や前記操縦や操作の訓練を行なう装置の姿勢データ等
により映像発生に必要なパラメータを演算し、該演算の
結果と選択設定されたシーン情報とにより前記地図デー
タベース記憶装置から該当する地形データ等を読み出
し、転送するホストコンピュータと、 該ホストコンピュータから転送された地形データ等にも
とずき、模擬視界データの発生、制御、合成等の処理を
行ない模擬視界の映像信号を発生する画像発生装置と、 前記模擬視界の映像信号により映像を表示する表示装置
とを有する模擬視界装置において、 入力された地形データ等にもとづき、平面データを発生
する平面発生制御部と、ライトポイントデータを発生す
るライトポイント発生制御部と、テクスチャデータを発
生するテクスチャ発生部と、画面全体の視程距離の変化
を制御する視程制御部と、雨雲パターンを発生するパタ
ーンメモリから雨雲パターンを読み出し雨雲データを発
生する雨雲発生制御部と、前記各データを合成する画像
合成部とを備えた画像発生装置を有し、 前記雨雲発生制御部に入力する前記パターンメモリから
の雨雲パターンにより1つ以上の雨雲を所要の位置に発
生し、降雨環境あるいは雨雲を模擬することを特徴とす
る模擬視界装置。
1. A map database storage device that stores at least topographical data and light point data of the shape and position of an object, and an assumed position of a device that conducts training of operation and operation with a simulated field of view and the operation and operation. A host that calculates parameters necessary for image generation based on the posture data of the training device, reads out the corresponding terrain data from the map database storage device based on the calculation result and the scene information selected and set, and transfers the data. A computer, an image generator for generating, controlling, and synthesizing simulated visual field data to generate a video signal of the simulated visual field based on the terrain data transferred from the host computer; and In a simulated field of view device having a display device for displaying an image by an image signal, A plane generation control unit that generates plane data, a light point generation control unit that generates light point data, a texture generation unit that generates texture data, and a visibility control unit that controls changes in the visibility distance of the entire screen. A rain cloud pattern is generated from a pattern memory that generates a rain cloud pattern, and a rain cloud generation control unit that generates rain cloud data, and an image synthesizing unit that synthesizes the data are provided. A simulated field-of-view device, characterized in that one or more rain clouds are generated at a required position according to the rain cloud pattern input from the pattern memory to simulate a rain environment or a rain cloud.
【請求項2】 請求項1記載のものにおいて、画像合成
部は、少なくとも、平面発生制御部とテクスチャ発生部
と視程制御部とからのデータとを乗算する乗算器と、 該乗算器の出力データとライトポイント発生制御部から
のデータとを加算する加算器と、 該加算器の出力データとパターンメモリからの雨雲パタ
ーンにより1つ以上の雨雲を所要の位置に発生した雨雲
発生制御部からのデータとを乗算する乗算器とを備えて
いることを特徴とする模擬視界装置。
2. The image synthesizing unit according to claim 1, wherein the image synthesizing unit multiplies at least data from the plane generation control unit, the texture generation unit, and the visibility control unit, and output data of the multiplier. And the data from the light point generation control unit, and the output from the adder and the data from the rain cloud generation control unit that has generated one or more rain clouds at a required position according to the rain cloud pattern from the pattern memory. A simulated field-of-view device, comprising: a multiplier for multiplying and.
JP7173795A 1995-03-29 1995-03-29 Simulation angular-range-of-view apparatus Pending JPH08272288A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7173795A JPH08272288A (en) 1995-03-29 1995-03-29 Simulation angular-range-of-view apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7173795A JPH08272288A (en) 1995-03-29 1995-03-29 Simulation angular-range-of-view apparatus

Publications (1)

Publication Number Publication Date
JPH08272288A true JPH08272288A (en) 1996-10-18

Family

ID=13469145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7173795A Pending JPH08272288A (en) 1995-03-29 1995-03-29 Simulation angular-range-of-view apparatus

Country Status (1)

Country Link
JP (1) JPH08272288A (en)

Similar Documents

Publication Publication Date Title
Padmos et al. Quality criteria for simulator images: A literature review
Vince Introduction to virtual reality
US4835532A (en) Nonaliasing real-time spatial transform image processing system
US4667190A (en) Two axis fast access memory
Yan Advances in computer-generated imagery for flight simulation
JPH0757117A (en) Forming method of index to texture map and computer control display system
JPH05174129A (en) Modeling apparatus for imaging three-dimensional model
Schachter Computer image generation for flight simulation
GB2256568A (en) Image generation system for 3-d simulations
EP0100097B1 (en) Computer controlled imaging system
US6100892A (en) Atmospheric effects simulation
EP0313101A2 (en) Fractional pixel mapping in a computer-controlled imaging system
US5550959A (en) Technique and system for the real-time generation of perspective images
US5936626A (en) Computer graphics silhouette load management
JPH08272288A (en) Simulation angular-range-of-view apparatus
JPH0154749B2 (en)
EP0315051A2 (en) Perspective mapping in a computer-controlled imaging system
JPH0154748B2 (en)
CN114220316B (en) Universal flight simulator vision system
CA2226115C (en) Atmospheric effects simulation
Rowley Computer generated imagery for training simulators
JPH07219419A (en) Snowfall simulator
Chen Night Calligraphic Digital Visual System
JPH0773340A (en) Texture shading method for simulated visual field generator
JPH05303623A (en) Method for generating simulated visibility