JPH0154748B2 - - Google Patents

Info

Publication number
JPH0154748B2
JPH0154748B2 JP58140426A JP14042683A JPH0154748B2 JP H0154748 B2 JPH0154748 B2 JP H0154748B2 JP 58140426 A JP58140426 A JP 58140426A JP 14042683 A JP14042683 A JP 14042683A JP H0154748 B2 JPH0154748 B2 JP H0154748B2
Authority
JP
Japan
Prior art keywords
scene
objects
video
view
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP58140426A
Other languages
Japanese (ja)
Other versions
JPS5998275A (en
Inventor
Pii Guraafu Kaaru
Emu Fueachairudo Kimu
Emu Fuanto Kaaru
Daburyu Rusuraa Jooji
Oo Shureeda Maikeru
Dei Fuaagason Denisu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell Inc
Original Assignee
Honeywell Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell Inc filed Critical Honeywell Inc
Publication of JPS5998275A publication Critical patent/JPS5998275A/en
Publication of JPH0154748B2 publication Critical patent/JPH0154748B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】[Detailed description of the invention]

〔発明の技術分野〕 本発明は全体としてコンピユータ制御映像発生
装置に関するものであり、更に詳しくいえば、自
然人であるオペレータまたはそれと同等のハード
ウエア/ソフトウエアによりリアルタイムまたは
ほぼリアルタイムで映像を解析するのに十分な処
理速度で、映像のライブラリから表示のために光
景の逐次流れの組立および構成を行う能力を有す
るデジタル映像処理装置に関するものである。 そのような装置の多くの用途のうちの1つ例
は、航空機のフライト・シミユレーシヨンのよう
な乗物のシミユレーシヨンの分野に関するもので
ある。そのような装置においては、航空機のフラ
イト・シミユレーシヨン装置内の視覚システムが
フライト・シミユレーシヨン・コンピユータから
飛行データを受け、定められた領域すなわち「ゲ
ーミング領域」のデータベースから地形データを
受ける。視覚システム内のデータ処理装置が飛行
データと地形データを総合して、観察者に航空機
の操縦席に居るかのようなシミユレートされた可
視表示を発生する。 たとえばヘリコプタのような乗物の乗物シミユ
レータの視覚システムは「シミユレートされた周
囲の状況を、窓を通して見る光景」を含み、その
ような周囲の状況に対する任意の希望方向に「乗
物」を誘導するための制御を行う。この装置の
「窓を通して見る光景」という用語は、たとえば
約60〜260Km2(約25〜100平方マイル)の広い地域
をカバーする地形に相当するシミユレートされた
環境の、通常は映像の形態の、表示を意味する。
このシミユレートされた周囲の状況のことを、こ
こでは、定められた領域またはゲーミング領域と
呼ぶことにする。 乗物制御器の動作により乗物は、ゲーミング領
域内で、ゲーミング領域の周辺で、およびゲーミ
ング領域を通つて、誘導される。そして、窓を通
して見えるもの、すなわち映像表示、が何である
かを決定するが、乗物制御器に対しての視覚シス
テムの応答である。「窓」を通して見えるものの
ことを視界すなわちFOV(Field of View)と呼
ぶことにする。 〔従来技術〕 「コンピユータ発生形象」(CGI、すなわち
Computer Generated Imagery)装置として知
られている従来の装置の1つは、データベースか
ら映像表示可能な形象を発生するためにコンピユ
ータ装置を利用している。CGI装置においては、
映像表示可能な光景を構成するための対象物と地
表面が、対象物と地表面との視界を定める点の形
で格納されている純粋に機械的なモデルからとり
出される。 CGI装置の強みはそれの地表面の表し方にあ
る。実際の地表面または人工的な地表面は、指定
された点(通常は一様なマス目ないし格子の交
点)において測定し高度を得ることができる。標
本の高度を結ぶことにより、地表面をコンピユー
タにより再構成できる。現実的な地表面の表現に
加えて、CGI装置はその地表面上における物体の
配置も制御する。高度データは一様な格子ごとに
与えられるのが普通であるから、他の物体の配置
は同一の格子上で指定できる。木、岩、潅木、家
屋、道路のような典型的な物体は、データベース
の格子系において定められた位置を有することが
できる。 正確な照度と斜視像もCGI装置の大きな寄与で
ある。正確な照度は、表示される各ピクセルに対
する地表面垂線を見出すことにより達成される。
この垂線は、ピクセルの輝度を計算するために、
視線、光源からの垂線および周囲の明るさととも
に用いられる。観察点から地表面の各点までの距
離がわかつているから、正確な透視像が達成され
る。この距離は透視像への変換においては重要な
変数である。 このCGI装置の弱点は現実性に欠けることであ
る。物体は正確に位置させることができ、正確に
照度で表示でき、かつ正しく斜視像を表示できる
が、物体自体は現実的に表示できない。CGI装置
での物体表示における現在の技術状態は、物体が
非常に線画的に表示されるような程度である。不
毛な地形、砂および雲などのようなある種の光景
要素は、木、草または詳細な人工物のような複雑
な物体よりは現実的に表示できる。そのような複
雑な物体は単に現実感に欠けるだけである。 別の映像発生装置は「コンピユータ合成形象」
すなわちCSI(Computer Synthesized Imagery)
と呼ばれている。CSI技術も、たとえばビデオ表
示可能な映像のような映像をデータベースから発
生するが、そのデータベースに格納されている物
体と地表面は、CGI装置におけるようなそれらの
物体などの数学的モデルではなくて、物体と地表
面の現実世界の電磁媒体を介した映像として表わ
されている。 したがつて、CGI装置は純粋に数学的なデータ
ベースから形象を発生するためにコンピユータを
用いるのに対して、CSI装置は格納されている現
実の映像を基にして光景内に物体をはめこむため
にコンピユータを用いる。CGI装置は構成および
表示すべき光景を巧妙に制御するが、忠実度は低
く、したがつて表示される光景の現実感に乏し
い。CSI装置はこれと正反対である。忠実度は極
めて高いが、光景の構成の制御は制約される。 CSI装置の強みは光景中に写真のような現実の
画像を用いることに存する。現在入手できるビデ
オ機器では写真データを容易にとりあつかえる。
文字どおりに何千という個々の写真をビデオデイ
スクに記録でき、それらの写真の呼出しは、磁気
デイスクに格納されているデジタルデータのケー
スと全く同様に、牽引装置により制御できる。更
に、映像忠実度は確かであり、出力された画像は
入力されて格納されているものと同一である。 CSI装置の弱点は、それの光景が「カメラ」の
撮影点に限定されることである。すなわち、一連
の光景を初めから終りまで撮影した一連の写真を
用いない限り、その光景を動的に移動できないこ
とである。妥当な寸法の任意のゲーミング地域に
対しては初めから終りまでの一連の光景写真の数
は利用できないほどの多さである。 〔発明の概要〕 本発明により、CGI装置を新しく開発された
CSI技術に組合わせてCGSI装置を構成できる。
ここでは本発明はCGSI(Computer Generated
Synthesized Imagery)を構成するために、2つ
の技術CGIとCSIの最も良い所を組合わせること
を含むもである。光景は、CGIまたはCSIにより
発生された指定された地面すなわち背景上に、通
常は詳しい、高い忠実度の(CSIによる)物体を
置くことにより、構成される。CGSIの光景は
CGIの光景とほとんど同様にして作ることがで
き、地表面の高度と物体の位置は一様な格子の上
に置かれる。その光景に使用される個々の物体は
斜視のために調整され、寸法と、位置と、回転
と、ねじ曲げ(warp)および輝度を含む場所と
変換は要求に応じて各画像ごとに実行される。地
表面はCGIによる構成とすることもできれば、一
連のCSI地表面のはめこみとすることができる。
光景は、観測点すなわち光景認識装置から最も離
れている物体から始まり、最も近くの物体まで、
物体を置くことにより構成されるのが普通であ
る。CGSIは可視スペクトラム、IR(赤外線)ス
ペクトラム、MMW(ミリ波)スペクトラム、レ
ーダスペクトラムなどを含む電磁スペクトラムの
任意の部分からの形象により構成できる。 目 的 したがつて、本発明の目的はデータベース内の
現実世界の映像を使用するようにした、新規かつ
改良したコンピユータ制御映像発生装置を得るこ
とである。 〔実施例〕 以下、図面を参照して本発明を詳しく説明す
る。第37図は戦場を空中から見たものである。
その戦場のことをゲーミング領域または定められ
た領域と呼ぶことができ、実際の制約内で、約60
〜260Km2(約25〜100平方マイル)をカバーする地
域が普通である。 たとえば、ヘリコプタの動作をシミユレートす
るために本発明の装置を用いるものとすると、第
37図に示すようなシミユレートされたゲーミン
グ領域を、ヘリコプタの飛行用の環境として選択
できる。このヘリコプタ・シミユレータの視覚シ
ステムは、ゲーミング領域の「窓を通して見る光
景」を連続して表示する。その表示は、ゲーミン
グ領域に対するヘリコプタの位置と高度に対応す
る、ゲーミング領域内でパイロツトが見る光景の
流れのビデオ表示である。ヘリコプタ・シユミレ
ータには、ゲーミング領域内、ゲーミング領域の
周辺およびゲーミング領域を通る、任意の方向に
ヘリコプタを自由飛行で、誘導ないし航行させる
ための制御装置が組込まれる。視覚システムはそ
の制御装置に応答してビデオ表示される「窓」の
中に何が見えるかを決定する。 第38A図は第37図のゲーミング領域内のど
こか、おそらくは木立ちの陰の光景を示すもので
ある。その光景は、ヘリコプタ・シユミレータの
訓練室内の、窓を模しているビデオ表示器上に、
ある時刻に現れたものである。訓練生が制御装置
を連続的に操作することにより、ゲーミング領域
内でのヘリコプタの動きが次々定められ、ビデオ
表示器で表示されている光景はヘリコプタの各瞬
時位置に従う。 第38A図、第38B図は、本発明の原理に従
つて発生された、ゲーミング領域内の表示された
ビデオ表示光景の撮影写真の実際のコピーであ
る。それらの写真から、細部にぼけを生じさせる
いくつかの処理過程を経て光景の画像が得られた
にもかかわらず、物体の細部に見られる現実感に
注意されたい。また、物体から背景への移り変わ
りの滑らかなことは、光景がマンガ的な表現でな
く表されていることを示すものである。 第1図はCGSI装置のブロツク図である。 第39図〜第47図は第1図の特殊効果をはめ
込むユニツト12で終る典型的なCGSI装置の構
成における過程を示すものである。それらの図も
表示された画像を撮影したものである。 CGSI光景の構成は地面、水面、空をまず置く
ことにより始まるのが普通である。その後で、大
きい物体と小さい物体を置く。物体としては木、
岩、家屋、かん木、道路、照明灯、乗物、ヘリコ
プタ、有翼航空機、動物、女性などがある。最後
に、希望により特殊効果を付加でき、それらの特
殊効果には煙、ほこり、雲、陰などがある。
CGSI装置がどのように機能するかを示すために、
第39図〜第47図を参照して例示した光景の組
立について説明する。 第39図から始まつて、ある距離の背景の上に
空を区分して付加する。空を区分することによ
り、頂きと谷とでこれらの図に示されているよう
な地平線を形成できる。この例においては、空を
5つに区分した。一般に、区分部分の下側縁部は
まつすぐである必要はなく、なだらかな起伏、急
な丘または山なみをシユミレートするためにわん
曲させたり、ぎざぎざにすることもできる。最低
と最高のデータを基にした仰角と、観察点とを基
にして個々の区分部分をどのようにしてねじ曲げ
る(warp)かについての説明は、後で詳しく行
う。 第40図には前景または山のふもとの丘を形成
するために、ざらざらした地表面が区分部分とし
て付加される。山と空の間の手を加えていない部
分は、遠い背景内の山々として現われる。その後
で、地表面の多角形のスクリーン座標に適合する
ように、格納されているざらざらの地表面がねじ
曲げられて、光景に付加される。各地表面の輝度
は距離その他の希望のパラメータに応じて変える
ことができる。 第41図は計画された道路部分を示すものであ
る。その道路部分のために、スクリーン座標に適
合するようにデータベースの地表面のライブラリ
イ内の道路表現がねじ曲げられる。地表面のライ
ブラリイは種々の道路表面と、流れおよび池のよ
うな他の特殊な地表面を含むことができる。 第42図は計画された比較的小さい二次元2D
物体の例を示すものである。それらの物体は全ス
クリーンの所定の割合以下を占める。一実施例に
おいては光景の面積の1/16以下を占める物体は二
次元2Dで表される。その理由は、多数の用途に
おいては、木、やぶ、岩のような比較的小さい自
然物体は、現実感をほとんど失わずに一方の側か
ら、すなわち、二次元物体として表わすことがで
きるためである。大きな建物、またはタンク、船
舶のような特別な興味をひく物体のように一方の
側から表わすことができない物体は三次元3D物
体と呼ばれ、そのように表わされる。比較的小さ
い二次元2D物体は、三次元3D物体および地表
面を処理するために必要とされるものより安価な
処理用のハードウエアやソフトウエアにより処理
できる。ある光景の中で飛行中に、二次元2D物
体、それが光景の面積の予め選択された割合以上
を占めるに至つた時に、三次元3D処理へ移すこ
とができる。 第43図はマルチビユーの三次元3D物体とし
てのタンクを示す。タンクのマルチビユーは格納
され、タンクの行路、高度および観察者の視点を
基にして、光景の構成に適切な画面が用いられ
る。タンクは移動していても良く、かつ非常に大
きくても良い。 第44図は多表面すなわち三次元3Dの建物の
例である家を示す。その家はいくつかの表面部分
と、いくつかの屋根部分(両側が同一であれば1
つ)と、2つの端部と、2つの側面とに分類され
る。その家の個々の表面は、スクリーン座標によ
り指示された斜視像を正規化された画面からねじ
曲げて形成することができ、その後、それらが結
び合わされる。 第45図は大きな二次元2D物体を示す。それ
らの物体は光景の面積の所定の量以上を占めるこ
とができる。必要があれば、それらの物体は膨脹
させて、物体がスクリーンの全面より大きくする
ことができる。 第46図は雲、ほこり、煙、陰を含む半透明な
媒体のために使用される特殊効果技術を示すもの
である。マスクが透過機能を制御し、別の入力語
が輝度と色を制御する。 第47図は完全なCGSI装置による光景を示す
ものである。その光景は第37図に示されている
ゲーミング領域のどこかに現われるものである。 第1図のブロツク図を次に参照する。そのブロ
ツク図のデータベース構造から特殊効果のはめ込
みまでの各項目について下に簡単に説明し、後で
詳しく説明する。 A:第1図のブロツク図の諸項目の簡単な説明 <データベース構造> データベースは、物体その他のライブラリイと
ゲーミング領域データとの、非常に異なる種類の
2つのデータを有する。ライブラリイのハードウ
エア202a〜202cは形象を発生し、それら
の形象を光デイスクに高忠実度で格納する。ゲー
ミング領域データのハードウエア203は物体
(object)と、地表面(Surface)と、特殊効果
(Special effect)との場所をロードするために
用いられる。 ライブラリイの融通性はほとんど制限がない。
ライブラリイのハードウエア202a〜202c
は物体の映像と、地表面の映像と、特殊効果の透
過マスクとを含むことができる。それらは多数の
電磁放射スペクトラム帯の1つで表すことができ
る。これにより、可視領域ばかりでなく、検出し
たIR(赤外線)スペクトラム、MMW(ミリメー
タ波)スペクトラム、レーダ・スペクトラムなど
を基にした入力/出力もシユミレーシヨンでき
る。 ライブラリイは二次元2D映像と三次元3D映
像の混つたものを含むこともできる。それらの映
像は昼・夜の条件、毎日の条件を表すことができ
る。可視物体のライブラリイは写真を通常含んで
いる。物体のライブラリイから高忠実度物体を構
成する際には、個々の現実世界の要素、非常に正
確なモデル、絵画、写真などの物体のライブラリ
イ202a〜202cに格納されている物体が呼
出されて「完全に近い」映像を形成する。これ
は、縁部を復原し、背景から物体を分離し、輝度
と色を修正し、現実的な色を発生し、系の基準点
から物体の位置を決め、高忠実度のCGI物体を発
生し、グラフイツク・データ、すなわち、光源を
発生することにより行われる。着地点と高度基準
点も加えられる。「完全に近い」物体と、地面お
よび特殊効果は、高速アクセス可能で、高いデー
タ速度をもつ媒体に格納される。「完全に近い」
という用語は、入力映像の品質に関する忠実度が
高いことを意味する。 ゲーミング領域データは、物体のライブラリイ
の内容と、地表面と、特殊効果とを格子すなわち
ゲーミング領域の上に置くために必要な情報を与
える。物体はオペレータが置くこともできれば、
コンピユータによりランダムに置くこともでき
る。ライブラリイ内の物体は静止させたり、動か
したりできる。この機能出力は光景の内容を決定
する。 <乗物シミユレーシヨン計算> 乗物シミユレーシヨン装置206による計算
は、乗物の数学的モデルと制御入力を基にして、
主たる乗物の視覚装置すなわちセンサ装置の場所
と見る方向を決定する。また、副たる乗物につい
ても、乗物のモデルと、選択された経路とを基に
して、計算を行うことができる。この出力は観察
者の場所を決定する。 <通信サブシステム> もちろん、乗物シミユレーシヨン装置206の
入力/出力すなわちI/Oと、CGSI装置のI/
Oは効率的なやり方でインターフエイスせねばな
らない。通信サブシステム208は2つの装置を
インターフエイスする双方向リンクおよびバツフ
アとすることができる。 <視界(FOV)と座標変換の計算> 視界(FOV)処理装置210は、構成中の光
景中の物体、地表面および特殊効果の存在を決定
する。変換マトリツクス(V)の出力は現実世界
の座標をスクリーンの座標に変換する。変換マト
リツクスからのこのデータにより、迅速にテスト
をして、物体の任意の部分と、地表面と、特殊効
果との全てについてそれらが光景中に存在するか
否かを決定することができる。データベース中の
全ての物体についての存否の試験を避けるため
に、「スマート」なアルゴリズムにより、光景に
近接している物体および表面だけを試験すること
ができる。視界(FOV)処理装置210は、視
界(FOV)内の物体の表(リスト)と、それら
の物体、地表面または特殊効果のチヤンネル割当
の表(リスト)とを保持する。視界(FOV)処
理装置201の機能は観察者が見ることができる
ものを決定することである。 <物体、地表面、特殊効果の制御装置> この制御装置212a〜212cは視界
(FOV)の計算中に発生された制御機能を「フア
ンアウト」および処理する。処理された制御機能
は物体、地表面、特種効果の処理チヤンネル21
4a〜214cへ送られる。制御装置212a〜
212cにより実行される主な機能は、ゲーミン
グ領域座標のスクリーン座標への変換と、オペレ
ータにより制御される乗物から視界(FOV)内
の各物体までの距離データの処理と、距離と物体
との識別を基にした各物体の輝度の決定と、正し
い映像データの検索をライブラリイ202a〜2
02cに指令することである。制御装置212a
〜212cの機能は、視界(FOV)データを
「フアンアウト」し、光景のための精密な制御デ
ータを発生することである。 <物体、地表面および特殊効果のライブラリイ> このライブラリイ202a〜202cは光景の
構成に用いられる映像を格納する。制御装置21
2a〜212cは、処理チヤンネル214a〜2
14cへ送られる映像の選択を指令する。ライブ
ラリイ202a〜202cの唯一の機能は映像を
格納し、正しい映像を指令に応じて与えることで
ある。 <物体、地表面および特殊効果の処理チヤンネル
> 個々の処理チヤンネル214a〜214cすな
わち「パイプライン処理装置」はチヤンネル当り
1つの大きな項目(物体、地表面または特殊効
果)を通常一度に処理する。処理チヤンネル21
4a〜214cは複数のより小さい項目を並列に
処理できる能力を有することができる。全ての処
理チヤンネルはそのような各項目について同一の
やり方で動作する。というのは、チヤンネルの機
能は項目の性質で指定されるからである。一実施
例においては、各処理チヤンネルはライブラリイ
からの1つの大きい項目、または16の小さい項目
を、制御機能により指定された変換により修正す
る。すなわち、物体と、地表面と、または特殊効
果の処理チヤンネルは、正常なまつすぐに正面か
ら見た図法で格納されている映像を、位置と、寸
法と、回転と、ねじ曲げとを変えることにより、
光景の座標を基にして変更する。映像の輝度は距
離および物体の種類を基にして変えられる。そう
すると、それらの並列パイプラインの処理チヤン
ネルの機能は、与えられた光景中で用いられる各
物体、地表面および特殊効果を要求に応じて修正
することである。 <光景構成> 光景構成モジユール216は各処理チヤンネル
から個々の映像をとり、その映像を背景から分離
し、距離を基にして光景を組立てるものである。
このようにして、近い物体がより遠くの物体を掩
蔽する。個々の映像から光景を構成することによ
り発生させられた高周波数部はガウス関数により
滑らかにできる。こ動作は縁部と内部周波数を一
致させる。 光景構成モジユールは2つの物体および地表面
の制御装置から距離情報を受ける。その距離は、
ある特定の物体がその光景内の他の物体の前にあ
るかまたは後にあるかを決定するために用いられ
る。ある特定の物体ピクセルがその光景内で最も
近くを占めるピクセルであるとすると、そのピク
セルが表示される。このことを「最近物占有」処
理と呼ぶ。 光景構成の機能は、視界(FOV)処理装置2
10により決定された各ビデオチヤンネルと背景
レベル源からビデオ入力を受ける。この機能にお
ける出力は、特殊効果モジユールに対するリアル
タイム・ビデオ信号とすることができる。 デジタルでの光景構成の機能は次のような副機
能を有する。1)物体の処理チヤンネルの組合
せ、2)光景全体の輝度修正のための光景値調
整、3)物体と物体の境界および物体と背景の境
界を補償するための平滑化。 <特殊効果> 光景の発生後に半透明の特殊効果を加えられ
る。特殊効果はめ込みモジユール12は距離を基
にして特殊効果を付加するものである。煙または
ほこりのような特殊効果は光景中の画像の前また
は後に発生させることができる。ライブラリイに
格納され、特殊効果処理チヤンネルで処理される
輝度マスクが特殊効果の透過率を制御する。輝度
値入力が黒煙や白い雲のような特殊効果の輝度や
色を制御する。 B:第1図のブロツク図の諸項目の詳細な説明 <データベース> データベースのハードウエアは、データベース
それ自体に似て、ライブラリイのハードウエア2
02a〜202cとゲーミング領域データのハー
ドウエア203との2つのサブシステムに分離で
きる。ライブラリイのハードウエア202a〜2
02cは形象を高忠実度で発生し、それを光デイ
スクに格納できる。ゲーミング領域データのハー
ドウエア203は、物体、地表面、特殊効果など
についての場所をロードするために用いられる。
かくして、データベースのハードウエアが、第1
図のブロツク201で示されるように、非実時間
で動作して、制御されている背景上に高品質の映
像を生ずる。それら映像は光デイスクに送られて
そこに格納される。 ライブラリイのハードウエア202a〜202
cはデイスク制御器と、デイスク駆動機構と、信
号調整モジユールと、光デイスクとより成る。映
像の格納のためにビデオ(アナログ)デイスクま
たはデジタル・デイスクのいずれも使用できる。
ビデオデイスクは約6〜8ビツト、または64〜
256の階調を生ずる。デジタル・デイスクは12ビ
ツトまでのデータを与えることができる。あらゆ
る場合において(ただし、解像力が非常に高いセ
ンサの映像を除く)、工業用の525ラインの非接触
ビデオデイスクは適切な忠実度の映像を生ずる。 ビデオデイスクの使用はよく知られている。画
像は引き続く行として走査される。それは実際に
は、後で説明するように、フレームの列走査を構
成する。後で説明するビデオデイスクの出力の第
1パスでの列の処理により、ここで説明している
ねじ曲げ処理をスタートさせるのが通常は一層効
率的だからである。この点から、第1パスでの列
の処理を容易にするためにデイスクの出力が実際
に列の形であるように、映像を90度ずらせた向き
で、ビデオデイスクに格納することがしたがつて
望ましい。 もちろん、何らかの理由で、正常の向きすなわ
ちたて向きでフレームをビデオデイスクに格納す
ることが望ましければ、容易にそうすることがで
きる。すなわち用いるねじ曲げシーケンスの処理
特性に適合させるためにバツフア内のデータを処
理チヤンネルに適切に向けさせる前処理装置を設
けることができる。 光デイスクに組合せる他の装置も当業者なら思
いつくであろうが、CGSIの概念は非常に良好に
機能することが認められており、それの実現は特
に困難でもなければ、とくに費用がかかるわけで
もない。ビデオデイスクには次のような利点があ
る。 a) 高密度記録:12インチデイスクの片面当り
約54000フレーム。 b) データ記録費用が比較的低い。 c) 優れたランダムアクセス性能:ある改良に
より工業用デイスクは60サイクル・フイールド
時間すなわち16 2/3ミリ秒ごとにプラスマイナ
ス50〜100フレームを容易にジヤンプできるよ
うである。実際のジヤンプは帰線消去期間中に
行われるから画像データが失われることはな
い。 d) 高いデータ速度:ビデオ速度でデータを生
ずる。 e) 長寿命およびデータの安全性:デイスクは
非接触であり、読出し専用であつて、ヘツドの
衝突や、オペレータの誤操作によりデータが損
われることはあり得ない。 f) 複製が容易。 非実時間のデータベースのハードウエアの装置
ブロツク図を第2図に示す。この装置において
は、縁部が復原され、背景が物体から分離され、
輝度と色が修正され、現実的な色が発生され、シ
ステムの基準点に対して物体が位置させられ、非
実時間の高忠実度CGI物体が発生され、グラフイ
ツクデータ(光源)が発生される。 <データベース……ゲーミング領域データ> ゲーミング領域には、地表面、物体および特殊
効果の場所を定めるための基準点が含まれる。ゲ
ーミング領域は手動モードと自動モードの2つの
やり方のうちのいずれかで設定できる。 手動モードにおいては、オペレータは物体のラ
イブラリイをサーチし、どの物体をゲーミング領
域内に置くかを選択する。物体フアイルとしては
やぶ、木立、地面、山、道路、湖、または1つの
フアイル上の小さな物体群のような個々の物体が
ある。ゲーミング領域内に2次元2D物体を置く
ために、オペレータはゲーミング領域の空間内に
X,Y,Zの地表面基準点を選択する。ちなみ
に、X,Y,Zはそれぞれ水平軸、鉛直軸、距離
軸を表す。第2のX・Y・Z基準点が高さと位置
を決定する。したがつて、物体が真の鉛直位置に
直立しているものとすると、XとZの基準は一定
に保たれ、Y基準は物体の高さだけ変化する。そ
れらの軸の一方に物体が傾くとXとZの軸基準点
の少くとも一方が変化する。地表面はその四隅に
それぞれ対応する4つのX,Y,Z基準点により
定めることができる。これには、たとえば家屋の
側面、湖、道路、川などが含まれる。細部を非常
に正確に表すために、方位と仰角のそれぞれで1
度の増分ごとの映像を表す一連の映像でもつて三
次元のマルチビユー物体を格納できる。それら
は、3つの基準点(すなわち、中心の着地点と、
中心の高さと、方向ベクトルすなわちポインチン
グ・ベクトル)により定めることができる。 自動モードは手動モードとほとんど同様にして
行われる。コンピユータが物体を処理し、制御し
つつ置く。これについては後で説明する。物体は
種類と密度に応じて置かれる。 <データベース……ライブラリイ> ライブラリイには映像が含まれる。それらの映
像は物体、地表面、特殊効果の基本的な3つの種
類に分類できる。 物体と地表面の場合には、固体表面の物体は二
次元、三次元で一軸、三次元で二軸および光源に
更に分類できる。物体と地表面をほぼ完全な高忠
実度で光デイスクに記録する方法を第4図および
第5図に示す。 それらの図について次に詳しく説明する。 <物体……二次元> 前記したように、岩、木、やぶ、低い木などの
ような自然界に見られるほとんどの物体は、十分
な現実感をもつて二次元で表すことができる。希
望のシミユレーシヨンで用いられる平均アスペク
ト角で物体の写真が撮影される。高度が変ると物
体は基準点間で変換され、見込み角に応じて高く
なつたり、低くなつたりする。木立およびやぶの
場合には、物体の表面は、飛行経路中ずつと観察
者に垂直なままであるが、経験上これは目立たな
いことが判明している。他の物体に対する物体の
関係と、寸法および寸法の変化に加えて、その関
係が変化する速さは奥行きを示す。二次元物体に
対しては、1つの写真を光デイスクのトラツクに
格納でき、適切な回転、寸法および位置を得るた
めにねじ曲げ操作により処理できる。 <物体……三次元で一軸> ある物体がフライオーバーされるものとする
と、その物体に対する視角は90度変化する。この
場合には、シミユレーシヨンには鉛直軸のまわり
の一連の写真を更に要することがある。 <物体……三次元で二軸> 三次元で二軸の物体すなわち表面は3種類の手
法で扱うことができる。第1に、方位と仰角の双
方で1度という小さい増分ごとの一連の写真を格
納することである。これは強力な表現技術であつ
て、物体が高い表面忠実度を要する細部を有する
時に極めてうまくゆく。ヘリコプタ、タンク、家
屋のような大きな物体のモデルを2つの非常に精
密な回転台上で回転させ、各設定ごとに物体を撮
影することにより精密な増分の写真を得ることが
できる。三次元物体を発生する第2の方法は、第
3図に示されている家のように、物体を小さな表
面に分けることにより行われる。この図に示され
ているような家はビデオ表示器では一連の光景内
で種々の斜視像で見ることができるが、コンピユ
ータを用いなければ、物体全体の映像に組合わせ
ることはできない。側面は分離され、ねじ曲げ技
術により組立てられる。このやり方により、いく
つかの写真と近似寸法から多くの物体を構成でき
る。第3の方法は丘のような大きい物体に適用で
きるもので、一連の一定の高さの所で、物体を30
度間隔のような比較的大きい間隔で全方位から写
真撮影することである。たとえば、ほとんどのシ
ミユレーシヨンに対しては1つの高度、典型的に
は15度を使用でき、物体の周囲を30度おきに撮影
した一連の写真が適切であることが見出されてい
る。 <物体……光源> 光源はメモリに格納されている一連の点から並
べられ、ねじ曲げアルゴリズムが正常な画面を乗
物から見たものへねじ曲げる。このやり方は非常
に良く機能し、実演用の着陸テープを作るために
用いられている。 <特殊効果> 特殊効果に関しては、半透明の物体または画像
に煙、霧、陰、ほこり、もやを生じさせることに
より光景に現実感が更に与えられる。それらの物
体は輪郭、形および透過率を決定するマスクとし
て格納できる。マスクは物体と特殊効果の組合せ
のバランスを決定する。他の変量が特殊効果の輝
度または色を制御する。マスクは、特殊効果と、
変量制御が固定されている間における背景との組
合せ比を決定する。この技術は、たとえば、動い
ているタンクの後に舞い上るほこりを発生させる
ために使用できる。ねじ曲げ操作は、動きを生じ
させるために用いられる一連の逐次フレームと、
特殊効果とをひずませるために加えることもでき
る。 したがつて、半透明の物体は静止させることも
できれば、動かすこともできる。特殊効果の物体
は、物体のライブラリイにおける透過マスクに関
して定められている。このことは、物体のライブ
ラリイ内のデータが、背景物体の表示のパーセン
トと、特殊効果の表示のパーセントを次式により
決定する。 ピクセル値(灰色レベル)=(1−マスク)×{背
景(灰色レベル)+(マスク) ×(特殊効果値)−(灰色値)} 特殊効果値は特殊効果の灰色の陰を決定する。
これを第6図に示す。静止特殊効果のためのマス
クは白紙の上に灰色調のマーカーを用いて容易に
描くことができる。このようにして、多くの一般
的なまたは特殊な雲、ほこり、煙、もやおよび霧
を慣れない人でも容易に描くことができる。特殊
効果の物体は典型的には二次元2Dの物体として
処理される。マスクの組合せをライブラリイに格
納できる。4種類の特別の特殊効果が次のように
して実現される。 ――1 動く煙 煙のマスクは輪郭と透過率を定めるものであ
つて、写真と、その煙の数学的な諸特性を基に
して技術者により発生される。1番上と1番下
は同じ場所になければならず、第48図のAに
示すように同じ幅でなければならない。次に一
連のフレーム(おそらく480のフレーム)が発
生される。各ピクセルは、連続する循環ループ
を生ずるようにフレームが再生される時に、各
ピクセルをY軸で1つまたはそれ以上のピクセ
ルずつ増すことができる。これを第48図のB
に示す。次に、各フレームの煙の1番上をそぎ
落して(第48図のC)、煙が大気中に拡散す
る様子に似せる。第48図のCに示すようにフ
レームをビデオデイスクに順次記録し、拡散に
似せるために1番上を膨張させ、風速に合わせ
て画像を切り、距離を基にして雲の寸法を定
め、雲を光景内に位置させるために、特殊効果
の処理チヤンネル内のねじ曲げ機能を用いる。 最初の条件パラメータが雲の色または輝度を
セツトする。煙の再生速度は流れる速さを決定
する。 ――2 動くほこり たとえば、5〜10個のほこり透過マスクを作
ることができる。種々のマスク(1―2、1―
3、……1―10、……9―10)の間の一連の直
線補間により一連のフレームが発生される。そ
れらのフレームはビデオデイスクに記録され
る。特殊効果の処理チヤンネル内のねじ曲げ機
能が正しい遠近位置にマスクを置き、光景内の
寸法と位置を定め、最初の設定条件により色と
輝度を決定する。これが第49図に示されてい
る。 ――3 陰 陰はほこりと煙に似た半透明の物体として処
理される。陰のための透過マスクがライブラリ
イ内の画面から発生される。陰の透過を決定す
る1つの灰色レベルに、物体中の全てのピクセ
ルをセツトすることにより、透過マスク、陰を
作ることができる。ゲーミング領域において
は、物体の4つの基準点が地面に投写される。
地面上の新しい点は陰の基準点である。陰、透
過マスクは、陰の基準点を基にして光景に適合
するように、ねじ曲げられる。この手順が第7
図に示されている。 ――4 輝きときらめき 通常は、輝きときらめきは表面の正常なデー
タである。しかし、CGSI装置においては、物
体がCGI装置の節点データ(nodal data)から
発生されるのでない限り、表面の正常なデータ
は利用できない。輝きときらめきを生じさせる
ために、第8図に関連して次の表1に示される
ように、
TECHNICAL FIELD OF THE INVENTION The present invention relates generally to computer-controlled video generation devices, and more particularly to computer-controlled video generation devices for analyzing video in real time or near real time by a natural operator or equivalent hardware/software. The present invention relates to a digital video processing apparatus capable of assembling and composing a sequential stream of scenes for display from a library of videos at processing speeds sufficient to provide a processing speed sufficient for processing the images. One example of the many uses of such devices is in the field of vehicle simulation, such as aircraft flight simulation. In such systems, a vision system within an aircraft's flight simulation system receives flight data from a flight simulation computer and terrain data from a database of defined areas or "gaming areas." A data processor within the vision system combines the flight data and terrain data to produce a visual display that simulates the viewer's presence in the cockpit of the aircraft. For example, the vision system of a vehicle simulator for a vehicle such as a helicopter includes "a view through a window of a simulated surrounding situation" and is used to guide the "vehicle" in any desired direction relative to such surrounding situation. Take control. The term "window view" for this device refers to a simulated environment, usually in the form of a video, representing a terrain covering a large area , e.g. means display.
This simulated surrounding situation will be referred to herein as a defined area or gaming area. Operation of the vehicle controller directs the vehicle within, around, and through the gaming area. It is the vision system's response to the vehicle controller that then determines what is visible through the window, the video display. What you can see through a "window" is called a field of view (FOV). [Prior art] “Computer-generated imagery” (CGI, i.e.
One conventional device, known as a computer generated imagery device, utilizes a computer device to generate a visual displayable image from a database. In CGI equipment,
The objects and ground surfaces for constructing the imageable scene are extracted from a purely mechanical model stored in the form of points defining the field of view between the objects and the ground surface. The strength of CGI equipment lies in the way it represents the earth's surface. The actual or artificial earth's surface can be measured at designated points (usually the intersections of a uniform grid or grid) to obtain altitude. By connecting the heights of the specimens, the earth's surface can be reconstructed by computer. In addition to realistic representations of the earth's surface, CGI equipment also controls the placement of objects on the earth's surface. Since altitude data is usually given on a uniform grid, the placement of other objects can be specified on the same grid. Typical objects such as trees, rocks, shrubs, houses, roads may have defined positions in the grid system of the database. Accurate illumination and perspective images are also major contributions of CGI equipment. Accurate illumination is achieved by finding the ground normal to each displayed pixel.
This perpendicular line is used to calculate the brightness of a pixel.
Used with line of sight, perpendicular from light source, and ambient brightness. Accurate perspective images are achieved because the distances from the observation point to each point on the earth's surface are known. This distance is an important variable in the conversion to a perspective image. The weakness of this CGI device is its lack of realism. Although an object can be accurately positioned, accurately displayed with illuminance, and a perspective image can be displayed correctly, the object itself cannot be realistically displayed. The current state of the art in displaying objects in CGI devices is such that objects are displayed in a very line drawing manner. Certain scenic elements such as barren terrain, sand and clouds can be displayed more realistically than complex objects such as trees, grass or detailed artifacts. Such complex objects simply lack realism. Another image generating device is "computer synthetic imagery"
i.e. CSI (Computer Synthesized Imagery)
It is called. CSI technology also generates images, such as video-displayable images, from a database, but the objects and ground surfaces stored in that database are not mathematical models of those objects, as in CGI equipment. , is expressed as an image of objects and the earth's surface via electromagnetic media in the real world. Therefore, whereas CGI devices use a computer to generate images from a purely mathematical database, CSI devices use stored real-world images to fit objects into a scene. Use a computer. Although CGI devices provide excellent control over the composition and the scenes to be displayed, the fidelity is low and therefore the scenes displayed lack a sense of realism. CSI devices are the exact opposite. Fidelity is extremely high, but control over the composition of the scene is limited. The strength of CSI equipment lies in the use of real images, such as photographs, in the scene. Currently available video equipment can easily handle photographic data.
Literally thousands of individual photographs can be recorded on a video disc, and their recall can be controlled by a traction device, just as is the case for digital data stored on magnetic discs. Furthermore, video fidelity is assured, and the output image is identical to the input and stored one. The weakness of the CSI device is that its view is limited to the point of view of the "camera". That is, a scene cannot be dynamically moved without using a series of photographs taken from beginning to end. For any gaming area of reasonable size, the number of sequence photographs from beginning to end is prohibitively large. [Summary of the invention] The present invention provides a newly developed CGI device.
A CGSI device can be configured in combination with CSI technology.
Here, the present invention is a CGSI (Computer Generated
It involves combining the best of two technologies, CGI and CSI, to create Synthesized Imagery. Scenes are constructed by placing detailed, high-fidelity (CSI) objects, usually detailed, on a specified ground or background generated by CGI or CSI. The sight of CGSI is
It can be created in much the same way as a CGI scene, with ground elevations and object positions placed on a uniform grid. Individual objects used in the view are adjusted for squint, and location and transformations, including dimensions, positions, rotations, warps, and brightness, are performed for each image as required. The ground surface can be a CGI composition, or it can be a series of CSI ground inlays.
The scene starts from the object farthest from the observation point, i.e. the scene recognition device, and continues to the nearest object.
It is usually constructed by placing objects. CGSI can be constructed from features from any part of the electromagnetic spectrum, including the visible spectrum, IR (infrared) spectrum, MMW (millimeter wave) spectrum, radar spectrum, etc. OBJECTIVES Accordingly, it is an object of the present invention to provide a new and improved computer-controlled video generator that utilizes real world images in a database. [Example] Hereinafter, the present invention will be described in detail with reference to the drawings. Figure 37 shows an aerial view of the battlefield.
The battlefield can be called a gaming area or a defined area, and within practical constraints, approximately 60
Areas covering ~260 km 2 (approximately 25 to 100 square miles) are common. For example, if the apparatus of the present invention were to be used to simulate the operation of a helicopter, a simulated gaming area such as that shown in FIG. 37 could be selected as the environment for the helicopter flight. The helicopter simulator's visual system continuously displays a "through-the-window view" of the gaming area. The display is a video representation of the sequence of scenes seen by the pilot within the gaming area, corresponding to the position and altitude of the helicopter relative to the gaming area. The helicopter simulator incorporates a control device for guiding or navigating the helicopter in free flight in any direction within the gaming area, around the gaming area, and through the gaming area. The vision system responds to the controller to determine what is visible within the video displayed "window." Figure 38A shows a scene somewhere within the gaming area of Figure 37, perhaps in the shadow of a grove of trees. The scene appears on a video display that simulates a window in a helicopter simulator training room.
It appeared at a certain time. By successive manipulation of the control device by the trainee, the movements of the helicopter within the gaming area are determined one after another, and the scene displayed on the video display follows each instantaneous position of the helicopter. FIGS. 38A and 38B are actual copies of captured photographs of a displayed video display scene within a gaming area, generated in accordance with the principles of the present invention. Note the realism in the details of the objects, even though the images of the scenes have undergone several processing steps that blur the details. Additionally, the smooth transition from the object to the background indicates that the scene is not expressed in a cartoonish manner. FIG. 1 is a block diagram of the CGSI device. FIGS. 39-47 illustrate the steps in a typical CGSI system configuration, culminating in the special effects unit 12 of FIG. These figures are also photographs of the displayed images. The composition of a CGSI scene usually begins by placing the ground, water, and sky first. After that, place the large object and the small object. A tree as an object,
These include rocks, houses, shrubs, roads, lights, vehicles, helicopters, winged aircraft, animals, and women. Finally, you can add special effects if you wish, such as smoke, dust, clouds, shadows, etc.
To show how the CGSI equipment works,
Assembly of the illustrated scene will now be described with reference to FIGS. 39 to 47. Starting from FIG. 39, the sky is segmented and added to the background at a certain distance. By segmenting the sky, crests and valleys can form horizons like those shown in these figures. In this example, the sky is divided into five parts. In general, the lower edges of the segments need not be straight, but can be curved or jagged to simulate rolling hills, steep hills, or mountains. A detailed explanation of how the individual sections are warped based on the elevation angles and observation points based on the lowest and highest data will be provided later. In FIG. 40, a rough ground surface is added as a segment to form the foreground or the foothills of the mountain. The untouched area between the mountains and the sky appears as mountains in the distant background. The stored texture is then warped and added to the scene to fit the screen coordinates of the surface polygon. The brightness of each surface can be varied depending on distance and other desired parameters. Figure 41 shows the planned road section. For that road portion, the road representation in the database's surface library is warped to fit the screen coordinates. The library of surfaces can include various road surfaces and other specialized surfaces such as streams and ponds. Figure 42 shows a relatively small two-dimensional 2D
This is an example of an object. Those objects occupy less than a predetermined percentage of the total screen. In one embodiment, objects occupying less than 1/16 of the area of the scene are represented in two dimensions, 2D. This is because, in many applications, relatively small natural objects such as trees, bushes, and rocks can be represented from one side, i.e. as two-dimensional objects, with little loss of realism. . Objects that cannot be represented from one side, such as large buildings or objects of special interest such as tanks, ships, etc., are called three-dimensional 3D objects and are represented as such. Relatively small two-dimensional 2D objects can be processed with less expensive processing hardware and software than that required to process three-dimensional 3D objects and ground surfaces. When a two-dimensional 2D object, while flying through a scene, comes to occupy more than a preselected percentage of the area of the scene, it can be transferred to three-dimensional 3D processing. FIG. 43 shows a tank as a multi-view three-dimensional 3D object. A multi-view of the tank is stored and the appropriate screen is used to compose the scene based on the tank's path, altitude and observer viewpoint. The tank may be mobile and may be very large. FIG. 44 shows a house, which is an example of a multi-surface or three-dimensional 3D building. The house has several surface parts and several roof parts (one if both sides are the same).
(1), two ends, and two sides. The individual surfaces of the house can be formed by twisting the perspective images, directed by the screen coordinates, from the normalized screen, which are then stitched together. Figure 45 shows a large two-dimensional 2D object. Those objects can occupy more than a predetermined amount of the area of the scene. If necessary, the objects can be inflated to make them larger than the entire surface of the screen. Figure 46 illustrates special effects techniques used for translucent media including clouds, dust, smoke, and shadows. A mask controls the transparency function, and another input word controls the brightness and color. Figure 47 shows the view from the complete CGSI device. The scene appears somewhere in the gaming area shown in FIG. Reference is now made to the block diagram of FIG. Each item, from the database structure of the block diagram to the incorporation of special effects, will be briefly explained below, and will be explained in detail later. A: Brief Description of Items in the Block Diagram of FIG. 1 <Database Structure> The database contains two very different types of data: a library of objects and other items, and gaming area data. Library hardware 202a-202c generates features and stores the features on optical disks with high fidelity. The gaming area data hardware 203 is used to load the locations of objects, surfaces, and special effects. The library's flexibility is almost limitless.
Library hardware 202a to 202c
can include an image of the object, an image of the ground surface, and a special effect transmission mask. They can be represented by one of a number of electromagnetic radiation spectrum bands. This allows simulation of input/output based not only on the visible range but also on detected IR (infrared) spectrum, MMW (millimeter wave) spectrum, radar spectrum, etc. The library can also contain a mixture of two-dimensional 2D images and three-dimensional 3D images. These images can represent day and night conditions and daily conditions. Libraries of visible objects usually include photographs. When constructing a high-fidelity object from a library of objects, objects stored in the library of objects 202a-202c, such as individual real-world elements, highly accurate models, paintings, and photographs, are recalled. Forming a "nearly perfect" image. It restores edges, separates objects from the background, corrects brightness and color, generates realistic colors, positions objects from system reference points, and generates high-fidelity CGI objects. This is done by generating graphic data, ie, a light source. A landing point and altitude reference point are also added. "Near perfect" objects, terrain and special effects are stored on media that is fast accessible and has high data rates. "Close to perfect"
The term means high fidelity regarding the quality of the input video. The gaming area data provides the information necessary to place the contents of a library of objects, ground surfaces, and special effects onto a grid or gaming area. If the object can be placed by the operator,
It can also be placed randomly by the computer. Objects in the library can be kept stationary or moved. The output of this function determines the content of the scene. <Vehicle simulation calculation> The calculation by the vehicle simulation device 206 is based on a mathematical model of the vehicle and control input.
Determine the location and viewing direction of the primary vehicle visual or sensor device. Furthermore, calculations can be performed for secondary vehicles based on the vehicle model and the selected route. This output determines the observer's location. <Communication subsystem> Of course, the input/output of the vehicle simulation device 206, that is, the I/O, and the I/O of the CGSI device
O must interface in an efficient manner. Communications subsystem 208 can be a bidirectional link and buffer that interfaces two devices. <Field of View (FOV) and Coordinate Transformation Calculations> The field of view (FOV) processor 210 determines the presence of objects, ground surfaces, and special effects in the scene being constructed. The output of the transformation matrix (V) transforms real world coordinates to screen coordinates. This data from the transformation matrix allows rapid testing to determine whether any part of an object, ground surface, or special effect is present in the scene. To avoid testing the presence or absence of every object in the database, a "smart" algorithm can test only objects and surfaces that are close to the scene. The field of view (FOV) processor 210 maintains a list of objects within the field of view (FOV) and a list of channel assignments for those objects, ground surfaces, or special effects. The function of the field of view (FOV) processor 201 is to determine what the observer can see. Object, Surface, and Special Effects Controllers The controllers 212a-212c "fan out" and process control functions generated during field of view (FOV) calculations. Processed control functions are object, ground surface, and special effect processing channels 21
4a to 214c. Control device 212a~
The main functions performed by 212c are converting gaming area coordinates to screen coordinates, processing distance data from the operator-controlled vehicle to each object within the field of view (FOV), and identifying distances and objects. Libraries 202a to 2 determine the brightness of each object based on the image data and search for correct video data.
02c. Control device 212a
The function of ~212c is to "fan out" the field of view (FOV) data and generate precision control data for the sight. <Library of objects, ground surface, and special effects> The libraries 202a to 202c store images used for composing scenes. Control device 21
2a-212c are processing channels 214a-2
14c to select the video to be sent. The only function of libraries 202a-202c is to store video and provide the correct video on command. Object, Surface, and Special Effects Processing Channels Individual processing channels 214a-214c or "pipeline processors" typically process one large item (object, surface, or special effects) at a time per channel. Processing channel 21
4a-214c may have the ability to process multiple smaller items in parallel. All processing channels operate in the same manner for each such item. This is because the functionality of the channel is specified by the nature of the item. In one embodiment, each processing channel modifies one large item or 16 small items from the library with transformations specified by the control function. That is, processing channels for objects, surfaces, or special effects can modify images stored in normal eye-front projection by changing their position, dimensions, rotation, and twisting. ,
Modify based on scene coordinates. The brightness of the image can be changed based on distance and object type. The function of these parallel pipeline processing channels is then to modify each object, ground surface, and special effect used in a given scene as required. Scene Construction The scene construction module 216 takes the individual images from each processing channel, separates the images from the background, and assembles the scene based on distance.
In this way, closer objects obscure more distant objects. The high frequency parts generated by constructing a scene from individual images can be smoothed by a Gaussian function. This action matches the edge and internal frequencies. The scene construction module receives distance information from two objects and a ground control device. The distance is
Used to determine whether a particular object is in front of or behind other objects in the scene. A particular object pixel is displayed if it is the closest pixel in the scene. This is called "recently occupied" processing. The scene composition function is the field of view (FOV) processing device 2.
It receives video input from each video channel and background level source determined by 10. The output in this function can be a real-time video signal to a special effects module. The function of digital scene composition has the following sub-functions. 1) combination of object processing channels; 2) scene value adjustment for overall scene brightness modification; 3) smoothing to compensate for object-to-object boundaries and object-to-background boundaries. <Special Effects> A translucent special effect can be added after the scene occurs. The special effect inset module 12 adds special effects based on distance. Special effects such as smoke or dust can be generated before or after the image in the scene. A luminance mask stored in the library and processed in the special effects processing channel controls the transmittance of the special effects. Brightness value input controls the brightness and color of special effects like black smoke and white clouds. B: Detailed explanation of various items in the block diagram of Figure 1 <Database> The database hardware is similar to the database itself, and the library hardware 2.
It can be separated into two subsystems: 02a to 202c and gaming area data hardware 203. Library hardware 202a-2
02c can generate features in high fidelity and store them on optical disks. Gaming area data hardware 203 is used to load locations for objects, ground surfaces, special effects, etc.
Thus, the database hardware is the first
As shown in block 201 of the figure, it operates in non-real time to produce high quality video on a controlled background. The images are sent to an optical disk and stored there. Library hardware 202a-202
c consists of a disk controller, a disk drive mechanism, a signal conditioning module, and an optical disk. Either video (analog) disks or digital disks can be used for video storage.
Video discs are approximately 6 to 8 bits, or 64 to 8 bits.
Produces 256 gradations. Digital disks can provide up to 12 bits of data. In all cases (with the exception of very high resolution sensor images), industrial 525 line non-contact video disks produce images of adequate fidelity. The use of video discs is well known. The image is scanned in successive lines. It actually constitutes a column scan of the frame, as will be explained later. This is because it is usually more efficient to start the warping process described here by processing the columns in the first pass of the video disc output, which will be described later. From this point of view, it was possible to store the footage on a video disk with a 90 degree offset orientation so that the output of the disk was actually in the form of columns to facilitate processing the columns in the first pass. Very desirable. Of course, if for some reason it is desirable to store frames on a video disk in their normal or portrait orientation, they can easily do so. That is, a pre-processing device can be provided which directs the data in the buffer appropriately to the processing channels in order to match the processing characteristics of the twisting sequence used. While those skilled in the art will be able to think of other devices that can be combined with optical disks, the CGSI concept has been found to work very well and is neither particularly difficult nor particularly expensive to implement. not. Video discs have the following advantages: a) High-density recording: Approximately 54,000 frames per side of a 12-inch disk. b) Data recording costs are relatively low. c) Superior Random Access Performance: With certain improvements, industrial disks can easily jump plus or minus 50 to 100 frames every 60 cycle field times or 16 2/3 milliseconds. The actual jump occurs during the blanking period, so no image data is lost. d) High data rate: Produces data at video speed. e) Long life and data security: The disks are contactless and read-only, so data cannot be corrupted by head collisions or operator errors. f) Easy to reproduce. A block diagram of the non-real time database hardware is shown in FIG. In this device, the edges are restored, the background is separated from the object,
Brightness and color are corrected, realistic colors are generated, objects are positioned relative to system reference points, non-real time high fidelity CGI objects are generated, and graphical data (light sources) are generated. Ru. <Database...Gaming Area Data> The gaming area includes reference points for determining the locations of the ground surface, objects, and special effects. The gaming area can be set up in one of two ways: manual mode or automatic mode. In manual mode, the operator searches a library of objects and selects which objects to place within the gaming area. Object files include individual objects such as bushes, trees, ground, mountains, roads, lakes, or groups of small objects on one file. To place a two-dimensional 2D object within the gaming area, the operator selects an X, Y, Z ground reference point within the gaming area space. Incidentally, X, Y, and Z represent the horizontal axis, vertical axis, and distance axis, respectively. A second X, Y, Z reference point determines the height and position. Therefore, assuming the object is upright in its true vertical position, the X and Z references remain constant and the Y reference changes by the height of the object. When the object is tilted in one of those axes, at least one of the X and Z axis reference points changes. The earth's surface can be defined by four X, Y, and Z reference points corresponding to its four corners, respectively. This includes, for example, the sides of houses, lakes, roads, rivers, etc. 1 in each of the azimuth and elevation angles to represent details very accurately.
A three-dimensional multi-view object can be stored in a series of images representing increments of degrees. They have three reference points (i.e. a central landing point,
It can be determined by the height of the center and the direction vector (pointing vector). Automatic mode operates in much the same way as manual mode. A computer processes and controls objects. This will be explained later. Objects are placed according to type and density. <Database...Library> The library contains videos. These images can be categorized into three basic types: objects, surfaces, and special effects. In the case of objects and the ground surface, objects on solid surfaces can be further classified into two-dimensional, three-dimensional uniaxial, three-dimensional biaxial, and light sources. A method for recording objects and the ground surface on an optical disk with almost perfect high fidelity is shown in FIGS. 4 and 5. These figures will be explained in detail below. <Objects...Two-dimensional> As mentioned above, most objects found in the natural world, such as rocks, trees, bushes, and low trees, can be represented two-dimensionally with a sufficient sense of reality. A photograph of the object is taken at the average aspect angle used in the desired simulation. As altitude changes, objects are translated between reference points, becoming higher or lower depending on the viewing angle. In the case of trees and bushes, the surface of the object remains perpendicular to the observer throughout the flight path, but experience has shown that this is not noticeable. The relationship of an object to other objects and its dimensions and changes in dimensions, as well as the rate at which that relationship changes, indicates depth. For two-dimensional objects, a single photograph can be stored in a track on an optical disk and manipulated by twisting operations to obtain the appropriate rotation, dimensions and position. <Object...3-dimensional, uniaxial> When an object is flyovered, the visual angle of the object changes by 90 degrees. In this case, the simulation may require an additional series of photographs around the vertical axis. <Object...three dimensions and two axes> A three-dimensional, two-axis object, that is, a surface, can be handled using three different methods. The first is to store a series of photographs in small increments of 1 degree in both azimuth and elevation. This is a powerful representation technique and works extremely well when objects have details that require high surface fidelity. Precise incremental photographs can be obtained by rotating models of large objects, such as helicopters, tanks, or houses, on two highly precise rotating tables and photographing the object at each setting. A second method of generating three-dimensional objects is by dividing the object into smaller surfaces, such as the house shown in FIG. A house such as the one shown in this figure can be seen in various perspective views in a series of scenes on a video display, but cannot be combined into an image of the entire object without the use of a computer. The sides are separated and assembled using screw bending techniques. In this way, many objects can be constructed from a few photographs and approximate dimensions. The third method, which can be applied to large objects such as hills, is to move the object at a series of 30
It involves taking photographs from all directions at relatively large intervals such as degree intervals. For example, one altitude, typically 15 degrees, can be used for most simulations, and a series of photographs taken every 30 degrees around the object has been found to be adequate. <Object...Light Source> The light source is aligned from a series of points stored in memory, and the warping algorithm warps the normal screen to what it would look like from the vehicle. This method works very well and has been used to create demonstration landing tapes. <Special Effects> Regarding special effects, creating smoke, fog, shadows, dust, and haze on translucent objects or images can add more realism to the scene. These objects can be stored as masks that determine their contour, shape, and transmittance. Masks determine the balance of the combination of objects and special effects. Other variables control the brightness or color of the special effect. The mask has special effects and
Determine the combination ratio with the background while the variable control is fixed. This technique can be used, for example, to generate dust that is kicked up after a moving tank. A twisting operation involves a series of sequential frames used to create movement;
Special effects can also be added to distort. Therefore, a translucent object can be either stationary or moving. Special effects objects are defined in terms of transmission masks in a library of objects. This means that the data in the object library determines the percentage of display of background objects and the percentage of display of special effects by the following equations. Pixel value (gray level) = (1 - mask) x {background (gray level) + (mask) x (special effect value) - (gray value)} The special effect value determines the shade of gray of the special effect.
This is shown in FIG. Masks for static special effects can be easily drawn using a gray marker on a blank sheet of paper. In this way, many common or special clouds, dust, smoke, haze and fog can be easily drawn even by an inexperienced person. Special effects objects are typically processed as two-dimensional 2D objects. Mask combinations can be stored in a library. Four types of special effects are realized as follows. --1 Moving smoke Smoke masks, which determine the outline and transmittance, are generated by engineers based on photographs and mathematical characteristics of the smoke. The top and bottom must be in the same location and must be the same width as shown in Figure 48A. A series of frames (probably 480 frames) are then generated. Each pixel can be incremented by one or more pixels in the Y axis as the frame is played back to create a continuous circular loop. This is B in Figure 48.
Shown below. Next, shave off the top of the smoke in each frame (C in Figure 48) to resemble the smoke dispersing into the atmosphere. Record the frames sequentially on a video disk as shown in Figure 48C, inflate the top to simulate diffusion, crop the image to match wind speed, size the cloud based on distance, and Use the twist function within the special effects processing channel to position the image within the scene. The first condition parameter sets the cloud color or brightness. The playback speed of the smoke determines how fast it flows. --2 Moving dust For example, you can make 5 to 10 dust-transmitting masks. Various masks (1-2, 1-
3,...1-10,...9-10) a series of frames are generated by a series of linear interpolations. Those frames are recorded on a video disc. A contortion function within the special effects processing channel places the mask in the correct perspective, defines its dimensions and position within the scene, and determines its color and brightness according to the initial setup conditions. This is shown in FIG. --3 Yin Yin is treated as a translucent object similar to dust and smoke. A transmission mask for the shadows is generated from the screen in the library. A transmission mask, a shadow, can be created by setting all pixels in an object to one gray level, which determines the transmission of the shadow. In the gaming area, four reference points of the object are projected onto the ground.
The new point on the ground is the shadow reference point. The shadow, transmission mask is twisted to fit the scene based on the shadow reference point. This step is the seventh
As shown in the figure. ---4 Sparkle and sparkle Normally, shine and sparkle are normal data on the surface. However, in a CGSI device, surface normal data is not available unless the object is generated from the nodal data of the CGI device. To produce shine and shimmer, as shown in Table 1 below in conjunction with Figure 8,

【表】【table】

Claims (1)

【特許請求の範囲】 1 光景認識手段の位置と向きに応動するコンピ
ユータ制御映像発生装置であつて: 画像を電磁スペクトラム帯で表わした二次元の
映像フレームを多数有するライブラリイを備える
とともに、デジタルの三軸の座標系で表わされる
定められた領域のデータにして、前記座標系にお
いて前記映像フレームそれぞれが配される場所と
占める寸法とを定める光景合成データを含む定め
られた領域のデータを備えるデータベースと: 前記定められた領域の座標系に対する前記光景
認識手段の場所と視界を定めるための観察データ
を供給するためのシミユレーシヨン装置と; 前記観察データを受けるためのインターフエイ
ス装置と、; 前記データベースとインターフエイス装置に組
合わされ、前記映像フレームのうちのどれが前記
視界中に含まれるか、およびそれらの映像フレー
ムそれぞれまでの距離を、前記観察データおよび
前記光景合成データに基づいて決定し、前記視界
中に含まれる映像フレームそれぞれの各隅につい
て、出力光景における座標を前記定められた領域
の座標系におけるものから計算するための手段を
含む視界処理装置と; この視界処理装置に接続され、それからデー
タ、すなわち前記視界中に含まれている前記映像
フレームについて、その特定と、それまでの前記
距離と、その各隅についての前記座標とを含んで
いるデータを受ける制御装置であつて、前記デー
タベースの前記ライブラリイにも接続された制御
装置と; この制御装置により制御される処理チヤンネル
手段であつて、前記制御装置との間に前記データ
ベースの前記ライブラリイが接続されており、前
記視界中に含まれている前記映像フレームを対応
した前記各隅の座標により定まる囲まれたスペー
スへマツプする処理チヤンネル手段と; この処理チヤンネル手段に接続され、前記光景
認識手段に最も近い前記視界中に含まれている前
記映像フレームが、前記視界中に含まれている映
像フレームのうちのより遠い映像フレームを含む
ように、前記視界中に含まれている前記映像フレ
ームの前記距離を基にして、出力光景をデジタル
ベースで組立てる光景構成装置と を備えたコンピユータ制御映像発生装置。
[Scope of Claims] 1. A computer-controlled video generation device that responds to the position and orientation of scene recognition means: It is equipped with a library containing a large number of two-dimensional video frames representing images in the electromagnetic spectrum band, a database comprising data on a predetermined region expressed in an axial coordinate system, including scene synthesis data that defines a location and a dimension occupied by each of the video frames in the coordinate system; : a simulation device for supplying observation data for determining the location and field of view of the scene recognition means with respect to the coordinate system of the defined area; an interface device for receiving the observation data; determining which of the video frames are included in the field of view and the distance to each of those video frames based on the observation data and the scene composite data; a view processing device comprising means for calculating coordinates in the output scene for each corner of each video frame included in the coordinate system of the defined region; That is, the control device receives data including the identification of the video frame included in the field of view, the distance up to that point, and the coordinates of each corner of the video frame, a control device also connected to a library; a processing channel means controlled by the control device, the library of the database being connected between the control device and included in the field of view; processing channel means for mapping said video frame into an enclosed space defined by the coordinates of each corresponding corner; said image connected to said processing channel means and included in said field of view closest to said scene recognition means; The output scene is digitally based on the distance of the video frames contained in the field of view, such that the frames include the more distant video frames of the video frames contained in the field of view. A computer-controlled video generating device comprising a scene composing device to be assembled.
JP58140426A 1982-07-30 1983-07-30 Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array Granted JPS5998275A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US40339182A 1982-07-30 1982-07-30
US403391 1982-07-30
US403393 1982-07-30
US403386 1982-07-30
US505630 1990-04-06

Publications (2)

Publication Number Publication Date
JPS5998275A JPS5998275A (en) 1984-06-06
JPH0154748B2 true JPH0154748B2 (en) 1989-11-21

Family

ID=23595597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58140426A Granted JPS5998275A (en) 1982-07-30 1983-07-30 Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array

Country Status (2)

Country Link
JP (1) JPS5998275A (en)
CA (1) CA1206260A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6190275A (en) * 1984-10-09 1986-05-08 Sharp Corp Image processing device
JPS62274469A (en) * 1986-05-23 1987-11-28 Nippon Telegr & Teleph Corp <Ntt> Sight image synthesizing and processing system
JP2883514B2 (en) * 1993-06-10 1999-04-19 株式会社ナムコ Image synthesis device and game device using the same
US10552981B2 (en) 2017-01-16 2020-02-04 Shapetrace Inc. Depth camera 3D pose estimation using 3D CAD models

Also Published As

Publication number Publication date
JPS5998275A (en) 1984-06-06
CA1206260A (en) 1986-06-17

Similar Documents

Publication Publication Date Title
US4835532A (en) Nonaliasing real-time spatial transform image processing system
US4667190A (en) Two axis fast access memory
US4645459A (en) Computer generated synthesized imagery
US5841441A (en) High-speed three-dimensional texture mapping systems and methods
US6747649B1 (en) Terrain rendering in a three-dimensional environment
US5630718A (en) Weather simulation system
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
US5317689A (en) Digital visual and sensor simulation system for generating realistic scenes
US4807158A (en) Method and apparatus for sampling images to simulate movement within a multidimensional space
US5409379A (en) Weather simulation system
JPH0757117A (en) Forming method of index to texture map and computer control display system
JPH07325934A (en) Method and equipment for provision of graphics enhanced to virtual world
CN110908510B (en) Application method of oblique photography modeling data in immersive display equipment
US5823780A (en) Apparatus and method for simulation
EP0100097B1 (en) Computer controlled imaging system
EP0313101A2 (en) Fractional pixel mapping in a computer-controlled imaging system
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
EP0473310A2 (en) Oblique photographic data base generation
JPH0154749B2 (en)
JPH0154748B2 (en)
EP0315051A2 (en) Perspective mapping in a computer-controlled imaging system
CA2617373C (en) Improved terrain rendering in a three-dimensional environment
Samoylov Development of low-cost virtual reality systems based on real sites and objects 3D models
Blanton Image extrapolation for flight simulator visual systems
JPH08272288A (en) Simulation angular-range-of-view apparatus