JP3734744B2 - 3D information synthesis device, 3D information display device, and 3D information synthesis method - Google Patents

3D information synthesis device, 3D information display device, and 3D information synthesis method Download PDF

Info

Publication number
JP3734744B2
JP3734744B2 JP2001356023A JP2001356023A JP3734744B2 JP 3734744 B2 JP3734744 B2 JP 3734744B2 JP 2001356023 A JP2001356023 A JP 2001356023A JP 2001356023 A JP2001356023 A JP 2001356023A JP 3734744 B2 JP3734744 B2 JP 3734744B2
Authority
JP
Japan
Prior art keywords
data
voxel
dimensional
processing unit
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001356023A
Other languages
Japanese (ja)
Other versions
JP2003157444A (en
Inventor
敦夫 尾崎
弘一 平島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001356023A priority Critical patent/JP3734744B2/en
Publication of JP2003157444A publication Critical patent/JP2003157444A/en
Application granted granted Critical
Publication of JP3734744B2 publication Critical patent/JP3734744B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元情報合成装置、3次元情報表示装置及び3次元情報合成方法に係り、更に詳しくは、ボリュームグラフィックス表示するための2以上の3次元情報を3次元空間で重畳するためのデータ合成装置及びその方法、並びに、合成した3次元情報を表示する装置に関する。
【0002】
【従来の技術】
図12は、従来の3次元情報表示装置の構成を示したブロック図である。図中の1はソースデータ記憶手段、2はVG(Volume Graphic、以下も同様)データ変換手段、3はVGデータ記憶手段、6はVG処理手段、7は画像表示手段である。
【0003】
ソースデータ記憶手段1は、ソースデータS1を記憶保持する記憶装置であり、ソースデータS1は、図示しない測定機器で測定された3次元情報(あるいはコンピュータなどにより生成された3次元情報)である。ソースデータS1は、例えば、所定のパラメータ(特徴量)の3次元空間における分布として測定機器などから与えられ、ソースデータ記憶手段1に記憶される。通常、測定機器などから入力される3次元情報は、測定機器や測定対象などによってそのデータ形式が異なるため、ソースデータS1は多様なデータ形式によりソースデータ記憶手段1に記憶され保持されている。
【0004】
VGデータ変換手段2は、3次元情報のデータ形式を変換する変換処理部であり、ソースデータ記憶手段1から読み出したソースデータS1に基づいて、所定形式のVGデータV1を生成し、VGデータ記憶手段3に格納する。VGデータV1は、ボクセル(Voxel)と呼ばれる多数の微小空間によってソースデータS1の対象となっている3次元空間を分割し、3次元情報をボクセルごとのパラメータ(通常はスカラ量)として規定したものである。
【0005】
VG処理手段6は、3次元情報としてのVGデータV1を2次元面へ投射して得られる2次元画像データに変換するボリュームグラフィックス(ボリュームレンダリング)処理を行っている。このときパラメータに基づいて各ボクセルの色及び透明度を決定し、2次元面への投影画像が生成される。VG処理手段6で生成された画像データは、CRT等の画像表示手段7により表示される。
【0006】
従来の3次元情報表示方法の一つとしてポリゴングラフィックスと呼ばれる方法がある。このポリゴングラフィックスでは、対象物をポリゴンと呼ばれる微小多角形からなる多面体としてモデル化して表示しているのに対し、ボリュームグラフィックスは、対象空間を多数のボクセル(Voxel)に分割して、各ボクセルごとにパラメータを規定して対象空間をモデル化している。このため、境界や形状が明確でない対象物、例えば、雲や霧などの気象現象について3次元情報表示するのに適している。
【0007】
計測可能な気象現象には、例えば、雲、霧、湿度、温度、風の分布など様々な種類の情報があり、同一又は重複する3次元空間についてこれらの2以上の気象現象が計測され、これらの異なる3次元情報を比較したい場合がある。この場合、上記3次元情報表示装置を用いるならば、各気象現象の3次元情報について、ボリュームグラフィックス処理を行って画像データを表示させ、2以上の表示画像を比較する必要があり、その際、画面上での位置合わせを行う必要があるなど、ユーザが煩雑な作業を行う必要があった。
【0008】
また、2以上の気象現象の3次元情報について、それぞれボリュームグラフィックス処理を行って2以上の2次元画像データを生成し、更にこれらの画像データを重ね合わせて1つの2次元画像データを生成し、画像表示手段7に合成画像データとして表示させることも考えられる。ところが、3次元データを2次元面に投射して得られた2次元画像データは既に奥行きの情報が失われているため、各画像データにおける被写体の前後関係を考慮した重ね合わせを行うことができない。
【0009】
【発明が解決しようとする課題】
本発明は、上記の事情に鑑みてなされたものであり、3次元情報をボリュームグラフィックス表示する際、2以上の3次元情報を3次元空間上での位置関係を考慮して合成して1つの3次元情報に変換する3次元情報合成装置、3次元情報表示装置、および、3次元情報合成方法を提供することを目的とする。
【0010】
また、本発明は、1つの3次元情報をボリュームグラフィックス表示するための従来のボリュームグラフィックス処理装置を用いて、2以上の3次元情報を重畳して表示するための3次元情報合成装置、3次元情報表示装置及び3次元情報合成方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
請求項1に記載の本発明による3次元情報合成装置は、3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを記憶するデータ記憶手段と、上記ボクセルごとのパラメータにより規定される合成3次元データを、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを上記3次元データのいずれかに対応づけ、各ボクセルのパラメータを当該ボクセルが対応づけられた上記3次元データに基づき決定することにより生成するデータ合成手段と、合成された3次元データを記憶する合成データ記憶手段とを備え、上記データ合成手段は、データ記憶手段に記憶された3次元データのボクセルごとのパラメータを合成処理単位ごとのパラメータに変換し、合成3次元データの各ボクセルごとのパラメータを当該ボクセルが属する合成処理単位に相当する上記3次元データにおける合成処理単位のパラメータに基づいて決定するように構成される。
【0015】
この様な構成により、2以上の3次元データに基づいて、これらを3次元空間において重ね合わせた3次元データが生成される。また、合成前の各3次元データを規定しているボクセルと同じボクセルにより規定される合成3次元データが生成される。その際、合成前の各3次元データについて、ボクセルごとのパラメータを合成処理単位ごとのパラメータに変換し、この変換後のパラメータを用いて合成3次元データのボクセルごとのパラメータを生成している。つまり、まず、合成3次元データに関して、合成処理単位を構成する各ボクセルを合成前の3次元データのいずれかに対応づける。そして、合成3次元データの各ボクセルごとのパラメータは、当該ボクセルが対応づけられた合成前の3次元データのパラメータであって、当該ボクセルが属する合成処理単位に相当する合成処理単位のパラメータに基づいて決定される。このため、合成される各3次元データの各パラメータを反映させた合成3次元データを生成することが可能となる。
【0016】
請求項2に記載の本発明による3次元情報合成装置は、上記データ合成手段が、データ記憶手段に記憶された3次元データの各合成処理単位ごとに、合成処理単位を構成する各ボクセルのパラメータの平均値を求め、この平均値を当該合成処理単位のパラメータとするように構成される。
【0022】
請求項3に記載の本発明による3次元情報合成装置は、上記ボクセルが直方体の3次元空間を画定し、上記合成処理単位が、3つの直交軸ごとに2個ずつ合計8個のボクセルで構成される直方体からなり、上記データ合成手段が、4つの3次元データを合成する際、合成処理単位の対向する頂点にあるボクセルに同一の3次元データを対応づけるように構成される。
【0023】
請求項4に記載の本発明による3次元情報合成装置は、上記データ合成手段が、2以上の3次元データを合成する際、直方体の合成処理単位の表面において、1つの3次元データに対応づけられたボクセルの面が占める割合が、他の1つの3次元データに対応づけられたボクセルの面が占める割合よりも大きくなるように、合成処理単位を構成する各ボクセルを3次元データに割り当てるように構成される。
【0026】
請求項5に記載の本発明による3次元情報表示装置は、3次元空間におけるパラメータ分布が規定されたソースデータを記憶するソースデータ記憶手段と、上記ソースデータを、当該ソースデータが対象とする3次元空間よりも小さい3次元空間を画定するボクセルごとのパラメータとして規定する3次元データに変換し、上記データ記憶手段に格納するデータ変換手段とを備えて構成される。
【0027】
請求項6に記載の本発明による3次元情報表示装置は、3次元空間における気象パラメータを計測して気象データを生成するレーダ計測装置、ドップラ計測装置又は音波計測装置を備え、計測された2以上の気象データをそれぞれソースデータとして上記ソースデータ記憶手段に格納するように構成される。
【0028】
請求項7に記載の本発明による3次元情報合成方法は、3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを合成し、上記ボクセルごとのパラメータにより規定される合成3次元データを生成する3次元情報合成方法であって、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを3次元データのいずれかに対応づけるステップと、各3次元データについて、ボクセルごとのパラメータを合成処理単位ごとのパラメータに変換するステップと、合成3次元データの各ボクセルごとのパラメータを、当該ボクセルが対応づけられた3次元データにおける、当該ボクセルが属する合成処理単位に相当する合成処理単位のパラメータに基づいて決定するステップからなる。
【0030】
【発明の実施の形態】
実施の形態1.
図1は、本発明の実施の形態1による3次元情報表示装置の一構成例を示したブロック図であり、2つの3次元情報を重畳してボリュームグラフィックス表示するための装置である。図中の11,12はソースデータ記憶手段、21,22はVGデータ変換手段、31,32はVGデータ記憶手段、4はVGデータ合成手段、5は合成VGデータ記憶手段、6はVG処理手段、7は画像表示手段である。
【0031】
ソースデータ記憶手段11,12には、異なるソースデータS1,S2がそれぞれ記憶保持されている。ソースデータS1,S2は、同一の3次元空間において異なる対象物を図示しない測定機器で測定して得られた3次元情報、あるいはコンピュータなどにより生成された3次元情報である。これらのソースデータS1,S2は、例えば、所定のパラメータ(特徴量)の3次元空間における分布として与えられ、通常、異なるデータ形式の3次元情報として入力され記憶されている。
【0032】
VGデータ変換手段21,22は、3次元情報のデータ形式を変換する変換処理部であり、コンピュータ上で実行される。VGデータ変換手段21は、ソースデータ記憶手段11から読み出したソースデータS1に基づいて所定形式のVGデータV1を生成し、VGデータ記憶手段31に格納する。同様にして、VGデータ変換手段22は、ソースデータ記憶手段12から読み出したソースデータS2に基づいて所定形式のVGデータV2を生成し、VGデータ記憶手段32に格納する。VGデータV1,V2は、同一形式のVGデータであり、同一の方法でボクセルによって対象となる3次元空間が分割され、3次元情報をボクセルごとのパラメータ(通常はスカラ量)として規定している。
【0033】
VGデータ合成手段4は、VGデータ記憶手段31,32から読み出したVGデータV1,V2を3次元情報として重畳し、新たな合成VGデータVmを生成し、合成VGデータ記憶手段5に格納するVGデータの合成手段であり、コンピュータ上で実行される。VGデータ合成手段4により生成される合成VGデータVmは、2つの対象物を3次元空間上で重ね合わせた3次元情報である。
【0034】
VG処理手段6は、3次元情報としてのVGデータVmを2次元面へ投射して得られる2次元画像データに変換するボリュームグラフィックス処理を行っている。VG処理手段6は、パラメータ等に基づいて各ボクセルの色及び透明度を決定し、2次元面への投影画像を生成する。VG処理手段6で生成された画像データは、CRT等の画像表示手段7により表示される。
【0035】
図2は、図1のVGデータ変換手段21で生成されるVGデータV1,V2の一構成例を示した説明図である。ソースデータS1,S2の対象となる3次元空間は4km四方の立方体であり、ボクセルVXは、この3次元空間を64(=4×4×4)個のボクセルに分割して得られる各立方体である。VGデータ変換手段21,22により、ソースデータS1,S2は、ボクセルVXごとのパラメータ、すなわち64個のパラメータに変換され、VGデータV1,V2は、これら64個のパラメータによって規定される。
【0036】
図3は、VGデータV1,V2の合成処理の概略について説明するための説明図である。ここでは、VGデータV1,V2は、それぞれ同一の3次元空間において得られた3次元情報であるものとする。合成VGデータVmの各パラメータは、VGデータV1,V2のいずれか一方に基づいて決定され、対象空間全体として3次元情報の合成が行われる。
【0037】
なお、合成VGデータVmは、VGデータV1,V2と同様の方法により規定されている。すなわち、4km四方の3次元空間を対象とし、この空間を64(=4×4×4)個のボクセルVXで分割した場合の各ボクセルVXごとのパラメータにより規定されている。
【0038】
図4は、図1のVGデータ合成手段4における合成処理の処理単位について説明するための説明図である。VGデータ合成手段は、3つの直交軸ごとに2個ずつ合計8(=2×2×2)個の隣接すボクセルVXからなる立方体を合成処理単位Uとし、この合成処理単位Uごとに、ボクセルVXをVGデータV1又はVGデータV2に割り当てて合成処理を行っている。
【0039】
図5は、図1のVGデータ合成手段4における合成処理の一例を示した図である。まず、VGデータV1,V2をそれぞれ合成処理単位Uごとのパラメータに変換する。すなわち、VGデータV1,V2それぞれについて、合成処理単位Uごとのパラメータを当該処理単位Uを構成する8個のボクセルVXの各パラメータに基づいて求める。例えば、8個のボクセルVXの各パラメータの平均値を求め、この平均値を当該ボクセルVXからなる合成処理単位Uのパラメータとすることができる。
【0040】
次に、合成VGデータVmを構成する各ボクセルVXが、VGデータV1,V2のいずれかに割り当てられる。また、このボクセルVXの割り当ては、合成処理単位Uごとに行われ、各合成処理単位Uで同じ割り当てがなされている。合成VGデータVmの各ボクセルVXのパラメータは、当該ボクセルが属する合成処理単位Uに相当する(3次元空間が一致している)VGデータV1,V2の合成処理単位Uのパラメータに基づいて決定される。
【0041】
つまり、VGデータV1に割り当てられた合成VGデータVmのボクセルVXのパラメータには、当該ボクセルVXが属する合成処理単位Uに相当するVGデータV1のパラメータが採用される。同様にして、VGデータV2に割り当てられた合成VGデータVmのボクセルVXのパラメータには、当該ボクセルVXが属する合成処理単位Uに相当するVGデータV2のパラメータが採用される。
【0042】
図6は、表示処理単位Uを構成する各ボクセルVXのVGデータV1,V2への割り当て方法の一例を示した図である。図中の(a)、(b)は同一の合成処理単位Uを異なる方向から見た図であり、(b)は(a)を向かって左(矢印b)から見た図である。
【0043】
合成処理単位Uは、8個のボクセルVX1〜VX8からなり、VX1,VX3,VX6,VX8が一方のVGデータ(例えばVGデータV1)に対応づけられ、残りのボクセルVX2,VX4,VX5,VX7が他方のVGデータ(例えばVGデータV2)に対応づけられている。
【0044】
8個のボクセルVXを合成処理単位Uとし、2つのVGデータを合成処理単位ごとに合成する場合、合成処理単位Uの各面において対角線上にあるボクセルを同一のVGデータに対応づけることにより、合成処理単位の各面においてVGデータV1,V2に対応づけられたボクセルVXの面の占める割合を等しくすることができる。このため、どの角度から見ても同じ割合でVGデータV1とVGデータV2が見えるように重畳させる、すなわち2つの対象物を対等に重ね合わせることができる。
【0045】
2つのVGデータV1,V2を対等に重ね合わせる場合、図6に示した様に合成処理単位Uの各面について、1つの面内でそれぞれのVGデータに対応づけられたボクセルの占める割合を同一にすることが望ましいが、同一合成処理単位U内で各VGデータに対応づけられるボクセル数を同一にすることによっても対等に重ね合わせることができる。すなわち、合成処理単位Uの各面ごとには同一の割合でなくても、1つの合成処理単位Uを構成する各ボクセルVXのうち、VGデータV1,V2に対応づけられる数が等しく(VGデータが2つの場合は半数ずつに)なっていれば、対等に重ね合わせることができる。
【0046】
本実施の形態によれば、2つのVGデータV1,V2を3次元空間上で重ね合わせた合成3次元データVmを生成することができ、合成された3次元情報を表示させることができる。また、合成VGデータVmは、合成前の各VGデータV1,V2を規定しているボクセルと同じボクセルにより規定されるので、合成VGデータVmは、VGデータV1,V2をそれぞれ表示させるための従来のハードウエア、すなわちVG処理手段6及び画像表示手段7をそのまま用いて表示させることができる。
【0047】
また、本実施の形態によれば、合成前のVGデータV1,V2について、ボクセルVXごとのパラメータを合成処理単位Uごとのパラメータに変換し、この変換後のパラメータを用いて合成VGデータVmのパラメータを生成している。このため、合成される3次元データの各パラメータを反映させた合成3次元データを生成することができる。
【0048】
また、本実施の形態によれば、8個(直交軸方向にそれぞれ2個)のボクセルVXからなる立方体の合成処理単位Uにおいて、各ボクセルVXを2つのVGデータV1,V2のいずれかに対応づける際、合成処理単位Uの各面において対角線上にあるボクセルVXに同一の3次元データを対応づけている。このため、2つの対象物を対等に重ね合わせた合成VGデータを生成することができる。
【0049】
なお、本実施の形態では、ボクセルVX及び合成処理単位Uが立方体の場合の例について説明したが、ボクセルVX及び合成処理単位Uの一方又は両方が直方体であってもよい。更に、ボクセルVX及び合成処理単位Uを、直方体以外の形状とすることもできる。
【0050】
また、ボクセルVX及び合成処理単位Uが直方体である場合であっても、8個の隣接するボクセルVXを合成処理単位Uとし、合成処理単位Uの各面の対角線上にあるボクセルを同一のVGデータに対応づけることにより、合成処理単位Uの各面においてVGデータV1,V2を対応づけた面の占める割合を等しくし、2つのVGデータを対等に合成することができる。
【0051】
また、本実施の形態では、3つの各直交軸に関して2×2×2となる8個のボクセルを1つの合成処理単位とする場合の例について説明したが、合成処理単位は必ずしもこの様な関係にあるボクセルの組み合わせでなくてもよい。
【0052】
また、本実施の形態では、合成されるソースデータS1,S2が、同一の3次元空間を対象とする3次元情報である場合の例について説明したが、ソースデータS1,S2が、一部重複する3次元空間を対象とする3次元情報である場合についても、当該重複空間について同様にして合成することができる。更に、ソースデータS1,S2が、重複しない空間を対象とする3次元情報であっても、ソースデータS1,S2を重ね合わせる位置関係が与えられれば、全く同様にして合成することができる。
【0053】
実施の形態2.
実施の形態1では2つのVGデータを対等に合成する場合の例について説明したが、本実施の形態では、4つのVGデータを対等に合成する場合の例について説明する。
【0054】
図7は、本発明の実施の形態2による3次元情報表示装置の動作の一例を示した図であり、図1のVGデータ合成手段4において4つのVGデータV1〜V4を合成する際、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。図6の場合と同様、合成処理は合成処理単位Uごとに行われ、各ボクセルがいずれかのVGデータV1〜V4に割り当てられる。図中の(a)、(b)は同一の合成処理単位Uを異なる方向から見た図であり、(b)は(a)を向かって左(矢印b)から見た図である。
【0055】
合成処理単位Uは、8個のボクセルVX1〜VX8からなり、ボクセルVX1,VX7が第1のVGデータV1に、ボクセルVX2,VX8が第2のVGデータV2に、ボクセルVX3,VX5が第3のVGデータV3に、ボクセルVX4,VX6が第4のVGデータV4に対応づけられている。
【0056】
合成処理単位Uが、立方体又は直方体からなる8個(直交軸方向にそれぞれ2個)のボクセルVXからなり、各ボクセルVXを4つのVGデータV1〜V4を対応づける場合に、合成処理単位Uの対向する頂点を含むボクセルを同一のVGデータに対応づけることにより、合成処理単位の各面においてVGデータV1〜V4を対応づけた面の占める割合を等しくすることができる。このため、どの角度から見ても同じ割合で4つのVGデータV1〜V4が見えるように重畳させる、すなわち4つの対象物を対等に重ね合わせることができる。
【0057】
なお、実施の形態1では2つのVGデータを合成する場合について、本実施の形態では4つのVGデータを合成する場合について説明したが、全く同様にして、3又は5以上のVGデータを重畳して1つの合成VGデータを生成し表示させることもできる。
【0058】
実施の形態3.
実施の形態1及び2では、VGデータ合成手段において2以上のVGデータを対等に重ね合わせる場合の例について説明したが、本実施の形態では、2以上のVGデータのうち、一方のVGデータを強調して表示させる場合の例について説明する。
【0059】
図8は、本発明の実施の形態3による3次元情報表示装置の動作の一例を示した図であり、図1のVGデータ合成手段4において2つのVGデータV1,V2を合成する際、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。図6の場合と同様、合成処理は合成処理単位Uごとに行われ、各ボクセルがいずれかのVGデータV1,V2に割り当てられる。図中の(a)、(b)は同一の合成処理単位Uを異なる方向から見た図であり、(b)は(a)を向かって左(矢印b)から見た図である。
【0060】
合成処理単位Uは、8個のボクセルVX1〜VX8からなり、ボクセルVX3,VX6,VX8が第1のVGデータV1に、VX1,VX2,VX4,VX5,VX7が第2のVGデータV2に対応づけられている。
【0061】
図6の場合と比較すれば、VGデータV1に対応づけられていたボクセルVX1が、VGデータV2に対応づけられている。このため、合成処理単位Uを構成するボクセルVX1〜VX8の過半数がVGデータV2に対応づけられ、VGデータV1よりも多くのボクセルが対応づけられたVGデータ2は、VGデータV1よりも強調して表示されることになる。
【0062】
本実施の形態によれば、1つの合成処理単位U中に占める同一VGデータに対応づけられたボクセル数の割合を異ならせる(すなわち、1つの合成表示単位Uの表面に占める各VGデータに対応づけられたボクセルの面の割合を異ならせる)ことによって、合成される一方のVGデータを合成VGデータにおいて強調させることができる。
【0063】
なお、本実施の形態では、2つのVGデータを合成する場合の例について説明したが、3以上のVGデータを合成する場合であっても同様にして一部のVGデータを強調させることができる。
【0064】
実施の形態4.
本実施の形態では、実施の形態3と同様、一方のVGデータを強調するよう2以上のVGデータを重ね合わせる場合に、どの角度から見ても同じ割合で一方のVGデータが見えるように重畳させる場合について説明する。
【0065】
図9は、表示処理単位Uを構成する各ボクセルVXのVGデータV1,V2への割り当て方法の一例を示した図である。図中の(a)、(b)は同一の合成処理単位Uを異なる方向から見た図であり、(b)は(a)を向かって左(矢印b)から見た図である。
【0066】
合成処理単位Uは、8個のボクセルVX1〜VX8からなり、VX3,VX5が一方のVGデータ(例えばVGデータV1)に対応づけられ、残りのボクセルVX1,VX2,VX4,VX6〜VX8が他方のVGデータ(例えばVGデータV2)に対応づけられている。つまり、合成処理単位Uの向かいあう頂点(ここでは、合成処理単位Uの中心に関して対称な位置にある最も遠い頂点)に位置するボクセルを同じVGデータ(VGデータV1)に対応づけている。
【0067】
この場合、合成処理単位Uを構成するボクセルVX1〜VX8の過半数がVGデータV2に対応づけられ、VGデータV1よりも多くのボクセルが対応づけられたVGデータ2は、VGデータV1よりも強調して表示される点では、図8の場合と同様であるが、どの角度から見ても一定の強調となるように2つの対象物を重ね合わせている点で図8の場合とは異なる。
【0068】
すなわち、8個のボクセルVXを合成処理単位Uとし、2つのVGデータを合成処理単位ごとに合成する場合に、合成処理単位Uの向かいあう頂点に位置するボクセルを同じVGデータに対応づけることにより、合成処理単位の各面において、当該VGデータに対応づけられた面の占める割合を等しくすることができる。このため、どの角度から見ても同じ割合で当該VGデータV1が見えるように重畳させる、つまり一定の強調となるように2つの対象物を重ね合わせることができる。
【0069】
本実施の形態によれば、1つの合成処理単位Uの向かいあう頂点に位置するボクセルを同じVGデータに対応づけることによって、どの角度から見ても一定の強調となるように2つの対象物を合成することができる。
【0070】
なお、本実施の形態では、2つのVGデータを合成する場合の例について説明したが、3以上のVGデータを合成する場合であっても同様にして一部のVGデータを一定の強調となるように合成することができる。本実施の形態により4つのVGデータを合成すれば、図7(実施の形態2)と同様になり、この場合には、強調表示ではなく対等な重ね合わせになる。
【0071】
実施の形態5.
実施の形態1から3では、VGデータのパラメータを合成処理単位ごとのパラメータに変換し、合成VGデータの各パラメータとする場合の例について説明したが、本実施の形態では、VGデータのボクセルごとのパラメータを合成VGデータのパラメータとする場合について説明する。
【0072】
図10は、本発明の実施の形態5によるVGデータ合成手段4における合成処理の一例を示した図である。図5(実施の形態1)の合成処理とは異なり、VGデータV1,V2のボクセルVXごとのパラメータを合成処理単位Uごとのパラメータに変換する処理は行われない。
【0073】
合成処理単位Uは、8個のボクセルVXからなり、それぞれがVGデータV1,V2のいずれかに割り当てられている。このボクセルVXの割り当ては、合成処理単位Uごとに行われ、各合成処理単位Uで同じ割り当てがなされている。この様な割り当て方法は図6〜9の場合と全く同様であるが、合成VGデータVmの各ボクセルVXのパラメータが、当該ボクセルVXに相当する(3次元空間が一致している)VGデータV1,V2のボクセルVXのパラメータに基づいて決定される点で異なっている。
【0074】
つまり、VGデータV1に割り当てられた合成VGデータVmのボクセルVXのパラメータには、当該ボクセルVXに相当するVGデータV1のボクセルVXのパラメータが採用される。同様にして、VGデータV2に割り当てられた合成VGデータVmのボクセルVXのパラメータには、当該ボクセルVXに相当するVGデータV2のボクセルVXのパラメータが採用される。
【0075】
本実施の形態によれば、ボクセルごとのパラメータからなるVGデータを合成処理単位ごとのパラメータに変換することなく、2以上のVGデータを合成して、合成VGデータを生成し、表示させることができる。このため、合成処理が簡単になりVGデータの合成を高速に行うことができる。
【0076】
実施の形態6.
本実施の形態では、気象現象に関する3次元情報を表示するための気象表示装置について説明する。図11は、本発明による実施の形態6による3次元情報表示装置の一構成例を示したブロック図であり、気象現象に関する2以上の3次元情報を重畳してボリュームグラフィックス表示するための装置が示されている。図中の1はソースデータ記憶手段、2はVGデータ変換手段、3はVGデータ記憶手段、4はVGデータ合成手段、5は合成VGデータ記憶手段、6はVG処理手段、7は画像表示手段、81〜83は計測装置である。
【0077】
計測装置81は、レーダ信号を送出するとともにそのエコー信号を受信し、受信信号に基づいて空中の水分量を計測するレーダ計測装置である。送信レーダ信号の周波数帯域を変化させることにより、測定対象空間における湿度、霧、雲などの分布を計測することができる。計測装置81において測定された湿度、霧又は雲の3次元分布情報は、ソースデータS1としてソースデータ記憶手段1に格納される。
【0078】
計測装置82は、ドップラー計測装置であり、受信信号のドップラ成分を検出することによって、測定対象空間における風の分布を計測することができる。計測装置83は、音波計測装置であり、音波を送受信し、その伝搬速度に基づいて、測定対象空間における温度分布を計測することができる。計測装置82、83において計測された風及び温度の3次元分布情報は、それぞれソースデータS2,S3としてソースデータ記憶手段1に格納される。
【0079】
VGデータ変換手段2は、ソースデータ記憶手段1から読み出したソースデータをVGデータに変換してVGデータとしてVGデータ記憶手段3に格納する。この操作を各ソースデータS1〜S3ごとに順次に行う。
【0080】
VGデータ合成手段4は、VGデータ記憶手段3から3つのソースデータS1〜S3を読み出して、3次元空間上で合成し合成VGデータVmを生成し、合成VGデータ記憶手段5に格納する。
【0081】
この様にして生成された合成VGデータVmは、VG処理手段6においてVG処理され、画像表示手段7に表示される。計測装置81〜83により同一又は一部重複する3次元空間における気象現象を測定した場合には、これらの測定結果を合成して表示することができる。
【0082】
【発明の効果】
本発明によれば、2以上の3次元データを3次元空間上での位置関係を考慮して重ね合わせた合成3次元データを生成する3次元情報合成装置および3次元情報合成方法を提供することができる。また、2以上の3次元データを3次元空間上で重ね合わせて表示する3次元情報合成表示装置を提供することができる。
【0083】
更に、合成3次元データが、合成前の3次元データを規定するボクセルと同一ボクセルによって規定されているため、合成前の各3次元データを表示するための従来の装置、例えば、ボリュームグラフィックス処理手段や画像表示手段などを用いて、合成3次元データをボリュームグラフィック表示させることができる。
【0084】
また、本は発明によれば、2以上の3次元データを重ね合わせる際、これらの3次元データを対等に合成し、あるいは、一方の3次元データを強調して重ね合わせることができる。
【0085】
また、本発明によれば、2以上の3次元データを重畳した画像を表示させる場合であっても、重畳前の3次元データをボリュームグラフィックス表示するための従来のハードウエア、つまり、ボリュームグラフィックス処理手段や画像表示手段などを用いて行うことができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態1による3次元情報表示装置の一構成例を示したブロック図であり、2つの3次元情報を重畳してボリュームグラフィックス表示するための装置である。
【図2】 図1のVGデータ変換手段21で生成されるVGデータV1,V2の一構成例を示した説明図である。
【図3】 VGデータV1,V2の合成処理の概略について説明するための説明図である。
【図4】 図1のVGデータ合成手段4における合成処理の処理単位について説明するための説明図である。
【図5】 図1のVGデータ合成手段4における合成処理の一例を示した図である。
【図6】 表示処理単位Uを構成する各ボクセルVXのVGデータV1,V2への割り当て方法の一例を示した図であり、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。
【図7】 本発明の実施の形態2による3次元情報表示装置の動作の一例を示した図であり、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。
【図8】 本発明の実施の形態3による3次元情報表示装置の動作の一例を示した図であり、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。
【図9】 本発明の実施の形態4による3次元情報表示装置の動作の一例を示した図であり、合成処理単位Uを構成する各ボクセルの各VGデータへの割り当て方法の一例が示されている。
【図10】 本発明の実施の形態5によるVGデータ合成手段4における合成処理の一例を示した図である。
【図11】 本発明による実施の形態6による3次元情報表示装置の一構成例を示したブロック図であり、気象現象に関する2以上の3次元情報を重畳してボリュームグラフィックス表示するための装置が示されている。
【図12】 従来の3次元情報表示装置の構成を示したブロック図である。
【符号の説明】
1,11,12 ソースデータ記憶手段、
2,21,22 VGデータ変換手段、3,31,32 VGデータ記憶手段、
4 VGデータ合成手段、5 合成データ記憶手段、Vm 合成VGデータ、
6VG処理手段、7 表示装置、81〜83 計測装置、
S1〜S3 ソースデータ、U 合成処理単位、V1〜V3 VGデータ、
VX,VX1〜VX8 ボクセル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional information composition device, a three-dimensional information display device, and a three-dimensional information composition method, and more specifically, for superimposing two or more three-dimensional information for volume graphics display in a three-dimensional space. The present invention relates to a data synthesizing apparatus and method, and an apparatus for displaying synthesized three-dimensional information.
[0002]
[Prior art]
FIG. 12 is a block diagram showing a configuration of a conventional three-dimensional information display device. In the figure, 1 is source data storage means, 2 is VG (Volume Graphic, the same applies hereinafter) data conversion means, 3 is VG data storage means, 6 is VG processing means, and 7 is image display means.
[0003]
The source data storage means 1 is a storage device that stores and holds the source data S1, and the source data S1 is three-dimensional information (or three-dimensional information generated by a computer or the like) measured by a measuring device (not shown). The source data S1 is given from a measuring device or the like as a distribution in a three-dimensional space of predetermined parameters (features), for example, and stored in the source data storage unit 1. Usually, since the data format of three-dimensional information input from a measuring device or the like differs depending on the measuring device or the measurement target, the source data S1 is stored and held in the source data storage unit 1 in various data formats.
[0004]
The VG data conversion unit 2 is a conversion processing unit that converts the data format of the three-dimensional information, generates VG data V1 in a predetermined format based on the source data S1 read from the source data storage unit 1, and stores the VG data Store in means 3. The VG data V1 is obtained by dividing the three-dimensional space that is the target of the source data S1 by a large number of minute spaces called voxels, and defining the three-dimensional information as parameters (usually scalar quantities) for each voxel. It is.
[0005]
The VG processing means 6 performs volume graphics (volume rendering) processing for converting VG data V1 as three-dimensional information into two-dimensional image data obtained by projecting onto a two-dimensional surface. At this time, the color and transparency of each voxel are determined based on the parameters, and a projection image on a two-dimensional surface is generated. The image data generated by the VG processing unit 6 is displayed by an image display unit 7 such as a CRT.
[0006]
One of the conventional three-dimensional information display methods is a method called polygon graphics. In this polygon graphics, the object is modeled and displayed as a polyhedron consisting of minute polygons called polygons, whereas volume graphics divides the target space into a large number of voxels (Voxel). The target space is modeled by defining parameters for each voxel. For this reason, it is suitable for displaying three-dimensional information on an object whose boundary or shape is not clear, for example, a meteorological phenomenon such as a cloud or fog.
[0007]
There are various types of information such as clouds, fog, humidity, temperature, and wind distribution, and these two or more meteorological phenomena are measured in the same or overlapping three-dimensional space. There are cases where it is desired to compare three-dimensional information with different. In this case, if the three-dimensional information display device is used, it is necessary to perform volume graphics processing on the three-dimensional information of each meteorological phenomenon to display image data and compare two or more display images. The user has to perform complicated operations such as positioning on the screen.
[0008]
Further, two or more two-dimensional image data are generated by performing volume graphics processing on three or more three-dimensional information of meteorological phenomena, and one two-dimensional image data is generated by superimposing these image data. It is also conceivable to display the image display means 7 as composite image data. However, the two-dimensional image data obtained by projecting the three-dimensional data onto the two-dimensional surface has already lost the depth information, and thus it is not possible to perform superposition in consideration of the subject's context in each image data. .
[0009]
[Problems to be solved by the invention]
The present invention has been made in view of the above circumstances. When displaying three-dimensional information in volume graphics, two or more three-dimensional information is synthesized in consideration of the positional relationship in the three-dimensional space. An object of the present invention is to provide a three-dimensional information synthesizing device, a three-dimensional information display device, and a three-dimensional information synthesizing method for converting into three three-dimensional information.
[0010]
The present invention also provides a three-dimensional information synthesis device for displaying two or more three-dimensional information in a superimposed manner using a conventional volume graphics processing device for displaying one three-dimensional information in volume graphics. It is an object to provide a three-dimensional information display device and a three-dimensional information synthesis method.
[0014]
[Means for Solving the Problems]
According to the first aspect of the present invention, there is provided a three-dimensional information synthesizing apparatus according to the present invention, comprising: a data storage means for storing two or more three-dimensional data defined by parameters for each voxel defining a three-dimensional space; and a parameter for each voxel. The specified synthesized three-dimensional data is composed of two or more adjacent voxels as a synthesis processing unit, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data, and the parameters of each voxel are determined by the voxel. Data synthesizing means that is generated by making a decision based on the associated three-dimensional data, and synthetic data storage means that stores the synthesized three-dimensional data, the data synthesizing means being stored in the data storage means Convert the parameters for each voxel in the 3D data into parameters for each compositing unit, Configured parameters of each voxel to determine based on the parameters of the synthesis processing unit in the three-dimensional data corresponding to the synthesis processing unit to which the voxel belongs.
[0015]
  With this configuration,Based on two or more three-dimensional data, three-dimensional data obtained by superimposing these in a three-dimensional space is generated. In addition, synthesized three-dimensional data defined by the same voxels defining the respective three-dimensional data before synthesis is generated. that time,For each three-dimensional data before synthesis, the parameters for each voxel are converted into parameters for each synthesis processing unit, and the parameters for each voxel of the synthesized three-dimensional data are generated using the parameters after the conversion. That is, first, regarding the synthesized three-dimensional data, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data before synthesis. The parameter for each voxel of the combined three-dimensional data is a parameter of the three-dimensional data before combining that voxel is associated, and is based on the parameter of the combining processing unit corresponding to the combining processing unit to which the voxel belongs. Determined. Therefore, it is possible to generate synthesized three-dimensional data reflecting each parameter of each synthesized three-dimensional data.
[0016]
  The three-dimensional information synthesizing device according to the present invention described in claim 2The data synthesis means obtains an average value of parameters of each voxel constituting the synthesis processing unit for each synthesis processing unit of the three-dimensional data stored in the data storage means, and calculates the average value as a parameter of the synthesis processing unit. It is comprised so that.
[0022]
  A three-dimensional information synthesizing device according to the present invention as set forth in claim 3,The voxel defines a three-dimensional space of a rectangular parallelepiped, and the synthesis unit is a rectangular parallelepiped composed of a total of eight voxels, two for each of three orthogonal axes. When synthesizing data, the same three-dimensional data is associated with voxels at opposite vertices of the synthesis processing unit.
[0023]
  A three-dimensional information synthesizing device according to the present invention as set forth in claim 4 comprises:When the data synthesizing unit synthesizes two or more three-dimensional data, the proportion of the voxel plane associated with one three-dimensional data in the surface of the rectangular parallelepiped synthesis processing unit is the other one of the three-dimensional data. Each voxel constituting the synthesis processing unit is assigned to the three-dimensional data so as to be larger than the ratio of the voxel plane associated with the data.
[0026]
  A three-dimensional information display device according to the present invention as set forth in claim 5 comprises:Source data storage means for storing source data in which parameter distribution in the three-dimensional space is defined, and the source data as parameters for each voxel that defines a three-dimensional space smaller than the three-dimensional space targeted by the source data Data conversion means for converting into prescribed three-dimensional data and storing the data in the data storage means is configured.
[0027]
  A three-dimensional information display device according to the present invention as set forth in claim 6 comprises:A radar measurement device, a Doppler measurement device, or a sound wave measurement device that measures meteorological parameters in a three-dimensional space and generates weather data is provided, and two or more measured weather data are stored as source data in the source data storage means. Configured as follows.
[0028]
  The three-dimensional information synthesis method according to the present invention as set forth in claim 7 comprises:A three-dimensional information synthesis method for synthesizing two or more three-dimensional data defined by parameters for each voxel defining a three-dimensional space and generating synthesized three-dimensional data defined by the parameters for each voxel. The step of associating the above adjacent voxels as a synthesis processing unit and associating each voxel constituting the synthesis processing unit with any of the three-dimensional data, and for each three-dimensional data, the parameter for each voxel is the parameter for each synthesis processing unit. And a parameter for each voxel of the synthesized three-dimensional data is determined based on a parameter of a synthesis processing unit corresponding to a synthesis processing unit to which the voxel belongs in the three-dimensional data associated with the voxel. It consists of steps.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an example of the configuration of a three-dimensional information display apparatus according to Embodiment 1 of the present invention, which is an apparatus for displaying volume graphics by superimposing two pieces of three-dimensional information. In the figure, 11 and 12 are source data storage means, 21 and 22 are VG data conversion means, 31, 32 are VG data storage means, 4 is VG data synthesis means, 5 is synthesis VG data storage means, and 6 is VG processing means. , 7 are image display means.
[0031]
The source data storage means 11 and 12 store and hold different source data S1 and S2, respectively. The source data S1 and S2 are three-dimensional information obtained by measuring different objects with a measuring device (not shown) in the same three-dimensional space, or three-dimensional information generated by a computer or the like. These source data S1 and S2 are given, for example, as a distribution of predetermined parameters (features) in a three-dimensional space, and are usually input and stored as three-dimensional information in different data formats.
[0032]
The VG data conversion units 21 and 22 are conversion processing units that convert the data format of the three-dimensional information, and are executed on the computer. The VG data conversion unit 21 generates VG data V1 in a predetermined format based on the source data S1 read from the source data storage unit 11, and stores it in the VG data storage unit 31. Similarly, the VG data conversion unit 22 generates VG data V2 in a predetermined format based on the source data S2 read from the source data storage unit 12, and stores it in the VG data storage unit 32. The VG data V1 and V2 are VG data in the same format, and the target three-dimensional space is divided by the voxel by the same method, and the three-dimensional information is defined as a parameter (usually a scalar quantity) for each voxel. .
[0033]
The VG data synthesizing unit 4 superimposes the VG data V1 and V2 read from the VG data storage units 31 and 32 as three-dimensional information, generates new synthesized VG data Vm, and stores the synthesized VG data Vm in the synthesized VG data storage unit 5 Data synthesizing means, which is executed on a computer. The combined VG data Vm generated by the VG data combining unit 4 is three-dimensional information obtained by superimposing two objects on a three-dimensional space.
[0034]
The VG processing means 6 performs volume graphics processing for converting VG data Vm as three-dimensional information into two-dimensional image data obtained by projecting onto a two-dimensional surface. The VG processing unit 6 determines the color and transparency of each voxel based on parameters and the like, and generates a projection image on a two-dimensional surface. The image data generated by the VG processing unit 6 is displayed by an image display unit 7 such as a CRT.
[0035]
FIG. 2 is an explanatory diagram showing a configuration example of the VG data V1 and V2 generated by the VG data conversion unit 21 in FIG. The three-dimensional space that is the target of the source data S1 and S2 is a 4 km square cube, and the voxel VX is a cube obtained by dividing this three-dimensional space into 64 (= 4 × 4 × 4) voxels. is there. The VG data conversion means 21 and 22 convert the source data S1 and S2 into parameters for each voxel VX, that is, 64 parameters, and the VG data V1 and V2 are defined by these 64 parameters.
[0036]
FIG. 3 is an explanatory diagram for explaining an outline of the synthesis process of the VG data V1 and V2. Here, it is assumed that the VG data V1 and V2 are three-dimensional information obtained in the same three-dimensional space. Each parameter of the synthesized VG data Vm is determined based on one of the VG data V1 and V2, and the three-dimensional information is synthesized for the entire target space.
[0037]
The combined VG data Vm is defined by the same method as the VG data V1 and V2. That is, it is defined by parameters for each voxel VX when a 4 km square three-dimensional space is targeted and this space is divided by 64 (= 4 × 4 × 4) voxels VX.
[0038]
FIG. 4 is an explanatory diagram for explaining a processing unit of the synthesizing process in the VG data synthesizing unit 4 of FIG. The VG data synthesizing means uses a cube composed of a total of 8 (= 2 × 2 × 2) adjacent voxels VX, two for each of three orthogonal axes as a synthesis processing unit U, and for each synthesis processing unit U, a voxel VX is assigned to the VG data V1 or VG data V2, and the synthesis process is performed.
[0039]
FIG. 5 is a diagram showing an example of the synthesizing process in the VG data synthesizing unit 4 of FIG. First, the VG data V1 and V2 are converted into parameters for each synthesis processing unit U, respectively. That is, for each of the VG data V1 and V2, a parameter for each synthesis processing unit U is obtained based on each parameter of the eight voxels VX constituting the processing unit U. For example, an average value of each parameter of eight voxels VX can be obtained, and this average value can be used as a parameter of the composition processing unit U including the voxel VX.
[0040]
Next, each voxel VX constituting the combined VG data Vm is assigned to one of the VG data V1 and V2. Further, the allocation of the voxels VX is performed for each synthesis processing unit U, and the same allocation is made in each synthesis processing unit U. The parameters of each voxel VX of the combined VG data Vm are determined based on the parameters of the combined processing unit U of the VG data V1 and V2 corresponding to the combined processing unit U to which the voxel belongs (the three-dimensional space coincides). The
[0041]
That is, the parameter of the VG data V1 corresponding to the synthesis processing unit U to which the voxel VX belongs is adopted as the parameter of the voxel VX of the synthesized VG data Vm assigned to the VG data V1. Similarly, the parameter of the VG data V2 corresponding to the synthesis processing unit U to which the voxel VX belongs is adopted as the parameter of the voxel VX of the synthesized VG data Vm assigned to the VG data V2.
[0042]
FIG. 6 is a diagram showing an example of a method for assigning the voxels VX constituting the display processing unit U to the VG data V1 and V2. (A), (b) is the figure which looked at the same synthetic | combination process unit U from the different direction, (b) is the figure which looked at (a) from the left (arrow b).
[0043]
The synthesis processing unit U is composed of eight voxels VX1 to VX8. VX1, VX3, VX6, and VX8 are associated with one VG data (for example, VG data V1), and the remaining voxels VX2, VX4, VX5, and VX7 are included. Corresponding to the other VG data (for example, VG data V2).
[0044]
In the case where eight voxels VX are combined into a processing unit U and two VG data are combined for each combining processing unit, by associating voxels diagonally on each surface of the combining processing unit U with the same VG data, It is possible to equalize the proportion of the surface of the voxel VX associated with the VG data V1, V2 in each surface of the synthesis processing unit. For this reason, it is possible to superimpose the VG data V1 and the VG data V2 so that the VG data V1 and the VG data V2 can be seen at the same rate from any angle, that is, it is possible to superimpose two objects on an equal basis.
[0045]
When the two VG data V1 and V2 are overlapped on an equal basis, the proportion of voxels corresponding to the VG data in one surface is the same for each surface of the composition processing unit U as shown in FIG. Although it is desirable that the number of voxels associated with each VG data in the same synthesis processing unit U be the same, they can be overlapped equally. That is, even if the ratio is not the same for each surface of the synthesis processing unit U, the number associated with the VG data V1 and V2 among the voxels VX constituting one synthesis processing unit U is equal (VG data If there are two, half of them can be overlapped equally.
[0046]
According to the present embodiment, it is possible to generate combined three-dimensional data Vm obtained by superimposing two VG data V1, V2 on a three-dimensional space, and to display the combined three-dimensional information. Further, since the synthesized VG data Vm is defined by the same voxel as that defining each of the VG data V1 and V2 before synthesis, the synthesized VG data Vm is a conventional technique for displaying the VG data V1 and V2, respectively. The hardware, that is, the VG processing means 6 and the image display means 7 can be used as they are for display.
[0047]
Further, according to the present embodiment, for the VG data V1 and V2 before composition, the parameters for each voxel VX are converted into parameters for each composition processing unit U, and the parameters of the composition VG data Vm are converted using the parameters after the conversion. The parameter is generated. For this reason, it is possible to generate combined three-dimensional data reflecting each parameter of the combined three-dimensional data.
[0048]
Further, according to the present embodiment, in a cube composition processing unit U composed of eight (two in the orthogonal axis direction) voxel VX, each voxel VX corresponds to one of two VG data V1 and V2. In this case, the same three-dimensional data is associated with the voxels VX on the diagonal line on each surface of the synthesis processing unit U. For this reason, it is possible to generate synthetic VG data in which two objects are overlapped on an equal basis.
[0049]
In the present embodiment, an example in which the voxel VX and the composition processing unit U are cubes has been described, but one or both of the voxel VX and the composition processing unit U may be a rectangular parallelepiped. Further, the voxel VX and the composition processing unit U can be formed in a shape other than a rectangular parallelepiped.
[0050]
Further, even when the voxel VX and the composition processing unit U are rectangular parallelepipeds, eight adjacent voxels VX are set as the composition processing unit U, and voxels on the diagonal lines of each surface of the composition processing unit U are the same VG. By associating with the data, the ratio of the area in which the VG data V1 and V2 are associated with each other in the synthesis processing unit U can be made equal, and the two VG data can be synthesized equally.
[0051]
Further, in the present embodiment, an example in which 8 voxels that are 2 × 2 × 2 with respect to each of the three orthogonal axes is set as one synthesis processing unit has been described, but the synthesis processing unit does not necessarily have such a relationship. It may not be a combination of voxels.
[0052]
In the present embodiment, an example in which source data S1 and S2 to be combined is three-dimensional information for the same three-dimensional space has been described. However, source data S1 and S2 are partially overlapped. Even in the case of the three-dimensional information targeted for the three-dimensional space, the overlapping space can be similarly synthesized. Furthermore, even if the source data S1 and S2 are three-dimensional information targeting a non-overlapping space, they can be synthesized in exactly the same manner if the positional relationship for overlapping the source data S1 and S2 is given.
[0053]
Embodiment 2. FIG.
In the first embodiment, an example of synthesizing two VG data on an equal basis has been described. However, in the present embodiment, an example of synthesizing four VG data on an equal basis will be described.
[0054]
FIG. 7 is a diagram showing an example of the operation of the three-dimensional information display apparatus according to Embodiment 2 of the present invention. When the VG data synthesizing unit 4 in FIG. 1 synthesizes four VG data V1 to V4, FIG. An example of a method of assigning each voxel constituting the processing unit U to each VG data is shown. As in the case of FIG. 6, the synthesis process is performed for each synthesis process unit U, and each voxel is assigned to one of the VG data V1 to V4. (A), (b) is the figure which looked at the same synthetic | combination process unit U from the different direction, (b) is the figure which looked at (a) from the left (arrow b).
[0055]
The composition processing unit U is composed of eight voxels VX1 to VX8. The voxels VX1 and VX7 are the first VG data V1, the voxels VX2 and VX8 are the second VG data V2, and the voxels VX3 and VX5 are the third. The voxels VX4 and VX6 are associated with the fourth VG data V4 in the VG data V3.
[0056]
When the synthesis processing unit U is composed of 8 voxels VX (two in the orthogonal axis direction) each consisting of a cube or a rectangular parallelepiped, and each voxel VX is associated with four VG data V1 to V4, By associating voxels including opposing vertices with the same VG data, it is possible to equalize the ratio of the surfaces associated with the VG data V1 to V4 in each surface of the synthesis processing unit. For this reason, it can superimpose so that the four VG data V1-V4 can be seen at the same ratio when viewed from any angle, that is, the four objects can be superimposed on an equal basis.
[0057]
In the first embodiment, the case where two VG data are combined and the case where four VG data are combined is described in the present embodiment. However, three or five or more VG data are superimposed in exactly the same manner. It is also possible to generate and display one composite VG data.
[0058]
Embodiment 3 FIG.
In the first and second embodiments, an example in which two or more VG data are superimposed on each other in the VG data synthesizing unit has been described. In the present embodiment, one VG data among two or more VG data is converted. An example of highlighting and displaying will be described.
[0059]
FIG. 8 is a diagram showing an example of the operation of the three-dimensional information display apparatus according to Embodiment 3 of the present invention. When two VG data V1 and V2 are synthesized by the VG data synthesizing means 4 in FIG. An example of a method of assigning each voxel constituting the processing unit U to each VG data is shown. As in the case of FIG. 6, the synthesis process is performed for each synthesis process unit U, and each voxel is assigned to one of the VG data V1 and V2. (A), (b) is the figure which looked at the same synthetic | combination process unit U from the different direction, (b) is the figure which looked at (a) from the left (arrow b).
[0060]
The composition processing unit U is composed of eight voxels VX1 to VX8. Voxels VX3, VX6, and VX8 are associated with the first VG data V1, and VX1, VX2, VX4, VX5, and VX7 are associated with the second VG data V2. It has been.
[0061]
Compared to the case of FIG. 6, the voxel VX1 associated with the VG data V1 is associated with the VG data V2. For this reason, a majority of the voxels VX1 to VX8 constituting the composition processing unit U are associated with the VG data V2, and the VG data 2 associated with more voxels than the VG data V1 is more emphasized than the VG data V1. Will be displayed.
[0062]
According to the present embodiment, the ratio of the number of voxels associated with the same VG data in one composition processing unit U is changed (that is, corresponding to each VG data in the surface of one composition display unit U). By changing the ratio of the attached voxel faces), one of the synthesized VG data can be emphasized in the synthesized VG data.
[0063]
In this embodiment, an example of combining two VG data has been described. However, even when three or more VG data are combined, a part of VG data can be emphasized in the same manner. .
[0064]
Embodiment 4 FIG.
In the present embodiment, as in the third embodiment, when two or more VG data are superimposed so as to emphasize one VG data, the superimposition is performed so that one VG data can be seen at the same rate from any angle. The case where it is made to explain is demonstrated.
[0065]
FIG. 9 is a diagram showing an example of a method for assigning the voxels VX constituting the display processing unit U to the VG data V1 and V2. (A), (b) is the figure which looked at the same synthetic | combination process unit U from the different direction, (b) is the figure which looked at (a) from the left (arrow b).
[0066]
The synthesis processing unit U consists of eight voxels VX1 to VX8, VX3 and VX5 are associated with one VG data (for example, VG data V1), and the remaining voxels VX1, VX2, VX4, VX6 to VX8 are the other It is associated with VG data (for example, VG data V2). In other words, voxels located at the opposite vertex of the synthesis processing unit U (here, the farthest vertex that is symmetric with respect to the center of the synthesis processing unit U) are associated with the same VG data (VG data V1).
[0067]
In this case, a majority of the voxels VX1 to VX8 constituting the synthesis processing unit U are associated with the VG data V2, and the VG data 2 associated with more voxels than the VG data V1 is more emphasized than the VG data V1. 8 is the same as the case of FIG. 8, but is different from the case of FIG. 8 in that two objects are overlapped so as to give a certain emphasis when viewed from any angle.
[0068]
That is, when eight voxels VX are combined as a synthesis processing unit U and two VG data are synthesized for each synthesis processing unit, by associating voxels located at vertices facing the synthesis processing unit U with the same VG data, In each surface of the synthesis processing unit, the proportion of the surface associated with the VG data can be made equal. For this reason, it is possible to superimpose the VG data V1 so that the VG data V1 can be seen at the same rate when viewed from any angle, that is, it is possible to superimpose two objects so as to achieve constant emphasis.
[0069]
According to the present embodiment, by associating voxels located at opposite vertices of one synthesis processing unit U with the same VG data, two objects are synthesized so as to give constant enhancement from any angle. can do.
[0070]
In this embodiment, an example in which two VG data are combined has been described. However, even when three or more VG data are combined, some VG data is similarly emphasized to a certain degree. Can be synthesized as follows. If four VG data are synthesized according to this embodiment, the result is the same as that in FIG. 7 (Embodiment 2).
[0071]
Embodiment 5. FIG.
In the first to third embodiments, the example in which the parameters of the VG data are converted into the parameters for each synthesis processing unit and used as the parameters of the synthesized VG data has been described, but in this embodiment, each voxel of the VG data The case where these parameters are used as the parameters of the synthesized VG data will be described.
[0072]
FIG. 10 is a diagram showing an example of the synthesis process in the VG data synthesis unit 4 according to the fifth embodiment of the present invention. Unlike the combining process of FIG. 5 (Embodiment 1), the process of converting the parameters for each voxel VX of the VG data V1, V2 into the parameters for each combining process unit U is not performed.
[0073]
The composition processing unit U is composed of eight voxels VX, and each is assigned to one of the VG data V1 and V2. This allocation of the voxels VX is performed for each synthesis processing unit U, and the same allocation is made for each synthesis processing unit U. Such an allocation method is exactly the same as in the case of FIGS. 6 to 9, but the VG data V1 in which the parameters of each voxel VX of the synthesized VG data Vm correspond to the voxel VX (the three-dimensional space coincides). , V2 is determined based on the parameters of the voxel VX.
[0074]
That is, the parameter of the voxel VX of the VG data V1 corresponding to the voxel VX is adopted as the parameter of the voxel VX of the synthesized VG data Vm assigned to the VG data V1. Similarly, the parameter of the voxel VX of the VG data V2 corresponding to the voxel VX is adopted as the parameter of the voxel VX of the synthesized VG data Vm assigned to the VG data V2.
[0075]
According to the present embodiment, it is possible to generate and display composite VG data by combining two or more VG data without converting the VG data including parameters for each voxel into parameters for each composite processing unit. it can. For this reason, the synthesis process is simplified and VG data can be synthesized at high speed.
[0076]
Embodiment 6 FIG.
In the present embodiment, a weather display device for displaying three-dimensional information related to a weather phenomenon will be described. FIG. 11 is a block diagram showing a configuration example of a three-dimensional information display apparatus according to Embodiment 6 of the present invention, and an apparatus for displaying volume graphics by superimposing two or more three-dimensional information related to weather phenomena. It is shown. In the figure, 1 is source data storage means, 2 is VG data conversion means, 3 is VG data storage means, 4 is VG data synthesis means, 5 is synthesized VG data storage means, 6 is VG processing means, and 7 is image display means. , 81 to 83 are measuring devices.
[0077]
The measuring device 81 is a radar measuring device that transmits a radar signal and receives an echo signal thereof, and measures the amount of moisture in the air based on the received signal. By changing the frequency band of the transmission radar signal, it is possible to measure the distribution of humidity, fog, clouds, etc. in the measurement target space. The three-dimensional distribution information of humidity, fog or clouds measured by the measuring device 81 is stored in the source data storage unit 1 as source data S1.
[0078]
The measuring device 82 is a Doppler measuring device, and can measure the wind distribution in the measurement target space by detecting the Doppler component of the received signal. The measuring device 83 is a sound wave measuring device that can transmit and receive sound waves and measure the temperature distribution in the measurement target space based on the propagation speed. The three-dimensional distribution information of wind and temperature measured by the measuring devices 82 and 83 is stored in the source data storage means 1 as source data S2 and S3, respectively.
[0079]
The VG data conversion means 2 converts the source data read from the source data storage means 1 into VG data and stores it in the VG data storage means 3 as VG data. This operation is sequentially performed for each source data S1 to S3.
[0080]
The VG data synthesizing unit 4 reads the three source data S1 to S3 from the VG data storage unit 3, synthesizes them in a three-dimensional space, generates synthesized VG data Vm, and stores them in the synthesized VG data storage unit 5.
[0081]
The combined VG data Vm generated in this way is VG processed by the VG processing unit 6 and displayed on the image display unit 7. When the meteorological phenomenon in the same or partly overlapping three-dimensional space is measured by the measuring devices 81 to 83, these measurement results can be synthesized and displayed.
[0082]
【The invention's effect】
According to the present invention, it is possible to provide a three-dimensional information composition apparatus and a three-dimensional information composition method for generating composite three-dimensional data obtained by superimposing two or more three-dimensional data in consideration of the positional relationship in a three-dimensional space. Can do. In addition, it is possible to provide a three-dimensional information composition display device that displays two or more three-dimensional data superimposed on a three-dimensional space.
[0083]
Furthermore, since the synthesized 3D data is defined by the same voxel as the voxel that defines the 3D data before synthesis, a conventional apparatus for displaying each 3D data before synthesis, for example, volume graphics processing Using the means, image display means, etc., the synthesized three-dimensional data can be displayed in volume graphic.
[0084]
Further, according to the present invention, when two or more three-dimensional data are superposed, these three-dimensional data can be synthesized equivalently, or one of the three-dimensional data can be emphasized and superposed.
[0085]
Further, according to the present invention, even when displaying an image in which two or more three-dimensional data is superimposed, conventional hardware for displaying volume graphics of the three-dimensional data before superposition, ie, volume graphics, is displayed. This can be performed using a processing means, an image display means, or the like.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a three-dimensional information display apparatus according to Embodiment 1 of the present invention, and is an apparatus for displaying volume graphics by superimposing two pieces of three-dimensional information.
FIG. 2 is an explanatory diagram showing a configuration example of VG data V1 and V2 generated by the VG data conversion unit 21 of FIG.
FIG. 3 is an explanatory diagram for explaining an outline of a synthesis process of VG data V1 and V2.
4 is an explanatory diagram for explaining a processing unit of a synthesis process in the VG data synthesis unit 4 in FIG. 1; FIG.
FIG. 5 is a diagram showing an example of a synthesis process in the VG data synthesis unit 4 of FIG. 1;
6 is a diagram showing an example of a method for assigning each voxel VX constituting the display processing unit U to the VG data V1, V2, and a method for assigning each voxel constituting the composition processing unit U to each VG data. FIG. An example is shown.
FIG. 7 is a diagram showing an example of the operation of the three-dimensional information display device according to Embodiment 2 of the present invention, and shows an example of a method for assigning each voxel constituting a synthesis processing unit U to each VG data. ing.
FIG. 8 is a diagram showing an example of the operation of the three-dimensional information display apparatus according to Embodiment 3 of the present invention, and shows an example of a method for assigning each voxel constituting a synthesis processing unit U to each VG data. ing.
FIG. 9 is a diagram showing an example of the operation of the three-dimensional information display apparatus according to Embodiment 4 of the present invention, and shows an example of a method for assigning each voxel constituting a synthesis processing unit U to each VG data. ing.
FIG. 10 is a diagram showing an example of synthesis processing in VG data synthesis means 4 according to Embodiment 5 of the present invention.
FIG. 11 is a block diagram showing an example of the configuration of a three-dimensional information display device according to a sixth embodiment of the present invention, and a device for displaying volume graphics by superimposing two or more three-dimensional information on weather phenomena It is shown.
FIG. 12 is a block diagram showing a configuration of a conventional three-dimensional information display device.
[Explanation of symbols]
1, 11, 12 Source data storage means,
2, 21, 22 VG data conversion means, 3, 31, 32 VG data storage means,
4 VG data synthesis means, 5 synthesis data storage means, Vm synthesis VG data,
6VG processing means, 7 display device, 81-83 measuring device,
S1 to S3 source data, U composition processing unit, V1 to V3 VG data,
VX, VX1 to VX8 voxels

Claims (7)

3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを記憶するデータ記憶手段と、上記ボクセルごとのパラメータにより規定される合成3次元データを、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを上記3次元データのいずれかに対応づけ、各ボクセルのパラメータを当該ボクセルが対応づけられた上記3次元データに基づき決定することにより生成するデータ合成手段と、合成された3次元データを記憶する合成データ記憶手段とを備え、
上記データ合成手段は、データ記憶手段に記憶された3次元データのボクセルごとのパラメータを合成処理単位ごとのパラメータに変換し、合成3次元データの各ボクセルごとのパラメータを当該ボクセルが属する合成処理単位に相当する上記3次元データにおける合成処理単位のパラメータに基づいて決定することを特徴とする3次元情報合成装置。
Data storage means for storing two or more three-dimensional data defined by parameters for each voxel that defines a three-dimensional space, and synthetic three-dimensional data defined by the parameters for each voxel, two or more adjacent voxels A synthesis processing unit is generated, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data, and a parameter of each voxel is generated based on the three-dimensional data with which the voxel is associated. Data synthesizing means, and synthesized data storage means for storing the synthesized three-dimensional data,
The data synthesizing unit converts the parameter for each voxel of the three-dimensional data stored in the data storage unit into a parameter for each synthesis processing unit, and the parameter for each voxel of the synthesized three-dimensional data is converted into the synthesis processing unit to which the voxel belongs. A three-dimensional information synthesizing apparatus, wherein the three-dimensional information synthesizing apparatus is determined based on a parameter of a synthesis processing unit in the three-dimensional data corresponding to the above .
上記データ合成手段は、データ記憶手段に記憶された3次元データの各合成処理単位ごとに、合成処理単位を構成する各ボクセルのパラメータの平均値を求め、この平均値を当該合成処理単位のパラメータとすることを特徴とする請求項1に記載の3次元情報合成装置。The data synthesizing unit obtains an average value of parameters of each voxel constituting the synthesis processing unit for each synthesis processing unit of the three-dimensional data stored in the data storage unit, and calculates the average value as a parameter of the synthesis processing unit. The three-dimensional information synthesizing device according to claim 1. 3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを記憶するデータ記憶手段と、上記ボクセルごとのパラメータにより規定される合成3次元データを、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを上記3次元データのいずれかに対応づけ、各ボクセルのパラメータを当該ボクセルが対応づけられた上記3次元データに基づき決定することにより生成するデータ合成手段と、合成された3次元データを記憶する合成データ記憶手段とを備え、Data storage means for storing two or more three-dimensional data defined by parameters for each voxel that defines a three-dimensional space, and synthetic three-dimensional data defined by the parameters for each voxel, two or more adjacent voxels A synthesis processing unit is generated, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data, and a parameter of each voxel is generated based on the three-dimensional data with which the voxel is associated. Data synthesizing means and synthesized data storage means for storing synthesized three-dimensional data,
上記ボクセルは直方体の3次元空間を画定し、上記合成処理単位は、3つの直交軸ごとに2個ずつ合計8個のボクセルで構成される直方体からなり、  The voxel defines a three-dimensional space of a rectangular parallelepiped, and the synthesis processing unit is a rectangular parallelepiped composed of eight voxels, two for each of three orthogonal axes.
上記データ合成手段が、2以上の3次元データを合成する際、各3次元データに対応づけられたボクセルの数がそれぞれ等しくなるように、合成処理単位を構成する各ボクセルを3次元データに対応づけるとともに、4つの3次元データを合成する際、合成処理単位の対向する頂点にあるボクセルに同一の3次元データを対応づけることを特徴とする3次元情報合成装置。  When the data synthesizing unit synthesizes two or more three-dimensional data, each voxel constituting the synthesis processing unit corresponds to the three-dimensional data so that the number of voxels associated with each three-dimensional data becomes equal. In addition, when synthesizing four three-dimensional data, the same three-dimensional data is associated with voxels at opposite vertices of the synthesis processing unit.
3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを記憶するデータ記憶手段と、上記ボクセルごとのパラメータにより規定される合成3次元データを、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを上記3次元データのいずれかに対応づけ、各ボクセルのパラメータを当該ボクセルが対応づけられた上記3次元データに基づき決定することにより生成するデータ合成手段と、合成された3次元データを記憶する合成データ記憶手段とを備え、Data storage means for storing two or more three-dimensional data defined by parameters for each voxel that defines a three-dimensional space, and synthetic three-dimensional data defined by the parameters for each voxel, two or more adjacent voxels A synthesis processing unit is generated, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data, and a parameter of each voxel is generated based on the three-dimensional data with which the voxel is associated. Data synthesizing means and synthesized data storage means for storing synthesized three-dimensional data,
上記データ合成手段が、2以上の3次元データを合成する際、直方体の合成処理単位の表面において、1つの3次元データに対応づけられたボクセルの面が占める割合が、他の1つの3次元データに対応づけられたボクセルの面が占める割合よりも大きくなるように、合成処理単位を構成する各ボクセルを3次元データに割り当てることを特徴とする3次元情報合成装置。When the data synthesizing unit synthesizes two or more three-dimensional data, the proportion of the voxel plane associated with one three-dimensional data in the surface of the rectangular parallelepiped synthesis processing unit is the other one of the three-dimensional data. A three-dimensional information composition device, wherein each voxel constituting a composition processing unit is assigned to three-dimensional data so that a ratio of voxel surfaces associated with data is larger than a ratio.
3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを記憶するデータ記憶手段と、上記ボクセルごとのパラメータにより規定される合成3次元データを、2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを上記3次元データのいずれかに対応づけ、各ボクセルのパラメータを当該ボクセルが対応づけられた上記3次元データに基づき決定することにより生成するデータ合成手段と、合成3次元データをボリュームグラフィックス処理により2次元の画像データに変換する表示処理手段と、この画像データを表示する画像表示手段と、3次元空間におけるパラメータ分布が規定されたソースデータを記憶するソースデーData storage means for storing two or more three-dimensional data defined by parameters for each voxel that defines a three-dimensional space, and synthetic three-dimensional data defined by the parameters for each voxel, two or more adjacent voxels A synthesis processing unit is generated, each voxel constituting the synthesis processing unit is associated with one of the three-dimensional data, and a parameter of each voxel is generated based on the three-dimensional data with which the voxel is associated. Data synthesis means, display processing means for converting the synthesized three-dimensional data into two-dimensional image data by volume graphics processing, image display means for displaying the image data, and a source in which parameter distribution in the three-dimensional space is defined Source data for storing data タ記憶手段と、上記ソースデータを、当該ソースデータが対象とする3次元空間よりも小さい3次元空間を画定するボクセルごとのパラメータとして規定する3次元データに変換し、上記データ記憶手段に格納するデータ変換手段とを備えたことを特徴とする3次元情報表示装置。Data storage means and the source data are converted into three-dimensional data defined as parameters for each voxel defining a three-dimensional space smaller than the target three-dimensional space, and stored in the data storage means A three-dimensional information display device comprising data conversion means. 3次元空間における気象パラメータを計測して気象データを生成するレーダ計測装置、ドップラ計測装置又は音波計測装置を備え、計測された2以上の気象データをそれぞれソースデータとして上記ソースデータ記憶手段に格納することを特徴とする請求項5に記載の3次元情報表示装置。A radar measurement device, a Doppler measurement device, or a sound wave measurement device that measures meteorological parameters in a three-dimensional space and generates weather data is provided, and two or more measured weather data are stored as source data in the source data storage means. The three-dimensional information display apparatus according to claim 5. 3次元空間を画定するボクセルごとのパラメータにより規定された2以上の3次元データを合成し、上記ボクセルごとのパラメータにより規定される合成3次元データを生成する3次元情報合成方法において、In the three-dimensional information synthesis method for synthesizing two or more three-dimensional data defined by parameters for each voxel defining a three-dimensional space, and generating synthesized three-dimensional data defined by the parameters for each voxel,
2以上の隣接するボクセルを合成処理単位とし、当該合成処理単位を構成する各ボクセルを3次元データのいずれかに対応づけるステップと、  Two or more adjacent voxels as a synthesis processing unit, and associating each voxel constituting the synthesis processing unit with any of the three-dimensional data;
各3次元データについて、ボクセルごとのパラメータを合成処理単位ごとのパラメータに変換するステップと、  Converting each voxel parameter into a parameter for each synthesis processing unit for each three-dimensional data;
合成3次元データの各ボクセルごとのパラメータを、当該ボクセルが対応づけられた3次元データにおける、当該ボクセルが属する合成処理単位に相当する合成処理単位のパラメータに基づいて決定するステップからなることを特徴とする3次元情報合成方法。  The method includes a step of determining a parameter for each voxel of the synthesized three-dimensional data based on a parameter of a synthesis processing unit corresponding to a synthesis processing unit to which the voxel belongs in the three-dimensional data associated with the voxel. 3D information synthesis method.
JP2001356023A 2001-11-21 2001-11-21 3D information synthesis device, 3D information display device, and 3D information synthesis method Expired - Fee Related JP3734744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001356023A JP3734744B2 (en) 2001-11-21 2001-11-21 3D information synthesis device, 3D information display device, and 3D information synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001356023A JP3734744B2 (en) 2001-11-21 2001-11-21 3D information synthesis device, 3D information display device, and 3D information synthesis method

Publications (2)

Publication Number Publication Date
JP2003157444A JP2003157444A (en) 2003-05-30
JP3734744B2 true JP3734744B2 (en) 2006-01-11

Family

ID=19167618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001356023A Expired - Fee Related JP3734744B2 (en) 2001-11-21 2001-11-21 3D information synthesis device, 3D information display device, and 3D information synthesis method

Country Status (1)

Country Link
JP (1) JP3734744B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4267598B2 (en) 2005-07-11 2009-05-27 ザイオソフト株式会社 Image fusion processing method, image fusion processing program, and image fusion processing apparatus

Also Published As

Publication number Publication date
JP2003157444A (en) 2003-05-30

Similar Documents

Publication Publication Date Title
US8907950B2 (en) Driving simulation apparatus, wide-angle camera video simulation apparatus, and image deforming/compositing apparatus
US4855934A (en) System for texturing computer graphics images
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
US7348989B2 (en) Preparing digital images for display utilizing view-dependent texturing
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
US20130021445A1 (en) Camera Projection Meshes
JP3037455B2 (en) Display device and display method
US20110183301A1 (en) Method and system for single-pass rendering for off-axis view
KR20160130433A (en) Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters
US20060114262A1 (en) Texture mapping apparatus, method and program
JP2000227966A (en) 3d computer graphics processor and processing method
GB2295757A (en) Three-dimensional simulator and image generating method
JPH0375682A (en) High frequency signal detecting apparatus
CN103327357A (en) Three-dimensional picture presenting method and device
JP2007325043A (en) Image display apparatus and image display program
US7148891B2 (en) Image display method and image display device
EP3573018B1 (en) Image generation device, and image display control device
JP3629243B2 (en) Image processing apparatus and method for rendering shading process using distance component in modeling
JP3734744B2 (en) 3D information synthesis device, 3D information display device, and 3D information synthesis method
JP3035571B2 (en) Image processing device
KR101163020B1 (en) Method and scaling unit for scaling a three-dimensional model
GB2592604A (en) Image generation system and method
JP2006113857A (en) Simulated visual field generating device
KR0166253B1 (en) Method of generating video of a far and near topography
Trapp et al. Interactive Stereo Rendering for Non-planar Projections of 3D Virtual Environments-With a Comparison of Image-and Geometry-based Approaches

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees