JP6223916B2 - 情報処理装置、方法及びプログラム - Google Patents

情報処理装置、方法及びプログラム Download PDF

Info

Publication number
JP6223916B2
JP6223916B2 JP2014130281A JP2014130281A JP6223916B2 JP 6223916 B2 JP6223916 B2 JP 6223916B2 JP 2014130281 A JP2014130281 A JP 2014130281A JP 2014130281 A JP2014130281 A JP 2014130281A JP 6223916 B2 JP6223916 B2 JP 6223916B2
Authority
JP
Japan
Prior art keywords
depth
coordinate system
data
ray
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014130281A
Other languages
English (en)
Other versions
JP2016009374A (ja
Inventor
アンキット シャラマ
アンキット シャラマ
暢康 中島
暢康 中島
アルマン シモン アリ ジリエ
アルマン シモン アリ ジリエ
連秀 梁
連秀 梁
裕之 山原
裕之 山原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014130281A priority Critical patent/JP6223916B2/ja
Publication of JP2016009374A publication Critical patent/JP2016009374A/ja
Application granted granted Critical
Publication of JP6223916B2 publication Critical patent/JP6223916B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Description

本発明の実施形態は3次元画像表示に関する。
3次元(3Dと略称する)画像表示法には、3D画像を任意断面で表示するMPR(Multiplanar reconstruction)法と、3D画像を2次元(2Dと略称する)平面上に投影表示するレンダリング法の2種類がある。レンダリング法は、表面を表現するサーフェスレンダリングと、奥行き情報を活用するボリュームレンダリングの2種類がある。ボリュームレンダリングは、3Dボリュームデータから2D画像を作成するためにレイキャスティング技術を用いる。レイキャスティング技術は、カメラと3Dボリュームデータとの間に仮想スクリーンを配置し、仮想スクリーン上の2D画像の画素数と同数の光線(レイ)をカメラから3Dボリュームデータに対して照射し、各々のレイが通過する3Dボリュームデータの各点(ボクセル)の列であるボクセル列の各輝度値を追跡して、2D画像上の対応する画素値(色)とするものである。
モビーン・モバニア(Mobeen Movania)等著、「High-Performance Volume Rendering on the Ubitquitous WebGL Platform(ユビキタスWebGLプラットフォーム上の高性能ボリュームレンダリング)」、2014 IEEE 14th International Conference on High Performance Computing and Communications, pages 381-388
従来の3D表示処理では、3Dボリュームデータをレンダリングして得た3D画像を他の3D画像に重ねて表示すると、レンダリングにより得た3D画像が他の3D画像を隠してしまうという課題があった。
本発明の目的は、3Dボリュームデータをレンダリングして得られた3D画像を他の3D画像に重ねて表示し、レンダリングにより得られた3D画像と他の3D画像をともに視認することができる情報処理装置、方法及びプログラムを提供することである。
実施形態によれば、3Dボリュームデータに基づく第1画像および3Dデータに基づく第2画像を重畳して2次元表示するため情報処理装置は、前記3Dデータをレンダリングして前記第2画像の視線方向における奥行きを求め、該奥行きを示すデプステクスチャを求める手段と、前記デプステクスチャが示す奥行きをデプスリミットとして前記3Dボリュームデータをレイキャスティングする手段と、レイキャスティングの結果をレンダリングする手段とを具備する。
実施形態のシステム構成の一例を示すブロック図である。 座標変換の概要を示す流れ図である。 ウェブブラウザの動作を示すフローチャートである。 デプスバッファの動作を示すフローチャートである。 カメラ座標系とオブジェクト座標系の関係を示す図である。 バーテックシェーダの動作の一例を示すフローチャートである。 フラグメントシェーダの動作の一例を示すフローチャートである。 ポリゴンジオメトリデータが示す地形図の一例を示す図である。 3Dボリュームデータが示す雲の一例を示す図である。 本実施形態による3Dボリュームデータのレンダリング結果をポリゴンジオメトリデータが示す地形図に重ねて表示する一例を示す図である。 バーテックシェーダの動作の変形例を示すフローチャートである。 フラグメントシェーダの動作の変形例を示すフローチャートである。
以下、図面を参照して実施形態を説明する。
図1は、第1の実施形態に係る情報処理装置の構成を示す。実施形態はネットワーク12を介してサーバ14に接続されるクライアント端末16を例にとり説明する。クライアント端末16は、デスクトップ型又はノートブック型のパーソナルコンピュータ、携帯型のパーソナルコンピュータ、その他の携帯型の情報機器、タブレット、スマートフォン、その他の情報処理装置など、様々なデバイスによって実現可能である。ここでは、ノートブック型のパーソナルコンピュータとする。図示しないが、ノートブック型のパーソナルコンピュータは、コンピュータ本体と、本体に対してヒンジによって開閉自在に取り付けられているディスプレイユニットとから構成される。コンピュータ本体は、薄い箱形の筐体を有しており、その上面には、キーボード、電源ボタン、タッチパッド等が配置されている。
クライアント端末16は、キーボード/マウス22、ディスプレイ24と、GPU(Graphic Processing Unit)26と、デプスバッファ28と、ウェブブラウザ30とを含む。キーボード/マウス22はディスプレイ24で表示される3D画像の視線方向及び位置を指定するためのものである。ウェブブラウザ30はHTML5ベースの制御アプリケーション32を含み、グラフィック関連のタグとしてのcanvas上で図形や画像を描画することができる。canvasタグを利用して描画処理を行うためのAPIを実装したオブジェクトしてWebGLが知られており、本実施形態はWebGLを利用する。
クライアント端末16は、ネットワーク12上のサーバ14に接続される。サーバ14は、3Dボリュームデータ46と、ポリゴンジオメトリデータ44を格納する。本実施形態は、気象情報の表示に関し、雲の3D画像を3D地形図上に重ねて表示する。3Dボリュームデータ46は、雲の状態を示す3D画像データであり、ポリゴンジオメトリデータ44は地形図を表わす3Dデータである。クライアント端末16は、それぞれのデータをレンダリングして、画面上で重畳する。本実施形態は、3Dボリュームデータのレンダリングにおいて、2つの画像の重畳を考慮したレイキャスティングを行なう。
クライアント端末16のウェブブラウザ30は、サーバ14に対して3D画像表示を要求する。サーバ14は要求に応じて必要なデータ44、46をクライアント端末16に送信する。サーバ14は3Dボリュームデータ46をテクスチャアトラスに変更してクライント端末16に送信する。ウェブブラウザ30は、受信したテクスチャアトラスの形式である3Dボリュームデータ46をGPU26に送る。テクスチャアトラスとは、3Dボリュームデータに含まれる複数の画像を1枚の画像に纏めたものであり、GPU26が読み込むファイル数が減り、ロード時間が短縮できるとともに、処理速度も向上する。例えば、3Dボリュームデータを均一な3Dグリッドにサンプルして、スライスして、スライスをイメージに並べることで、テクスチャアトラスが作成される。ウェブブラウザ30は、サーバ14から受信したポリゴンジオメトリデータ44をデプスバッファ28に送る。
3D形状を2D画面上に描画する際に、例えば三角形等の基本図形を用いる。基本図形をポリゴンと称し、ポリゴンは3次元空間内の頂点データにより定義される。
GPU26は、ポリゴンの頂点データを扱うバーテックスシェーダ36、頂点データに対して走査変換・補間等を行ない、実際に描画に使用される画素を求めるラスタライザ・補間回路38、描画される際の画素データを扱うフラグメントシェーダ(またはピクセルシェーダとも称される)40を含む。バーテックスシェーダ36、フラグメントシェーダ40はプログラマブルである。バーテックスシェーダ36は、頂点に関するデータを受け取り、最終的に頂点をどのように処理するのかを決定する。フラグメントシェーダ40は、画素をどのような色で出力するかを決定する。フラグメントシェーダ40は、レイキャスティング処理を実行する。レイキャスティング処理は、カメラと3Dボリュームデータとの間に仮想スクリーンを配置し、仮想スクリーン上の2D画像の画素数と同数の光線(レイ)をカメラから3Dボリュームデータに対して照射し、各々のレイが通過する3Dボリュームデータの各点(ボクセル)の列であるボクセル列の各輝度値を追跡して、2D画像上の対応する画素値(色)とするものである。
デプスバッファ28は、ポリゴンジオメトリデータ44が示す地形図の奥行き(視線方向において最初に存在する地形までの距離)を示すデプステクスチャを作成する。
WebGLでは、3次元画像を表示するために頂点データから画像を生成する一連の流れはレンダリングパイプラインと称される。レンダリングパイプラインは、頂点データと光源情報とを入力するモデリング変換・視野(ビュー)変換と、頂点の陰影計算と、プロジェクション変換と、クリッピングと、走査変換・補間と、合成とを含む。陰影計算には材質情報が使われてもよいし、合成にはテクスチャも使われてもよい。
モデリング変換・ビュー変換と陰影計算は、バーテックスシェーダ36で実行され、クリッピングと走査変換・補間はラスタライザ・補間回路38で実行され、走査変換により選ばれた画像の各画素の色を頂点の陰影の補間値やサンプリングしたテクスチャの値を合成(マージ)して決定することはフラグメントシェーダ40で実行される。バーテックスシェーダ36は頂点毎に処理し、フラグメントスシェーダ40は画素毎に処理する。
図2は本実施形態における座標変換を示す。3Dボリュームデータを2Dの画面上に表示するためには、座標変換が必要である。3Dボリュームデータ(3次元空間)のポリゴンの各頂点は、モデリング変換・ビュー変換や、プロジェクション変換等を経て画面上に描画される。
3Dボリュームデータの座標系はオブジェクト座標系52と呼ばれる。3D表示を行なうには、先ず3Dオブジェクトを作成し、それを回転・平行移動させて、2次元画面上に配置する。オブジェクト座標系52はモデリングの際にオブジェクトの頂点座標や法線を指定するための座標系である。オブジェクト座標系52は、描画オブジェクト基準の座標系であり、描画オブジェクト毎に座標系がある。オブジェクト座標系52はモデリング座標系あるいはローカル座標系とも呼ばれる。
オブジェクト座標系52は、モデルビュー行列54を用いてカメラ座標系56に変換される。カメラ座標系56は、視点の位置が原点となるカメラスペースの座標系であり、カメラが原点にあって、カメラの方向は−z軸方向である。オブジェクト座標系52をカメラ座標系56に変換するということは、物体を平行移動することを含む。
なお、実際には、オブジェクト座標系52からカメラ座標系56への変換は、モデリング変換とビューイング変換を含むが、実施形態では両変換を纏めてモデルビュー変換と称する。モデリング変換は、オブジェクト座標系から世界座標系への変換であり、ビューイング変換は、世界座標系からカメラ座標系への変換である。
世界座標系は空間内に配置される複数のオブジェクト座標系間を結び付けるための共通の座標系である。オブジェクトの配置(位置と姿勢)は世界座標系に対するオブジェクト座標系の座標変換(モデリング変換と称する)として表される。世界座標系の原点は取り扱うシーンを包含する静的な物体上に置かれることが一般的である。世界座標系はグローバル座標系とも呼称される。モデリング変換行列は、描画したい3Dオブジェクトの位置や、拡大縮小(スケーリング)の有無、そして回転しているかどうかを定義する。ビューイング変換行列は、三次元空間を撮影するカメラを定義するために、カメラの位置やカメラの向き等を定義する。
モデリング変換とビューイング変換はそれぞれ4×4の行列演算が必要であるが、これらはまとめてモデルビュー行列54により演算される。
モデルビュー行列54は次のような4×4の座標変換行列である。
Figure 0006223916
行列の要素m11〜m44は3D画像の視線方向及び位置を決めるカメラの向きや位置に応じてウェブブラウザ30により決定される。もし、拡大縮小が無しであれば、上記のモデルビュー行列54のm11〜m13、m21〜m23、m31〜m33までの3x3のサブセット行列が3次元での回転(rotation)を行なう回転行列である。そして、回転行列の逆行列(inverse)は転置行列(transpose)と同じである。回転行列の場合は、逆行列と転置行列が同じなので、逆回転のためには転置の行列が使われる。
下記のモデルビュー行列はx軸を中心に90度回転させる。
Figure 0006223916
例えば、[010]Tの3Dの点を上記の行列で回転させると、下記のようになる。
Figure 0006223916
そして、行列転置と[001]Tを掛け算すると、[010]Tは戻ってくる。
Figure 0006223916
カメラ座標系56は、プロジェクション行列58を用いてクリップ座標系60に変換される。クリップ座標系60は、レンダリングパイプラインで使われる座標系であり、いわゆる表示画面であるクリップ空間に3Dデータが投影された後の同次の座標系である。プロジェクション行列58はプロジェクション変換とも呼ばれるものであり、4×4の行列演算である。
この座標変換により、3次元空間内のオブジェクトを構成する各ポリゴンの頂点の2Dディスプレイ上の描画位置が決定される。
図3はウェブブラウザ30の動作を示す。ブロック102で、キーボード/マウス22からレイ方向がウェブブラウザ30に入力される。レイ方向はカメラ座標系のカメラの向きと位置から定義される。ブロック104で、ウェブブラウザ30は、レイ方向に基づいて数1のモデルビュー行列の各要素m11〜m44を決定し、モデルビュー行列を生成する。ブロック106で、ウェブブラウザ30は、レイ方向に基づいてプロジェクション行列を生成する。ウェブブラウザ30は、モデルビュー行列、プロジェクション行列をデプスバッファ28に送る。
デプスバッファ28は、ウェブブラウザ30からモデルビュー行列、プロジェクション行列を受け取ると、図4に示すように、先ず、ブロック112で、空のデプステクスチャを初期化する。ブロック114で、デプスバッファ28は、デプステクスチャをフレームバッファにセットする。ポリゴンジオメトリデータ44は、サーバ44からウェブブラウザ30を介してデプスバッファ28に渡される。ブロック116で、デプスバッファ28は、GPU26を用いてポリゴンジオメトリデータ44をフレームバッファ上にレンダリングする。これにより、クリップ空間上の地形図のz値(カメラから見た奥行き)が求められる。求められたz値はデプステクスチャ画像として出力される。
図5は、カメラ座標系とオブジェクト座標系の関係を示す。カメラから出たレイはディスプレイスクリーンを通過し、さらに3Dボリュームデータが示すオブジェクト(例えば、気象情報としての雲)を囲むバウンディングキューブを通過する。バウンディングキューブは6面体であり、各面の正方形は2つの三角形(ポリゴンと称される)からなる。そのため、バウンディングキューブは12個のポリゴンからなる。各ポリゴンは3つの頂点からなり、次のような頂点座標で定義される。
ポリゴン1 (0.0, 0.0, 0.0),(0.0, 1.0, 0.0),(1.0, 1.0, 0.0)
ポリゴン2 (1.0, 1.0, 0.0),(1.0, 0.0, 0.0),(0.0, 0.0, 0.0)
ポリゴン3 (0.0, 0.0, 1.0),(1.0, 0.0, 1.0),(1.0, 1.0, 1.0)
ポリゴン4 (1.0, 1.0, 1.0),(0.0, 1.0, 1.0),(0.0, 0.0, 1.0)
ポリゴン5 (0.0, 1.0, 0.0),(0.0, 1.0, 1.0),(1.0, 1.0, 1.0)
ポリゴン6 (1.0, 1.0, 1.0),(1.0, 1.0, 0.0),(0.0, 1.0, 0.0)
ポリゴン7 (0.0, 0.0, 0.0),(1.0, 0.0, 0.0),(1.0, 0.0, 1.0)
ポリゴン8 (1.0, 0.0, 1.0),(0.0, 0.0, 1.0),(0.0, 0.0, 0.0)
ポリゴン9 (0.0, 0.0, 0.0),(0.0, 0.0, 1.0),(0.0, 1.0, 1.0)
ポリゴン10 (0.0, 1.0, 1.0),(0.0, 1.0, 0.0),(0.0, 0.0, 0.0)
ポリゴン11 (1.0, 0.0, 0.0),(1.0, 1.0, 0.0),(1.0, 1.0, 1.0)
ポリゴン12 (1.0, 1.0, 1.0),(1.0, 0.0, 1.0),(1.0, 0.0, 0.0)
レイがバウンディングキューブのフロントフェイスと交差する点がレイ開始点(xs,ys,zs)であり、レイがバウンディングキューブのバックフェイスと交差する点がレイ終端(xe,ye,ze)である。レイ開始点(xs,ys,zs)はカメラ座標系である。カメラ座標系のレイ開始点(xs,ys,zs)は、(5)式に示すように、プロジェクション行列との演算によりクリップ座標系のレイ開始点に変換される。
レイ開始点(クリップ座標系)
=プロジェクション行列×(xs,ys,zs) (5)式
カメラはカメラ座標系の原点に位置するので、カメラ座標系のレイ開始点(xs,ys,zs)の情報があれば、レイ方向はレイ開始点の情報のみから求めることができる。オブジェクト座標系でレイ方向を求めるためには、レイ開始点(xs,ys,zs)とレイ終端(xe,ye,ze)が必要である(両者の差分がレイ方向となる)のに対して、本実施形態では、レイ方向を簡単に求めることができる。すなわち、カメラ座標系のレイ方向は、(6)式に示すように、レイ開始点(xs,ys,zs)の正規化により求められる。
レイ方向(カメラ座標系)=normalize(xs,ys,zs) (6)式
オブジェクト座標系のレイ方向は、(7)式に示すように、カメラ座標系のレイ方向normalize(xs,ys,zs)にモデルビュー行列の3x3のサブセット行列の転置行列を演算することにより求められる。
レイ方向(オブジェクト座標系)
=モデルビュー行列の3x3のサブセット行列の転置行列
xnormalize(xs,ys,zs) (7)式
カメラ座標系のレイの深さ(レイデプス)は、(8)式に示すように、カメラ座標系のレイ開始点(xs,ys,zs)の位置から演算することができる。
レイデプス(カメラ座標系)
=(tmp.z/tmp.w+1.0)/2.0 (8)式
ここで、tmp=プロジェクション行列×レイの位置(カメラ座標系)である。そのため、tmpは(x,y,z,w)の4x1の行列であり、tmp.zとtmp.wはtmpのz、wのコンポーネントである。
図6はバーテックスシェーダ36の動作を示す。バーテックスシェーダ36は、ブロック122で、制御アプリケーション32からバウンディングキューブを構成する12個のポリゴンの計36個の頂点データVp(オブジェクト座標系)を受け取り、ブロック124で、モデルビュー行列とプロジェクション行列とを受け取る。モデルビュー行列とプロジェクション行列は全ての頂点に対して一律に適用される。
ブロック126で、バーテックスシェーダ36は、(9)式に示すように、オブジェクト座標系の頂点データVpをクリップ座標系の頂点データに変換する。
頂点データ(クリップ座標系)
=プロジェクション行列xモデルビュー行列x頂点データVp(オブジェクト座標系)
(9)式
ブロック128で、バーテックスシェーダ36は、(10)式に示すように、オブジェクト座標系の頂点データVpをカメラ座標系の頂点データに変換する。
頂点データ(カメラ座標系)
=モデルビュー行列x頂点データVp(オブジェクト座標系) (10)式
ブロック130で、バーテックスシェーダ36は、オブジェクト座標系の頂点データVpと、カメラ座標系の頂点データを出力する。これにより、バウンディングキューブを構成する12個のポリゴンの計36個の頂点データ(カメラ座標系とオブジェクト座標系)が得られる。これらの頂点データは、バーテックスシェーダ36からフラグメントシェーダ40に渡される。
図7は、フラグメントシェーダ40の動作を示す。
ブロック142で、フラグメントシェーダ40は、バーテックスシェーダ36の出力の12個のポリゴンの計36個の頂点データ(カメラ座標系とオブジェクト座標系)をラスタライザ・補間回路38で処理した結果のフラグメントの頂点データを受け取る。
ブロック144で、フラグメントシェーダ40は、デプステクスチャ画像dtexをデプスバッファ28から受け取る。
ブロック146で、フラグメントシェーダ40は、モデルビュー行列の3x3のサブセット行列の転置行列、3Dボリュームデータ、レイのステップサイズ、プロジェクション行列の逆行列を制御アプリケーション32から受け取る。モデルビュー行列の3x3のサブセット行列の転置行列、レイのステップサイズは全ての頂点に対して一律に適用される。
ブロック148で、フラグメントシェーダ40は、カメラ座標系の頂点データをカメラ座標系のレイ開始点(xs,ys,zs)として設定する。
ブロック150で、フラグメントシェーダ40は、オブジェクト座標系の頂点データをオブジェクト座標系のレイ開始点として設定する。
ブロック152で、フラグメントシェーダ40は、(11)式に示すように、カメラ座標系のレイ開始点を正規化し、カメラ座標系のレイ方向として設定する。
レイ方向(カメラ座標系)=normalize(xs,ys,zs) (11)式
ブロック154で、フラグメントシェーダ40は、(12)式に示すように、オブジェクト座標系のレイ方向を求める。
レイ方向(オブジェクト座標系)
=モデルビュー行列の3x3のサブセットの転置行列xレイ方向(カメラ座標系)
(12)式
フラグメントシェーダ40は、ブロック156で、レイデプス、ボリュームデータを初期化し、ブロック158で、デプステクスチャ画像からレイの方向にあるデプスを読み、読み取ったデプスをデプスリミットとして設定する。
ブロック160で、フラグメントシェーダ40は、オブジェクト座標系のレイ開始点の3Dボリュームデータの強度を求める。
ブロック162で、フラグメントシェーダ40は、上記した(8)式に示すように、カメラ座標系のレイデプスを求める。
フラグメントシェーダ40は、ブロック164で、(13)式に示すように、オブジェクト座標系のレイ開始点を、ブロック146で読み込んだステップサイズだけインクリメントし、ブロック166で、(14)式に示すように、カメラ座標系のレイ開始点をステップサイズだけインクリメントする。
レイ開始点(オブジェクト座標系)
=レイ開始点(オブジェクト座標系)
+レイ方向(オブジェクト座標系)xステップサイズ (13)式
レイ開始点(カメラ座標系)
=レイ開始点(カメラ座標系)+レイ方向(カメラ座標系)xステップサイズ
(14)式
以上により、オブジェクト座標系とカメラ座標系とのレイ開始点と、クリップ座標系のレイデプスを求めることができる。ブロック168で、フラグメントシェーダ40は、レイ開始点(オブジェクト座標系)<(1,1,1)であるか否か、及びレイデプス<デプスリミットであるか否かを判定する。これらの判定は、3Dボリュームデータをレンダリングするためのレイキャスティングの上限を判定するものである。オブジェクト座標系でのレイの位置(x、y、z)が全て1.0以下であることは、レイの位置がバウンディングキューブ内にあることを示す。カメラ座標系でのレイデプスがデプスリミット以下であることは、レイデプスがデプステクスチャ画像の手前であることを示す。そのため、ブロック168の2つの条件のいずれかが成立しない場合は、レイキャスティングを続けると、3Dボリュームデータのレンダリング画像である雲の画像がポリゴンジオメトリデータ44のデプステクスチャ画像である地形図を隠してしまうので、ブロック170に進む。ブロック168の2つの条件がともに成立する場合は、レイキャスティングを続けても、3Dボリュームデータの雲画像がポリゴンジオメトリデータ44の地形図を隠してしまうことがないので、ブロック160に戻り、レイキャスティングを続ける。
レイキャスティングが終了すると、フラグメントシェーダ40は、ブロック170で、3Dボリュームデータをレンダリング(視覚化)する。レンダリングの手法は、例えば最大投影(MIP)法、平均値投影法等があるが、これらに限定されず、何でも良い。
この実施形態によれば、図4に示すように、デプスバッファ28は、3Dボリュームデータのレイキャスティング前にポリコンジオメトリデータのデプスバッファを計算しておく。デプスバッファはフラグメントシェーダ40にテクスチャ引数として渡される。フラグメントシェーダ40は、このテクスチャ引数に基づいて、レイの方向にある物体(例えば、山、丘等)の位置に対応する距離をレイデプスが越えることを判定すると、レンダリングは行なわない。そのため、山の手前の雲はレンダリングされるが、山の後の雲はレンダリングされない。従って、山の後に位置する雲がレンダリングされて、山を隠してしまうことが防止され、地形図の3D画像に雲の3D画像を重畳して表示しても、後に位置する雲の3D画像が手前に位置する地形図の3D画像を隠すことが無い。
バーテックスシェーダ36、フラグメントシェーダ40の変形例を説明する。図11はバーテックスシェーダ36の動作の変形例を示し、図12はフラグメントシェーダ40の動作の変形例を示す。図11、図12において、図6、図7と同一部分は同一参照数字を付してその詳細な説明は省略する。図6のバーテックスシェーダ36は、カメラ座標系の頂点データを求めているが、変形例では、バーテックスシェーダ36ではなくフラグメントシェーダ40がカメラ座標系の頂点データを求める。
図11に示すように、バーテックスシェーダ36はカメラ座標系の頂点データを求めるブロック128を省略する。そのため、ブロック130Bで、バーテックスシェーダ36は、オブジェクト座標系の頂点データVpと、クリップ座標系の頂点データを出力する。これにより、バウンディングキューブを構成する12個のポリゴンの計36個の頂点データ(クリップ座標系とオブジェクト座標系)が得られる。
図12に示すように、フラグメントシェーダ40は、ブロック142Bで、バーテックスシェーダ36の出力の12個のポリゴンの計36個の頂点データ(クリップ座標系とオブジェクト座標系)をラスタライザ・補間回路38で処理した結果のフラグメントの頂点データを受け取る。
レイ開始点はカメラ座標系で設定することが好ましいので、ブロック148Bで、フラグメントシェーダ40は、(15)式に示すように、クリップ座標系の頂点データをカメラ座標系の頂点データに変換して、カメラ座標系の頂点データをカメラ座標系のレイ開始点(xs,ys,zs)として設定する。
頂点データ(カメラ座標系)
=プロジェクション行列の逆行列x頂点データ(クリップ座標系) (15)式
変形例によれば、バーテックスシェーダ36はカメラ座標系の頂点データを求めることを省略することができる。その代わり、フラグメントシェーダ40がクリップ座標系の頂点データをカメラ座標系の頂点データに変換する。他は、図6、図7の動作と同じであるので、上述した実施形態と同じ作用効果を得ることができる。
なお、本実施形態の処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。例えば、3Dボリュームデータと一緒に表示する3D画像は地形図に限らず、他の3Dボリュームデータをレンダリングした画像でもよい。
14…サーバ、16…クライアント端末、22…キーボード/マウス、24…ディスプレイ、26…GPU、28…デプスバッファ、30…ウェブブラウザ、36…バーテックスシェーダ、40…フラグメントシェーダ、44…ポリゴンジオメトリデータ、46…3Dボリュームデータ

Claims (10)

  1. 3Dボリュームデータに基づく第1画像および3Dデータに基づく第2画像を重畳して2次元表示するため情報処理装置であって、
    前記3Dデータをレンダリングして前記第2画像の視線方向における奥行きを求め、該奥行きを示すデプステクスチャを求めるデプスバッファ手段と、
    前記デプステクスチャが示す奥行きをデプスリミットとして前記3Dボリュームデータをレイキャスティングするレイキャスティング手段と、
    レイキャスティングの結果をレンダリングするレンダリング手段と、
    を具備する情報処理装置。
  2. 前記レイキャスティング手段は、
    前記3Dボリュームデータを囲むバウンディングキューブの各面を構成するポリゴンの頂点をオブジェクト座標系で示す頂点データをカメラ座標系あるいはクリップ座標系の頂点データに変換する第1の手段と、
    前記第1の手段から出力されるカメラ座標系あるいはクリップ座標系の頂点データからレイ開始点、レイ方向を決定し、レイ開始点を前記デプスリミットまでインクリメントしながら、レイ開始点の3Dボリュームデータを求める第2の手段と、
    を具備する請求項1記載の情報処理装置。
  3. レイキャスティングを行なうためにモデルビュー行列の3x3のサブセット行列の転置行列を用いてカメラ座標系のレイ方向をオブジェクト座標系のレイ方向に変換し、オブジェクト座標系のレイ方向を用いてレイキャスティングを1回行なう請求項2記載の情報処理装置。
  4. 前記第2の手段は、オブジェクト座標系のレイ開始点が前記バウンディングキューブの外部となると、レイ開始点のインクリメントを停止する請求項2記載の情報処理装置。
  5. 前記ポリゴンは三角形であり、前記バウンディングキューブは12個のポリゴンからなる請求項2記載の情報処理装置。
  6. 前記3Dデータは地形図を表すポリゴンジオメトリデータであり、
    前記デプスバッファ手段は、前記ポリゴンジオメトリデータをレンダリングして前記地形図の前記視線方向におけるクリップ空間上の奥行きを求める請求項1記載の情報処理装置。
  7. 前記レンダリング手段により得られ前記第1画像を前記第2画像に重ねて表示する手段をさらに具備する請求項記載の情報処理装置。
  8. 前記情報処理装置は、ネットワークを介してサーバに接続され、
    前記サーバは前記3Dデータと前記3Dボリュームデータとを格納し、前記情報処理装置からの要求に応じて前記3Dデータと前記3Dボリュームデータとを前記情報処理装置へ送信する請求項1記載の情報処理装置。
  9. 3Dデータをレンダリングして前記3Dデータが表す画像の視線方向における奥行きを求め、該奥行きを示すデプステクスチャを求めることと、
    前記デプステクスチャが示す奥行きをデプスリミットとして3Dボリュームデータをレイキャスティングすることと、
    レイキャスティングの結果をレンダリングすることと、
    を具備する方法。
  10. コンピュータにより実行されるプログラムであって、前記プログラムは、
    3Dデータをレンダリングして前記3Dデータが表す画像の視線方向における奥行きを求め、該奥行きを示すデプステクスチャを求めることと、
    前記デプステクスチャが示す奥行きをデプスリミットとして3Dボリュームデータをレイキャスティングすることと、
    レイキャスティングの結果をレンダリングすることと、
    を具備するものであるプログラム。
JP2014130281A 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム Active JP6223916B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130281A JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130281A JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016009374A JP2016009374A (ja) 2016-01-18
JP6223916B2 true JP6223916B2 (ja) 2017-11-01

Family

ID=55226875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130281A Active JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6223916B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109358852A (zh) * 2018-08-31 2019-02-19 惠州市德赛西威汽车电子股份有限公司 一种使用shader实现车载GUI换肤的方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140478B2 (ja) * 2017-09-04 2022-09-21 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム
CN110728744B (zh) * 2018-07-16 2023-09-19 海信视像科技股份有限公司 一种体绘制方法、装置及智能设备
CN113741835B (zh) * 2020-05-29 2024-05-24 北京嗨动视觉科技有限公司 走马灯效果实现方法和走马灯效果实现装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5379215A (en) * 1991-02-25 1995-01-03 Douglas P. Kruhoeffer Method for creating a 3-D image of terrain and associated weather
JP3556644B2 (ja) * 1993-09-14 2004-08-18 富士通株式会社 最接近点探索装置
US5480305A (en) * 1993-10-29 1996-01-02 Southwest Research Institute Weather simulation system
JP2006099422A (ja) * 2004-09-29 2006-04-13 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
JP5200736B2 (ja) * 2008-07-29 2013-06-05 富士通株式会社 予報装置、その方法及びプログラム
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109358852A (zh) * 2018-08-31 2019-02-19 惠州市德赛西威汽车电子股份有限公司 一种使用shader实现车载GUI换肤的方法
CN109358852B (zh) * 2018-08-31 2021-08-20 惠州市德赛西威汽车电子股份有限公司 一种使用shader实现车载GUI换肤的方法

Also Published As

Publication number Publication date
JP2016009374A (ja) 2016-01-18

Similar Documents

Publication Publication Date Title
JP6563048B2 (ja) スクリーンの位置によって異なる解像度のターゲットの複数レンダリングのテクスチャ・マッピングの傾き調整
JP6712366B2 (ja) 曲面ビューポート上に頂点の投影を近似することによる、グラフィックス処理における画面位置に基づく有効解像度の変化
CN111508052B (zh) 三维网格体的渲染方法和装置
KR101923562B1 (ko) 가변 렌더링 및 래스터화 파라미터 하에서 가변 뷰포트에 대하여 오브젝트를 효율적으로 리렌더링하는 방법
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
KR100443552B1 (ko) 가상 현실 구현 시스템 및 방법
US9275493B2 (en) Rendering vector maps in a geographic information system
JP4999711B2 (ja) 画像処理装置、画像処理方法
KR101359011B1 (ko) 지구 환경 3차원 가시화 시스템
JP6223916B2 (ja) 情報処理装置、方法及びプログラム
US8040352B2 (en) Adaptive image interpolation for volume rendering
Broecker et al. Adapting ray tracing to spatial augmented reality
Noguera et al. Volume rendering strategies on mobile devices
Jenny et al. Real-time raster projection for web maps
KR101118597B1 (ko) 모바일용 컴퓨터 그래픽 랜더링 방법 및 시스템
US20230206567A1 (en) Geometry-aware augmented reality effects with real-time depth map
KR20190067070A (ko) 가상 공간에서의 프로젝션 맵핑 시스템 및 방법
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
CN114020390A (zh) Bim模型显示方法、装置、计算机设备和存储介质
JP5846373B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、画像処理システム
JP2809955B2 (ja) グラフィックス・ワークステーションおよび三次元グラフィックス画像の生成方法
KR100691846B1 (ko) 3차원 그래픽 데이터 처리 방법 및 장치
Movania et al. Real-time volumetric lighting for webgl
US10453247B1 (en) Vertex shift for rendering 360 stereoscopic content
JP5898109B2 (ja) 画像合成装置、画像合成方法及び画像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171004

R151 Written notification of patent or utility model registration

Ref document number: 6223916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151