JP2016009374A - 情報処理装置、方法及びプログラム - Google Patents

情報処理装置、方法及びプログラム Download PDF

Info

Publication number
JP2016009374A
JP2016009374A JP2014130281A JP2014130281A JP2016009374A JP 2016009374 A JP2016009374 A JP 2016009374A JP 2014130281 A JP2014130281 A JP 2014130281A JP 2014130281 A JP2014130281 A JP 2014130281A JP 2016009374 A JP2016009374 A JP 2016009374A
Authority
JP
Japan
Prior art keywords
coordinate system
ray
depth
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014130281A
Other languages
English (en)
Other versions
JP6223916B2 (ja
Inventor
アンキット シャラマ
Sharma Ankit
アンキット シャラマ
暢康 中島
Nobuyasu Nakajima
暢康 中島
アルマン シモン アリ ジリエ
Armand Simon Mariami Girier
アルマン シモン アリ ジリエ
連秀 梁
Yeonsoo Yang
連秀 梁
裕之 山原
Hiroyuki Yamahara
裕之 山原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014130281A priority Critical patent/JP6223916B2/ja
Publication of JP2016009374A publication Critical patent/JP2016009374A/ja
Application granted granted Critical
Publication of JP6223916B2 publication Critical patent/JP6223916B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

【課題】3Dボリュームデータをレンダリングして得られた3D画像を他の3D画像に重ねて表示し、レンダリングにより得られた3D画像と他の3D画像をともに視認することができる情報処理装置、方法及びプログラムを提供すること。
【解決手段】実施形態によれば、3Dボリュームデータおよび3D画像を重畳して2次元表示するための画像を、クライント側のブラウザで作成する情報処理装置は、3D画像のデプステクスチャを求める手段と、視線方向におけるデプステクスチャまでのデプスをデプスリミットとして3Dボリュームデータをレイキャスティングする手段と、レイキャスティングの結果をレンダリングする手段とを具備する。
【選択図】図1

Description

本発明の実施形態は3次元画像表示に関する。
3次元(3Dと略称する)画像表示法には、3D画像を任意断面で表示するMPR(Multiplanar reconstruction)法と、3D画像を2次元(2Dと略称する)平面上に投影表示するレンダリング法の2種類がある。レンダリング法は、表面を表現するサーフェスレンダリングと、奥行き情報を活用するボリュームレンダリングの2種類がある。ボリュームレンダリングは、3Dボリュームデータから2D画像を作成するためにレイキャスティング技術を用いる。レイキャスティング技術は、カメラと3Dボリュームデータとの間に仮想スクリーンを配置し、仮想スクリーン上の2D画像の画素数と同数の光線(レイ)をカメラから3Dボリュームデータに対して照射し、各々のレイが通過する3Dボリュームデータの各点(ボクセル)の列であるボクセル列の各輝度値を追跡して、2D画像上の対応する画素値(色)とするものである。
モビーン・モバニア(Mobeen Movania)等著、「High-Performance Volume Rendering on the Ubitquitous Web GL Platform(ユビキタスWebGLプラットフォーム上の高性能ボリュームレンダリング)」、2014 IEEE 14th International Conference on High Performance Compuitng and Communications, pages 381-388
従来の3D表示処理では、3Dボリュームデータをレンダリングして得た3D画像を他の3D画像に重ねて表示すると、レンダリングにより得た3D画像が他の3D画像を隠してしまうという課題があった。
本発明の目的は、3Dボリュームデータをレンダリングして得られた3D画像を他の3D画像に重ねて表示し、レンダリングにより得られた3D画像と他の3D画像をともに視認することができる情報処理装置、方法及びプログラムを提供することである。
実施形態によれば、3Dボリュームデータおよび3D画像を重畳して2次元表示するための画像を、クライント側のブラウザで作成する情報処理装置は、3D画像のデプステクスチャを求める手段と、視線方向におけるデプステクスチャまでのデプスをデプスリミットとして3Dボリュームデータをレイキャスティングする手段と、レイキャスティングの結果をレンダリングする手段とを具備する。
実施形態のシステム構成の一例を示すブロック図である。 座標変換の概要を示す流れ図である。 ウェブブラウザの動作を示すフローチャートである。 デプスバッファの動作を示すフローチャートである。 カメラ座標系とオブジェクト座標系の関係を示す図である。 バーテックシェーダの動作の一例を示すフローチャートである。 フラグメントシェーダの動作の一例を示すフローチャートである。 ポリゴンジオメトリデータが示す地形図の一例を示す図である。 3Dボリュームデータが示す雲の一例を示す図である。 本実施形態による3Dボリュームデータのレンダリング結果をポリゴンジオメトリデータが示す地形図に重ねて表示する一例を示す図である。 バーテックシェーダの動作の変形例を示すフローチャートである。 フラグメントシェーダの動作の変形例を示すフローチャートである。
以下、図面を参照して実施形態を説明する。
図1は、第1の実施形態に係る情報処理装置の構成を示す。実施形態はネットワーク12を介してサーバ14に接続されるクライアント端末16を例にとり説明する。クライアント端末16は、デスクトップ型又はノートブック型のパーソナルコンピュータ、携帯型のパーソナルコンピュータ、その他の携帯型の情報機器、タブレット、スマートフォン、その他の情報処理装置など、様々なデバイスによって実現可能である。ここでは、ノートブック型のパーソナルコンピュータとする。図示しないが、ノートブック型のパーソナルコンピュータは、コンピュータ本体と、本体に対してヒンジによって開閉自在に取り付けられているディスプレイユニットとから構成される。コンピュータ本体は、薄い箱形の筐体を有しており、その上面には、キーボード、電源ボタン、タッチパッド等が配置されている。
クライアント端末16は、キーボード/マウス22、ディスプレイ24と、GPU(Graphic Processing Unit)26と、デプスバッファ28と、ウェブブラウザ30とを含む。キーボード/マウス22はディスプレイ24で表示される3D画像の視線方向及び位置を指定するためのものである。ウェブブラウザ30はHTML5ベースの制御アプリケーション32を含み、グラフィック関連のタグとしてのcanvas上で図形や画像を描画することができる。canvasタグを利用して描画処理を行うためのAPIを実装したオブジェクトしてWeb GLが知られており、本実施形態はWeb GLを利用する。
クライアント端末16は、ネットワーク12上のサーバ14に接続される。サーバ14は、3Dボリュームデータ46と、ポリゴンジオメトリデータ48を格納する。本実施形態は、気象情報の表示に関し、雲の3D画像を3D地形図上に重ねて表示する。3Dボリュームデータ46は、雲の状態を示す3D画像データであり、ポリゴンジオメトリデータ48は地形図を表わす3Dデータである。クライアント端末16は、それぞれのデータをレンダリングして、画面上で重畳する。本実施形態は、3Dボリュームデータのレンダリングにおいて、2つの画像の重畳を考慮したレイキャスティングを行なう。
クライアント端末16のウェブブラウザ30は、サーバ14に対して3D画像表示を要求する。サーバ14は要求に応じて必要なデータ44、46をクライアント端末16に送信する。サーバ14は3Dボリュームデータ46をテクスチャアトラスに変更してクライント端末16に送信する。ウェブブラウザ30は、受信したテクスチャアトラスの形式である3Dボリュームデータ46をGPU26に送る。テクスチャアトラスとは、3Dボリュームデータに含まれる複数の画像を1枚の画像に纏めたものであり、GPU26が読み込むファイル数が減り、ロード時間が短縮できるとともに、処理速度も向上する。例えば、3Dボリュームデータを均一な3Dグリッドにサンプルして、スライスして、スライスをイメージに並べることで、テクスチャアトラスが作成される。ウェブブラウザ30は、サーバ14から受信したポリゴンジオメトリデータ44をデプスバッファ28に送る。
3D形状を2D画面上に描画する際に、例えば三角形等の基本図形を用いる。基本図形をポリゴンと称し、ポリゴンは3次元空間内の頂点データにより定義される。
GPU26は、ポリゴンの頂点データを扱うバーテックスシェーダ36、頂点データに対して走査変換・補間等を行ない、実際に描画に使用される画素を求めるラスタライザ・補間回路38、描画される際の画素データを扱うフラグメントシェーダ(またはピクセルシェーダとも称される)40を含む。バーテックスシェーダ36、フラグメントシェーダ40はプログラマブルである。バーテックスシェーダ36は、頂点に関するデータを受け取り、最終的に頂点をどのように処理するのかを決定する。フラグメントシェーダ40は、画素をどのような色で出力するかを決定する。フラグメントシェーダ40は、レイキャスティング処理を実行する。レイキャスティング処理は、カメラと3Dボリュームデータとの間に仮想スクリーンを配置し、仮想スクリーン上の2D画像の画素数と同数の光線(レイ)をカメラから3Dボリュームデータに対して照射し、各々のレイが通過する3Dボリュームデータの各点(ボクセル)の列であるボクセル列の各輝度値を追跡して、2D画像上の対応する画素値(色)とするものである。
デプスバッファ28は、ポリゴンジオメトリデータ44が示す地形図の奥行き(視線方向において最初に存在する地形までの距離)を示すデプステクスチャを作成する。
Web GLでは、3次元画像を表示するために頂点データから画像を生成する一連の流れはレンダリングパイプラインと称される。レンダリングパイプラインは、頂点データと光源情報とを入力するモデリング変換・視野(ビュー)変換と、頂点の陰影計算と、プロジェクション変換と、クリッピングと、走査変換・補間と、合成とを含む。陰影計算には材質情報が使われてもよいし、合成にはテクスチャも使われてもよい。
モデリング変換・ビュー変換と陰影計算は、バーテックスシェーダ36で実行され、クリッピングと走査変換・補間はラスタライザ・補間回路38で実行され、走査変換により選ばれた画像の各画素の色を頂点の陰影の補間値やサンプリングしたテクスチャの値を合成(マージ)して決定することはフラグメントシェーダ40で実行される。バーテックスシェーダ36は頂点毎に処理し、フラグメントスシェーダ40は画素毎に処理する。
図2は本実施形態における座標変換を示す。3Dボリュームデータを2Dの画面上に表示するためには、座標変換が必要である。3Dボリュームデータ(3次元空間)のポリゴンの各頂点は、モデリング変換・ビュー変換や、プロジェクション変換等を経て画面上に描画される。
3Dボリュームデータの座標系はオブジェクト座標系52と呼ばれる。3D表示を行なうには、先ず3Dオブジェクトを作成し、それを回転・平行移動させて、2次元画面上に配置する。オブジェクト座標系52はモデリングの際にオブジェクトの頂点座標や法線を指定するための座標系である。オブジェクト座標系52は、描画オブジェクト基準の座標系であり、描画オブジェクト毎に座標系がある。オブジェクト座標系52はモデリング座標系あるいはローカル座標系とも呼ばれる。
オブジェクト座標系52は、モデルビュー行列54を用いてカメラ座標系56に変換される。カメラ座標系56は、視点の位置が原点となるカメラスペースの座標系であり、カメラが原点にあって、カメラの方向は−z軸方向である。オブジェクト座標系52をカメラ座標系56に変換するということは、物体を平行移動することを含む。
なお、実際には、オブジェクト座標系52からカメラ座標系56への変換は、モデリング変換とビューイング変換を含むが、実施形態では両変換を纏めてモデルビュー変換と称する。モデリング変換は、オブジェクト座標系から世界座標系への変換であり、ビューイング変換は、世界座標系からカメラ座標系への変換である。
世界座標系は空間内に配置される複数のオブジェクト座標系間を結び付けるための共通の座標系である。オブジェクトの配置(位置と姿勢)は世界座標系に対するオブジェクト座標系の座標変換(モデリング変換と称する)として表される。世界座標系の原点は取り扱うシーンを包含する静的な物体上に置かれることが一般的である。世界座標系はグローバル座標系とも呼称される。モデリング変換行列は、描画したい3Dオブジェクトの位置や、拡大縮小(スケーリング)の有無、そして回転しているかどうかを定義する。ビューイング変換行列は、三次元空間を撮影するカメラを定義するために、カメラの位置やカメラの向き等を定義する。
モデリング変換とビューイング変換はそれぞれ4×4の行列演算が必要であるが、これらはまとめてモデルビュー行列54により演算される。
モデルビュー行列54は次のような4×4の座標変換行列である。
Figure 2016009374
行列の要素m11〜m44は3D画像の視線方向及び位置を決めるカメラの向きや位置に応じてウェブブラウザ30により決定される。もし、拡大縮小が無しであれば、上記のモデルビュー行列54のm11〜m13、m21〜m23、m31〜m33までの3x3のサブセット行列が3次元での回転(rotation)を行なう回転行列である。そして、回転行列の逆行列(inverse)は転置行列(transpose)と同じである。回転行列の場合は、逆行列と転置行列が同じなので、逆回転のためには転置の行列が使われる。
下記のモデルビュー行列はx軸を中心に90度回転させる。
Figure 2016009374
例えば、[010]Tの3Dの点を上記の行列で回転させると、下記のようになる。
Figure 2016009374
そして、行列転置と[001]Tを掛け算すると、[010]Tは戻ってくる。
Figure 2016009374
カメラ座標系56は、プロジェクション行列58を用いてクリップ座標系60に変換される。クリップ座標系60は、レンダリングパイプラインで使われる座標系であり、いわゆる表示画面であるクリップ空間に3Dデータが投影された後の同次の座標系である。プロジェクション行列58はプロジェクション変換とも呼ばれるものであり、4×4の行列演算である。
この座標変換により、3次元空間内のオブジェクトを構成する各ポリゴンの頂点の2Dディスプレイ上の描画位置が決定される。
図3はウェブブラウザ30の動作を示す。ブロック102で、キーボード/マウス22からレイ方向がウェブブラウザ30に入力される。レイ方向はカメラ座標系のカメラの向きと位置から定義される。ブロック104で、ウェブブラウザ30は、レイ方向に基づいて数1のモデルビュー行列の各要素m11〜m44を決定し、モデルビュー行列を生成する。ブロック106で、ウェブブラウザ30は、レイ方向に基づいてプロジェクション行列を生成する。ウェブブラウザ30は、モデルビュー行列、プロジェクション行列をデプスバッファ28に送る。
デプスバッファ28は、ウェブブラウザ30からモデルビュー行列、プロジェクション行列を受け取ると、図4に示すように、先ず、ブロック112で、空のデプステクスチャを初期化する。ブロックB114で、デプスバッファ28は、デプステクスチャをフレームバッファにセットする。ポリゴンジオメトリデータ44は、サーバ44からウェブブラウザ30を介してデプスバッファ28に渡される。ブロックB116で、デプスバッファ28は、GPU26を用いてポリゴンジオメトリデータ44をフレームバッファ上にレンダリングする。これにより、クリップ空間上の地形図のz値(カメラから見た奥行き)が求められる。求められたz値はデプステクスチャ画像として出力される。
図5は、カメラ座標系とオブジェクト座標系の関係を示す。カメラから出たレイはディスプレイスクリーンを通過し、さらに3Dボリュームデータが示すオブジェクト(例えば、気象情報としての雲)を囲むバウンディングキューブを通過する。バウンディングキューブは6面体であり、各面の正方形は2つの三角形(ポリゴンと称される)からなる。そのため、バウンディングキューブは12個のポリゴンからなる。各ポリゴンは3つの頂点からなり、次のような頂点座標で定義される。
ポリゴン1 (0.0, 0.0, 0.0),(0.0, 1.0, 0.0),(1.0, 1.0, 0.0)
ポリゴン2 (1.0, 1.0, 0.0),(1.0, 0.0, 0.0),(0.0, 0.0, 0.0)
ポリゴン3 (0.0, 0.0, 1.0),(1.0, 0.0, 1.0),(1.0, 1.0, 1.0)
ポリゴン4 (1.0, 1.0, 1.0),(0.0, 1.0, 1.0),(0.0, 0.0, 1.0)
ポリゴン5 (0.0, 1.0, 0.0),(0.0, 1.0, 1.0),(1.0, 1.0, 1.0)
ポリゴン6 (1.0, 1.0, 1.0),(1.0, 1.0, 0.0),(0.0, 1.0, 0.0)
ポリゴン7 (0.0, 0.0, 0.0),(1.0, 0.0, 0.0),(1.0, 0.0, 1.0)
ポリゴン8 (1.0, 0.0, 1.0),(0.0, 0.0, 1.0),(0.0, 0.0, 0.0)
ポリゴン9 (0.0, 0.0, 0.0),(0.0, 0.0, 1.0),(0.0, 1.0, 1.0)
ポリゴン10 (0.0, 1.0, 1.0),(0.0, 1.0, 0.0),(0.0, 0.0, 0.0)
ポリゴン11 (1.0, 0.0, 0.0),(1.0, 1.0, 0.0),(1.0, 1.0, 1.0)
ポリゴン12 (1.0, 1.0, 1.0),(1.0, 0.0, 1.0),(1.0, 0.0, 0.0)
レイがバウンディングキューブのフロントフェイスと交差する点がレイ開始点(xs,ys,zs)であり、レイがバウンディングキューブのバックフェイスと交差する点がレイ終端(xe,ye,ze)である。レイ開始点(xs,ys,zs)はカメラ座標系である。カメラ座標系のレイ開始点(xs,ys,zs)は、(5)式に示すように、プロジェクション行列との演算によりクリップ座標系のレイ開始点に変換される。
レイ開始点(クリップ座標系)
=プロジェクション行列×(xs,ys,zs) (5)式
カメラはカメラ座標系の原点に位置するので、カメラ座標系のレイ開始点(xs,ys,zs)の情報があれば、レイ方向はレイ開始点の情報のみから求めることができる。オブジェクト座標系でレイ方向を求めるためには、レイ開始点(xs,ys,zs)とレイ終端(xe,ye,ze)が必要である(両者の差分がレイ方向となる)のに対して、本実施形態では、レイ方向を簡単に求めることができる。すなわち、カメラ座標系のレイ方向は、(6)式に示すように、レイ開始点(xs,ys,zs)の正規化により求められる。
レイ方向(カメラ座標系)=normalize(xs,ys,zs) (6)式
オブジェクト座標系のレイ方向は、(7)式に示すように、カメラ座標系のレイ方向normalize(xs,ys,zs)にモデルビュー行列の3x3のサブセット行列の転置行列を演算することにより求められる。
レイ方向(オブジェクト座標系)
=モデルビュー行列の3x3のサブセット行列の転置行列
xnormalize(xs,ys,zs) (7)式
カメラ座標系のレイの深さ(レイデプス)は、(8)式に示すように、カメラ座標系のレイ開始点(xs,ys,zs)の位置から演算することができる。
レイデプス(カメラ座標系)
=(tmp.z/tmp.w+1.0)/2.0 (8)式
ここで、tmp=プロジェクション行列×レイの位置(カメラ座標系)である。そのため、tmpは(x,y,z,w)の4x1の行列であり、tmp.zとtmp.wはtmpのz、wのコンポーネントである。
図6はバーテックスシェーダ36の動作を示す。バーテックスシェーダ36は、ブロックB122で、制御アプリケーション32からバウンディングキューブを構成する12個のポリゴンの計36個の頂点データVp(オブジェクト座標系)を受け取り、ブロック124で、モデルビュー行列とプロジェクション行列とを受け取る。モデルビュー行列とプロジェクション行列は全ての頂点に対して一律に適用される。
ブロック126で、バーテックスシェーダ36は、(9)式に示すように、オブジェクト座標系の頂点データVpをクリップ座標系の頂点データに変換する。
頂点データ(クリップ座標系)
=プロジェクション行列xモデルビュー行列x頂点データVp(オブジェクト座標系)
(9)式
ブロック128で、バーテックスシェーダ36は、(10)式に示すように、オブジェクト座標系の頂点データVpをカメラ座標系の頂点データに変換する。
頂点データ(カメラ座標系)
=モデルビュー行列x頂点データVp(オブジェクト座標系) (10)式
ブロック130で、バーテックスシェーダ36は、オブジェクト座標系の頂点データVpと、カメラ座標系の頂点データを出力する。これにより、バウンディングキューブを構成する12個のポリゴンの計36個の頂点データ(カメラ座標系とオブジェクト座標系)が得られる。これらの頂点データは、バーテックスシェーダ36からフラグメントシェーダ40に渡される。
図7は、フラグメントシェーダ40の動作を示す。
ブロック142で、フラグメントシェーダ40は、バーテックスシェーダ36の出力の12個のポリゴンの計36個の頂点データ(カメラ座標系とオブジェクト座標系)をラスタライザ・補間回路38で処理した結果のフラグメントの頂点データを受け取る。
ブロック144で、フラグメントシェーダ40は、デプステクスチャ画像dtexをデプスバッファ28から受け取る。
ブロック146で、フラグメントシェーダ40は、モデルビュー行列の3x3のサブセット行列の転置行列、3Dボリュームデータ、レイのステップサイズ、プロジェクション行列の逆行列を制御アプリケーション32から受け取る。モデルビュー行列の3x3のサブセット行列の転置行列、レイのステップサイズは全ての頂点に対して一律に適用される。
ブロック148で、フラグメントシェーダ40は、カメラ座標系の頂点データをカメラ座標系のレイ開始点(xs,ys,zs)として設定する。
ブロック150で、フラグメントシェーダ40は、オブジェクト座標系の頂点データをオブジェクト座標系のレイ開始点として設定する。
ブロック152で、フラグメントシェーダ40は、(11)式に示すように、カメラ座標系のレイ開始点を正規化し、カメラ座標系のレイ方向として設定する。
レイ方向(カメラ座標系)=normalize(xs,ys,zs) (11)式
ブロック154で、フラグメントシェーダ40は、(12)式に示すように、オブジェクト座標系のレイ方向を求める。
レイ方向(オブジェクト座標系)
=モデルビュー行列の3x3のサブセットの転置行列xレイ方向(カメラ座標系)
(12)式
フラグメントシェーダ40は、ブロック156で、レイデプス、ボリュームデータを初期化し、ブロック158で、デプステクスチャ画像からレイの方向にあるデプスを読み、読み取ったデプスをデプスリミットとして設定する。
ブロック160で、フラグメントシェーダ40は、オブジェクト座標系のレイ開始点の3Dボリュームデータの強度を求める。
ブロック162で、フラグメントシェーダ40は、上記した(8)式に示すように、カメラ座標系のレイデプスを求める。
フラグメントシェーダ40は、ブロック164で、(13)式に示すように、オブジェクト座標系のレイ開始点を、ブロック146で読み込んだステップサイズだけインクリメントし、ブロック166で、(14)式に示すように、カメラ座標系のレイ開始点をステップサイズだけインクリメントする。
レイ開始点(オブジェクト座標系)
=レイ開始点(オブジェクト座標系)
+レイ方向(オブジェクト座標系)xステップサイズ (13)式
レイ開始点(カメラ座標系)
=レイ開始点(カメラ座標系)+レイ方向(カメラ座標系)xステップサイズ
(14)式
以上により、オブジェクト座標系とカメラ座標系とのレイ開始点と、クリップ座標系のレイデプスを求めることができる。ブロック168で、フラグメントシェーダ40は、レイ開始点(オブジェクト座標系)<(1,1,1)であるか否か、及びレイデプス<デプスリミットであるか否かを判定する。これらの判定は、3Dボリュームデータをレンダリングするためのレイキャスティングの上限を判定するものである。オブジェクト座標系でのレイの位置(x、y、z)が全て1.0以下であることは、レイの位置がバウンディングキューブ内にあることを示す。カメラ座標系でのレイデプスがデプスリミット以下であることは、レイデプスがデプステクスチャ画像の手前であることを示す。そのため、ブロック168の2つの条件のいずれかが成立しない場合は、レイキャスティングを続けると、3Dボリュームデータのレンダリング画像である雲の画像がポリゴンジオメトリデータ44のデプステクスチャ画像である地形図を隠してしまうので、ブロック170に進む。ブロック168の2つの条件がともに成立する場合は、レイキャスティングを続けても、3Dボリュームデータの雲画像がポリゴンジオメトリデータ44の地形図を隠してしまうことがないので、ブロック160に戻り、レイキャスティングを続ける。
レイキャスティングが終了すると、フラグメントシェーダ40は、ブロック170で、3Dボリュームデータをレンダリング(視覚化)する。レンダリングの手法は、例えば最大投影(MIP)法、平均値投影法等があるが、これらに限定されず、何でも良い。
この実施形態によれば、図4に示すように、デプスバッファ28は、3Dボリュームデータのレイキャスティング前にポリコンジオメトリデータのデプスバッファを計算しておく。デプスバッファはフラグメントシェーダ40にテクスチャ引数として渡される。フラグメントシェーダ40は、このテクスチャ引数に基づいて、レイの方向にある物体(例えば、山、丘等)の位置に対応する距離をレイデプスが越えることを判定すると、レンダリングは行なわない。そのため、山の手前の雲はレンダリングされるが、山の後の雲はレンダリングされない。従って、山の後に位置する雲がレンダリングされて、山を隠してしまうことが防止され、地形図の3D画像に雲の3D画像を重畳して表示しても、後に位置する雲の3D画像が手前に位置する地形図の3D画像を隠すことが無い。
バーテックスシェーダ36、フラグメントシェーダ40の変形例を説明する。図11はバーテックスシェーダ36の動作の変形例を示し、図12はフラグメントシェーダ40の動作の変形例を示す。図11、図12において、図6、図7と同一部分は同一参照数字を付してその詳細な説明は省略する。図6のバーテックスシェーダ36は、カメラ座標系の頂点データを求めているが、変形例では、バーテックスシェーダ36ではなくフラグメントシェーダ40がカメラ座標系の頂点データを求める。
図11に示すように、バーテックスシェーダ36はカメラ座標系の頂点データを求めるブロック128を省略する。そのため、ブロック130Bで、バーテックスシェーダ36は、オブジェクト座標系の頂点データVpと、クリップ座標系の頂点データを出力する。これにより、バウンディングキューブを構成する12個のポリゴンの計36個の頂点データ(クリップ座標系とオブジェクト座標系)が得られる。
図12に示すように、フラグメントシェーダ40は、ブロック142Bで、バーテックスシェーダ36の出力の12個のポリゴンの計36個の頂点データ(クリップ座標系とオブジェクト座標系)をラスタライザ・補間回路38で処理した結果のフラグメントの頂点データを受け取る。
レイ開始点はカメラ座標系で設定することが好ましいので、ブロック148Bで、フラグメントシェーダ40は、(15)式に示すように、クリップ座標系の頂点データをカメラ座標系の頂点データに変換して、カメラ座標系の頂点データをカメラ座標系のレイ開始点(xs,ys,zs)として設定する。
頂点データ(カメラ座標系)
=プロジェクション行列の逆行列x頂点データ(クリップ座標系) (15)式
変形例によれば、バーテックスシェーダ36はカメラ座標系の頂点データを求めることを省略することができる。その代わり、フラグメントシェーダ40がクリップ座標系の頂点データをカメラ座標系の頂点データに変換する。他は、図6、図7の動作と同じであるので、上述した実施形態と同じ作用効果を得ることができる。
なお、本実施形態の処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。例えば、3Dボリュームデータと一緒に表示する3D画像は地形図に限らず、他の3Dボリュームデータをレンダリングした画像でもよい。
14…サーバ、16…クライアント端末、22…キーボード/マウス、24…ディスプレイ、26…GPU、28…デプスバッファ、30…ウェブブラウザ、36…バーテックスシェーダ、40…フラグメントシェーダ、44…ポリゴンジオメトリデータ、46…3Dボリュームデータ

Claims (10)

  1. 3Dボリュームデータおよび3D画像を重畳して2次元表示するための画像を、クライント側のブラウザで作成する情報処理装置であって、
    前記3D画像のデプステクスチャを求めるデプスバッファ手段と、
    視線方向におけるデプステクスチャまでのデプスをデプスリミットとして前記3Dボリュームデータをレイキャスティングするレイキャスティング手段と、
    レイキャスティングの結果をレンダリングするレンダリング手段と、
    を具備する情報処理装置。
  2. 前記レイキャスティング手段は、
    前記3Dボリュームデータを囲むバウンディングキューブの各面を構成するポリゴンの頂点をオブジェクト座標系で示す頂点データをカメラ座標系あるいはクリップ座標系の頂点データに変換する第1の手段と、
    前記第1の手段から出力されるカメラ座標系あるいはクリップ座標系の頂点データからレイ開始点、レイ方向を決定し、レイ開始点を前記デプスリミットまでインクリメントしながら、レイ開始点の3Dボリュームデータを求める第2の手段と、
    を具備する請求項1記載の情報処理装置。
  3. レイキャスティングを行なうためにモデルビュー行列の3x3のサブセット行列の転置行列を用いてカメラ座標系のレイ方向をオブジェクト座標系のレイ方向に変換し、オブジェクト座標系のレイ方向を用いてレイキャスティングを1回行なう請求項2記載の情報処理装置。
  4. 前記第2の手段は、オブジェクト座標系のレイ開始点が前記バウンディングキューブの外部となると、レイ開始点のインクリメントを停止する請求項2記載の情報処理装置。
  5. 前記ポリゴンは三角形であり、前記バウンディングキューブは12個のポリゴンからなる請求項2記載の情報処理装置。
  6. 前記デプスバッファ手段は、ポリゴンジオメトリデータをレンダリングし、地形図の視線方向におけるクリップ空間上の奥行きを求める請求項1記載の情報処理装置。
  7. 前記レンダリング手段により得れらた画像を前記3D画像に重ねて表示する手段をさらに具備する請求項1記載の情報処理装置。
  8. 前記情報処理装置は、ネットワークを介してサーバに接続され、
    前記サーバは前記3D画像と前記3Dボリュームデータとを格納し、前記情報処理装置からの要求に応じて前記3D画像と前記3Dボリュームデータとを前記情報処理装置へ送信する請求項1記載の情報処理装置。
  9. 3D画像のデプステクスチャを求めることと、
    視線方向におけるデプステクスチャまでのデプスをデプスリミットとして3Dボリュームデータをレイキャスティングすることと、
    レイキャスティングの結果をレンダリングすることと、
    を具備する方法。
  10. コンピュータにより実行されるプログラムであって、前記プログラムは、
    3D画像のデプステクスチャを求めることと、
    視線方向におけるデプステクスチャまでのデプスをデプスリミットとして3Dボリュームデータをレイキャスティングすることと、
    レイキャスティングの結果をレンダリングすることと、
    を具備するものであるプログラム。
JP2014130281A 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム Active JP6223916B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130281A JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130281A JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016009374A true JP2016009374A (ja) 2016-01-18
JP6223916B2 JP6223916B2 (ja) 2017-11-01

Family

ID=55226875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130281A Active JP6223916B2 (ja) 2014-06-25 2014-06-25 情報処理装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6223916B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム
CN110728744A (zh) * 2018-07-16 2020-01-24 青岛海信电器股份有限公司 一种体绘制方法、装置及智能设备
CN113741835A (zh) * 2020-05-29 2021-12-03 北京嗨动视觉科技有限公司 走马灯效果实现方法和走马灯效果实现装置
CN113741835B (zh) * 2020-05-29 2024-05-24 北京嗨动视觉科技有限公司 走马灯效果实现方法和走马灯效果实现装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109358852B (zh) * 2018-08-31 2021-08-20 惠州市德赛西威汽车电子股份有限公司 一种使用shader实现车载GUI换肤的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5379215A (en) * 1991-02-25 1995-01-03 Douglas P. Kruhoeffer Method for creating a 3-D image of terrain and associated weather
JPH09504388A (ja) * 1993-10-29 1997-04-28 サウスウエスト、リサーチ、インスティテュート 気象シミュレーションシステム
JP2002312409A (ja) * 1993-09-14 2002-10-25 Fujitsu Ltd 最接近点探索装置
JP2006099422A (ja) * 2004-09-29 2006-04-13 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
JP2010032383A (ja) * 2008-07-29 2010-02-12 Fujitsu Ltd 予報装置、その方法及びプログラム
JP2012517652A (ja) * 2009-02-13 2012-08-02 ハリス コーポレイション シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合
JP2012517651A (ja) * 2009-02-13 2012-08-02 ハリス コーポレイション 2d電子光学的画像データに対する3d点群データの登録

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5379215A (en) * 1991-02-25 1995-01-03 Douglas P. Kruhoeffer Method for creating a 3-D image of terrain and associated weather
JP2002312409A (ja) * 1993-09-14 2002-10-25 Fujitsu Ltd 最接近点探索装置
JPH09504388A (ja) * 1993-10-29 1997-04-28 サウスウエスト、リサーチ、インスティテュート 気象シミュレーションシステム
JP2006099422A (ja) * 2004-09-29 2006-04-13 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
JP2010032383A (ja) * 2008-07-29 2010-02-12 Fujitsu Ltd 予報装置、その方法及びプログラム
JP2012517652A (ja) * 2009-02-13 2012-08-02 ハリス コーポレイション シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合
JP2012517651A (ja) * 2009-02-13 2012-08-02 ハリス コーポレイション 2d電子光学的画像データに対する3d点群データの登録

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
細川潤哉, 外2名: ""3次元テクスチャによる森林景観のレンダリング法"", 情報処理学会研究報告, vol. 第95巻, 第47号, JPN6017022606, 22 May 1995 (1995-05-22), JP, pages 29 - 34, ISSN: 0003582345 *
長船俊: ""FPGAを使った3Dグラフィックス表示システムの設計事例"", INTERFACE, vol. 第31巻, 第6号, JPN6017022604, 1 June 2005 (2005-06-01), JP, pages 79 - 86, ISSN: 0003582344 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム
CN110728744A (zh) * 2018-07-16 2020-01-24 青岛海信电器股份有限公司 一种体绘制方法、装置及智能设备
CN110728744B (zh) * 2018-07-16 2023-09-19 海信视像科技股份有限公司 一种体绘制方法、装置及智能设备
CN113741835A (zh) * 2020-05-29 2021-12-03 北京嗨动视觉科技有限公司 走马灯效果实现方法和走马灯效果实现装置
CN113741835B (zh) * 2020-05-29 2024-05-24 北京嗨动视觉科技有限公司 走马灯效果实现方法和走马灯效果实现装置

Also Published As

Publication number Publication date
JP6223916B2 (ja) 2017-11-01

Similar Documents

Publication Publication Date Title
JP6563048B2 (ja) スクリーンの位置によって異なる解像度のターゲットの複数レンダリングのテクスチャ・マッピングの傾き調整
JP6712366B2 (ja) 曲面ビューポート上に頂点の投影を近似することによる、グラフィックス処理における画面位置に基づく有効解像度の変化
KR101923562B1 (ko) 가변 렌더링 및 래스터화 파라미터 하에서 가변 뷰포트에 대하여 오브젝트를 효율적으로 리렌더링하는 방법
US10068311B2 (en) Varying effective resolution by screen location by changing active color sample count within multiple render targets
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
KR100443552B1 (ko) 가상 현실 구현 시스템 및 방법
CN111508052B (zh) 三维网格体的渲染方法和装置
US9275493B2 (en) Rendering vector maps in a geographic information system
KR101724360B1 (ko) 혼합현실 디스플레이 장치
KR101359011B1 (ko) 지구 환경 3차원 가시화 시스템
JP2009134681A (ja) 画像処理装置、画像処理方法
US8040352B2 (en) Adaptive image interpolation for volume rendering
Noguera et al. Volume rendering strategies on mobile devices
RU2422902C2 (ru) Двумерная/трехмерная комбинированная визуализация
JP6223916B2 (ja) 情報処理装置、方法及びプログラム
KR20070008707A (ko) 그래픽 파이프라인, 그래픽 렌더링 방법, 컴퓨터 및 그래픽디스플레이 디바이스
KR101118597B1 (ko) 모바일용 컴퓨터 그래픽 랜더링 방법 및 시스템
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
US20230206567A1 (en) Geometry-aware augmented reality effects with real-time depth map
CN114020390A (zh) Bim模型显示方法、装置、计算机设备和存储介质
JP5846373B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、画像処理システム
Seng et al. Realistic real-time rendering of 3D terrain scenes based on OpenGL
JP2809955B2 (ja) グラフィックス・ワークステーションおよび三次元グラフィックス画像の生成方法
KR100691846B1 (ko) 3차원 그래픽 데이터 처리 방법 및 장치
JP7190780B1 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171004

R151 Written notification of patent or utility model registration

Ref document number: 6223916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151