JP4857601B2 - シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体 - Google Patents

シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP4857601B2
JP4857601B2 JP2005143611A JP2005143611A JP4857601B2 JP 4857601 B2 JP4857601 B2 JP 4857601B2 JP 2005143611 A JP2005143611 A JP 2005143611A JP 2005143611 A JP2005143611 A JP 2005143611A JP 4857601 B2 JP4857601 B2 JP 4857601B2
Authority
JP
Japan
Prior art keywords
frame
image
image data
information
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005143611A
Other languages
English (en)
Other versions
JP2006323450A (ja
Inventor
久史 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2005143611A priority Critical patent/JP4857601B2/ja
Publication of JP2006323450A publication Critical patent/JP2006323450A/ja
Application granted granted Critical
Publication of JP4857601B2 publication Critical patent/JP4857601B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、シミュレーション画像を生成する技術に関する。
美術工芸品などの立体物のデジタル化保存観察手段として、バーチャルリアリティ技術を用いることによって、任意の観察位置や照明条件の下での対象物の見えを対話的に再現することが出来る。
ここでのバーチャルリアリティ技術とは、美術工芸品などの実物の立体物を実写で計測して得た三次元データ(対象物の三次元形状データや対象物表面の性状を示すマテリアル情報とテクスチャ画像などからなり、三次元シーン内で対象物表面を表すもの)をもとに、観察位置や照明条件などに基づいたリアルタイム画像生成(レンダリング)処理を行うことによって自由な視点移動や対象物の操作などの仮想体験を実現しようというものである。
仮想体験のリアリティを向上させるには、映像の画質に加えて、視点移動などに追従した動きの滑らかさなどのリアルタイム性が重要である。しかしながら、対象物の細部までを正確に再現しようとすると、三次元形状データや、テクスチャ画像のデータ量が増大し、レンダリング処理速度の低下を招くことになる。
また、表示品質を最優先する場合には、リアルタイムレンダリング(バーチャルリアリティ)技術を用いずに、長時間を要する高精度レンダリングによって静止画や動画を生成することになるが、この場合にはバーチャルリアリティの特徴である対話的機能は実現できない。
このように、バーチャルリアリティ技術を用いる場合では、レンダリング処理の結果得られる画像(以後、結果画像とも云う)の正確さや詳細度を向上させるためには、三次元形状データの詳細化やテクスチャ画像の高精度化が必要であり、その結果として、レンダリング処理速度の低下を招き、他方、レンダリング処理のリアルタイム性を確保するためには、データ量の削減などによって詳細度を抑える結果として、対象物の細部や微妙な質感の十分な再現が困難である。
ところで、画面全体の色調変換のような結果画像の画素を対象とする処理の負荷は、当然ながら、三次元形状データの詳細度には無関係であり、一定時間で実行することができる。
しかしながら、このようなレンダリング後の処理は、RGB画像などの画像データに基づいた色変換、輝度変換、フィルタ処理などに限定され、有用性の高い照明再現や質感再現などの三次元データに基づいた処理は実行できない。
本発明は斯かる背景技術に鑑みてなされたもので、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にすることを課題とする。
本発明において上記課題を達成するために、まず第1の発明では、コンピュータが、少なくとも記憶装置、画像生成演算部、画像出力部を備え、該記憶装置に三次元データが記憶され、該データを元に該画像生成演算部で動画の各フレーム毎にレンダリング処理を行い、前記各フレームに対応する画像データを生成し、該画像出力部が前記生成した画像データを含む動画ファイルを出力し、
シミュレーション画像生成装置が、少なくとも操作部、制御部、動画再生部、画像演算部、記憶装置を備え、
該制御部は、操作部で入力される照明条件から光源を設定し、操作部で指定される動画シーケンスの最初のフレームを着目フレームと設定し、
該動画再生部は、前記制御部で設定したフレームに対応する前記動画ファイルの情報から、
動画の各フレームに属する色画像データを動画における各フレームの順序に従って並べた情報である色画像シーケンス、
動画の各フレームに属するデプス画像データを動画における各フレームの順序に従って並べた情報であるデプス画像シーケンス、
動画の各フレームに属する法線画像データを動画における各フレームの順序に従って並べた情報である法線画像シーケンス、
動画の各フレームに属するマテリアル画像における各フレームの順序に従って並べた情報であるマテリアル画像シーケンス、
動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、画像における各フレームの順序に従って並べた情報であるカメラ情報シーケンス、
スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報を格納したリストであるマテリアルリスト、の中から一つ以上の情報を読み出し、
該画像演算部は、該記憶装置に記憶された、演算部における演算の内容を定義する演算プログラムが画像演算部に以下の工程を行わせ
(1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
(2)当該着目画素Sについて前記着目フレームの色画像データから、
Sにおける拡散反射光色を読み出す工程
(3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
(4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
(5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
(6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
(7)前記点Pに対する光源の位置ベクトルVを求める工程、
(8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
(9)前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
(10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
(11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
前記動画再生部で読み出した前記情報とから、レンダリング処理を行い、前記各フレームを再生してディスプレイに表示することを特徴とする、照明・質感シミュレーション画像生成装置としたものである。
請求項2の発明では、請求項1に記載のシミュレーション画像生成装置が実行する方法であって、
コンピュータの記憶装置に三次元データが記憶される工程と、該データを元に動画の各フレーム毎にレンダリング処理を行い、前記各フレームに対応する画像データを生成する工程と、前記生成した画像データを含む動画ファイルを出力する工程と、
シミュレーション画像生成装置は、入力される照明条件から光源を設定する工程と、指定される動画シーケンスの最初のフレームを着目フレームと設定する工程と、
設定したフレームに対応する前記動画ファイルの情報から、
動画の各フレームに属する色画像データを動画における各フレームの順序に従って並べた情報である色画像シーケンス、
動画の各フレームに属するデプス画像データを動画における各フレームの順序に従って並べた情報であるデプス画像シーケンス、
動画の各フレームに属する法線画像データを動画における各フレームの順序に従って並べた情報である法線画像シーケンス、
動画の各フレームに属するマテリアル画像における各フレームの順序に従って並べた情報であるマテリアル画像シーケンス、
動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、画像における各フレームの順序に従って並べた情報であるカメラ情報シーケンス、
スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報を格納したリストであるマテリアルリスト、の中から一つ以上の情報を読み出す工程と、
記憶装置に記憶された、演算部における演算の内容を定義する演算プログラムが画像演算部に以下の工程を行わせ
(1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
(2)当該着目画素Sについて前記着目フレームの色画像データから、
Sにおける拡散反射光色を読み出す工程
(3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
(4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
(5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
(6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
(7)前記点Pに対する光源の位置ベクトルVを求める工程、
(8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
(9)前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
(10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
(11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
前記動画再生部で読み出した前記情報とから、前記各フレームを再生してディスプレイに表示する工程を含むことを特徴とする、照明・質感シミュレーション画像生成方法としたものである。
請求項3の発明では、請求項1において前記動画ファイルが、
前記色画像シーケンス、前記デプス画像シーケンス、前記法線画像シーケンス、前記マテリアル画像シーケンス、前記カメラ情報シーケンス、前記マテリアルリストの何れか一以上を含み、前記コンピュータの画像出力部と、前記ブラウザ装置の動画再生部へ、前記動画ファイルが、記憶媒体またはネットワークを介して入力されることを特徴とする、照明・質感シミュレーション画像生成装置としたものである。
請求項4の発明では、請求項2において前記動画ファイルが、
前記色画像シーケンス、前記デプス画像シーケンス、前記法線画像シーケンス、前記マテリアル画像シーケンス、前記カメラ情報シーケンス、前記マテリアルリストの何れか一以上を含み、前記コンピュータの画像出力部と、前記ブラウザ装置の動画再生部へ、前記動画ファイルが、記憶媒体またはネットワークを介して入力されることを特徴とする照明・質感シミュレーション画像生成方法としたものである。
請求項5の発明では、請求項1に記載の照明・質感シミュレーション画像生成装置で行われる演算プログラムが、画像演算部に以下の工程を行わせることを特徴とする演算プログラムとしたものである。
(1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
(2)当該着目画素Sについて前記着目フレームの色画像データから、
Sにおける拡散反射光色を読み出す工程
(3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
(4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
(5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
(6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
(7)前記点Pに対する光源の位置ベクトルVを求める工程、
(8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
)前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
また請求項6の発明では、請求項5に記載の演算プログラムを記録した記録媒体としたものである。
請求項1から4の発明では、静止画像について、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にするという効果がある。
請求項1から4の発明では、動画像について、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にするという効果がある。
請求項5及び6の発明では、請求項に記載のシミュレーション装置に、画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求める演算を実行させることができるという効果がある。
以下に、本発明の最良の一実施形態を説明する。
本実施形態には、図1に示すように、コンピュータと、ブラウザ装置とディスプレイとを備えるシミュレーション画像生成装置とが係わる。
コンピュータは、このコンピュータの備える記憶装置に、三次元データと、カメラパスデータとを記憶し、また、プログラムを実行することにより、画像生成演算部と、画像出力部とを有する。
ブラウザ装置は、このブラウザ装置の備える記憶装置に演算プログラムを記憶し、また、操作部と、制御部と、動画再生部と、画像演算部とを有し、さらに、画像演算部はディスプレイに接続している。
記憶媒体又はネットワークを介して、画像出力部から動画再生部へ、動画ファイルが入力される。動画ファイルは、色画像シーケンスと、デプス画像シーケンスと、法線画像シーケンスと、マテリアル画像シーケンスと、カメラ情報シーケンスと、マテリアルリストとを含む。
まず、コンピュータについて説明する。
三次元データは、対象物の三次元形状データや対象物表面の性状を示すマテリアル情報とテクスチャ画像などから構成され、三次元シーン内で対象物表面を表す。三次元データは、美術工芸品などの実物の立体物を実写で計測して得たものであっても良いし、コンピュータを利用して架空の立体物を描いて得たものであっても良い。
カメラパスデータは、三次元シーン内の視点位置、視線回転角(視線方向)、視野角からなるカメラ情報を、一つ一つ、時間的な順序に従って並べた情報から構成される。それぞれの時間のカメラ情報は、それぞれの時間における三次元シーン内の視点(カメラ)操
作を表しており、これらの視点(カメラ)操作によって、三次元データが表す対象物を、三次元シーン内で撮影することで、動画が得られる。この動画は、カメラによって撮影されたフレームと呼ばれる静止画を、撮影順に並べたものである。
画像生成演算部は、三次元データと、カメラパスデータとに基づいて、動画の各フレーム毎に、それぞれのフレームに対応する時間のカメラ情報に基づく周知の方法によるレンダリング処理を行い、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成する。
色画像データは、図2に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における反射光の色(RGBそれぞれの反射率)を示す情報である。但し、照明条件やカメラ情報などの環境条件によって変化する陰影や表面反射などの成分を含まない。
デプス画像データは、図3に示すように、スクリーン上の各画素毎に、視点から、各画素それぞれの位置に対応する対象物表面の対応点までの一次元的な距離情報(デプス値D)を示す情報である。このデプス値Dは、スクリーン座標系を用いて表される。
法線画像データは、図4に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における法線ベクトルN(Nx,Ny,Nz)を示す情報である。この法線ベクトルN(Nx,Ny,Nz)は、三次元シーン座標系を用いて表される。
マテリアル画像データは、図5に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報が格納されたマテリアルリストの参照番号を示す情報である。マテリアル情報は、RGB各色についての鏡面反射率、拡散反射率を含む。また、マテリアル情報は、レンダリング処理に用いられたものでもある。
画像出力部は、色画像シーケンスと、デプス画像シーケンスと、法線画像シーケンスと、マテリアル画像シーケンスと、カメラ情報シーケンスと、マテリアルリストとを含む動画ファイルを出力する。ここで、色画像シーケンスとは、動画の各フレームに属する色画像データを、動画における各フレームの順序に従って並べた情報である。また、デプス画像シーケンスとは、動画の各フレームに属するデプス画像データを、動画における各フレームの順序に従って並べた情報である。また、法線画像シーケンスとは、動画の各フレームに属する法線画像データを、動画における各フレームの順序に従って並べた情報である。また、マテリアル画像シーケンスとは、動画の各フレームに属するマテリアル画像を、動画における各フレームの順序に従って並べた情報である。また、カメラ情報シーケンスとは、動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、動画における各フレームの順序に従って並べた情報である。また、マテリアルリストは、レンダリング処理に用いられたマテリアル情報を、格納したリストである。
ここで、図6を参照しながら、三次元データの記述に用いる三次元シーン座標系と、スクリーン座標系との関係について述べる。
バーチャルリアリティ技術において、三次元シーンから画像を生成するには、透視投影として知られる座標変換によって三次元シーン内の各座標点をスクリーン座標に変換し、遠近感のある映像を生成する方法が一般的である。また、座標変換後の座標点のスクリーン奥行き方向に沿っての位置を示す値が、デプス値である。
本実施形態では、視点Aを用いた画像生成の際に、三次元シーンの中の点P(X,Y,Z)を、スクリーン上の点S(Xs,Ys)およびデプス値Dに変換する関数を、
(Xs,Ys,D)=F(X,Y,Z)とする。
また、この逆関数を、(X,Y,Z)=Finv(Xs,Ys,D)とする。
これらの変換関数F()、Finv()は、視点位置、視線回転角(視線方向)、視野角などの視点操作によって定まるもので、視点操作によって変化する。
次に、ブラウザ装置について説明する。
操作部は、再生する動画シーケンスを指定する情報を、ユーザに入力させ、また、照明条件を始め、演算プログラムの実行に必要なシミュレーション条件を、ユーザに入力させる。ここで、動画シーケンスは、フレームを再生する順に並べたものである。
再生する動画シーケンスを指定する情報は、例えば、時間的に前に撮影された特定の一つのフレームから、時間的に後に撮影された特定の一つのフレームまでの間に撮影された各フレームを、撮影順に再生することを指定するものであっても良い。また、例えば、時間的に後に撮影された特定の一つのフレームから、時間的に前に撮影された特定の一つのフレームまでの間に撮影された各フレームを、撮影とは逆の順序で再生することを指定するものであっても良い。また、例えば、特定の一つのフレームだけを再生することを指定するものであっても良い。
制御部は、操作部からの入力に基づいて、動画シーケンスの再生制御と、照明条件を始め演算プログラムの実行に必要な処理条件の設定と、動画再生部および画像演算部の制御とを行う。
動画再生部は、動画ファイル内の各シーケンスから、動画シーケンスを構成する各フレーム毎の色画像データとデプス画像データと法線画像データとマテリアル画像データとカメラ情報とを順次再生し、また、動画ファイルからマテリアルリストを読み出して、各フレーム毎の各画像データとカメラ情報とを、マテリアルリストと共に画像演算部に渡す。
画像演算部は、動画再生部から渡された各フレーム毎のデータに対して、演算プログラムに基づく演算を行うことにより、各フレームを再生して、ディスプレイに表示する。演算ロジックの高速ハードウェア化によって、高精細動画のリアルタイム処理を行っても良い。
演算プログラムは、画像演算部における演算の内容を定義する。
以下、照明シミュレーションのために、ブラウザ装置が実行する処理の流れの例を、図7を参照しながら、図8のフローチャートに従って、説明する。
S(STEP)1;
制御部は、操作部から入力された照明条件に基づいて、三次元シーン内の座標(Xl,Yl,Zl)に、光度Iの無指向性の自然点光源を置く。これにより、光源から距離Lにおける照度は、E=I/L2として表されることとなる。
S(STEP)2;
制御部は、操作部から入力された情報で指定される動画シーケンスの最初のフレームを
着目フレームとする。
S(STEP)3;
動画再生部は、動画ファイル内の各シーケンスから、着目フレームの色画像データとデプス画像データと法線画像データとマテリアル画像データとカメラ情報とを再生し、また、動画ファイルからマテリアルリストを読み出して、着目フレームの各画像データとカメラ情報とを、マテリアルリストと共に画像演算部に渡す。
S(STEP)4;
画像演算部は、スクリーン上の最初の画素を、着目画素S(Xs,Ys)とする。
S(STEP)5;
画像演算部は、着目フレームの色画像データから、着目画像S(Xs,Ys)における拡散反射光色(R,G,B)を読み出す。
S(STEP)6;
画像演算部は、着目フレームのデプス画像データから、着目画素S(Xs,Ys)におけるデプス値Dを読み出す。
S(STEP)7;
画像演算部は、着目フレームの法線画像データから、着目画素S(Xs,Ys)における法線ベクトルN(Nx,Ny,Nz)を読み出す。
S(STEP)8;
画像演算部は、着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数Finv()を決定する。
S(STEP)9;
画像演算部は、着目画素S(Xs,Ys)に対応する対象物表面の三次元シーン座標点P(X,Y,Z)=Finv(Xs,Ys,D)を求める。
S(STEP)10;
画像演算部は、P(X,Y,Z)に対する、光源(Xl,Yl,Zl)の位置ベクトルV(Vx,Vy,Vz)=(Xl,Yl,Zl)−(X,Y,Z)を求める。
S(STEP)11;
画像演算部は、位置ベクトルVの長さ、すなわち、光源と座標点Pとの距離をL=|V|とし、光源から着目画素Sに対応する対象表面への光の入射角をθとして、Cosθ=(Vx・Nx+Vy・Ny+Vz・Nz)/Lを求める。
S(STEP)12;
画像演算部は、着目画素S(Xs,Ys)に表示されるべき、着目フレームの画素値をR’,G’,B’として、(R’,G’,B’)=E’(R,G,B)を求める。ここで、E’は、着目画素Sに対応する対象物表面の照度であって、周知の照度計算式により、E’=I・Cosθ/L2である。
S(STEP)13;
画像演算部は、スクリーン上の全ての画素について、着目フレームの画素値を求めたか否かを確かめ、
スクリーン上の全ての画素について、着目フレームの画素値を求めてない場合、STE
P14に進み、
スクリーン上の全ての画素について、着目フレームの画素値を求めた場合、STEP15に進む。
S(STEP)14;
画像演算部は、スクリーン上で着目画素S(Xs,Ys)の次の画素を、新たに、着目画素S(Xs,Ys)とし、その後、STEP5に戻る。
S(STEP)15;
画像演算部は、スクリーン上の各画素における着目フレームの画素値に基づいて、着目フレームを、ディスプレイに表示する。
S(STEP)16;
制御部は、操作部から入力された情報で指定される動画シーケンスの全てのフレームが、ディスプレイに表示されたか否かを確かめ、
全てのフレームがディスプレイに表示されてない場合、STEP17に進み、
全てのフレームがディスプレイに表示された場合、ENDに進む。
S(STEP)17;
制御部は、操作部から入力された情報で指定される動画シーケンスの中で、着目フレームの次のフレームを、新たに、着目フレームとし、その後、STEP3に戻る。
演算プログラムで、以下の(1)〜(4)に示す内容の演算を、画像演算装置に行わせるように、定義しても良い。
(1)マテリアル画像に含まれる、鏡面反射率を用いることによって、前述の照明シミュレーションに鏡面反射成分を加えても良い。
(2)デプス値の増加に伴って、表示画素値を減ずることにより、手前を明るく浮き上がらせる奥行き効果を加えても良い。
(3)デプス値に応じて「ぼかし量」を変えたぼかしフィルタ処理を行うことによって、被写界深度効果を加えても良い。具体的には、焦点位置に対応するデプス値に対しては「ぼかし量」を0とし、デプス値が焦点位置から離れるに従って「ぼかし量」を増大させる。
(4)対象物の部位毎にマテリアルを変えておくことで、マテリアル単位の部分的な色や質感の変更処理を行っても良い。
以上の説明から分かるように、本実施形態では、三次元データから得られる各種の情報を、三次元データの精細度には非依存な最終画像の解像度のみに依存した形式で記録再生することによって、静止画あるいは動画形式の高精細映像に対して、照明再現や質感再現を含めた、各種の対話的シミュレーションの実行を可能にするものである。
本実施形態に係わる各装置の構成を説明する図。 色画像データを説明する図。 デプス画像データを説明する図。 法線画像データを説明する図。 マテリアル画像データを説明する図。 三次元シーン座標系とスクリーン座標系との関係を説明する図。 照明シミュレーションの例を説明する図。 照明シミュレーションのために、ブラウザ装置が実行する処理の流れの例を示すフローチャート。

Claims (6)

  1. コンピュータが、少なくとも記憶装置、画像生成演算部、画像出力部を備え、該記憶装置に三次元データが記憶され、該データを元に該画像生成演算部で動画の各フレーム毎にレンダリング処理を行い、前記各フレームに対応する画像データを生成し、該画像出力部が前記生成した画像データを含む動画ファイルを出力し、
    シミュレーション画像生成装置が、少なくとも操作部、制御部、動画再生部、画像演算部、記憶装置を備え、
    該制御部は、操作部で入力される照明条件から光源を設定し、操作部で指定される動画シーケンスの最初のフレームを着目フレームと設定し、
    該動画再生部は、前記制御部で設定したフレームに対応する前記動画ファイルの情報から、
    動画の各フレームに属する色画像データを動画における各フレームの順序に従って並べた情報である色画像シーケンス、
    動画の各フレームに属するデプス画像データを動画における各フレームの順序に従って並べた情報であるデプス画像シーケンス、
    動画の各フレームに属する法線画像データを動画における各フレームの順序に従って並べた情報である法線画像シーケンス、
    動画の各フレームに属するマテリアル画像における各フレームの順序に従って並べた情報であるマテリアル画像シーケンス、
    動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、画像における各フレームの順序に従って並べた情報であるカメラ情報シーケンス、
    スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報を格納したリストであるマテリアルリスト、の中から一つ以上の情報を読み出し、
    該画像演算部は、該記憶装置に記憶された、演算部における演算の内容を定義する演算プログラムが画像演算部に以下の工程を行わせ
    (1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
    (2)当該着目画素Sについて前記着目フレームの色画像データから、
    Sにおける拡散反射光色を読み出す工程
    (3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
    (4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
    (5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
    Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
    (6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
    (7)前記点Pに対する光源の位置ベクトルVを求める工程、
    (8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
    (9)前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
    (10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
    (11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
    前記動画再生部で読み出した前記情報とから、レンダリング処理を行い、前記各フレームを再生してディスプレイに表示することを特徴とする、照明・質感シミュレーション画像生成装置。
  2. 請求項1に記載のシミュレーション画像生成装置が実行する方法であって、
    コンピュータの記憶装置に三次元データが記憶される工程と、該データを元に動画の各フレーム毎にレンダリング処理を行い、前記各フレームに対応する画像データを生成する工程と、前記生成した画像データを含む動画ファイルを出力する工程と、
    シミュレーション画像生成装置は、入力される照明条件から光源を設定する工程と、指定される動画シーケンスの最初のフレームを着目フレームと設定する工程と、
    設定したフレームに対応する前記動画ファイルの情報から、
    動画の各フレームに属する色画像データを動画における各フレームの順序に従って並べた情報である色画像シーケンス、
    動画の各フレームに属するデプス画像データを動画における各フレームの順序に従って並べた情報であるデプス画像シーケンス、
    動画の各フレームに属する法線画像データを動画における各フレームの順序に従って並べた情報である法線画像シーケンス、
    動画の各フレームに属するマテリアル画像における各フレームの順序に従って並べた情報であるマテリアル画像シーケンス、
    動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、画像における各フレームの順序に従って並べた情報であるカメラ情報シーケンス、
    スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報を格納したリストであるマテリアルリスト、の中から一つ以上の情報を読み出す工程と、
    記憶装置に記憶された、演算部における演算の内容を定義する演算プログラムが画像演算部に以下の工程を行わせ
    (1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
    (2)当該着目画素Sについて前記着目フレームの色画像データから、
    Sにおける拡散反射光色を読み出す工程
    (3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
    (4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
    (5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
    Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
    (6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
    (7)前記点Pに対する光源の位置ベクトルVを求める工程、
    (8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
    (9)前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
    (10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
    (11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
    前記動画再生部で読み出した前記情報とから、前記各フレームを再生してディスプレイに表示する工程を含むことを特徴とする、照明・質感シミュレーション画像生成方法。
  3. 請求項1において前記動画ファイルが、
    前記色画像シーケンス、前記デプス画像シーケンス、前記法線画像シーケンス、前記マテリアル画像シーケンス、前記カメラ情報シーケンス、前記マテリアルリストの何れか一以上を含み、前記コンピュータの画像出力部と、前記ブラウザ装置の動画再生部へ、前記動画ファイルが、記憶媒体またはネットワークを介して入力されることを特徴とする、照明・質感シミュレーション画像生成装置。
  4. 請求項2において前記動画ファイルが、
    前記色画像シーケンス、前記デプス画像シーケンス、前記法線画像シーケンス、前記マテリアル画像シーケンス、前記カメラ情報シーケンス、前記マテリアルリストの何れか一以上を含み、前記コンピュータの画像出力部と、前記ブラウザ装置の動画再生部へ、前記動画ファイルが、記憶媒体またはネットワークを介して入力されることを特徴とする照明・質感シミュレーション画像生成方法。
  5. 請求項1に記載の照明・質感シミュレーション画像生成装置で行われる演算プログラムが、画像演算部に以下の工程を行わせることを特徴とする演算プログラム。
    (1)入力された照明条件と着目フレームから、スクリーン上の最初の画素を着目画素Sとする工程、
    (2)当該着目画素Sについて前記着目フレームの色画像データから、
    Sにおける拡散反射光色を読み出す工程
    (3)前記着目フレームのデプス画像データからSにおけるデプス値Dを読み出す工程
    (4)前記着目フレームの法線画像データからSにおける法線ベクトルNを読み出す工程、
    (5)前記着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数を、S(Xs,Ys)に対応する対象物表面の三次元シーン座標点Pから、
    Finv(Xs,Ys,D)=P(X,Y,Z)を決定する工程、
    (6)前記着目画素Sに対応する対象物表面の三次元シーン座標点Pを前記Finv(Xs,Ys,D)から求める工程、
    (7)前記点Pに対する光源の位置ベクトルVを求める工程、
    (8)前記位置ベクトルVの長さと前記法線ベクトルNから、光の入射角であるCosθを求める工程、
    )前記着目画素Sに表示されるべき、前記着目フレームの画素値(R’、G’、B’)を求める工程、
    10)着目フレーム中の全ての画素について画素値を求めて着目フレームをディスプレイに表示する工程、
    11)動画シーケンスの全てのフレームがディスプレイに表示されるまで上記(1)〜(10)を繰り返す。
  6. 請求項5に記載の演算プログラムを記録した記録媒体。
JP2005143611A 2005-05-17 2005-05-17 シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体 Expired - Fee Related JP4857601B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005143611A JP4857601B2 (ja) 2005-05-17 2005-05-17 シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005143611A JP4857601B2 (ja) 2005-05-17 2005-05-17 シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2006323450A JP2006323450A (ja) 2006-11-30
JP4857601B2 true JP4857601B2 (ja) 2012-01-18

Family

ID=37543109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005143611A Expired - Fee Related JP4857601B2 (ja) 2005-05-17 2005-05-17 シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4857601B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8113800B2 (en) 2005-04-14 2012-02-14 Sanden Corporation Scroll fluid machine

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021097845A1 (zh) * 2019-11-22 2021-05-27 驭势(上海)汽车科技有限公司 一种仿真场景的图像生成方法、电子设备和存储介质
CN111861873B (zh) * 2020-07-20 2023-12-29 北京航天飞行控制中心 仿真图像的生成方法和装置
KR102336156B1 (ko) * 2021-03-03 2021-12-07 (주)디피어소시에이츠 초고화질 이미지 구현 방법 및 시스템
WO2022186417A1 (ko) * 2021-03-03 2022-09-09 (주)디피어소시에이츠 초고화질 이미지를 이용한 실감형 컨텐츠 제공 방법 및 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2784842B2 (ja) * 1990-08-28 1998-08-06 大日本印刷株式会社 三次元物体のフォームファクタ演算装置
JPH06231274A (ja) * 1993-02-04 1994-08-19 Toppan Printing Co Ltd 3次元シミュレーション方法及び装置
JPH1049706A (ja) * 1996-07-31 1998-02-20 Matsushita Electric Ind Co Ltd 情報編集装置、情報再生装置、及び情報編集再生装置
JP2000259859A (ja) * 1999-03-10 2000-09-22 Dainippon Printing Co Ltd 3次元商品情報表示装置及び記録媒体
JP4167390B2 (ja) * 2000-11-20 2008-10-15 日本電気株式会社 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8113800B2 (en) 2005-04-14 2012-02-14 Sanden Corporation Scroll fluid machine

Also Published As

Publication number Publication date
JP2006323450A (ja) 2006-11-30

Similar Documents

Publication Publication Date Title
US11721071B2 (en) Methods and systems for producing content in multiple reality environments
JP3725524B2 (ja) コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ
US8130330B2 (en) Immersive surround visual fields
CN111656407A (zh) 对动态三维模型的视图进行融合、纹理化和绘制
JP5025496B2 (ja) 画像処理装置及び画像処理方法
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
JP3625184B2 (ja) ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置
JP7459870B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI238977B (en) Method and apparatus for generating new images by using image data that vary along time axis
JP4857601B2 (ja) シミュレーション画像生成装置、方法、演算プログラム、及びそのプログラムを記録した記録媒体
US11328437B2 (en) Method for emulating defocus of sharp rendered images
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
US20030080961A1 (en) System for generating a synthetic scene
Stephenson Essential RenderMan®
US11380048B2 (en) Method and system for determining a spectral representation of a color
CA3116076C (en) Method and system for rendering
US11677928B1 (en) Method for image processing of image data for varying image quality levels on a two-dimensional display wall
KR102654323B1 (ko) 버추얼 프로덕션에서 2차원 이미지의 입체화 처리를 위한 방법, 장치 및 시스템
WO2024105281A1 (en) A method and a process for displaying video files for immersive experience without real-time rendering
Mihara et al. Photorealistic Reproduction with Anisotropic Reflection on Mobile Devices using Densely Sampled Images.
Björketun Compositing alternatives to full 3D: Reduce render times of static objects in a moving sequence using comp
Selan Merging live video with synthetic imagery
CN115375824A (zh) 一种基于rgbd全景视频的交互式的全景空间光线跟踪方法
CN113096025A (zh) 编辑图像的方法及图像编辑系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110830

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R150 Certificate of patent or registration of utility model

Ref document number: 4857601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees