JP2015072565A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2015072565A JP2015072565A JP2013207421A JP2013207421A JP2015072565A JP 2015072565 A JP2015072565 A JP 2015072565A JP 2013207421 A JP2013207421 A JP 2013207421A JP 2013207421 A JP2013207421 A JP 2013207421A JP 2015072565 A JP2015072565 A JP 2015072565A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- subject
- virtual space
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Generation (AREA)
Abstract
【課題】 CGを用いてより適切に被写体および被写体への写り込みを再現する。
【解決手段】 光線追跡法を用いてオブジェクトを有する仮想空間に基づいてCG画像を生成する画像処理装置であって、視点と第1のオブジェクトとの距離を第1の距離として取得する第1の取得手段と、視点から放出した光線が第1のオブジェクト上を反射した後の経路上にある第2のオブジェクトと第1のオブジェクトとの距離を第2の距離として取得する第2の取得手段と、ローパスフィルタによるフィルタ処理を用いて算出し、CG画像を出力する処理手段とを有し、前記処理手段は、第1の距離に応じたローパスフィルタにより第1のオブジェクトを示す画像に対して第一のフィルタ処理した結果と、第2の距離に応じたローパスフィルタにより第2のオブジェクトを示す画像に対して第二のフィルタ処理した結果とに基づいて、前記画素値を算出することを特徴とする画像処理装置。
【選択図】 図2
【解決手段】 光線追跡法を用いてオブジェクトを有する仮想空間に基づいてCG画像を生成する画像処理装置であって、視点と第1のオブジェクトとの距離を第1の距離として取得する第1の取得手段と、視点から放出した光線が第1のオブジェクト上を反射した後の経路上にある第2のオブジェクトと第1のオブジェクトとの距離を第2の距離として取得する第2の取得手段と、ローパスフィルタによるフィルタ処理を用いて算出し、CG画像を出力する処理手段とを有し、前記処理手段は、第1の距離に応じたローパスフィルタにより第1のオブジェクトを示す画像に対して第一のフィルタ処理した結果と、第2の距離に応じたローパスフィルタにより第2のオブジェクトを示す画像に対して第二のフィルタ処理した結果とに基づいて、前記画素値を算出することを特徴とする画像処理装置。
【選択図】 図2
Description
本発明は、コンピュータグラフィックス(以下、CG)を用いて被写体と被写体に写り込む周辺環境を表した画像を生成する技術に関する。
CG画像において被写体への周辺環境が写り込んでいる様子を再現する技術がある。特に、記録媒体上への印刷物の仕上がりを再現してモニタに表示するソフトプルーフでは、CGを用いて印刷物への写り込みを再現する技術が必要とされている。例えば特許文献1には、印刷メディアそのものの光沢成分を制御することにより、印刷メディア面に照明が写り込む様子をシミュレーションする手法が開示されている。
実際には、カメラや人の目で見た場合には被写界深度があり、焦点位置よりも手前や奥の被写体はぼけて見える。しかしながら特許文献1に記載された方法によれば、CG画像においてどの被写界深度でも、被写体上の写り込みがくっきりと再現されているため、不自然な画像となる場合がある。そこで本発明は、CGを用いてより適切に被写体および被写体への写り込みを再現することを目的とする。
上記課題を解決するため本発明は、光線追跡法を用いて、オブジェクトを有する仮想空間に基づいてCG画像を生成する画像処理装置であって、前記仮想空間における視点と前記仮想空間における第1のオブジェクトとの距離を第1の距離として取得する第1の取得手段と、前記仮想空間において、前記視点から放出した光線が前記第1のオブジェクト上を反射した後の経路上にある第2のオブジェクトと前記第1のオブジェクトとの距離を第2の距離として取得する第2の取得手段と、CG画像における画素値を、ローパスフィルタによるフィルタ処理を用いて算出し、CG画像を出力する処理手段とを有し、前記処理手段は、前記第1の距離に応じたローパスフィルタにより前記第1のオブジェクトを示す画像に対して第一のフィルタ処理した結果と、前記第2の距離に応じたローパスフィルタにより前記第2のオブジェクトを示す画像に対して第二のフィルタ処理した結果とに基づいて、前記画素値を算出することを特徴とする。
本発明によれば、CGを用いてより適切に被写体および被写体への写り込みを再現することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<第1実施形態>
図1は、第1実施形態に適用可能な画像処理装置110のハードウェア構成の一例を示す図である。入力装置101は、ユーザーからの指示の受け付けや、データを入力する装置である。例えば、キーボードやマウスなどのポインティングシステムである。表示装置102は、GUIなどを表示する装置で、通常はCRTや液晶ディスプレイなどのモニタを表す。蓄積装置103は、画像データ、プログラムを蓄積する装置である。通常蓄積装置103には、ハードディスクが用いられる。CPU104は、上述した各構成における処理を制御する。RAM105は、各構成における処理に必要なプログラム、データ、作業領域などを保持している。CPU104はRAM105からプログラム等を受け取り、実行することにより各構成を制御する。また、後述するフローチャートの処理に必要なプログラムは、蓄積装置103に格納されているものとし、一旦RAM105に読み込まれてからCPU104により実行される。なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。
図1は、第1実施形態に適用可能な画像処理装置110のハードウェア構成の一例を示す図である。入力装置101は、ユーザーからの指示の受け付けや、データを入力する装置である。例えば、キーボードやマウスなどのポインティングシステムである。表示装置102は、GUIなどを表示する装置で、通常はCRTや液晶ディスプレイなどのモニタを表す。蓄積装置103は、画像データ、プログラムを蓄積する装置である。通常蓄積装置103には、ハードディスクが用いられる。CPU104は、上述した各構成における処理を制御する。RAM105は、各構成における処理に必要なプログラム、データ、作業領域などを保持している。CPU104はRAM105からプログラム等を受け取り、実行することにより各構成を制御する。また、後述するフローチャートの処理に必要なプログラムは、蓄積装置103に格納されているものとし、一旦RAM105に読み込まれてからCPU104により実行される。なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。
図2は、第1実施形態に適用可能な画像処理装置112の機能構成を示す図である。図2に示される構成は、画像処理アプリケーションソフトウェアとして実現される。すなわち、CPU104により蓄積装置103に格納された各種ソフトウェア(コンピュータプログラム)を動作させることで実現される。
画像処理装置112は、仮想空間における被写体をCG画像に再現する。図7は仮想空間の一例を示しており、被写体701、照明702、視点703が含まれる。このとき、被写体701には被写体701以外のオブジェクトである照明702が写り込んでいる。本実施形態では、視点703から被写体701を見た画像をCG画像として生成する。特に、被写体701に写り込む照明702をCG画像上に再現し、自然な画像出力する。
パラメータ取得部201は、CG画像生成に必要な仮想空間における各種パラメータを蓄積装置103もしくは入力装置101から取得する。ここではパラメータ取得部201は、被写体情報と照明情報と視点情報を取得する。被写体情報とは、仮想空間に設置された被写体701および仮想空間を構成する物、例えば周辺環境の壁や天井に関する形状データとマテリアルデータを含む。形状データは、被写体の形状を1つの点が三次元座標で示される点群を立体形状として三角形で結んだ面として面要素化したデータである。(式1参照)
PN={p1,p2,…,pn}
pi=(xi,yi,zi) (i=1,2,…,n) 式1
マテリアルデータは、被写体の色、反射/透過特性を示す式もしくはテクスチャ画像である。詳細は後述する。また、照明情報は仮想空間を照明する光源の位置、角度毎の放射輝度を含む。視点情報は、視点位置の三次元座標、視点方向のベクトル値、フォーカスを合わせるピント距離、被写界深度の厚みを距離で表した被写界深度距離を含む。パラメータ取得部201は、取得した被写体情報、視点情報、照明情報を被写体画像生成部202および環境画像生成部203に出力する。また、視点情報はパラメータ取得部201により出力画像生成部204にも送られる。
PN={p1,p2,…,pn}
pi=(xi,yi,zi) (i=1,2,…,n) 式1
マテリアルデータは、被写体の色、反射/透過特性を示す式もしくはテクスチャ画像である。詳細は後述する。また、照明情報は仮想空間を照明する光源の位置、角度毎の放射輝度を含む。視点情報は、視点位置の三次元座標、視点方向のベクトル値、フォーカスを合わせるピント距離、被写界深度の厚みを距離で表した被写界深度距離を含む。パラメータ取得部201は、取得した被写体情報、視点情報、照明情報を被写体画像生成部202および環境画像生成部203に出力する。また、視点情報はパラメータ取得部201により出力画像生成部204にも送られる。
被写体画像生成部202は、被写体情報と視点情報と照明情報とに基づいて、被写体画像と被写体距離マップを生成する。図8(a)は図7の仮想空間において生成される被写体画像である。視点703から見える光景をRGBに対応する画素値で表すカラー画像である。被写体距離マップは、視点703と被写体との距離を画素値として示した画像である。図8(b)は、図8(a)に対応する被写体距離マップである。被写体画像生成部2020は、生成した被写体画像および被写体距離マップを出力画像生成部204に出力する。
環境画像生成部203は、被写体情報と視点情報と照明情報に基づいて、環境画像と環境距離画像を生成する。環境画像とは、被写体を中心とした仮想空間全周囲の光景をRGBに対応する画素値で表すカラー画像である。図8(c)は図7が示す仮想空間において生成される環境画像である。環境距離マップは、被写体を中心とした仮想空間全周囲の距離を画素値で表した画像である。図8(d)は、図8(c)に対応する環境距離マップである。環境画像生成部203は、環境画像と環境距離マップを出力画像生成部204に出力する。
出力画像生成部204は、被写体画像、被写体距離マップ、環境画像、環境距離マップ、視点情報に基づいて出力画像を生成する。出力画像生成部204は、環境距離マップに応じて環境マップに対してフィルタ処理を行うことにより、仮想空間における視点からの被写界深度を再現する。出力画像生成部204から出力されたCG画像は、表示装置102もしくは蓄積装置103に出力される。
図3は、画像処理装置112において実行される画像処理の全体の流れを示すフローチャートである。実際には、以下に示す手順を記述したコンピュータ実行可能なプログラムを蓄積装置103等からRAM105上に読み込んだ後に、CPU104によって該プログラムを実行することによって当該処理が実行される。
ステップS301においてパラメータ取得部201は、仮想環境における被写体情報、照明情報、視点情報を取得する。次にステップS302において被写体画像生成部202は、被写体画像および被写体距離マップを生成する。詳細な生成方法については後述する。ステップS303において環境画像生成部203は、環境画像および環境距離マップを生成する。ステップS304において出力画像生成部204は、出力画像を生成する。ステップS305において出力画像生成部204は、生成した出力画像を表示装置102もしくは蓄積装置103に出力し、処理を終了する。
ここでステップS302における被写体画像および被写体距離マップの生成処理について、その詳細を説明する。本実施形態ではレイトレーシング手法を用いる方法を説明するが、これに限らずスキャンライン手法でも良い。図4は、被写体画像生成処理のフローチャートを示す。
ステップS401において被写体画像生成部202は、被写体情報、視点情報、照明情報を読み込む。ステップS402において、視点703から放出する光線の方向を決定する。光線を放出する方向は、ステップS401で取得した視点情報に含まれる視点位置の三次元座標、視点方向のベクトル値から決定する。
ステップS403では、ステップS402において決定された方向に光線を飛ばし光線追跡処理を行うことにより、被写体画像における1画素分のRGB値と被写体距離マップにおける1画素分の画素値を算出する。光線追跡処理詳細はさらに後述する。
ステップS404では、全画素の処理が終了したかを判定し、終了していなければステップS402に戻り、終了していれば処理を終了する。
図5は、図4におけるステップS403の光線追跡処理を説明したフローチャートである。光線追跡処理では、以下で説明するフローを再帰的に呼び出し、光線ごとに算出した放射輝度の平均を求めることで、各画素の画素を算出する。
ステップS500において、視点703から放出された光線が仮想空間における何らかの物体と交差する点(以下、交差点)を探索する。ここでいうオブジェクトとは、被写体701や照明702など仮想空間内に存在するあらゆる物体である可能性を含む。追跡の開始点は、光線放出の始点である視点703、もしくは交差点の探索が、光線が既に1回以上オブジェクトに交差している場合は光線と仮想空間内に存在するオブジェクトとの交差点である。
ステップS501において、ステップS500における探索が視点703を始点としているかどうかを判定する。視点703が始点である場合はステップS502に進み、視点703以外が始点である場合はステップS503に進む。
ステップS502において、ステップS500において探索された光線と被写体701との交差点と視点703との距離を算出する。この距離を示す値が被写体距離マップの画素値になる。
ステップS503において、ステップS500において探索された交差点が、光源である照明702かその他のオブジェクトかを判定する。光源との交差点である場合はステップS508に移行し、光源以外のオブジェクトとの交差点である場合はステップS504に移行する。
ステップS504では、光線が交差したオブジェクトの反射特性を取得する。
以下、生成した光線の数だけ下記ステップS505及びステップS506をループする。
ステップS505において、光線と光源以外のオブジェクトとの交差点から反射光の方向と強度を算出する。光線の方向は均等に分布すればよく、反射光の強度Pr(λγ)は式2、透過光の強度Pt(λt)は式3により算出する。P0(λi)はオブジェクトと交差する直前の光線の強度である。frはオブジェクトの反射特性、ftはオブジェクトの透過特性である。オブジェクトの反射特性frおよび透過特性ftは、オブジェクト上の位置xにおいて、方向ωiから入射する光の波長λiと方向ωγに反射する光の波長λtによって表される。反射特性frおよび透過特性ftはステップS401で取得した被写体情報に含まれるマテリアルデータを参照して得られる。
Pr(λt)=P0(λi)*fγ(x,ωi,λγ,ωγ) 式2
Pt(λt)=P0(λi)*ft(x,ωi,λt,ωt) 式3
ステップS506において、図5で示す光線追跡処理を再帰的に呼び出す。
Pt(λt)=P0(λi)*ft(x,ωi,λt,ωt) 式3
ステップS506において、図5で示す光線追跡処理を再帰的に呼び出す。
ステップS507において、全発射光線に対しての計算が完了したかどうかを判定する。完了していれば処理を終了し、していなければ、次の光線の追跡処理を行う。
ステップS508において、光線の強度と交差した光源の光源特性データとから、光線の放射輝度を算出する。ここで、光源特性データとは、光源からの光線の射出方向と光線の強度の関係を表したものであり、取得した照明情報を参照する。
以上説明した光線追跡処理を用いた被写体画像生成処理により、被写体画像と被写体距離マップを生成する。
次に、ステップ303において実行される環境画像生成処理について説明する。環境画像および環境距離マップは、被写体701への写り込み画像を導出するために用いられる。光線追跡法によれば、視点703から放出された光が被写体に交差した後、さらにその光線の経路上にあるオブジェクトが、視点703から被写体701を見たときに被写体に写り込む画像である。そこで環境画像生成処理では、被写体701の中心からの仮想空間の全周囲の画像を示す環境画像を生成する。図9は環境画像生成処理を説明する図である。環境画像生成処理では、被写体701の中心901から放射状かつ等間隔に光線を放出する。被写体701から放出した光線がオブジェクト(図9では仮想空間の壁)との交差した点902におけるRGB値をオブジェクトのマテリアルデータから参照し、環境画像の画素値とする。つまり、被写体701から放出した光線の経路上に存在する被写体701以外のオブジェクトの画素値が環境画像の画素値となる。また、その際の交差した点902と被写体中心901との距離を算出し、環境距離マップの画素値とする。
次にステップS304において実行される出力画像生成処理の詳細を説明する。図6は、出力画像生成処理のフローチャートを示す。ステップS601において出力画像生成処理部204は、被写体画像生成部202から被写体画像と被写体距離マップを取得し、環境画像生成部203から環境画像と環境距離マップを取得する。出力画像生成処理部204はさらに、パラメータ取得部20から視点情報を取得する。
ステップ602において、処理対象とする画素[x,y]を被写体画像から選択する。例えば、図10(a)は被写体画像であり、画素1001を選択した画素とする。
ステップS603において、ステップS602において選択した処理対象とする画素の画素位置に対応する被写体位置へ写り込む環境画像の座標[x’,y’]を算出する。図10(b)は仮想空間の構成を示している。画素1001に対応する被写体位置は交差点1002であるとすると、交差点1002に写り込む環境画像の画素位置を算出する。図10(b)において、交差点1002に写り込む環境画像の画素位置は、被写体701上で反射した光線が壁と交差する交差点1003の位置である。算出方法は、視点703から交差点1002に光線を放出し、交差点1002において正反射をする方向の3次元ベクトルを取得する。この3次元ベクトルと周辺環境との交差する点を探索することにより、環境画像における交差点1003の座標位置を算出する。
ステップS604において、第1ローパスフィルタのパラメータを決定する。第1ローパスフィルタは被写体画像に対して実行するフィルタ処理に用いられる。第1ローパスフィルタによるフィルタ処理により、被写体画像のぼけ具合を調整する。ここでは、第1ローパスフィルタのパラメータはフィルタサイズとして説明する。なお、実装上第1ローパスフィルタのフィルタサイズが固定の場合には、フィルタの重み係数を制御することにより同様の処理が可能である。第1ローパスフィルタのパラメータであるフィルタサイズδは、式4により決められる。ピント距離Lは視点情報に含まれるピント距離から得られる。視点703から被写体701までの距離Dは、ステップS601で取得した被写体距離マップの画素値を参照し、被写界深度の深さDepthは視点情報に含まれる被写界深度距離を参照する。関数fBは図11に示されるようにXと共に値が増加する傾向の関数である。つまり第1ローパスフィルタのパラメータは、被写体距離とピント距離Lとの差が大きいほどr1は大きい値となる。
ステップS605において、第2ローパスフィルタのパラメータを決定する。第2ローパスフィルタは、環境画像を対象とするフィルタ処理に用いられる。第2ローパスフィルタを用いたフィルタ処理により、被写体に写り込む周辺環境のぼけ具体を調整する。第2ローパスフィルタのパラメータは式5によって算出される。距離Dsは、被写体701と被写体701へ写り込む周辺環境との距離であり、環境距離マップの画素値を参照する。第2ローパスフィルタのパラメータは、被写体距離Dと距離Dsとの合計とピント距離との差分が大きいほど大きい値となる。
ステップS606において、出力画像生成部204は、式6に基づいて出力画像を構成する処理対象画素の画素値を算出する。式6の第1項は被写体画像に対する第1のローパスフィルタを用いたフィルタ処理である。また第2項は、被写体701に写り込む環境画像に対する第2のローパスフィルタを用いたフィルタ処理である。出力画像における画素値は、2つのフィルタ処理結果の値を加算した結果である。加算の重みづけ係数αは、被写体表面の反射率に従って定められる定数であり、被写体情報に含まれるマテリアルデータを参照する。
ImageOUT[x,y]=(1−α)×LPF(r1,ImageObj[x,y])+α×LPF(r2,Imagesurround[x′,y′])
r1:ステップ604で算出した第1ローパスフィルタのパラメータ
r2:ステップ604で算出した第1ローパスフィルタのパラメータ
ImageObj:被写体画像
Imagesurround:環境画像
式6
ステップS607では、全画素の処理が終了したかを判定し、終了していなければステップS602に進み、終了していれば出力画像生成処理を終了する。
r1:ステップ604で算出した第1ローパスフィルタのパラメータ
r2:ステップ604で算出した第1ローパスフィルタのパラメータ
ImageObj:被写体画像
Imagesurround:環境画像
式6
ステップS607では、全画素の処理が終了したかを判定し、終了していなければステップS602に進み、終了していれば出力画像生成処理を終了する。
図12は、本実施形態による処理の効果を説明する図である。図12(c)および(d)は、従来手法による出力画像を模擬している。従来手法では、視点から被写体までの距離のみに応じて被写体画像のみに対してフィルタ処理を行うことにより、視点からの距離に応じた見えを再現する手法が用いられてきた。その結果、被写体と写り込みにそれぞれに対して同じフィルタ処理が施される。そのため、図12(c)が示すようピントが被写体位置であっても写り込みにもピントが合ったり、図12(d)示すようにピントが写り込み環境の位置であっても写り込んだ環境画像にはピントが合わない画像となる。
図12(a)および図12(b)は、本実施形態によって得られる出力画像を示す。ピントが被写体に合うように設定された場合、ピント距離Lと被写体距離Dとの差分は小さくなる。その結果、第1ローパスフィルタのパラメータr1の方が、第2ローパスフィルタのパラメータr2よりも小さい値となる。つまり、第2ローパスフィルタの方が、第1ローパスフィルタよりもローパス特性が強いフィルタとなる。被写体に写り込む画像ぼやけた画像となり、被写体画像はクッキリした画像となる。これにより、被写体にピントが合い写りこみにはピントが合っていない状態を表現することができる。またピントが写り込み環境の方に合うように設定されると、写り込む環境画像に対する第2ローパスフィルタのパラメータr2は小さく設定され、写り込む画像がクッキリした画像となる。一方被写体画像に対する第1ローパスフィルタのパラメータr1は大きく設定されるため、被写体はぼけた画像となる。その結果、被写体はボケていて、写り込みにはピントが合っている状態を再現することができる。
CG画像は一般に、被写体画像ImageObjと環境画像Imagesurroundが加算された状態で生成されるため、生成済みのCG画像からそれらを分離する事ができず、式6の演算が出来ない。本実施形態では、CGを利用した出力画像を生成する時に被写体画像ImageObjと環境画像Imagesurroundおよびそれぞれに対応する距離マップを保持しておくことによって式6の演算が可能となり、被写体深度を自然に表現した画像を生成することが出来る。
以上の処理により、被写体に周辺環境が写り込んでいる状態をCGで再現する際に被写界深度に応じた自然な画像を生成することが出来、より実物に近い画像を得ることが可能となる。
本発明は、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)がコンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。
Claims (7)
- 光線追跡法を用いて、オブジェクトを有する仮想空間に基づいてCG画像を生成する画像処理装置であって、
前記仮想空間における視点と前記仮想空間における第1のオブジェクトとの距離を第1の距離として取得する第1の取得手段と、
前記仮想空間において、前記視点から放出した光線が前記第1のオブジェクト上を反射した後の経路上にある第2のオブジェクトと前記第1のオブジェクトとの距離を第2の距離として取得する第2の取得手段と、
CG画像における画素値を、ローパスフィルタによるフィルタ処理を用いて算出し、CG画像を出力する処理手段とを有し、
前記処理手段は、前記第1の距離に応じたローパスフィルタにより前記第1のオブジェクトを示す画像に対して第一のフィルタ処理した結果と、前記第2の距離に応じたローパスフィルタにより前記第2のオブジェクトを示す画像に対して第二のフィルタ処理した結果とに基づいて、前記画素値を算出することを
特徴とする画像処理装置。 - 前記第一のフィルタ処理は、前記第一の距離とピント距離との差が大きいほどローパス特性が強くなることを特徴とする請求項1に記載の画像処理装置。
- 前記第二のフィルタ処理は、前記第1の距離と前記第二の距離との合計と、ピント距離との差が大きいほどローパス特性が強くなることを特徴とする請求項1または2に記載の画像処理装置。
- さらに、前記仮想空間における全てのオブジェクトに対する前記視点からの距離を示す被写体距離マップを保持する保持手段を有し、
前記第1の取得手段は、前記被写体距離マップから前記第1の距離を取得することを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。 - さらに、前記第1のオブジェクトの中心から放出した光線が交差する前記仮想空間におけるオブジェクトと前記視点との距離を示す環境距離マップを保持する保持手段を有し、
前記第2の取得手段は、前記環境距離マップから前記第2の距離を取得することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。 - コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至5の何れか一項に記載された画像処理装置として機能させることを特徴とするコンピュータプログラム。
- 光線追跡法を用いて、オブジェクトを有する仮想空間に基づいてCG画像を生成する画像処理方法であって、
前記仮想空間における視点と前記仮想空間における第1のオブジェクトとの距離を第1の距離として取得し、
前記仮想空間において、前記視点から放出した光線が前記第1のオブジェクト上を反射した後の経路上にある第2のオブジェクトと前記第1のオブジェクトとの距離を第2の距離として取得し、
CG画像における画素値を、ローパスフィルタによるフィルタ処理を用いて算出し、CG画像を出力し、
前記CG画像は、前記第1の距離に応じたローパスフィルタにより前記第1のオブジェクトを示す画像に対して第一のフィルタ処理した結果と、前記第2の距離に応じたローパスフィルタにより前記第2のオブジェクトを示す画像に対して第二のフィルタ処理した結果とに基づいて、算出された画素値から生成されることを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013207421A JP2015072565A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013207421A JP2015072565A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015072565A true JP2015072565A (ja) | 2015-04-16 |
Family
ID=53014895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013207421A Pending JP2015072565A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015072565A (ja) |
-
2013
- 2013-10-02 JP JP2013207421A patent/JP2015072565A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11978175B2 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same | |
US11379948B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
US11410269B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
US11423626B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
WO2015166684A1 (ja) | 画像処理装置と画像処理方法 | |
JPWO2004114224A1 (ja) | 仮想視点画像生成方法及び3次元画像表示方法並びに装置 | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6918648B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6028527B2 (ja) | 表示処理装置、表示処理方法、及びプログラム | |
JP5762015B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6679966B2 (ja) | 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム | |
KR101208767B1 (ko) | 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체 | |
JP2017184136A (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
JP2019144958A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2015072565A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2017215706A (ja) | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 | |
Kolivand et al. | Livephantom: Retrieving virtual world light data to real environments | |
JP2014010806A (ja) | 光源情報抽出装置、光源情報抽出方法、および光源情報抽出プログラム | |
JP7119853B2 (ja) | 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム | |
JP2011048545A (ja) | 画像合成装置及びプログラム | |
KR102151250B1 (ko) | 객체 좌표를 도출하는 장치 및 방법 | |
CN112487893B (zh) | 一种三维目标识别方法及系统 | |
JP7320400B2 (ja) | 映像演出処理装置及びそのプログラム | |
JP6025519B2 (ja) | 画像処理装置および画像処理方法 |