JP2016045644A - 画像生成装置、画像生成方法、及びプログラム - Google Patents
画像生成装置、画像生成方法、及びプログラム Download PDFInfo
- Publication number
- JP2016045644A JP2016045644A JP2014168640A JP2014168640A JP2016045644A JP 2016045644 A JP2016045644 A JP 2016045644A JP 2014168640 A JP2014168640 A JP 2014168640A JP 2014168640 A JP2014168640 A JP 2014168640A JP 2016045644 A JP2016045644 A JP 2016045644A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- lens
- lens array
- image
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000004364 calculation method Methods 0.000 claims abstract description 43
- 238000009877 rendering Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 100
- 230000003287 optical effect Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
IP方式における表示用画像の生成では、要素レンズを配列して構成されるレンズアレイを介して被写体を撮像することが行われている。このとき、カメラはレンズアレイの焦平面を撮像する。そして、レンズアレイを構成する各要素レンズは、微小なカメラと同様の働きをする。その結果、レンズアレイ越しに被写体を撮像した画像は、レンズアレイを構成する要素レンズ各々の位置に応じた微小画像(以下、「要素画像」という。)が並んだ画像となる。以下では、このようにして取得される画像を、IP画像(インテグラルフォトグラフィ画像)という。このIP画像を撮像時と同様のレンズアレイを介して表示することで、立体像が再現される。
また、IP方式において、被写体からの光線を制御する奥行き制御レンズを用いることにより、表示装置の表示面よりも飛び出して見える映像を実現可能であることが知られている。
(第1の実施形態)
本発明の第1の実施形態について説明する。
まず、図1を参照して、本実施形態の概要について説明する。
図1は、本実施形態に係る画像生成装置10(図3)による処理の概念図である。
画像生成装置10は、仮想空間内のオブジェクトをレンダリングしてIP画像の画像(映像)データを生成する装置であり、例えば、パーソナルコンピュータ又はサーバ装置などの電子機器である。
なお、IP立体映像表示装置30は、仮想の装置であってもよい。
図2は、仮想レンズアレイ220とIP画像とを示す模式図である。
仮想撮像素子210及び仮想レンズアレイ220の属性は、それぞれ任意に設定可能である。仮想撮像素子210及び仮想レンズアレイ220の属性は、例えば、IP立体映像表示装置30(図1)を仮想空間上に配置した場合の表示素子310及びレンズアレイ320の属性に合わせて設定される。
仮想撮像素子210の属性には、位置、サイズ、及び画素数等があり、それぞれ、表示素子310の位置、サイズ、及び画素数等と同様の値に設定される。換言すると、仮想撮像素子210の仮想撮像面は、仮想空間にIP立体映像表示装置30を配置したときに、表示部11によりIP画像が表示される表示面の位置に対応する。
なお、仮想レンズアレイ220を構成する仮想要素レンズ22−1〜22−Nの主点の位置及び仮想撮像素子210の仮想撮像面の位置は、仮想空間における時間の経過とともに変化してもよい。
図3は、画像生成装置10の概略機能構成を示すブロック図である。
画像生成装置10は、表示部11と、入力部12と、通信部13と、記憶部14と、制御部15と、を含んで構成される。
表示部11は、仮想カメラ20の属性の入力を受け付けるためのユーザインターフェイスを表示する。表示部11は、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなどの表示装置を備える。
入力部12は、ユーザから仮想カメラ20の属性の入力を受け付ける。入力部12は、例えば、マウス、キーボード、又はタッチパネルなどの入力装置を備える。入力部12が受け付け可能な操作の内容は、例えば、表示部11が備える表示装置により表示される。
通信部13は、通信用インターフェイスを備え、IP立体映像表示装置30に制御部15から出力された映像信号を送信する。
仮想カメラ属性記憶部141は、仮想カメラ20(図1)の属性を示す仮想カメラ属性情報を記憶する。
仮想カメラ20の属性情報は、仮想カメラ20が備える仮想撮像素子210の属性を表す仮想撮像素子属性情報、及び仮想レンズアレイ220の属性を表す仮想レンズアレイ属性情報を含む情報である。
仮想撮像素子属性記憶部142は、仮想カメラ属性情報が含む情報のうち、仮想撮像素子属性情報を記憶する。仮想撮像素子属性情報が表す仮想撮像素子210の属性は、例えば、仮想撮像素子210の水平方向及び垂直方向の画素数、仮想撮像素子210のアスペクト比、仮想撮像素子210の各々の画素のアスペクト比、仮想撮像素子210の水平方向及び垂直方向のオフセット、及び仮想撮像素子210のサイズ等である。
光線方向情報は、仮想撮像素子210の各画素に入射する光線であって、仮想カメラ20が備える仮想レンズのうち、仮想撮像素子210から最も遠い位置にある仮想レンズにおける光線の方向を示す情報である。換言すると、光線方向情報は、仮想撮像素子210の各画素から見た光線が、仮想カメラ20が備える各レンズにおいて屈折しながら透過して、仮想カメラ20から射出するときの方向を示す情報である。本実施形態において、仮想カメラ20が備える仮想レンズのうち、仮想撮像素子210から最も遠い位置にある仮想レンズは、仮想レンズアレイ220である。従って、本実施形態において、光線方向記憶部144は、仮想撮像素子210の各画素に対応する光線が仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nから射出する方向を、画素毎に記憶する。
オブジェクト属性情報は、仮想空間におけるオブジェクト40の属性を表す情報であり、例えば、位置、形状、光学的特性、及び色等を表す情報である。オブジェクト属性情報が表すオブジェクト40の仮想空間における位置及び形状は、例えば、ポリゴン(多角形)又は自由曲面等により表現される。また、そのデータ形式は、任意であってよく、例えば、CAD(Computer Assisted Drafting)データとして表現される。
映像信号記憶部146は、映像を構成する各フレームにおけるIP画像データを記憶する。
制御部15は、表示処理部151、レンズ処理部152、レンダリング処理部154、及び映像信号出力部156として機能する。
表示処理部151は、仮想カメラ20の属性の入力を受け付けるためのユーザインターフェイスを、表示部11に表示させる。
仮想レンズアレイ処理部153は、仮想撮像素子210に入射する光線が仮想レンズアレイ220を透過するときの屈折のしかたを、仮想カメラ属性記憶部141の仮想レンズアレイ属性記憶部143から読み出す仮想レンズアレイ属性情報に基づいて演算する。仮想レンズアレイ処理部153は、演算された仮想レンズアレイ220における屈折のしかたに基づいて、仮想撮像素子210の各々の画素に対応する光線の方向を演算し、仮想撮像素子210の各々の画素と、光線の方向との対応関係を光線方向記憶部144に記憶させる。
レンダリング処理部154は、光線方向記憶部144から光線方向情報を読み出し、読み出した光線方向情報と、オブジェクト属性情報とに基づいて、仮想撮像素子210に入射する光線の元の位置にあるオブジェクト40をレンダリングしてIP画像の画像データを生成する。本実施形態において、レンダリング処理部154は、光線追跡(レイ・トレーシング)法に基づいてオブジェクト40をレンダリングする。
なお、光線追跡法については、公知の技術を適用可能であるため、詳細は省略する。また、本実施形態では、説明を簡潔にするため、光線とは、主光線であるとするが、画像生成装置10は、副光線についても演算してよい。
図4は、画像生成装置10における仮想レンズアレイ220用パラメータの入力画面を示す模式図である。
図4に示される例において、表示部11の表示領域111には、仮想レンズアレイ220(図1)の属性として「1」〜「6」までの6項目の情報を設定可能に示している。
なお、上述した項目「1」〜項目「6」は、基本的に、IP立体映像表示装置30の属性と対応させて設定されるが、IP立体映像表示装置30の属性とは異なる値に設定されてもよい。
図5は、画像生成装置10の制御部15(図3)による処理の流れを示すフローチャートである。
(ステップS101)まず、制御部15のレンダリング処理部154(図3)は、光線方向記憶部144に光線方向情報が記憶されているか否かを判定する。光線方向記憶部144に光線方向情報が記憶されている場合(ステップS101;YES)、制御部15は、ステップS107に処理を進める。また、光線方向記憶部144に光線方向情報が記憶されていない場合(ステップS101;NO)、制御部15は、ステップS102に処理を進める。
(ステップS102)次に、制御部15のレンズ処理部152(図3)は、仮想撮像素子210の各々の画素についてステップS103〜S106の処理を実行する。レンズ処理部152は、未処理の画素がなくなるまでステップS103〜S106の処理を繰り返す。その後、レンズ処理部152は、図5に示される処理を終了する。
(ステップS104)次に、レンズ処理部152は、仮想レンズアレイ属性記憶部143(図3)に記憶されている仮想レンズアレイ属性情報を参照して、仮想レンズアレイ220の主面の中心座標から計算対象の画素に対応する要素レンズの位置を算出する。その後、レンズ処理部152は、ステップS105に処理を進める。
(ステップS106)次に、レンズ処理部152は、計算対象の画素の識別情報と、ステップS105において演算した画素対応光線の方向及び透過位置とを対応付け、この対応関係を示す光線方向情報を光線方向記憶部144(図3)に記憶させる。
(ステップS107)次に、レンダリング処理部154は、光線方向記憶部144から読み出した光線方向情報と、オブジェクト属性記憶部145から取得したオブジェクト属性情報を読み出し、光線追跡法によりオブジェクト40をレンダリングしてIP画像の画像データを生成する。そして、制御部15は、図5に示される処理を終了する。
なお、画素対応光線の透過位置は、例えば、上述した直交3軸座標系における座標により表される。
これにより、画像生成装置10は、仮想カメラ20とオブジェクト40との位置関係が変化した場合であっても、仮想カメラ20内の仮想撮像素子210と仮想レンズアレイ220との位置関係は変化しないため、仮想カメラ20内部における光線の屈折のしかた等を改めて計算しなくてよい。例えば、複数フレームのレンダリングを行う場合であっても、画像生成装置10は、最初の1回のみ計算を行えばよい。従って、画像生成装置10は、少ない計算量でIP画像の画像データを生成することができる。
本発明の第2の実施形態について説明する。
上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
まず、図6を参照して、本実施形態の概要について説明する。
図6は、本実施形態に係る画像生成装置10a(図7)による処理の概念図である。
画像生成装置10aは、第1の実施形態に係る画像生成装置10(図3)と同様に仮想空間内のオブジェクトをレンダリングしてIP画像の画像データを生成する装置である。ただし、画像生成装置10は、仮想撮像素子210及び仮想レンズアレイ220を備える仮想カメラ20が仮想的に撮像したIP画像の画像データを生成するのに対し、画像生成装置10aは、仮想奥行き制御レンズ230、仮想レンズアレイ220、及び仮想撮像素子210を備える仮想カメラ20aが仮想的に撮像したIP画像の画像データを生成する。
図7は、画像生成装置10aの概略機能構成を示すブロック図である。
画像生成装置10aは、画像生成装置10(図3)における記憶部14(図3)に代えて記憶部14aを含んで構成される。また、画像生成装置10aは、画像生成装置10における制御部15(図3)に代えて制御部15aを含んで構成される。
仮想奥行き制御レンズ属性記憶部147は、仮想奥行き制御レンズ230(図6)の属性を表す仮想奥行き制御レンズ属性情報を記憶する。仮想奥行き制御レンズ属性情報が表す仮想奥行き制御レンズ230の属性は、例えば、仮想奥行き制御レンズ230の直径、仮想奥行き制御レンズ230の撮像素子側及び被写体側の焦点距離、及び仮想奥行き制御レンズ230の主点の位置、仮想奥行き制御レンズ230の枚数等である。
レンズ処理部152aは、仮想レンズアレイ処理部153(図3)に代えて仮想レンズアレイ処理部153aとして機能することに加え、仮想奥行き制御レンズ処理部157として機能する。
図8は、画像生成装置10aにおける仮想奥行き制御レンズ230用パラメータの入力画面を示す模式図である。
図8に示される例において、表示部11の表示領域112には、仮想奥行き制御レンズ230(図6)の属性として「1」〜「3」までの3項目の情報を設定可能に示している。
項目「1」は、仮想奥行き制御レンズ230の焦点距離の入力を受け付けて設定するための項目である。項目「2」は、仮想奥行き制御レンズ230の大きさの入力を受け付けて設定するための項目である。項目「3」は、仮想奥行き制御レンズ230と仮想レンズアレイ220との距離の入力を受け付けて設定するための項目である。
なお、仮想カメラ20aに複数枚の仮想奥行き制御レンズ230を含ませる場合、画像生成装置10aは、上述した項目「1」〜「3」を、複数枚の仮想奥行き制御レンズ230各々について設定可能に示してもよい。
図9は、画像生成装置10aの制御部15(図7)による処理の流れを示すフローチャートである。
図9に示されるステップS201〜S209の処理のうち、ステップS201、S203〜S205、S208、S209の処理は、それぞれ、図5に示されるステップS101、S103〜S105、S106、S107と同様であるため、説明を援用する。
(ステップS202)制御部15aのレンズ処理部152a(図7)は、仮想撮像素子の全ての画素についてステップS203〜S208の処理を実行する。レンズ処理部152aは、未処理の画素がなくなるまで、ステップS203〜S208の処理を繰り返す。その後、制御部15aは、ステップS209に処理を進める。
(ステップS207)次に、レンズ処理部152aは、仮想奥行き制御レンズの中心位置と、前の仮想レンズ透過時における画素対応光線の位置との位置関係、及び、画素対応光線の前のレンズ透過時における方向から、仮想奥行き制御レンズ透過時における画素対応光線の方向と透過位置とを演算する。
(ステップS208)次に、レンズ処理部152aは、ステップS106(図5)におけるレンズ処理部152と同様に、計算対象の画素の識別情報と、ステップS206において演算した画素対応光線の方向及び透過位置とを対応付け、この対応関係を示す光線方向情報を光線方向記憶部144(図7)に記憶させる。
これにより、画像生成装置10aは、画像生成装置10と同様に、仮想カメラ20aとオブジェクト40との位置関係が変化した場合であっても、仮想カメラ20a内の仮想撮像素子210と仮想レンズアレイ220との位置関係は変化しないため、仮想カメラ20内部における光線の屈折のしかた等を改めて計算しなくてよい。従って、画像生成装置10aは、少ない計算量でIP画像の画像データを生成することができる。また、画像生成装置10aは、仮想奥行き制御レンズ230における屈折のしかたを演算するため、IP立体映像表示装置30に表示させたときに、その表示画面の手前に突出する立体像50を再生するためのIP画像の画像データを生成することができる。
本発明の第3の実施形態について説明する。
本実施形態では、第2の実施形態に係る画像生成装置10aにおいて、特定の設定を用いる態様について説明する。従って、以下では、本実施形態の各構成には、第2の実施形態と同一の符号を付し、説明を援用する。
図10を参照して、4f光学系について説明する。
図10に示される例において、2枚の同一の属性を有する仮想奥行き制御レンズ230−1、230−2、及び仮想レンズアレイ220がそれぞれの光軸を一致させて、仮想撮像素子210の仮想撮像面と平行に配置されている。仮想撮像素子210と仮想レンズアレイ220との間の距離は、仮想レンズアレイ220の要素レンズの焦点距離fである。2枚の仮想奥行き制御レンズ230−1と230−2との間の距離は、それぞれの焦点距離f1の2倍(2×f1)である。すなわち、2枚の仮想奥行き制御レンズ230−1と230−2とは、それぞれの焦平面を平面A1において一致させて配置される。また、仮想撮像素子210に近い仮想奥行き制御レンズ230−1と、仮想レンズアレイ220との間の距離は、焦点距離f1である。4f光学系では、奥行き位置の圧縮が行われないため、仮想奥行き制御レンズ230−1の右側の焦平面A2と仮想奥行き制御レンズ230−2の左側の焦平面A3とでは、仮想奥行き制御レンズ230−1、230−2を透過する光線について、光学的に等価な光線を取得することができる。図10に示される例において、仮想奥行き制御レンズ230−1の右側の焦平面A2には、仮想レンズアレイ220が配置されているため、仮想レンズアレイ220が焦平面A3に配置されていることと、光学的に等価である。
図11から図13は、それぞれ、画像生成装置10、10aによる画素対応光線の方向の演算方法を説明するための図である。また、図11から図13は、図10に示す仮想的な4f光学系における画素対応光線の一例を示す。
図11は、図10に示される仮想レンズアレイ220を透過する画素対応光線の一例を示す。
図11に示される例において、仮想撮像素子210の画素211−1に、仮想レンズアレイ220の要素レンズ22−1が対応している。従って、画素211−1の画素対応光線61は、画素211−1から要素レンズ22−1の主点221−1の方向に進む。そして、画素211−1の画素対応光線61は、要素レンズ22−1では屈折せずに直進する。従って、仮想レンズアレイ220において、画素211−1の画素対応光線の透過位置の座標(tx2,tz2)及び方向(tdx2)は、画素211−1の位置(tx1,tz1)及び要素レンズ22−1の主点221−1の位置(Lx1,f)に基づいて、以下の式(1)〜(3)により表される。
なお、レンズ処理部152aは、画素211−1の位置(tx1,tz1)を、仮想撮像素子属性記憶部142に記憶されている仮想撮像素子属性情報に基づいて取得する。また、レンズ処理部152aは、要素レンズ22−1の主点221−1の位置(Lx1,f)を仮想レンズアレイ属性記憶部143に記憶されている仮想レンズアレイ属性情報に基づいて取得する。
図12は、図10に示される仮想奥行き制御レンズ230−1を透過する画素対応光線の一例を示す。
仮想レンズアレイ220の要素レンズ22−1から射出した画素211−1(図11)の画素対応光線61は、仮想奥行き制御レンズ230−1に入射する。このとき、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−1の主面と、点232−1において交わる。そして、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−1により屈折して、点71の方向に進む。点71は、仮想奥行き制御レンズ230−1の左側の焦平面A1と、直線62との交点である。直線62は、仮想奥行き制御レンズ230−1に入射する画素対応光線61に平行な直線であって、仮想奥行き制御レンズ230−1の主点231−1を通る直線である。従って、仮想奥行き制御レンズ230−1の主面における画素211−1の画素対応光線61の透過位置の座標(tx3,tz3)及び方向(tdx3)は、画素対応光線61の仮想レンズアレイ220の主面における透過位置(tx2、tz2)及び方向(tdx2)と、仮想奥行き制御レンズ230の主点の位置(DLx、tz2+f1)とに基づいて、以下の式(4)〜(6)により表される。
図13は、図10に示される仮想奥行き制御レンズ230−2を透過する画素対応光線の一例を示す。
仮想奥行き制御レンズ230−1から射出した画素211−1(図11)の画素対応光線61は、仮想奥行き制御レンズ230−2に入射する。このとき、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−2の主面と、点232−2において交わる。そして、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−2により屈折して、点72の方向に進む。点72は、仮想奥行き制御レンズ230−2の左側の焦平面A3と、直線63との交点である。直線63は、仮想奥行き制御レンズ230−2に入射する画素対応光線61に平行な直線であって、仮想奥行き制御レンズ230−2の主点231−2を通る直線である。従って、仮想奥行き制御レンズ230−2における画素211−1の画素対応光線61の透過位置の座標(tx4,tz4)及び方向(tdx4)は、画素対応光線61の仮想奥行き制御レンズ230−1の主面における透過位置(tx3、tz3)及び方向(tdx3)と、仮想奥行き制御レンズ230−2の主点の位置(DLx、tz3+2f1)とに基づいて、以下の式(7)〜(9)により表される。
なお、各レンズ(仮想レンズアレイ220、仮想奥行き制御レンズ230−1、仮想奥行き制御レンズ230−2)における画素対応光線の透過位置の演算結果が、各レンズの外側であり、当該レンズを透過しない場合、レンダリング処理部154aは、その画素対応光線に対応する画素については出力がないものとして処理する。
図14に示される例において、光線方向情報は、画素識別情報(画素ID)、入力X座標情報(入力X座標)、入力Y座標情報(入力Y座標)、入力Z座標情報(入力Z座標)、入力ZX角情報(入力ZX角)、入力ZY角情報(入力ZY角)、出力X座標情報(出力X座標)、出力Y座標情報(出力Y座標)、出力Z座標情報(出力Z座標)、出力ZX角情報(出力ZX角)、及び出力ZY角情報(出力ZY角)を含み、これらを対応付けて構成される。このうち、入力X座標情報、入力Y座標情報、入力Z座標情報、入力ZX角情報、及び入力ZY角情報は、各レンズにおける屈折のしかたを演算するために用いる入力情報であり、出力X座標情報、出力Y座標情報、出力Z座標情報、出力ZX角情報、及び出力ZY角情報は、当該入力情報に基づく各レンズにおける屈折のしかたの演算結果を示す出力情報である。なお、光線方向記憶部144には、入力情報は記憶されなくてもよい。
入力X座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のX座標を表す情報である。
入力Y座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のY座標を表す情報である。
入力Z座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のZ座標を表す情報である。
入力ZX角情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置において、当該画素対応光線がZX平面においてZ軸となす角度を表す情報である。
入力ZY角情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置において、当該画素対応光線がZY平面においてZ軸となす角度を表す情報である。なお、本実施形態において、射出元の位置が仮想撮像素子210である場合、入力ZX角情報及び入力ZY角情報は、NULL(−)とする。
出力Y座標情報は、画素識別情報が示す画素に対応する画素対応光線について、そのレンズにおける透過位置のY座標を表す情報である。
出力Z座標情報は、画素識別情報が示す画素に対応する画素対応光線について、そのレンズにおける透過位置のZ座標を表す情報である。
出力ZX角情報は、画素識別情報が示す画素に対応する画素対応光線が、そのレンズからの射出時に、ZX平面においてZ軸となす角度を表す情報である。
出力ZY角情報は、画素識別情報が示す画素に対応する画素対応光線が、そのレンズからの射出時に、ZY平面においてZ軸となす角度を表す情報である。
図14(a)に示される光線方向情報の出力情報は、図11を参照して説明した仮想レンズアレイ220の主面における画素対応光線についての演算結果を示す。仮想レンズアレイ220に入射する画素対応光線は、仮想撮像素子210から射出するため、入力X座標情報、入力Y座標情報、及び入力Z座標情報の値は、それぞれ、各画素の座標の値である。また、入力ZX角情報及び入力ZY角情報の値は、いずれの画素についてもNULL(−)である。
図14(c)に示される光線方向情報の出力情報は、図13を参照して説明した仮想奥行き制御レンズ230−2の主面における画素対応光線についての演算結果を示す。仮想奥行き制御レンズ230−2に入射する画素対応光線は、仮想レンズアレイ220から射出するため、入力情報は、図14(b)に示される出力情報に対応する。
なお、上述した各実施形態において、例示した仮想カメラ20、20aの各種属性は、あくまで一例であり、その他の属性を含んでもよい。
なお、上述した各実施形態において、オブジェクト属性取得部155は、オブジェクト属性記憶部145からオブジェクト属性情報を読み出すことによりオブジェクト属性情報を取得したが、オブジェクト属性取得部155によるオブジェクト属性情報は、別の経路で取得されてもよい。例えば、オブジェクト属性取得部155は、画像生成装置10、10aと通信可能な外部装置から、通信を介して、オブジェクト属性情報を取得してもよい。
Claims (6)
- 仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置であって、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得部と、
前記仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む仮想撮像素子属性情報とを記憶する仮想カメラ属性記憶部と、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理部と、
前記オブジェクト属性取得部が取得する前記オブジェクト属性情報に基づいて、且つ前記レンズ処理部による演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理部と、
を備える画像生成装置。 - 前記仮想撮像素子における画素に対応する前記仮想空間内の光線の方向を表す光線方向情報を記憶する光線方向記憶部、
をさらに備え、
前記レンズ処理部は、演算された前記屈折のしかたに基づいて、前記仮想撮像素子の各々の画素に対応する光線の方向を演算し、前記画素と前記光線の方向との対応関係を前記光線方向記憶部に記憶させ、
前記レンダリング処理部は、前記光線方向記憶部に前記画素と前記光線の方向との対応関係が既に記憶されている場合には、前記光線方向記憶部から読み出した光線方向情報に基づいて、前記画像データを生成する、
ことを特徴とする請求項1に記載の画像生成装置。 - 前記仮想空間内において前記仮想レンズアレイを挟んで前記仮想撮像素子とは反対の側に存在する仮想奥行き制御レンズの属性を示す仮想奥行き制御レンズ属性情報を記憶する仮想奥行き制御レンズ属性記憶部、
をさらに備え、
前記レンズ処理部は、前記仮想奥行き制御レンズ属性記憶部から読み出した前記仮想奥行き制御レンズ属性情報に基づき、前記仮想レンズアレイを透過して前記仮想撮像素子に入射する光線が前記仮想奥行き制御レンズを透過するときの屈折のしかたを演算する、
ことを特徴とする請求項1又は請求項2のいずれか一項に記載の画像生成装置。 - 前記仮想奥行き制御レンズ属性記憶部は、4f光学系を構成する2枚の仮想奥行き制御レンズの属性を記憶する、
ことを特徴とする請求項3に記載の画像生成装置。 - 仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置における画像生成方法であって、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得過程と、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理過程と、
前記オブジェクト属性取得過程において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理過程における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理過程と、
を含むことを特徴とする画像生成方法。 - 仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置のコンピュータに、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得手順、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理手順、
前記オブジェクト属性取得手順において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理手順における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理手順、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014168640A JP6388435B2 (ja) | 2014-08-21 | 2014-08-21 | 画像生成装置、画像生成方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014168640A JP6388435B2 (ja) | 2014-08-21 | 2014-08-21 | 画像生成装置、画像生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016045644A true JP2016045644A (ja) | 2016-04-04 |
JP6388435B2 JP6388435B2 (ja) | 2018-09-12 |
Family
ID=55636177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014168640A Active JP6388435B2 (ja) | 2014-08-21 | 2014-08-21 | 画像生成装置、画像生成方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6388435B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018074463A (ja) * | 2016-11-01 | 2018-05-10 | 日本放送協会 | 画像生成装置、画像表示システム及びプログラム |
JP2018133795A (ja) * | 2017-02-15 | 2018-08-23 | 日本放送協会 | 立体画像生成装置及びそのプログラム |
JP2019535150A (ja) * | 2016-07-15 | 2019-12-05 | ライト フィールド ラボ、インコーポレイテッド | ホログラフィック感覚データ生成、操作および伝送システムおよび方法 |
JP2021524052A (ja) * | 2018-03-22 | 2021-09-09 | アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ | インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 |
US11650354B2 (en) | 2018-01-14 | 2023-05-16 | Light Field Lab, Inc. | Systems and methods for rendering data from a 3D environment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020067356A1 (en) * | 2000-12-04 | 2002-06-06 | Toshiyuki Sudo | Three-dimensional image reproduction data generator, method thereof, and storage medium |
JP2005026772A (ja) * | 2003-06-30 | 2005-01-27 | Victor Co Of Japan Ltd | 立体映像表示方法及び立体映像表示装置 |
JP2010200188A (ja) * | 2009-02-27 | 2010-09-09 | National Institute Of Information & Communication Technology | 多視点画像生成装置、多視点画像生成方法および多視点画像生成プログラム |
JP2010230984A (ja) * | 2009-03-27 | 2010-10-14 | Nippon Hoso Kyokai <Nhk> | 3次元映像表示装置 |
JP2011234142A (ja) * | 2010-04-28 | 2011-11-17 | Nippon Hoso Kyokai <Nhk> | 立体像生成装置およびそのプログラム |
JP2014064076A (ja) * | 2012-09-20 | 2014-04-10 | Nippon Hoso Kyokai <Nhk> | 空間歪み補正装置およびそのプログラム |
-
2014
- 2014-08-21 JP JP2014168640A patent/JP6388435B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020067356A1 (en) * | 2000-12-04 | 2002-06-06 | Toshiyuki Sudo | Three-dimensional image reproduction data generator, method thereof, and storage medium |
JP2005026772A (ja) * | 2003-06-30 | 2005-01-27 | Victor Co Of Japan Ltd | 立体映像表示方法及び立体映像表示装置 |
JP2010200188A (ja) * | 2009-02-27 | 2010-09-09 | National Institute Of Information & Communication Technology | 多視点画像生成装置、多視点画像生成方法および多視点画像生成プログラム |
JP2010230984A (ja) * | 2009-03-27 | 2010-10-14 | Nippon Hoso Kyokai <Nhk> | 3次元映像表示装置 |
JP2011234142A (ja) * | 2010-04-28 | 2011-11-17 | Nippon Hoso Kyokai <Nhk> | 立体像生成装置およびそのプログラム |
JP2014064076A (ja) * | 2012-09-20 | 2014-04-10 | Nippon Hoso Kyokai <Nhk> | 空間歪み補正装置およびそのプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019535150A (ja) * | 2016-07-15 | 2019-12-05 | ライト フィールド ラボ、インコーポレイテッド | ホログラフィック感覚データ生成、操作および伝送システムおよび方法 |
JP7279283B2 (ja) | 2016-07-15 | 2023-05-23 | ライト フィールド ラボ、インコーポレイテッド | ホログラフィック感覚データ生成、操作および伝送システムおよび方法 |
US11874493B2 (en) | 2016-07-15 | 2024-01-16 | Light Field Lab, Inc. | System and methods of universal parameterization of holographic sensory data generation, manipulation and transport |
JP2018074463A (ja) * | 2016-11-01 | 2018-05-10 | 日本放送協会 | 画像生成装置、画像表示システム及びプログラム |
JP2018133795A (ja) * | 2017-02-15 | 2018-08-23 | 日本放送協会 | 立体画像生成装置及びそのプログラム |
JP7061445B2 (ja) | 2017-02-15 | 2022-04-28 | 日本放送協会 | 立体画像生成装置及びそのプログラム |
US11650354B2 (en) | 2018-01-14 | 2023-05-16 | Light Field Lab, Inc. | Systems and methods for rendering data from a 3D environment |
JP2021524052A (ja) * | 2018-03-22 | 2021-09-09 | アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ | インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 |
JP7185331B2 (ja) | 2018-03-22 | 2022-12-07 | アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ | インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6388435B2 (ja) | 2018-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | 3D imaging, analysis and applications | |
CN106679651B (zh) | 声源定位方法、装置和电子设备 | |
ES2402229T3 (es) | Método y dispositivo de fusión de imágenes | |
JP6388435B2 (ja) | 画像生成装置、画像生成方法、及びプログラム | |
KR102583723B1 (ko) | 라이트 필드를 나타내는 데이터를 생성하기 위한 방법 및 장치 | |
CN106256124B (zh) | 结构化立体 | |
CN105025284B (zh) | 标定集成成像显示设备的显示误差的方法和设备 | |
Bräuer-Burchardt et al. | Underwater 3D surface measurement using fringe projection based scanning devices | |
CN104350525A (zh) | 组合用于三维建模的窄基线和宽基线立体 | |
CN108604372B (zh) | 用于生成表示像素束的数据的方法和装置 | |
JP2018538709A (ja) | ピクセルビームを表すデータを生成する方法及び装置 | |
Guidi et al. | Optimal lateral displacement in automatic close-range photogrammetry | |
Angladon et al. | The toulouse vanishing points dataset | |
RU2729698C2 (ru) | Устройство и способ для кодирования изображения, захваченного оптической системой получения данных | |
CN108352061B (zh) | 用于产生表示像素光束的数据的装置和方法 | |
JP2016114445A (ja) | 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置 | |
JP7414090B2 (ja) | 撮像装置および撮像装置の制御方法 | |
JP6073123B2 (ja) | 立体表示システム、立体像生成装置及び立体像生成プログラム | |
KR102562696B1 (ko) | 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법 | |
CN108475421A (zh) | 用于产生表示像素光束的数据的方法和装置 | |
KR102402432B1 (ko) | 픽셀 빔을 표현하는 데이터를 생성하기 위한 장치 및 방법 | |
JP2017215706A (ja) | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 | |
JP5122508B2 (ja) | 3次元空間データ作成方法及び3次元空間データ作成装置 | |
JP2019035708A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6300358B2 (ja) | 表示画像生成装置及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6388435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |