JP2022083816A - 画像生成装置、画像生成方法及びプログラム - Google Patents
画像生成装置、画像生成方法及びプログラム Download PDFInfo
- Publication number
- JP2022083816A JP2022083816A JP2020195361A JP2020195361A JP2022083816A JP 2022083816 A JP2022083816 A JP 2022083816A JP 2020195361 A JP2020195361 A JP 2020195361A JP 2020195361 A JP2020195361 A JP 2020195361A JP 2022083816 A JP2022083816 A JP 2022083816A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- virtual camera
- virtual
- depth
- imaging range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000003384 imaging method Methods 0.000 claims abstract description 92
- 230000015572 biosynthetic process Effects 0.000 claims description 26
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- MCSOAHVAIJXNDN-ZTFGCOKTSA-N ram-322 Chemical compound C1C(=O)CC[C@@]2(O)[C@H]3CC4=CC=C(OC)C(O)=C4[C@]21CCN3C MCSOAHVAIJXNDN-ZTFGCOKTSA-N 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】表示装置の特性に応じて、所望の仮想視点画像の表示が行われるようにする。【解決手段】仮想視点画像を生成する画像生成装置は、仮想空間に位置する仮想カメラの撮影範囲に対する表示手段の結像範囲に、仮想空間における被写体の位置が含まれるように、仮想カメラの位置を制御し、制御された仮想カメラの位置に基づいて仮想視点画像を生成する。【選択図】 図1
Description
本発明は、画像生成装置、画像生成方法及びプログラムに関する。
コンピュータグラフィックスの分野では、三次元の仮想空間内に配置されるオブジェクトを、当該仮想空間内に配置される仮想的なカメラ(以下、仮想カメラという)で撮影することにより得られる画像を、任意の表示装置で表示することが行われている。以降の説明では、仮想カメラが行う撮影により得られる画像を、仮想視点画像という。
特許文献1には、仮想空間内に配置された人が移動し、かつ移動する人を仮想視点画像内に収め続けたい場合の仮想カメラの移動方法について開示されている。ここで、仮想カメラの移動方法とは、撮影範囲に収めたい複数の被写体の位置関係から、当該被写体が撮影範囲に含まれる仮想カメラ座標を算出し、算出した仮想カメラ座標へ仮想カメラを移動させることで実現する方法である。
しかしながら、仮想視点画像を表示させる表示装置の特性によっては、所望する仮想視点画像の表示がされない場合がある。例えば、立体画像を表示する裸眼立体視ディスプレイでは、被写体を結像可能な物理的な結像範囲をもつという特性を有しており、仮想カメラの撮影範囲よりも結像範囲が狭い場合がある。そのため、特許文献1に記載の仮想カメラの移動方法のように、仮想カメラの撮影範囲に被写体が含まれるように仮想カメラを移動させても、結像範囲を超えて被写体が動くと、結像範囲に被写体が入らず結像できない場合が生じ得る。この結果、仮想視点画像に映るオブジェクトがぼやけた表示になってしまうなど、所望の仮想視点画像の表示がされない可能性がある。
本発明は、上記の課題を鑑みてなされたものであり、表示装置の特性に応じて、所望の仮想視点画像の表示が行われるようにすることを目的とする。
上記目的を達成するために、本発明の一態様による画像生成装置は、仮想空間に位置する仮想的なカメラである仮想カメラの撮影範囲に対する表示手段の結像範囲に、前記仮想空間における被写体の位置が含まれるように、前記仮想カメラの位置を制御する制御手段と、
前記制御手段により制御された前記仮想カメラの位置に基づいて仮想視点画像を生成する生成手段と、を備えることを特徴とする。
前記制御手段により制御された前記仮想カメラの位置に基づいて仮想視点画像を生成する生成手段と、を備えることを特徴とする。
本発明によれば、表示装置の特性に応じて、所望の仮想視点画像の表示が行われるようにすることができる。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
本実施形態では、表示装置が有する結像範囲に任意の被写体が含まれるように仮想カメラの位置を制御する処理に関して説明する。
本実施形態では、表示装置が有する結像範囲に任意の被写体が含まれるように仮想カメラの位置を制御する処理に関して説明する。
以下の説明では、図1により実施形態1に係る仮想視点画像生成システムの全体について説明し、図2により仮想空間上の被写体を実際の撮像装置の撮影画像を基に生成する場合の撮像装置の配置例を説明する。
そして、図3により、仮想視点画像生成システムのハードウェア構成を説明し、図4により、表示装置が有する結像範囲について説明する。続いて図5により、本発明の実施形態1の特徴である、結像範囲に任意の被写体が含まれるように制御する処理に関する機能構成について説明し、図6により、その制御処理の流れを説明する。
(仮想視点画像生成システム100の説明)
図1は実施形態1に係る仮想視点画像生成システム100の機能構成を説明するためのブロック図である。仮想視点画像生成システム100は、仮想空間上の被写体を、ユーザから指定された仮想視点に基づいて、指定された仮想視点からの見えを表す仮想視点画像として画像化するシステムである。仮想視点画像生成システム100は、操作情報入力部101と、仮想視点画像生成装置102とを有する。
図1は実施形態1に係る仮想視点画像生成システム100の機能構成を説明するためのブロック図である。仮想視点画像生成システム100は、仮想空間上の被写体を、ユーザから指定された仮想視点に基づいて、指定された仮想視点からの見えを表す仮想視点画像として画像化するシステムである。仮想視点画像生成システム100は、操作情報入力部101と、仮想視点画像生成装置102とを有する。
(操作情報入力部101)
仮想視点の操作入力は操作情報入力部101を介して行われ、仮想視点画像の生成は仮想視点画像生成装置102が行う。なお、実施形態1における仮想視点画像は、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば、予め備える複数の視点候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、実施形態1では仮想視点画像が動画である場合を中心に説明するが、この例に限定されず、仮想視点画像は静止画であってもよい。
仮想視点の操作入力は操作情報入力部101を介して行われ、仮想視点画像の生成は仮想視点画像生成装置102が行う。なお、実施形態1における仮想視点画像は、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば、予め備える複数の視点候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、実施形態1では仮想視点画像が動画である場合を中心に説明するが、この例に限定されず、仮想視点画像は静止画であってもよい。
操作情報入力部101は、ユーザの指示を受け、入力された情報を処理したうえで仮想視点画像生成装置102へ処理した情報を送信する機能を有する。送信される情報には、仮想視点の操作を行うための仮想カメラの操作指示情報と、不図示の表示装置が有する物理的な結像範囲を識別するための物理情報、結像対象とする被写体情報とが含まれる。ここで、ユーザの指示は、例えば、操作情報入力部101に接続されたマウスやキーボードといった外部デバイスによる入力で行われる。
仮想カメラの操作指示情報は、仮想空間上における仮想カメラの移動量を指定するパラメータ値である。パラメータ値は、例えば、3次元空間におけるXYZ方向を示すベクトル値である。パラメータ値は、ユーザにより指示されることを想定しており、例えば、操作情報入力部101に接続されたジョイスティック等のパン、チルトおよびロール方向の3軸を操作するコントローラで指示可能である。なお、ジョイスティック以外にもマウスやキーボード等のユーザが操作可能なデバイスであってもよい。
また、仮想カメラの操作指示情報は、XYZ方向の3軸以外にも仮想視点の視野の大きさである画角を操作可能なパラメータ値もよく、単一の仮想カメラに限られず、複数の仮想カメラを操作可能なパラメータ値であってもよい。
表示装置が有する物理的な結像範囲を識別するための物理情報は、例えば、不図示の表示装置の型番といった個々のデバイスを識別する情報である。
物理情報の取得方法としては、例えば、ユーザの手動操作により、操作情報入力部101が予め保有する型番のリストから該当する型番を選択することにより物理情報を取得することが可能であるが、この他、操作情報入力部101が仮想視点画像生成システム100に接続された不図時の表示装置を自動認識し、該当する型番をリスト上から選択する構成でもよい。ここで、表示装置には、例えば、裸眼立体視ディスプレイが含まれる。
結像対象とする被写体情報は、例えば、仮想空間内の各被写体に配された識別情報(ID)である。操作情報入力部101は、予め被写体と識別情報(ID)とを対応付けたテーブルを有しており、仮想視点画像を表示可能な不図示の表示装置のモニタ上で、任意の被写体をマウスでクリックすることで被写体に対応付けられた識別情報(ID)が選択される。なお、モニタ上での任意の被写体の選択には、マウスによる選択以外にも、任意の閾値に基づいた画像処理によって画像中から該当する被写体を選択することも可能である。例えば、ラグビーでボールを持っている選手を被写体として画像中から抽出し、選択してもよい。また、結像対象外の被写体が選択されてもよい。
(仮想視点画像生成装置102)
仮想視点画像生成装置102は、操作情報入力部101から送信された各情報に基づいて、表示装置が有する結像範囲に仮想空間上の被写体が含まれるような仮想カメラの視点を決定し、仮想視点画像を生成する。操作情報入力部101から送信される情報は、それぞれ表示特性識別部103、仮想カメラ座標取得部104、被写体座標取得部105で処理される。
仮想視点画像生成装置102は、操作情報入力部101から送信された各情報に基づいて、表示装置が有する結像範囲に仮想空間上の被写体が含まれるような仮想カメラの視点を決定し、仮想視点画像を生成する。操作情報入力部101から送信される情報は、それぞれ表示特性識別部103、仮想カメラ座標取得部104、被写体座標取得部105で処理される。
表示特性識別部103は、操作情報入力部101から受信した個々のデバイスを識別する物理情報から、仮想カメラの撮影範囲に対する結像範囲の位置と大きさを識別する。結像範囲の位置と大きさは、型番といった個々のデバイスを示す物理情報に対応付けられており、仮想視点画像生成装置102は、撮影範囲に対する結像範囲の位置と大きさと物理情報とを対応づける不図示のテーブルを有している。表示特性識別部103は、操作情報入力部101から受信した表示装置の物理情報に基づいて、当該テーブルを参照することで物理情報に対応付けられた結像範囲の位置と大きさを識別することができる。表示特性識別部103は、識別した結像範囲の位置と大きさを、操作可能領域制御部106へ入力する。
仮想カメラ座標取得部104は、操作情報入力部101から受信した操作指示情報から、仮想空間内における仮想カメラの位置座標(位置情報)を取得する。ここで、操作指示情報は、仮想空間上における仮想カメラの移動量を指定するパラメータ値、例えば、ベクトル値であり、現在の仮想カメラの位置をベクトル値の分だけ移動した座標を、操作指示を反映した次の仮想カメラの位置座標(位置情報)として取得する。仮想カメラ座標取得部104は、取得した位置座標を、操作可能領域制御部106へ入力する。
被写体座標取得部105は、操作情報入力部101から受信した被写体情報から、仮想空間における被写体の位置座標を取得する。仮想視点画像生成装置102は、被写体情報と仮想空間における被写体の位置座標とを対応づける不図示のテーブルを有しており、被写体座標取得部105は、当該テーブルを参照することで被写体の位置座標を取得できる。被写体座標取得部105は、取得した位置座標を、操作可能領域制御部106へ入力する。
操作可能領域制御部106は、表示特性識別部103、仮想カメラ座標取得部104、被写体座標取得部105から受信した各情報に基づいて、仮想空間上の被写体が、表示装置が有する結像範囲の内部に含まれるように、仮想カメラの視点(仮想カメラの位置)を制御する。操作可能領域制御部106は、制御された仮想カメラの位置を仮想カメラ位置設定部107に送信し、仮想カメラ位置設定部107は、操作可能領域制御部106により制御された仮想カメラの位置の情報に基づいて仮想カメラの位置を実際に設定する。その後、仮想視点画像生成部108は仮想カメラの視点に基づく仮想視点画像を生成する。
なお、一つの仮想視点画像生成装置102に対して、複数の操作情報入力部101が接続されてもよく、一つの操作情報入力部101に対して、複数の仮想視点画像生成装置102が接続されてもよい。また、仮想視点画像生成装置102と操作情報入力部101とを1対多や多対1で接続する場合の接続方法は、有線の通信ケーブルで接続してもよく、無線による通信で接続してもよく、ルータ、ネットワークハブといった中継機器を介する構成としてもよい。
(複数の撮像装置の配置例)
仮想空間上の被写体は、コンピュータグラフィクスで生成された被写体でもよいが、実際に複数の撮像装置で撮影した画像に基づいて生成してもよい。図2は、複数の撮像装置で撮影を行う場合の、複数の撮像装置の配置例を示す図である。
仮想空間上の被写体は、コンピュータグラフィクスで生成された被写体でもよいが、実際に複数の撮像装置で撮影した画像に基づいて生成してもよい。図2は、複数の撮像装置で撮影を行う場合の、複数の撮像装置の配置例を示す図である。
例えば、サッカーやラグビーといった競技が行われる競技場211を取り囲むように複数の撮像装置210aから撮像装置210nをそれぞれ異なる位置に設定し、同期して撮像を行うことで、複数の撮像装置210a~210nにより複数の撮影画像が取得される。次に、取得された複数の撮影画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。
その後、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想空間上に被写体が生成される。ただし、被写体の生成方法はこれに限定されず、三次元モデルを用いずに撮像画像の射影変換により生成する方法など、種々の方法を用いることができる。
なお、複数の撮像装置210a~210nは撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、撮像装置210a~210nの数は図に示す例に限定されず、例えば撮像領域をサッカーの競技場とする場合には、競技場211の周囲に、例えば、30台程度の撮像装置210a~210nが設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮像装置が設置されていてもよい。
(仮想視点画像生成システム100のハードウェア構成)
図3は、仮想視点画像生成システム100のハードウェア構成を説明するためのブロック図である。
図3は、仮想視点画像生成システム100のハードウェア構成を説明するためのブロック図である。
CPU(Central Processing Unit)320は、RAM(Random Access Memory)321やROM(Read Only Memory)322に格納されるプログラムやデータを用いて本発明の実施形態に係る処理を実行する。
CPU320は、仮想視点画像生成システム100の全体的な動作制御を行う。なお、操作情報入力部101もしくは仮想視点画像生成装置102がCPU320とは異なる1又は複数の専用のハードウェアを有し、CPU320による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、例えば、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM321は、プログラムやデータを保持する。RAM322は、ROM321から読み出されるプログラムやデータを一時的に記憶するワークエリアを有する。また、RAM322は、CPU320が各処理を実行する際に用いるワークエリアを提供する。
操作入力部323は、例えばマウスやキーボード、ジョイティック等の三軸コントローラであってユーザが操作する情報を取得する。取得した情報は操作情報入力部101に送信される。なお、操作入力部323は、これらに限定されない。
外部インターフェース324は、高精細度マルチメディアインタフェース(HDMI(登録商標))やSDI(シリアルデジタルインタフェース)等の画像出力ポートを介し、外部モニタへ情報を送信しても良い。また、イーサネット(登録商標)等を介して画像データを送信しても良い。
(表示装置403の結像範囲)
図4は、表示装置が有する結像範囲を説明するための図である。図4(a)は、表示装置403の表示で、人物を被写体とした表示の模擬図である。点線で描画された被写体405は、結像せずにボケた状態で表示されていることを示しており、実線で描画された被写体404は結像した状態で表示されていることを示している。このときの撮影条件を図4(b)および図4(c)を用いて説明する。
図4は、表示装置が有する結像範囲を説明するための図である。図4(a)は、表示装置403の表示で、人物を被写体とした表示の模擬図である。点線で描画された被写体405は、結像せずにボケた状態で表示されていることを示しており、実線で描画された被写体404は結像した状態で表示されていることを示している。このときの撮影条件を図4(b)および図4(c)を用いて説明する。
図4(b)は、仮想カメラ400が、表示装置403に対して表示する仮想視点画像を撮影している場面の模擬図であり、図4(c)は、図4(b)を横から見た図である。仮想カメラ400の位置に対して手前側に被写体404が位置しており、仮想カメラ400の位置に対して奥側に被写体405が位置している。表示範囲401は、仮想カメラ400の視点における撮影範囲のうち、表示装置403上に表示可能な撮影範囲を示し、枠内の被写体のみ表示装置403で表示される。結像範囲402は、表示範囲401のうち、被写体が結像される範囲を示し、枠内の被写体のみ表示装置403で結像される。被写体404は結像範囲402内に位置するため、表示装置403上で結像される。一方で、被写体405は結像範囲402の外に位置するため、表示装置403上で結像されずに、例えばボケた状態で表示される。
撮影範囲と表示範囲401、結像範囲402が、図4(b)で示す関係性を持つのは、本実施形態が表示装置と想定する裸眼立体視ディスプレイの特性によるものである。裸眼立体視ディスプレイとは、3次元(3D)眼鏡等のデバイスを利用せずに、裸眼で3次元(3D)映像を視ることが可能なディスプレイである。例えば、レンズアレイを用いた裸眼立体視ディスプレイであれば、ディスプレイの表面上に並んだレンズアレイの光学特性を利用して、被写体が表示されるディスプレイ内の奥行き方向のある面に、レンズアレイの結像面が設けられる。これが結像範囲402である。このような原理から、ディスプレイの奥行き方向全てを結像面とすることが難しく、結像範囲402は表示範囲401よりも狭い範囲となる。
また、結像面はディスプレイ表面に物理的に設けられたレンズアレイによって決まるため、表示範囲401に対する結像範囲402の位置と大きさは、ディスプレイ(表示装置)ごとに固有の設定となる。ゆえに、表示範囲401に対して結像範囲402だけを例えば大きくすることはできない。結像範囲402の外に位置した被写体405を結像させるには、例えば、仮想カメラ400の位置を被写体から遠ざけて、被写体に対する結像範囲402の相対的な大きさを大きくする必要がある。
そこで、所定の被写体が結像範囲402内に含まれるか否かを判別し、結像範囲402内に被写体が含まれない場合に、結像範囲402内に仮想空間における被写体の位置が含まれるように仮想カメラ400の位置を制御する処理を行うのが、図3に示す操作可能領域制御部106である。
(操作可能領域制御部106の構成)
図5は本発明の実施形態1に係る操作可能領域制御部106の機能構成を説明するためのブロック図である。操作可能領域制御部106は、機能構成として、結像範囲算出部500、奥行き算出部501、比較部502、座標算出部503、座標送信部504を有する。
図5は本発明の実施形態1に係る操作可能領域制御部106の機能構成を説明するためのブロック図である。操作可能領域制御部106は、機能構成として、結像範囲算出部500、奥行き算出部501、比較部502、座標算出部503、座標送信部504を有する。
結像範囲算出部500は、まず、仮想カメラ座標取得部104から入力された仮想カメラ400の位置座標を基にして仮想カメラ400の撮影範囲を求める。次に、結像範囲算出部500は、表示特性識別部103で識別した仮想カメラ400の撮影範囲に対する結像範囲の位置と大きさのテーブルから、仮想カメラ400の位置座標における結像範囲402を算出する。すなわち、結像範囲算出部500は、仮想カメラ座標取得部104から入力された仮想カメラを操作するための指示情報と、表示特性識別部103から入力された表示装置の結像範囲をする識別ための物理情報とに基づいて、仮想カメラ400の現在の視点(仮想カメラ400の位置)における表示装置の結像範囲を算出する。
奥行き算出部501は、仮想カメラ400の光軸700と被写体との交点のうち、仮想カメラ400に対する第1の位置と、第1の位置に比べて仮想カメラ400から遠い第2の位置との間の位置座標を求め、この位置座標に基づいた距離を被写体の奥行きとして算出する。例えば、奥行き算出部501は、仮想カメラ400の位置情報と、被写体の座標位置情報を基に、被写体座標取得部105で選択された被写体について、仮想カメラ400の光軸方向と被写体との交点のうち、仮想カメラ400に対して最も近い最近部(第1の位置)および仮想カメラ400に最も遠い最遠部(第2の位置)の間の位置座標を求め、2点間の距離を被写体の奥行きとして算出する。
比較部502は、結像範囲算出部500で算出された結像範囲402と、奥行き算出部501で算出された被写体の奥行きを比較して、結像範囲402内に被写体が含まれているか否かを判断する。
座標算出部503は、比較部502の比較結果で、被写体の奥行きが結像範囲402内に含まれていないと判断された場合に(被写体の奥行き>結像範囲402)、結像範囲402内に被写体が含まれるように仮想カメラ400の位置座標を修正した仮想カメラ400の位置を算出する。
一方、比較部502の比較結果で、被写体の奥行きが結像範囲402内に含まれている判断された場合に(被写体の奥行き≦結像範囲402)、座標送信部504は、座標算出部503による仮想カメラ400の位置座標の修正を行うことなく、取得した仮想カメラ400の位置座標に基づいて仮想カメラ400の位置座標を更新する。
座標送信部504は、比較部502の情報もしくは、座標算出部503により修正された仮想カメラ400の位置情報を基に、仮想カメラ400の位置座標を仮想カメラ位置設定部107に設定する。
(実施形態1の処理)
図6は実施形態1に係る処理の流れを説明するフローチャートであり、図6のフローチャートを用いて、本発明の実施形態1の特徴となる任意の被写体が結像範囲に含まれるように仮想カメラ400の位置を制御する処理について説明する。本制御処理はCPU320が実行する。
図6は実施形態1に係る処理の流れを説明するフローチャートであり、図6のフローチャートを用いて、本発明の実施形態1の特徴となる任意の被写体が結像範囲に含まれるように仮想カメラ400の位置を制御する処理について説明する。本制御処理はCPU320が実行する。
まず、ステップS601において、操作情報入力部101に接続された、表示装置403の物理情報が参照され、操作情報入力部101は、表示装置403の物理情報を表示特性識別部103に送信する。
続くステップS602で、表示特性識別部103は、操作情報入力部101から受信した個々の表示装置(表示デバイス)の特性を示す物理情報から、仮想カメラの撮影範囲に対する結像範囲の位置と大きさを、保有するテーブルの参照により識別する。
ステップS603において、ユーザが不図示のモニタ上で、結像対象の被写体を選択し、操作情報入力部101が、選択された被写体の、例えば、IDを保有するテーブルの参照により取得し、取得したIDを結像対象の被写体情報として被写体座標取得部105に送信する。
ステップS604において、被写体座標取得部105は、保有するテーブルの参照により、受信した被写体情報(ID)と対応付けられた仮想空間における被写体の位置座標を取得する。そして、被写体座標取得部105は、取得した被写体の位置座標を操作可能領域制御部106に対して送信する。
なお、結像対象の被写体を選択し、当該被写体が結像範囲に含まれるように仮想カメラ400の位置を制御する場合に限られず、結像対象外の被写体を選択することも可能である。この場合、以降のステップで、結像対象外の被写体が結像範囲に含まれないように仮想カメラ400の位置を修正するように制御を行えばよい。
ステップS605において、ユーザが仮想カメラ400の位置を操作する。操作情報入力部101は、ユーザの操作に基づいた仮想カメラの操作指示情報(例えば、仮想カメラ400の移動量を指定する移動ベクトル)を仮想カメラ座標取得部104に送信する。
ステップS606において、仮想カメラ座標取得部104は、操作情報入力部101から受信した操作指示情報(移動ベクトル)を基に、仮想カメラ400の仮想空間上における位置座標を取得する。その後、仮想カメラ座標取得部104は、取得した仮想カメラ400の位置座標を操作可能領域制御部106に対して送信する。
ステップS607において、結像範囲算出部500は、ステップS606で受信した仮想カメラ400の位置座標に基づいて表示装置403上に表示可能な表示範囲401(撮影範囲)を算出する。
ステップS608において、結像範囲算出部500は、仮想カメラ400の撮影範囲に対する結像範囲の位置と大きさのテーブルから、現在の仮想カメラ400の位置座標における結像範囲402を算出する。そして、結像範囲算出部500は、算出した結像範囲402を比較部502に対して送信する。
ステップS609において、奥行き算出部501は、ステップS606で受信した仮想カメラ400の位置座標における光軸700を算出する。
ステップS610において、奥行き算出部501は、ステップS604で算出された位置座標に位置する被写体について、仮想カメラ400の光軸700方向における被写体の奥行き701を算出する。なお、結像対象の被写体が複数の場合は、例えば、図7(b)のように、仮想カメラ400に対して最も近い被写体404と、仮想カメラ400に対して最も遠い被写体405との距離を求め、2点間の距離を奥行き701として算出する。
ステップS611において、比較部502は、ステップS608で結像範囲算出部500により算出された結像範囲402の範囲内に、ステップS610で奥行き算出部501により算出された奥行き701が含まれているか否かを判断する。ステップS611の判断の結果、結像範囲402の範囲内に被写体の奥行き701が含まれている場合は(S611-Yes)、処理をステップS612に進める。ステップS612では、座標送信部504は、ステップS606で取得した仮想カメラ400の位置座標を仮想カメラ位置設定部107に送信する。ここで、座標送信部504は、座標算出部503による仮想カメラ400の位置座標の修正を行うことなく、ステップS606で取得した仮想カメラ400の位置座標に基づいて仮想カメラ400の視点の位置を維持(修正なく位置を更新)する。
一方、S611の判断の結果、結像範囲402の範囲内に被写体の奥行き701が含まれていない場合(S611-No)、処理をステップS613に進める。ステップS613では、座標算出部503は、ステップS610で算出した奥行き701が結像範囲402の範囲内に含まれるように、仮想カメラ400の位置座標を修正し、修正した位置座標により仮想カメラの位置を更新する。例えば、図7(c)のように、仮想カメラ400を光軸700に沿って被写体から離す方向(矢印702の方向)に位置座標を修正することで、被写体に対する結像範囲402の相対的な大きさを大きくすることができる。これにより、拡大した結像範囲402の範囲内に被写体の奥行き701が含まれるように仮想カメラの位置を制御することができる。このような処理によって、位置座標の修正前では図7(a)のように結像対象である被写体405が結像できていない状態(破線で示す状態)から、位置座標の修正後では図7(d)のように、結像できている状態(実線で示す状態)へと結像範囲402の範囲内に被写体を含めることが可能となる。なお、仮想カメラ400の位置座標の修正制御は、視点をずらさないように光軸700方向に沿って修正することを想定しているが、光軸700からずれる方向に修正してもよい。
以上に説明したように、表示装置が有する結像範囲に任意の被写体が含まれるように制御する処理によって、結像範囲に被写体が含まれるか否かを人為的に確認せずに仮想視点画像を生成することが可能になる。これにより、裸眼立体視ディスプレイなどの表示装置で仮想視点画像を表示する場合に、被写体が動いても結像させ続けることが可能になり、例えば、ダンスやスポーツなど、被写体が継続的に移動するシーンでも、任意の被写体を結像し続けることができる。
[実施形態2]
本実施形態では、表示装置が有する結像範囲に対して、被写体ごとに結像範囲に含める程度を任意に指定する制御処理に関して説明する。
本実施形態では、表示装置が有する結像範囲に対して、被写体ごとに結像範囲に含める程度を任意に指定する制御処理に関して説明する。
実施形態1においては、結像対象の被写体が完全に結像範囲402の範囲内に含まれるように仮想カメラ400の位置座標を制御する方法を説明した。ただし、被写体を意図的に結像させないような映像制作の手法も可能である。例えば、ドラマや映画といった映像制作において、注目する被写体を浮き上がらせるために、カメラの被写界深度を狭くして、他の被写体をある程度ぼかすという表現方法をとることがある。実施形態2では、被写体ごとにどの程度結像させるかの閾値を設定可能とすることで、このような表現方法への対応を可能とするものである。
以下の説明では、図8により実施形態2に係る仮想視点画像生成システムの全体について説明し、図9、図10により本発明の実施形態2の特徴である、結像範囲に被写体が含まれる範囲を指定する処理に関する機能構成について説明し、図11により、その処理の流れを説明する。
実施形態1と同一の番号が付されているものは、同一の構成要素を示すものであり、ここでは説明を省略する。
(仮想視点画像生成システム800の説明)
図8は実施形態2に係る仮想視点画像生成システム800の機能構成を説明するためのブロック図である。仮想視点画像生成システム800は、操作情報入力部801と、仮想視点画像生成装置802とを有する。
図8は実施形態2に係る仮想視点画像生成システム800の機能構成を説明するためのブロック図である。仮想視点画像生成システム800は、操作情報入力部801と、仮想視点画像生成装置802とを有する。
(操作情報入力部801)
操作情報入力部801は、仮想視点画像生成装置802に対して、仮想視点の操作を行うための仮想カメラの操作指示情報、表示装置が有する物理的な結像範囲を識別するための物理情報、結像対象とする被写体情報のほかに、被写体ごとの閾値情報を送信する。
操作情報入力部801は、仮想視点画像生成装置802に対して、仮想視点の操作を行うための仮想カメラの操作指示情報、表示装置が有する物理的な結像範囲を識別するための物理情報、結像対象とする被写体情報のほかに、被写体ごとの閾値情報を送信する。
被写体ごとの閾値情報は、表示装置が有する結像範囲に対して、被写体ごとに結像範囲に含まれる程度(割合)を任意に指定する閾値であり、ユーザが結像対象として被写体を選択する際に、追加的に設定するものである。閾値情報は、例えば、50%や100%といった割合で設定され、設定された閾値情報に基づいて、奥行き701を補正する。なお、閾値情報の設定方法としては、割合以外にも、例えば、優先度が「高い」、又は優先度が「低い」など、閾値の段階を示す設定であってもよい。
仮想視点画像生成装置802は、操作情報入力部801から送信された各情報に基づいて、仮想空間上の被写体を表示装置が有する結像範囲に被写体が含まれるように仮想カメラの位置を制御して、仮想視点画像を生成する。仮想視点画像生成装置802は、機能構成として閾値設定部803と操作可能領域制御部804とを有する点で、実施形態1で説明した仮想視点画像生成装置102と相違する。
閾値設定部803は、操作情報入力部801から送信される、被写体ごとにどの程度の割合で結像範囲402に含めるかの閾値情報を識別する。例えば、被写体の全てを結像範囲402に含める場合の閾値(割合)を100%とする。操作情報入力部801から送られる閾値情報が「高・低」といった優先度で送られてくる場合に、閾値設定部803は、優先度(高)として設定されている閾値(例えば、70%)や優先度(低)として設定されている閾値(例えば、30%)への修正を行う。
操作可能領域制御部804は、表示特性識別部103、仮想カメラ座標取得部104、被写体座標取得部105および閾値設定部803から受信した各情報に基づいて、結像範囲内部に指定の閾値の割合だけ被写体が含まれるように、仮想カメラの位置を制御する。操作可能領域制御部804は、制御された仮想カメラの位置を仮想カメラ位置設定部107に送信し、仮想カメラ位置設定部107は、操作可能領域制御部804により制御された仮想カメラの位置の情報に基づいて仮想カメラの位置を実際に設定する。
(操作可能領域制御部804の構成)
図9は本発明の実施形態2に係る操作可能領域制御部804の機能構成を説明するためのブロック図である。操作可能領域制御部804は、実施形態1の操作可能領域制御部106の機能構成から奥行き算出部900が変更された機能構成となっている。
図9は本発明の実施形態2に係る操作可能領域制御部804の機能構成を説明するためのブロック図である。操作可能領域制御部804は、実施形態1の操作可能領域制御部106の機能構成から奥行き算出部900が変更された機能構成となっている。
奥行き算出部900は、閾値設定部803から取得した被写体ごとに設定された閾値情報と、仮想カメラ400の位置情報と、被写体の座標位置情報を基に、奥行きを算出する。奥行き算出部900は、算出した奥行きを比較部502へ送信する。比較部502は、結像範囲算出部500で算出された結像範囲402と、奥行き算出部900で算出された被写体の奥行きを比較し、結像範囲402内に閾値情報に基づいた被写体の奥行きが含まれているか否かを判断する。比較部502による比較の結果は、座標算出部503または座標送信部504に送信され、以降、実施形態1と同様の処理を経て、仮想カメラ位置設定部107に仮想カメラ400の位置座標が送信される。
(奥行き算出部900の説明)
図10は、実施形態2に係る奥行き算出部900による奥行きの算出例を説明する図である。仮想カメラ400の位置に対して手前側に被写体404が位置しており、仮想カメラ400の位置に対して奥側に被写体405が位置している。この例では、被写体404に対して設定される閾値が100%で、被写体405に対して設定される閾値が50%であるとする。この場合、被写体404における仮想カメラ400に対して最も近い位置から、被写体405自身が有する奥行き1001を半分(設定された閾値:50%相当分)だけ短くした位置までの距離をとった奥行き1002を算出する。
図10は、実施形態2に係る奥行き算出部900による奥行きの算出例を説明する図である。仮想カメラ400の位置に対して手前側に被写体404が位置しており、仮想カメラ400の位置に対して奥側に被写体405が位置している。この例では、被写体404に対して設定される閾値が100%で、被写体405に対して設定される閾値が50%であるとする。この場合、被写体404における仮想カメラ400に対して最も近い位置から、被写体405自身が有する奥行き1001を半分(設定された閾値:50%相当分)だけ短くした位置までの距離をとった奥行き1002を算出する。
(実施形態2の処理)
図11は実施形態2に係る処理の流れを説明するフローチャートであり、図11のフローチャートを用いて、本発明の実施形態2の特徴となる、表示装置が有する結像範囲に対して、被写体ごとに結像範囲に含める程度を任意に指定する閾値を踏まえて仮想カメラ400の位置を制御する処理について説明する。本処理はCPU320が実行する。実施形態1で説明した処理のフローチャート(図6)と同様の処理については、同一のステップ番号を付し、説明を省略する。
図11は実施形態2に係る処理の流れを説明するフローチャートであり、図11のフローチャートを用いて、本発明の実施形態2の特徴となる、表示装置が有する結像範囲に対して、被写体ごとに結像範囲に含める程度を任意に指定する閾値を踏まえて仮想カメラ400の位置を制御する処理について説明する。本処理はCPU320が実行する。実施形態1で説明した処理のフローチャート(図6)と同様の処理については、同一のステップ番号を付し、説明を省略する。
まず、ステップS1101において、ステップS603で選択された結像対象の各被写体について、ユーザが閾値情報を設定する。設定された閾値情報は操作情報入力部801から閾値設定部803に送信される。
ステップS1102において、奥行き算出部900は、被写体の座標位置情報(S604)と、仮想カメラ400の位置情報(S606)と、閾値設定部803から取得した被写体ごとに設定された閾値情報(S1101)とに基づいて、被写体の奥行きを算出する。奥行き算出部900は、算出した奥行き1102を比較部502へ送信する。
以降の制御処理は実施形態1に係る制御処理と同等である。ステップS611の判断の結果、結像範囲402の範囲内に被写体ごとに設定された閾値情報に基づいた被写体の奥行きが含まれている場合は(S611-Yes)、処理をステップS612に進める。ステップS612では、座標送信部504は、ステップS606で取得した仮想カメラ400の位置座標を仮想カメラ位置設定部107に送信する。ここで、座標送信部504は、座標算出部503による仮想カメラ400の位置座標の修正を行うことなく、ステップS606で取得した仮想カメラ400の位置座標に基づいて仮想カメラ400の位置座標を更新する。
一方、S611の判断の結果、結像範囲402の範囲内に被写体ごとに設定された閾値情報に基づいた被写体の奥行きが含まれていない場合(S611-No)、処理をステップS613に進める。ステップS613では、座標算出部503は、ステップS610で算出した奥行き701が結像範囲402の範囲内に含まれるように、仮想カメラ400の位置座標を修正して仮想カメラ400の位置を制御する。
先に説明した実施形態1では、被写体の奥行き701を結像範囲402に含めるために、図7(c)のように、仮想カメラ400を光軸700に沿って被写体から離す方向(矢印702の方向)に位置座標を修正することで、被写体に対する結像範囲402の相対的な大きさを大きくする例を説明した。
実施形態2では、図7(c)で説明した処理例の他に、例えば、閾値が設定された被写体の奥行きを結像範囲に含めるために、被写体に対する結像範囲の相対的な大きさを小さくすることが必要とされる場合には、仮想カメラ400を光軸700に沿って被写体に近づける方向(矢印702の逆方向)に位置座標を修正することも可能である。
以上説明したように、裸眼立体視ディスプレイなどの表示装置で仮想視点画像を表示する場合に、被写体が動いても結像させ続けることが可能になり、更に、表示装置が有する結像範囲に対して、被写体ごとに設定された閾値情報に基づき、被写体ごとに結像範囲に含める範囲を任意に指定する処理によって、特定の被写体のみ結像し、他の被写体をある程度ぼかした仮想視点画像を生成することが可能になる。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:仮想視点画像生成システム、
101:操作情報入力部、102:仮想視点画像生成装置、
103:表示特性識別部、104:仮想カメラ座標取得部、
105:被写体座標取得部、106:操作可能領域制御部、
107:仮想カメラ位置設定部、400:仮想カメラ、
402:結像範囲、403:表示装置
101:操作情報入力部、102:仮想視点画像生成装置、
103:表示特性識別部、104:仮想カメラ座標取得部、
105:被写体座標取得部、106:操作可能領域制御部、
107:仮想カメラ位置設定部、400:仮想カメラ、
402:結像範囲、403:表示装置
Claims (13)
- 仮想空間に位置する仮想的なカメラである仮想カメラの撮影範囲に対する表示手段の結像範囲に、前記仮想空間における被写体の位置が含まれるように、前記仮想カメラの位置を制御する制御手段と、
前記制御手段により制御された前記仮想カメラの位置に基づいて仮想視点画像を生成する生成手段と、
を備えることを特徴とする画像生成装置。 - 前記仮想カメラを操作するための操作指示情報と、前記表示手段の結像範囲を識別ための物理情報と、選択された被写体を特定するための被写体情報とを入力する入力手段と、
前記操作指示情報に基づいて前記仮想空間における前記仮想カメラの位置を取得するカメラ座標取得手段と、
前記物理情報に基づいて、前記仮想カメラの撮影範囲に対する前記結像範囲の位置と大きさを識別する識別手段と、
前記被写体情報に基づいて、前記仮想空間における前記被写体の位置を取得する被写体座標取得手段と、
を更に備えることを特徴とする請求項1に記載の画像生成装置。 - 前記制御手段は、
前記仮想カメラの位置に基づいた撮影範囲を求め、当該撮影範囲に対する結像範囲の位置と大きさを保持するテーブルから、前記仮想カメラの位置における前記結像範囲を算出する結像範囲算出手段と、
前記仮想カメラの位置と、前記被写体の位置とに基づいて、前記仮想カメラの光軸方向における前記被写体の奥行きを算出する奥行き算出手段と、
前記結像範囲と前記被写体の奥行きとを比較する比較手段と、を備え、
前記比較手段の比較により、前記被写体の奥行きが前記結像範囲に含まれていない場合に、前記結像範囲に前記被写体の奥行きが含まれるように前記仮想カメラの位置を制御することを特徴とする請求項1または2に記載の画像生成装置。 - 前記制御手段は、前記被写体の奥行きが前記結像範囲に含まれていない場合に、前記仮想カメラの位置を前記被写体から離す方向に前記仮想カメラの位置を制御することを特徴とする請求項3に記載の画像生成装置。
- 前記制御手段は、前記仮想カメラの光軸に沿って、前記被写体から離す方向に前記仮想カメラの位置を制御することを特徴とする請求項4に記載の画像生成装置。
- 前記制御手段は、前記比較手段の比較により、前記被写体の奥行きが前記結像範囲に含まれている場合に、前記仮想カメラの位置を維持することを特徴とする請求項3に記載の画像生成装置。
- 前記奥行き算出手段は、前記仮想カメラの光軸と前記被写体との交点のうち、前記仮想カメラに対する第1の位置と、前記第1の位置に比べて前記仮想カメラから遠い第2の位置との間の位置座標を求め、当該位置座標に基づいた距離を前記被写体の奥行きとして算出することを特徴とする請求項3乃至6のいずれか1項に記載の画像生成装置。
- 前記結像範囲に前記被写体の奥行きを含める割合を設定する閾値設定手段を更に備え、
前記奥行き算出手段は、前記被写体の位置と、前記仮想カメラの位置と、前記割合とに基づいて、前記被写体の奥行きを算出し、
前記制御手段は、前記割合が設定された被写体の奥行きが前記結像範囲に含まれるように前記仮想カメラの位置を制御することを特徴とする請求項3乃至7のいずれか1項に記載の画像生成装置。 - 前記閾値設定手段は、前記被写体が複数の場合に、複数の被写体のそれぞれに、前記割合を設定することを特徴とする請求項8に記載の画像生成装置。
- 前記奥行き算出手段は、前記閾値設定手段で設定された前記割合に基づいて、前記被写体の奥行きを補正することを特徴とする請求項8または9に記載の画像生成装置。
- 前記表示手段には、裸眼立体視ディスプレイが含まれることを特徴とする請求項1乃至10のいずれか1項に記載の画像生成装置。
- 仮想視点画像を生成する画像生成装置における画像生成方法であって、
仮想空間に位置する仮想的なカメラである仮想カメラの撮影範囲に対する表示手段の結像範囲に、前記仮想空間における被写体の位置が含まれるように、前記仮想カメラの位置を制御し、
前記制御された前記仮想カメラの位置に基づいて前記仮想視点画像を生成することを特徴とする画像生成方法。 - コンピュータを、請求項1乃至11のいずれか1項に記載の画像生成装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195361A JP2022083816A (ja) | 2020-11-25 | 2020-11-25 | 画像生成装置、画像生成方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195361A JP2022083816A (ja) | 2020-11-25 | 2020-11-25 | 画像生成装置、画像生成方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022083816A true JP2022083816A (ja) | 2022-06-06 |
Family
ID=81855363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020195361A Pending JP2022083816A (ja) | 2020-11-25 | 2020-11-25 | 画像生成装置、画像生成方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022083816A (ja) |
-
2020
- 2020-11-25 JP JP2020195361A patent/JP2022083816A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9699438B2 (en) | 3D graphic insertion for live action stereoscopic video | |
JP7349793B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
JP6849430B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
WO2019152617A1 (en) | Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display | |
JP4700476B2 (ja) | 多視点映像合成装置及び多視点映像合成システム | |
US10386633B2 (en) | Virtual object display system, and display control method and display control program for the same | |
JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
CN109510977A (zh) | 使用同心观察圆来生成立体光场全景 | |
JP5856344B1 (ja) | 3d画像表示装置 | |
JP2010154052A (ja) | 複数カメラ制御システム | |
JP2020068513A (ja) | 画像処理装置および画像処理方法 | |
TW202101374A (zh) | 影像的深度圖之處理 | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
US20220277511A1 (en) | Information processing apparatus, information processing method, and recording medium | |
CN114371779A (zh) | 一种视线深度引导的视觉增强方法 | |
JP7423251B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022083816A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP7395296B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2021182153A1 (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム | |
KR102001255B1 (ko) | 스테레오 영상 획득 및 시청 연동 시스템 | |
JP2022038176A (ja) | 制御装置、制御方法およびプログラム | |
JP2023003765A (ja) | 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム | |
JP2022519033A (ja) | シーンの画像表現 | |
JP2020182109A (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231116 |