JP2019121945A - 撮像装置、その制御方法及びプログラム - Google Patents
撮像装置、その制御方法及びプログラム Download PDFInfo
- Publication number
- JP2019121945A JP2019121945A JP2018001089A JP2018001089A JP2019121945A JP 2019121945 A JP2019121945 A JP 2019121945A JP 2018001089 A JP2018001089 A JP 2018001089A JP 2018001089 A JP2018001089 A JP 2018001089A JP 2019121945 A JP2019121945 A JP 2019121945A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- imaging device
- viewpoint image
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】任意視点画像を生成するのに有効な撮影アシスト機能を実現する。【解決手段】位置姿勢推定部105は、撮影画像の撮影時の撮像装置の位置姿勢を推定する。距離情報取得部106は、撮影の距離情報を取得する。仮想視点画像生成部107は、撮影画像と、撮像装置の位置姿勢情報と、距離情報とを用いて、仮想的に設定した位置姿勢から見た仮想視点画像を生成する。オクルージョン判定部108は、仮想視点画像生成部107により生成された仮想視点画像に生じる欠落領域であるオクルージョン領域の大きさを判定する。次撮影位置姿勢決定部109は、オクルージョン判定部108により判定されたオクルージョン領域の大きさに基づいて、次に撮影を行うべき位置姿勢を決定する。指示部110は、次撮影位置姿勢決定部109により決定された次撮影位置姿勢を、例えば撮像装置が備える液晶モニタに表示することでユーザに指示する。【選択図】図1
Description
本発明は、視点位置の異なる画像を複数枚撮影するための撮影アシスト機能を持つ撮像装置、その制御方法及びプログラムに関する。
視点位置の異なる画像を複数枚撮影しておき、それらを合成することにより、任意の視点位置から見た任意視点画像を生成する技術がある。撮影後に視点位置を変更できることにより、撮影の失敗を減らすとともに、ユーザが好みの画像を作り上げる機会を提供することができる。
任意視点画像の生成には、撮影シーンに対して処理に適した画像を複数枚撮影する必要があることから、例えばどのような視点位置からの画像を撮影すればよいかをユーザインタフェース上で指示するような撮影アシスト機能が存在する。
特許文献1には、3次元画像を構成する2つの撮影画像を得るために、カメラデバイスでの1回目の撮影の後に2回目の撮影位置への移動をディスプレイでガイドする表示制御を実行し、その際に、所定の視差量に基づいた移動をガイドする構成が開示されている。
任意視点画像の生成には、撮影シーンに対して処理に適した画像を複数枚撮影する必要があることから、例えばどのような視点位置からの画像を撮影すればよいかをユーザインタフェース上で指示するような撮影アシスト機能が存在する。
特許文献1には、3次元画像を構成する2つの撮影画像を得るために、カメラデバイスでの1回目の撮影の後に2回目の撮影位置への移動をディスプレイでガイドする表示制御を実行し、その際に、所定の視差量に基づいた移動をガイドする構成が開示されている。
特許文献1では、2画像間で所定の視差量に基づいて一律に撮影位置を指示することが開示されている。しかしながら、特許文献1では、オクルージョンそのものを考慮して次の撮影位置をガイドするものではないため、任意視点画像の生成に必要な画像を効率良く撮影するように指示できるとは限らない。
本発明は上記のような点に鑑みてなされたものであり、任意視点画像を生成するのに有効な撮影アシスト機能を実現することを目的とする。
本発明の撮像装置は、撮影画像を取得する撮像装置であって、前記撮像装置の位置情報を取得する位置情報取得手段と、撮影の距離情報を取得する距離情報取得手段と、前記撮影画像と、前記位置情報取得手段で取得した前記撮像装置の位置情報と、前記距離情報取得手段で取得した距離情報とを用いて、仮想的に設定した位置から見た仮想視点画像を生成する仮想視点画像生成手段と、前記仮想視点画像生成手段で生成した前記仮想視点画像に生じる欠落領域に基づいて、次に撮影を行うべき位置を決定する次撮影位置決定手段と、前記次撮影位置決定手段で決定した次に撮影を行うべき位置を提示する提示手段とを備えたことを特徴とする。
本発明によれば、任意視点画像を生成するのに有効な撮影アシスト機能を実現することができる。
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
(第1の実施形態)
図1に、第1の実施形態に係る撮像装置の構成を示す。
101は被写体像を形成する光学系である。102はCCDセンサやCMOSセンサ等の撮像素子であり、光学系101により形成される被写体像を光電変換する。103は現像処理部であり、撮像素子102から出力される電気信号から映像信号を形成する。現像処理部103は、不図示のA/D変換部、オートゲイン制御部(AGC)、オートホワイトバランス部を含み、デジタル信号を形成する。撮像素子102及び現像処理部103により、撮影画像の取得を行う撮像系が構成される。104は記憶媒体であるメモリであり、映像信号や撮像装置の位置姿勢情報等を一時的に記憶保持する。
(第1の実施形態)
図1に、第1の実施形態に係る撮像装置の構成を示す。
101は被写体像を形成する光学系である。102はCCDセンサやCMOSセンサ等の撮像素子であり、光学系101により形成される被写体像を光電変換する。103は現像処理部であり、撮像素子102から出力される電気信号から映像信号を形成する。現像処理部103は、不図示のA/D変換部、オートゲイン制御部(AGC)、オートホワイトバランス部を含み、デジタル信号を形成する。撮像素子102及び現像処理部103により、撮影画像の取得を行う撮像系が構成される。104は記憶媒体であるメモリであり、映像信号や撮像装置の位置姿勢情報等を一時的に記憶保持する。
105は位置姿勢推定部であり、現像処理部103から入力される撮影画像の撮影時の撮像装置の位置姿勢を推定する。本実施形態では、位置姿勢推定部105が本発明でいう位置情報取得手段として機能する。106は距離情報取得部であり、撮影の距離情報を取得する。本実施形態では、距離情報取得部106が本発明でいう距離情報取得手段として機能する。
107は仮想視点画像生成部であり、撮影画像と、位置姿勢推定部105により推定された撮像装置の位置姿勢情報と、距離情報取得部106により取得された距離情報とを用いて、仮想的に設定した位置姿勢から見た仮想視点画像を生成する。本実施形態では、仮想視点画像生成部107が本発明でいう仮想視点画像生成手段として機能する。108はオクルージョン判定部であり、仮想視点画像生成部107により生成された仮想視点画像に生じる欠落領域であるオクルージョン領域の大きさを判定する。
109は次撮影位置姿勢決定部であり、オクルージョン判定部108により判定されたオクルージョン領域の大きさに基づいて、次に撮影を行うべき位置姿勢(次撮影位置姿勢と称する。)を決定する。本実施形態では、次撮影位置姿勢決定部109が本発明でいう次撮影位置決定手段として機能する。110は指示部であり、次撮影位置姿勢決定部109により決定された次撮影位置姿勢を、例えば撮像装置が備える液晶モニタに表示することでユーザに指示する。本実施形態では、指示部110が本発明でいう提示手段として機能する。
図2は、第1の実施形態に係る撮像装置の動作を示すフローチャートである。
ステップS201で、撮像素子102は、光学系101により形成される被写体像を被写体輝度に応じたアナログ信号として出力する。現像処理部103は、撮像素子102から出力されたアナログ信号をデジタル信号に変換し、各種処理を施すことにより映像信号を生成する。現像処理部103内にあるAGC及びAWBによって信号レベル補正や白レベル補正が行われたデジタル映像信号は、メモリ104に記憶保持される。本実施形態では、所定のフレームレートで順次フレーム画像が生成され、メモリ104に記憶保持されたフレーム画像は位置姿勢推定部105に入力される。また、メモリ104において記憶保持されるフレーム画像も順次更新される。
ステップS201で、撮像素子102は、光学系101により形成される被写体像を被写体輝度に応じたアナログ信号として出力する。現像処理部103は、撮像素子102から出力されたアナログ信号をデジタル信号に変換し、各種処理を施すことにより映像信号を生成する。現像処理部103内にあるAGC及びAWBによって信号レベル補正や白レベル補正が行われたデジタル映像信号は、メモリ104に記憶保持される。本実施形態では、所定のフレームレートで順次フレーム画像が生成され、メモリ104に記憶保持されたフレーム画像は位置姿勢推定部105に入力される。また、メモリ104において記憶保持されるフレーム画像も順次更新される。
ステップS202で、位置姿勢推定部105は、現像処理部103から入力された2枚のフレーム画像を用いて、撮影時の撮像装置の位置姿勢を推定する。例えば2枚のフレーム画像間の対応点情報を入力として、F行列や5点法のような位置姿勢推定手法を用いて撮像装置の位置姿勢を推定する。ここでは、その一例として射影ホモグラフィを算出し、それを撮像装置の動き成分毎に分解する手法について説明する。対応点情報の取得については、Harrissの手法によってフレーム画像中のコーナー点を検出し、テンプレートテンプレートマッチング法によってもう一方の画像のどの座標位置に同一のコーナー点が存在するかを探索する手法がある。その他にも、FASTやSIFTのような2フレームでそれぞれ検出した特徴点について特徴量を算出し、その一致度を計算することでフレーム画像間での特徴点の対応関係を算出する手法がある。
撮像装置の位置姿勢の変動量を推定する対象となる2枚のフレーム画像のうち、一方の画像の各画素の座標を(ui,vi)、他方の画像の各画素の座標値を(ui´,vi´)、i=1,・・・,m(mは対応点数)とする。この場合、式(1)のように射影ホモグラフィについての線形式を得ることができる。
式(1)に対して線形最小二乗法を適用することにより、射影ホモグラフィ行列Hの各成分h={h11,・・・,h33}を求めることができる。そして、各成分h={h11,・・・,h33}を3×3の行列式に整形することにより、式(2)のように射影ホモグラフィ行列H、つまりフレーム画像間における撮像装置の位置姿勢の変動量を求めることができる。
次に、射影ホモグラフィ行列Hを、撮像装置の変動量の回転成分R、並進成分t→と基準面までの距離dの逆数との積t→/d、及び撮影シーンを1枚の平面と近似した場合の平面の法線n→に分解する。なお、t→やn→の表記はtやnの上に→が付されているものとする。射影ホモグラフィ行列Hの分解は、固有値分解や特異値分解を利用して不変量を算出することにより行われる。射影ホモグラフィ行列Hと撮像装置の位置姿勢の関係は、式(3)のように表される。n→は外向き、つまり撮像装置から離れる方向の法線とする。また、λは予め定められた定数である。
2枚のフレーム画像間での位置姿勢の算出では、空間平面の距離dと並進のノルムnorm(t→)の積を分けることはできない。ノルムとはベクトルの大きさを表す量である。つまり、t→は並進方向を表す単位方向ベクトルnorm(t→)=1、dは空間平面までの距離と並進量の大きさの積として扱われる。
まず、射影ホモグラフィ行列Hの符号は、平面上の全ての対応点x1 →、x2 →に対してx2 T→Hx1 →>0を満たすように選択されるとする。このときの射影ホモグラフィ行列Hの特異値分解をH=USVTとする。U及びVは3×3の回転行列であり、S=diag(σ1,σ2,σ3)は正の降順対角要素σ1≧σ2≧σ3≧0であり、射影ホモグラフィ行列Hの特異値とする。直交行列U及びVの列要素をそれぞれu1,u2,u3及びv1,v2,v3で表す。2枚のフレーム画像の一方の撮像装置の位置姿勢を第1の撮像装置の座標系とし、3次元平面をnT→x→=d=1/ζと定める。ζ=1/d≧0は平面に対する距離の逆数である。この座標系においては、第1の撮像装置の座標系では3×4の射影行列P1=[I3×3|0→]を持ち、もう一方のフレーム画像の第2の撮像装置の座標系ではP2=[I3×3|t]=[R|t´]を持つ。t´=−Rtであり、t、t´は撮像装置間の並進を表す。以上より、第1のフレーム画像から第2のフレーム画像へのホモグラフィはH=RH1であり、H1=I3×3−ζt→nT→となる。
まず、射影ホモグラフィ行列Hの符号は、平面上の全ての対応点x1 →、x2 →に対してx2 T→Hx1 →>0を満たすように選択されるとする。このときの射影ホモグラフィ行列Hの特異値分解をH=USVTとする。U及びVは3×3の回転行列であり、S=diag(σ1,σ2,σ3)は正の降順対角要素σ1≧σ2≧σ3≧0であり、射影ホモグラフィ行列Hの特異値とする。直交行列U及びVの列要素をそれぞれu1,u2,u3及びv1,v2,v3で表す。2枚のフレーム画像の一方の撮像装置の位置姿勢を第1の撮像装置の座標系とし、3次元平面をnT→x→=d=1/ζと定める。ζ=1/d≧0は平面に対する距離の逆数である。この座標系においては、第1の撮像装置の座標系では3×4の射影行列P1=[I3×3|0→]を持ち、もう一方のフレーム画像の第2の撮像装置の座標系ではP2=[I3×3|t]=[R|t´]を持つ。t´=−Rtであり、t、t´は撮像装置間の並進を表す。以上より、第1のフレーム画像から第2のフレーム画像へのホモグラフィはH=RH1であり、H1=I3×3−ζt→nT→となる。
平面上の3次元点x→に対して、式(4)が成立する。なぜならば、ζnT→x→=1であるからである。そして、x→を第1のフレーム画像内の任意点として扱うと、その違いは全体のスケール因子のみとなる。積ζt→nT→のみが復元可能で、それゆえ||t||=||n||=1で正規化する。
特異値分解のH=USVTとH1=U1SVTは回転成分Rの要素まで同じである。つまり、U=RU1である。H1において、外積ベクトルt→×n→は不変である。もし特異値が明確であれば、t→×n→は特異ベクトルに対応しなければならない。これにより、これは常に2番目の特異ベクトルv2であると分かる。それゆえ射影ホモグラフィ行列Hの補正正規化はH→H/σ2、つまり(σ1,σ2,σ3)→(σ1/σ2,1,σ3/σ2)である。以下、σ2による正規化が済まされているものと想定する。
第1のフレーム画像においてt→×n→がv2に対応することが与えられると、{t→,n→}部分空間は{v1,v3}により占められなければならない。つまり、任意のパラメータα、β(α2+β2=1)に対して、n→=βv1 →−αv3 →、n→×(t→×n→)≒αv1 →+βv3 →である。n→に直交する任意方向、特にn→×(t→×n→)はH又はH1によって変化しないノルムを持つ。ここで、式(5)又は式(6)である。t→×n→をv1又はv3に対応させると、解がなくなってしまう。それゆえv2のみが可能となる。
厳密には、左辺の同じ引数がRt→=−(βu1+αu3)を示す。t→がH1の固有値1−ζn→tT→の固有ベクトルを満たすならば、式(7)を得る。ゆえに、式(8)のようになる。単純化後はζ=σ1−σ3である。
H1の特異値分解の左辺(U1の列u1 →,u2 →,u3 →)は表記u2 →=v2 →により復元可能であり、t→がH1の固有ベクトルであることが必要である。そこでは、式(9)〜式(12)として、回転成分Rが得られる。
このようにして撮像装置の位置姿勢を推定すればよいが、ここで推定できるのはあくまでも2枚のフレーム間の相対的な位置姿勢の変動量である。そこで、本実施形態では、例えば最初に撮影を行った位置を基準として、仮想的に設定した位置までの位置姿勢の変動量を、仮想的に設定した位置における撮像装置の位置姿勢とする。
以上のようにして取得された撮像装置の位置姿勢情報は、仮想視点画像生成部107に伝送される。
以上のようにして取得された撮像装置の位置姿勢情報は、仮想視点画像生成部107に伝送される。
撮像装置の位置姿勢を推定する他の手法として、撮像装置に搭載されている位置姿勢検出センサを用いるようにしてもよい。2枚の画像の撮影期間において取得されるセンサ情報を積分し、そこからフィルタリング処理によってノイズやドリフト成分を除去したものが2枚のフレーム画像間での位置姿勢の変動量となる。位置姿勢検出センサとしては、撮像装置のロール、ピッチ、ヨーの動きを検出可能なジャイロセンサや、前後、左右、上下方向の並進移動量を加速度として検出可能な加速度センサ等がある。なお、撮像装置によっては、これらの位置姿勢検出センサの全てが搭載されておらず、全ての動きをセンサから取得することができない場合がある。この場合、検出できない動き成分については、前述の手法によって2枚のフレーム画像から当該動き成分の検出を行い、センサから取得された位置姿勢情報との統合を行う。例えば撮像装置にジャイロセンサは搭載されているが、加速度センサが搭載されていない場合、撮像装置の並進移動量をセンサから得ることはできない。そこで、並進移動量については2枚のフレーム画像間を用いて検出する。そして、式(3)のRにはジャイロセンサから得られたロール、ピッチ、ヨーの値を代入し、t→については画像から得られた並進移動量を代入すればよい。
ステップS203で、距離情報取得部106は、撮影の距離情報を取得する。例えば撮像装置に取り付け可能な外測の測距センサを用いて、撮影の距離情報を取得する。測距センサとしては、赤外レーザ光を照射して撮影シーン中の物体に反射して戻ってくるまでの時間に基づいて距離を算出するものや、既知のパターン光を投影してそのパターン形状の変化に基づいて距離を算出するものがある。また、測距センサを用いる以外にも、複数枚の入力フレーム画像の各画素の対応関係とそれぞれが撮影された撮像装置の位置姿勢情報に基づいて距離情報を算出する手法もある。距離情報の取得手法は限定されるものではなく、取得されるフレーム画像と時間的な同期が取れており、フレーム画像の各画素と距離情報の座標の対応関係が分かるものであれば、どのような手法を用いてもよい。
以上のようにして取得された撮影の距離情報は、仮想視点画像生成部107に伝送される。
以上のようにして取得された撮影の距離情報は、仮想視点画像生成部107に伝送される。
ステップS204で、仮想視点画像生成部107は、仮想的に設定した位置姿勢から見た仮想視点画像を生成する。仮想視点画像の生成には、ステップS201において入力されたフレーム画像、ステップS202において推定された撮像装置の位置姿勢情報、及びステップS203において取得された撮影の距離情報を用いる。
図3を参照して、仮想視点画像の生成の概要を説明する。撮影シーンにおける実空間上の点A(301)の座標をA[X,Y,Z]とする。視点変更前の撮像装置の位置、つまり実際に撮影が行われた撮像装置の位置を302としたとき、位置302で得られる画像上において実空間上の点A(301)が座標位置I1[x、y]303に投影されるとする。この場合、点A(301)と座標I1の関係は、式(13)のように表すことができる。f1は位置302での撮像装置の焦点距離を表し、Zは距離情報取得部106により取得された位置302から点A(301)までの実空間上での距離を表す。
図3を参照して、仮想視点画像の生成の概要を説明する。撮影シーンにおける実空間上の点A(301)の座標をA[X,Y,Z]とする。視点変更前の撮像装置の位置、つまり実際に撮影が行われた撮像装置の位置を302としたとき、位置302で得られる画像上において実空間上の点A(301)が座標位置I1[x、y]303に投影されるとする。この場合、点A(301)と座標I1の関係は、式(13)のように表すことができる。f1は位置302での撮像装置の焦点距離を表し、Zは距離情報取得部106により取得された位置302から点A(301)までの実空間上での距離を表す。
また、仮想的に設定した位置姿勢の位置(以下、仮想的な視点位置ともいう)を304とした場合、位置302から位置304への撮像装置の位置姿勢の変動量は、式(14)のような射影ホモグラフィ行列Haとして表される。
射影ホモグラフィ行列Haは、前述の撮像装置の位置姿勢推定手法で述べた内容と同様の性質を持つ。このとき、実空間上の点A(301)は、仮想的に設定した位置姿勢を基準にすると、射影ホモグラフィ行列Haによって式(15)の点A´のように表すことができる。
そして、仮想的な視点位置304で得られる画像上において点A´は式(16)により座標位置305に投影される。
このような計算を画像上の全画素について行うことにより、仮想的に設定した位置姿勢で撮影した際に得られると予想される仮想視点画像を生成することができる。
以上のように、撮像装置の任意の位置姿勢を基準として、そこからの位置姿勢の変動量を射影ホモグラフィ行列として設定すれば、任意の位置姿勢において得られる画像を仮想的に生成することが可能となる。
ここで、射影ホモグラフィ行列Haは、撮像装置の位置として現実的な値であればどのように設定してもよいが、以下のように一定の基準に基づいて設定することができる。例えば、図4(a)に示すように、基準となる位置姿勢401の位置を起点として、格子状に予め定められた距離で等間隔となるように射影ホモグラフィ行列Haを設定して、仮想カメラ群402(仮想的に設定した位置姿勢)の位置を決定してもよい。また、図4(b)に示すように、基準となる位置姿勢403の位置を起点として、予め定められた移動軌跡404を描くような射影ホモグラフィ行列Haを設定して、仮想カメラ群405(仮想的に設定した位置姿勢)の位置を決定してもよい。
以上のように、撮像装置の任意の位置姿勢を基準として、そこからの位置姿勢の変動量を射影ホモグラフィ行列として設定すれば、任意の位置姿勢において得られる画像を仮想的に生成することが可能となる。
ここで、射影ホモグラフィ行列Haは、撮像装置の位置として現実的な値であればどのように設定してもよいが、以下のように一定の基準に基づいて設定することができる。例えば、図4(a)に示すように、基準となる位置姿勢401の位置を起点として、格子状に予め定められた距離で等間隔となるように射影ホモグラフィ行列Haを設定して、仮想カメラ群402(仮想的に設定した位置姿勢)の位置を決定してもよい。また、図4(b)に示すように、基準となる位置姿勢403の位置を起点として、予め定められた移動軌跡404を描くような射影ホモグラフィ行列Haを設定して、仮想カメラ群405(仮想的に設定した位置姿勢)の位置を決定してもよい。
また、撮像装置の位置だけでなく、姿勢についても一定の基準を設けて設定すればよい。例えば遠方の風景のような撮影シーンに対して任意視点画像を生成することを目的とする場合、図4(a)、(b)に示すように、基準となる位置姿勢401、403の姿勢を保って、仮想カメラ群402、405を設定する。遠方の風景のような撮影シーンでは、撮像装置の姿勢の違いによる被写体の見えの変化やオクルージョン領域は小さくなる。したがって、姿勢を変えて撮影することは必須ではなく、逆に全ての位置において姿勢を一定に保ったまま撮影を行うことにより、後段の処理を容易に行うことが可能となる。
それに対して、図5に示すように、近距離に被写体501が存在する撮影シーンに対して任意視点画像を生成することを目的とする場合、被写体501の方向を向くように仮想カメラ群502(仮想的に設定した位置姿勢)の姿勢を設定する。近距離の被写体が存在する撮影シーンでは、撮像装置の姿勢の違いによる被写体の見えの変化やオクルージョン領域が大きくなる。それらを漏れなく補間するように撮影を行うことにより、任意視点画像に破綻が生じないようにすることが可能となる。
このように姿勢の設定については、距離情報取得部106により取得された距離情報を用いてもよいし、ユーザが例えば液晶モニタで直接指示を行うようにしてもよい。
以上のようにして生成された仮想視点画像はオクルージョン判定部108に伝送される。
それに対して、図5に示すように、近距離に被写体501が存在する撮影シーンに対して任意視点画像を生成することを目的とする場合、被写体501の方向を向くように仮想カメラ群502(仮想的に設定した位置姿勢)の姿勢を設定する。近距離の被写体が存在する撮影シーンでは、撮像装置の姿勢の違いによる被写体の見えの変化やオクルージョン領域が大きくなる。それらを漏れなく補間するように撮影を行うことにより、任意視点画像に破綻が生じないようにすることが可能となる。
このように姿勢の設定については、距離情報取得部106により取得された距離情報を用いてもよいし、ユーザが例えば液晶モニタで直接指示を行うようにしてもよい。
以上のようにして生成された仮想視点画像はオクルージョン判定部108に伝送される。
ステップS205で、オクルージョン判定部108は、ステップS204において生成された仮想視点画像に生じるオクルージョン領域の大きさを判定する。ステップS204において生成された仮想視点画像では、基準となる位置姿勢からの変更によってオクルージョン領域が生じる。本ステップでは、仮想視点画像に占めるオクルージョン領域の割合を判定する。
図6を参照して、オクルージョンの判定の概要を説明する。被写体601が存在する実空間上の撮影シーンに対して、基準となる位置姿勢602で実際に撮影された画像(撮影画像)を603とする。そして、ここでは撮像装置の姿勢を変えないものとして、仮想的な視点位置604から見た仮想視点画像を605とする。仮想的な視点位置604では、基準となる位置姿勢602で見えていなかった被写体601の背後の領域が見えることになる。しかしながら、仮想視点画像605は、撮影画像603、及びそのときの位置姿勢情報、距離情報を用いて生成されるので、撮影画像603で写っていない領域は、画像情報も距離情報も存在しておらず、欠落領域606となる。この欠落領域606が、基準となる位置姿勢602に対して仮想的な視点位置604で生じるオクルージョン領域となる。同様に、仮想的な視点位置607から見た仮想視点画像を608とすると、欠落領域(オクルージョン領域)609が生じる。なお、被写体601に対して生じるオクルージョンについて説明したが、その他にも、位置姿勢を変更することで生じる画像端の見切れもオクルージョンとして扱うようにする。
オクルージョン判定部108は、仮想視点画像に占めるオクルージョン領域の割合を計算する。例えば仮想視点画像を生成する際に、欠落領域に画素値を割り当てずに、オクルージョン領域であることを示すフラグを与えておく。そして、生成された仮想視点画像中にいくつのフラグが存在しているかをカウントすることにより、この仮想視点画像に占めるオクルージョン領域の割合を計算することができる。
以上のようにして仮想視点画像に占めるオクルージョン領域の割合が計算され、その結果は次撮影位置姿勢決定部109に伝送される。
以上のようにして仮想視点画像に占めるオクルージョン領域の割合が計算され、その結果は次撮影位置姿勢決定部109に伝送される。
ステップS206で、次撮影位置姿勢決定部109は、ステップS205において判定された仮想視点画像に占めるオクルージョン領域の割合に基づいて、次撮影位置姿勢を決定する。具体的には、オクルージョン領域の割合が予め定められた閾値以上となる仮想視点画像に対応する位置姿勢を次撮影位置姿勢とする。
本実施形態では、ステップS204において複数の仮想視点画像を生成して、ステップS205及びステップS206の処理を行い、オクルージョン領域の割合が閾値以上となる仮想視点画像を特定するものとする。なお、ステップS204において1枚の仮想視点画像を生成して、ステップS205及びステップS206の処理を行い、オクルージョン領域の割合が閾値以上でなかった場合、ステップS204に戻るようにし、オクルージョン領域の割合が閾値以上となる仮想視点画像が得られるまで、ステップS204からの処理を繰り返すようにしてもよい。
本実施形態では、ステップS204において複数の仮想視点画像を生成して、ステップS205及びステップS206の処理を行い、オクルージョン領域の割合が閾値以上となる仮想視点画像を特定するものとする。なお、ステップS204において1枚の仮想視点画像を生成して、ステップS205及びステップS206の処理を行い、オクルージョン領域の割合が閾値以上でなかった場合、ステップS204に戻るようにし、オクルージョン領域の割合が閾値以上となる仮想視点画像が得られるまで、ステップS204からの処理を繰り返すようにしてもよい。
図6において、仮想視点画像605で生じるオクルージョン領域606は、仮想視点画像608で生じるオクルージョン領域609よりも画像中に占める割合は小さい。これは、仮想的な視点位置604が、仮想的な視点位置607よりも、基準となる位置姿勢602の位置に近いからである。位置が近いということは、画像間での視差量が小さく、見えの変化も小さいということであり、オクルージョン領域は小さくなる。
次撮影位置姿勢を決定するために、任意視点画像を構成する視点変更画像を合成する際における各画像の寄与度を考える。視点変更画像を合成する際には、まず任意の画像を基準として、その画像に対してステップS204で述べたのと同様にして視点変更画像を生成する。この段階では、視点変更によって生じるオクルージョン領域は欠落したままであるため、次に基準となる画像の周辺で撮影された画像群を用いてオクルージョン領域の補間を行う。これらの画像は、仮想視点画像605、608と異なり、位置604、607において実際に撮影を行っているので、オクルージョン領域は欠落とならず正しい絵柄で埋められる。したがって、基準の画像の周辺で撮影された画像に対しても同様に視点変更画像を生成して、それらを合成することでオクルージョン領域を埋めることが可能となる。このとき、基準となる画像に対するオクルージョン領域が大きいほど、基準となる画像を視点変更した際に生じるオクルージョンを多く埋めることが可能になるので、その画像は寄与度が高いと判定することができる。それに対して、基準となる画像に対するオクルージョン領域が小さいと、合成後の画像において生じるオクルージョン領域を埋められる量が少なくなるため、その画像は寄与度が低いと判定することができる。このように、寄与度の高い画像とは、基準となる位置姿勢で撮影した画像に対するオクルージョン領域が大きい画像のことである。そこで、オクルージョン領域の割合が予め定められた閾値以上となる仮想視点画像を特定し、それに対応する位置姿勢を次撮影位置姿勢とする。
オクルージョン領域の割合に対する閾値は、基準となる画像に対してどの程度の範囲の視点変更を行うかに応じて設定すればよい。図7に、視点変更範囲とオクルージョン領域の割合との関係の例を示す。図7において、横軸701は視点変更範囲であり、右方向に行くほどユーザが想定する視点変更範囲が広いことを示す。また、縦軸702はオクルージョン領域の割合であり、上に行くほど割合が大きいことを示す。そして、直線703はオクルージョン領域の割合に対する閾値を表し、直線703よりも上の割合を有する画像を寄与度の高い画像であると判定する。例えば直線703上の点704に示すようにユーザが想定する視点変更の範囲が小さい場合、視点変更画像の生成時に生じるオクルージョンの量が少ないので、補間に使用する画像に生じているオクルージョン領域の割合が小さくても、十分に寄与度の高い画像であるといえる。逆に、直線703上の点705に示すようにユーザが想定する視点変更の範囲が大きい場合、オクルージョン領域の割合が小さい画像では、オクルージョン領域を十分に補間することができないため寄与度の低い画像であるといえる。この場合、オクルージョン領域の割合が大きい画像ほど、より多くのオクルージョン領域を補間することが可能であるため寄与度が高いと判定することができる。なお、寄与度の低い画像でも多数枚を用いればオクルージョン領域を補間することが可能ではあるが、多数枚を合成することにより画像のボケやずれが生じる可能性がある。したがって、少数枚の寄与度の高い画像を用いてオクルージョン領域を補間した方が精度の高い合成を行うことが可能である。このように、任意視点画像の生成に対して寄与度が高いと判定された仮想視点画像に対応する位置姿勢を、次撮影位置姿勢とすることにより、冗長な撮影を抑制することが可能となる。なお、図7では閾値を直線703として示したが、これに限るものではなく、視点変更範囲に応じて曲線を描くようにしてもよいし、離散的な値を設定してもよい。
以上のようにして、寄与度の高い画像を撮影できる位置姿勢を、次撮影位置姿勢として決定するのであるが、寄与度の高い画像を撮影できる位置姿勢が複数存在する場合がある。この場合、基準となる位置姿勢の位置(基準となる位置と称する。)に最も近いものを次撮影位置姿勢として決定してもよいし、近いものから順に複数の位置姿勢を順番に次撮影位置姿勢として決定してもよい。
また、寄与度の高い画像を撮影できる複数の位置について、その位置が非常に近い場合、どちらの画像を使用しても任意視点画像の生成結果には大差が無く、結果として冗長な撮影を行ってしまう可能性がある。この状況を回避するために、撮影済みの位置の情報をメモリ104に記憶しておく。そして、次撮影位置姿勢を決定する際に、過去に撮影を行った位置と近い場合、例えば一定の距離だけ離れた位置を算出することによって冗長な撮影を抑制することが可能となる。このとき、どれだけの距離を離せばよいかの判定には、画像中に生じるオクルージョン領域の割合を比較すればよい。例えば画像に占めるオクルージョン領域の割合が5%以上の差が生じるような位置を次撮影位置姿勢の位置とすることで、撮影の重複を抑制することができる。この割合の値はユーザが任意に設定してもよいし、例えば基準となる画像に対するオクルージョン領域の割合と同じだけ、現在の位置での画像とのオクルージョン領域の割合の差が生じるような値に設定する等の他の方法を用いてもよい。また、オクルージョン領域の割合に関わらず、任意の距離だけ離れた位置に設定するようにしてもよい。
ここまでは、仮想視点画像に占める全オクルージョン領域の割合に基づいて、次撮影位置姿勢を決定する方法を述べたが、着目する被写体に対して生じるオクルージョン領域の割合に基づいて、次撮影位置姿勢を決定するようにしてもよい。図8を参照して、被写体に着目してのオクルージョンの判定の概要を説明する。主被写体801及び背景物体802が存在する実空間上の撮影シーンに対して、基準となる位置姿勢803で実際に撮影された画像(撮影画像)を804とする。そして、ここでは撮像装置の姿勢を変えないものとして、仮想的な視点位置805から見た仮想視点画像を806とする。仮想視点画像806では、主被写体801に対して生じるオクルージョン領域807と、背景物体802に対して生じるオクルージョン領域808とが存在する。撮影シーン全体ではなく、主被写体801に着目した任意視点画像の生成を行いたい場合、主被写体に対して効率良くオクルージョン領域を補間できるような画像を撮影するのが好ましい。この場合に、背景物体802に生じているオクルージョン領域808が割合の計算に含まれてしまうと、相対的に主被写体801のオクルージョン領域807が小さくなる位置姿勢を次撮影位置姿勢として決定してしまうおそれがある。そのため、主被写体に着目した任意視点画像の生成に対して寄与度の低い画像を冗長に撮影してしまうことになる。なお、画像中のどれが主被写体であるかを判定するためには、顔認識機能等の認識処理の結果を使用したり、ユーザが液晶モニタで任意の領域を指定したりするようにすればよい。このように主被写体に対して生じるオクルージョン領域の割合に着目して次撮影位置姿勢を決定することで、主被写体に着目した任意視点画像の生成に対して寄与度の高い画像を効率良く撮影することが可能となる。
また、被写体の形状に基づいて、どのオクルージョン領域に着目して割合を判定するかを決定するようにしてもよい。被写体の形状が複雑である場合、そこに生じるオクルージョン領域も複雑な形状になる。被写体の形状が単純である場合、位置が離れるに従ってオクルージョンの量が増えていくだけである。それに対して、被写体の形状が複雑である場合、単純に位置が離れるに従ってオクルージョンの量が増えることに限らず、近くでは生じていたオクルージョン領域が遠くに離れることで生じなくなるような場合がある。そこで、被写体の形状が複雑である場合、図7に示した特性線において、直線703を下げるように設定する。これにより、基準となる位置との距離が近く、そこに生じているオクルージョン領域の割合が小さい場合でも寄与度の高い画像であると判定して、次撮影位置姿勢として決定することができる。被写体の形状の複雑度の判定には、距離情報を用いればよい。撮影画像と対応の取れている距離情報を複数の領域に分割し、それぞれの領域について分散値のような距離値のばらつきを算出する。これにより、距離値の分散値が高いと判定された領域には様々な距離にある物体が存在している、つまり複雑な形状をしていると判定することができる。
以上のようにして決定された次撮影位置姿勢は、指示部110において、液晶モニタに表示することによって、ユーザに対する撮影アシストに用いられる。
以上説明したように、仮想的に設定した位置姿勢から見た仮想視点画像を生成し、仮想視点画像に生じるオクルージョン領域に基づいて、次撮影位置姿勢を決定する。これにより、任意視点画像の生成に対して寄与度の低い画像を冗長に撮影しないようにし、任意視点画像の生成に必要な画像を効率良く撮影するように指示することができ、任意視点画像を生成するのに有効な撮影アシスト機能を実現することができる。
以上説明したように、仮想的に設定した位置姿勢から見た仮想視点画像を生成し、仮想視点画像に生じるオクルージョン領域に基づいて、次撮影位置姿勢を決定する。これにより、任意視点画像の生成に対して寄与度の低い画像を冗長に撮影しないようにし、任意視点画像の生成に必要な画像を効率良く撮影するように指示することができ、任意視点画像を生成するのに有効な撮影アシスト機能を実現することができる。
(第2の実施形態)
第2の実施形態では、視点変更画像合成時の幾何変形量をさらに考慮して次撮影位置姿勢を決定する。
図9に、第2の実施形態に係る撮像装置の構成を示す。以下では、第1の実施形態と共通する構成要素には同一の符号を付し、その説明を省略する。図1に示した構成に加えて、幾何変形量判定部901を備える。
第2の実施形態では、視点変更画像合成時の幾何変形量をさらに考慮して次撮影位置姿勢を決定する。
図9に、第2の実施形態に係る撮像装置の構成を示す。以下では、第1の実施形態と共通する構成要素には同一の符号を付し、その説明を省略する。図1に示した構成に加えて、幾何変形量判定部901を備える。
図10は、第2の実施形態に係る撮像装置の動作を示すフローチャートである。ステップS201〜S205は、図2におけるS201〜S205と同じである。
ステップS1001で、幾何変形量判定部901は、ステップS205において判定された各仮想視点画像に占めるオクルージョン領域の割合に基づいて、次撮影位置姿勢の候補を求め、これら候補となる次撮影位置姿勢で、任意視点画像の生成時にどの程度の幾何変形量となるのかを判定する。
ステップS1001で、幾何変形量判定部901は、ステップS205において判定された各仮想視点画像に占めるオクルージョン領域の割合に基づいて、次撮影位置姿勢の候補を求め、これら候補となる次撮影位置姿勢で、任意視点画像の生成時にどの程度の幾何変形量となるのかを判定する。
基準となる位置から仮想的な視点位置への撮像装置の位置姿勢の変動量は、式(14)のような射影ホモグラフィ行列Haとして表される。また、視点変更後の視点位置をHbとすると、Hbは式(17)のような射影ホモグラフィ行列として表される。
式(14)及び式(17)より、仮想的な視点位置Haを視点変更後の視点位置Hbに幾何変形するための射影ホモグラフィ行列Hcは式(18)のように表される。
したがって、実際に撮影された画像群を用いて視点位置Hbにおける画像を生成するためには、射影ホモグラフィ行列Hcを用いて画像の各画素について幾何変形処理を施して合成を行えばよい。ここで、幾何変形処理後に生成される画像の画質は、射影ホモグラフィ行列によってどの程度の量だけ幾何変形がなされるかが影響する。幾何変形量が大きいということは、それによる各画素の移動量が大きいということであり、移動後の各画素について、隣接画素間に隙間が生じる可能性がある。この隙間を埋めるためには隙間の周辺に存在する画素を用いて補間処理を施す必要があるが、隙間が大きい場合、周辺画素の補間処理では精度良く埋めることができず、補間後の画像にボケが生じてしまう。
基準となる位置に対するオクルージョン領域の割合が大きい画像は、任意視点画像の生成に対して寄与度の高い画像ではあるが、その分だけ基準となる位置から離れた位置となる。そのため、視点変更画像合成時の幾何変形量が大きくなり、合成後の画像に画質の低下が生じる可能性がある。
基準となる位置に対するオクルージョン領域の割合が大きい画像は、任意視点画像の生成に対して寄与度の高い画像ではあるが、その分だけ基準となる位置から離れた位置となる。そのため、視点変更画像合成時の幾何変形量が大きくなり、合成後の画像に画質の低下が生じる可能性がある。
そこで、本実施形態では、基準となる位置での画像に対するオクルージョン領域の割合に加えて、視点変更時の幾何変形量を考慮して、次撮影位置姿勢を決定する。例えば代表的な画素について仮に幾何変形処理を施して、それらの移動後の位置関係から、幾何変形量を判定する。代表的な画素の一例としては画像周縁部の画素が挙げられる。図11を参照して、幾何変形量の判定の概要を説明する。図11(a)において、1101は幾何変形処理前の画像である。そして、画像1101の周縁部の画素群に対して、射影ホモグラフィ行列を用いて幾何変形処理を施した結果である画像周縁部を1102とする。幾何変形処理において、回転、拡大縮小、あおりの動きによる各画素の変形量は、画像の周縁部に近い画素の方が大きくなる。そこで、画像周縁部1102を構成する画素群に対して幾何変形を行い、移動後の周縁部の画素間の座標値の差分を用いて幾何変形量を判定する。
1103及び1104は画像周縁部の画素の幾何変形の概要を表す。画像1101上の各画素について射影ホモグラフィ行列を用いて座標変換を行い、変換後の座標値に基づいて移動させて各画素の再配置を行う。これを画像周縁部の全ての画素について行うことで、射影変換後の画像周縁部1102を生成することができる。このとき、射影ホモグラフィ行列の幾何変形量に応じて、1103に示すように変換後でも各画素が隣接して配置される場合と、1104に示すように画素間に隙間が空いて配置される場合が生じる。図11(b)に、幾何変形処理後の画像の周縁部を構成する画素群の並びを模式的に示す。同図において、1105は幾何変形後の画像周縁部1102の右上の領域を拡大したものであり、1106は左下の領域を拡大したものである。グレーの四角は幾何変形処理によって移動させられた画素を表し、白の四角は幾何変形処理によってどの画素も移動してこなかった領域を表す。幾何変形後の画像周縁部の画素間の座標値の差分が、例えば1105に示すように1画素以下であれば、それらの画素は隣接又は重複しているため補間処理の必要が無いと判定できる。それに対して、1106に示すように幾何変形後の画像周縁部の画素間の座標値の差分が1画素より大きければ、画素間に隙間が生じているため、補間処理でそれらの隙間を埋める必要がある。この隙間の量が大きくなるほど補間処理で埋めなければならない画素数が多くなるため画質が低下する。そこで、次撮影位置姿勢を決定する際に、オクルージョン領域の割合だけではなく幾何変形量も考慮することで、視点変更画像の合成結果の画質の低下を抑制すると同時に効率的な撮影を行える位置姿勢を決定する。
表1に、オクルージョン領域の割合と画像合成時の幾何変形量に対する次撮影位置姿勢の調整方法の関係を示す。例えば図4(a)及び(b)に示したような仮想的な視点位置のそれぞれに対して、オクルージョン領域の割合と共に幾何変形量を算出し、それらの大きさに基づいて撮影位置を調整することでより良好な撮影位置を求める。
表1より、オクルージョン領域の割合と幾何変形量が共に大きい場合、任意視点画像の生成に対する寄与度は高いが画質の低下が生じるため、画質の低下が予め定められた閾値以下となるように基準となる位置に近づけるように仮想的な視点位置を調整する。画質の閾値の決定方法としては、上述の幾何変形後の画像周縁部の画素間の隙間の量で決定する方法があり、例えば隙間が1画素以下であれば画質をほぼ低下させることなく合成が行えるとして閾値として設定すればよい。閾値決定の別の方法としては、前述の位置姿勢推定部105での処理と同様の方法で射影ホモグラフィ行列を動き成分に分解し、例えば撮像装置の回転の角度が予め定められた閾値以上とならないようにする方法もある。この場合の閾値は、予め幾何変形量と画素補間を行う量との関係を算出して決めておけばよい。また、オクルージョン領域の割合が小さく、幾何変形量が大きい場合、基準となる位置に近づけると寄与度がさらに小さくなり、逆に遠ざけると画質の低下がさらに大きくなってしまうため、調整は行わないようにする。また、オクルージョン領域の割合が大きく、幾何変形量が小さい場合、幾何変形による画質の低下が閾値を越えない範囲で基準となる位置から遠ざけることで寄与度をさらに向上させる。また、オクルージョン領域の割合と幾何変形量が共に小さい場合も同様に、幾何変形による画質の低下が閾値を越えない範囲で基準となる位置から遠ざけることで寄与度を少しでも向上させるようにする。
ステップS206で、オクルージョン領域の割合に加えて幾何変形による画質の低下を考慮して仮想的な視点位置を調整し、次撮影位置姿勢を決定する。これにより、任意視点画像の生成に対する寄与度が高く、画質の低下を抑えられる画像を効率良く撮影することが可能となる。
ここまで、第2の実施形態における動作を述べた。第1の実施形態では、次撮影位置姿勢を決定する際に、仮想視点画像に占めるオクルージョン領域の割合を使用した。それに対して、第2の実施形態では、オクルージョン領域の割合に加えて、幾何変形処理によってどれだけ画質の低下が生じるかも考慮に入れて次撮影位置姿勢を決定している。これにより、画質の低下を抑制しつつ、任意視点画像の生成において寄与度の高い画像を効率良く撮影できる撮影位置を決定することが可能となる。
ここまで、第2の実施形態における動作を述べた。第1の実施形態では、次撮影位置姿勢を決定する際に、仮想視点画像に占めるオクルージョン領域の割合を使用した。それに対して、第2の実施形態では、オクルージョン領域の割合に加えて、幾何変形処理によってどれだけ画質の低下が生じるかも考慮に入れて次撮影位置姿勢を決定している。これにより、画質の低下を抑制しつつ、任意視点画像の生成において寄与度の高い画像を効率良く撮影できる撮影位置を決定することが可能となる。
(第3の実施形態)
第3の実施形態では、オクルージョン領域の割合とユーザが想定する視点変更範囲、そして視点変更画像合成時の幾何変形量を考慮して次撮影位置姿勢を決定する。
図12に、視点変更範囲とオクルージョン領域の割合との関係の例を示す。図12において、横軸1201は視点変更範囲であり、右方向に行くほどユーザが想定する視点変更範囲が広いことを示す。また、縦軸1202はオクルージョン領域の割合であり、上に行くほど割合が大きいことを示す。そして、直線1203はオクルージョン領域の割合に対する閾値を表し、直線1203よりも上の割合を有する画像を寄与度の高い画像であると判定する。また、直線1204は、第2の実施形態で述べた幾何変形処理による画質低下の閾値を表す。この直線1204よりも上の領域は、画像合成時の幾何変形量が大きく、それに伴う画質の低下が大きくなることを表す。
第3の実施形態では、オクルージョン領域の割合とユーザが想定する視点変更範囲、そして視点変更画像合成時の幾何変形量を考慮して次撮影位置姿勢を決定する。
図12に、視点変更範囲とオクルージョン領域の割合との関係の例を示す。図12において、横軸1201は視点変更範囲であり、右方向に行くほどユーザが想定する視点変更範囲が広いことを示す。また、縦軸1202はオクルージョン領域の割合であり、上に行くほど割合が大きいことを示す。そして、直線1203はオクルージョン領域の割合に対する閾値を表し、直線1203よりも上の割合を有する画像を寄与度の高い画像であると判定する。また、直線1204は、第2の実施形態で述べた幾何変形処理による画質低下の閾値を表す。この直線1204よりも上の領域は、画像合成時の幾何変形量が大きく、それに伴う画質の低下が大きくなることを表す。
ここで、点1205に示すような、視点変更範囲をaとして、オクルージョン領域の割合がdとなるような仮想的な視点位置で得られる画像について考える。点1205でのオクルージョン領域の割合は寄与度の閾値1203を超えているため、視点変更範囲aの範囲内の任意視点画像の生成に対して十分な寄与度を有することが分かる。このとき、点1205は、表1より幾何変形量が画質低下の閾値1204を超えない範囲で基準となる位置から遠ざけることでオクルージョン領域の割合を多くし、さらに寄与度を向上させることができる。また逆に、寄与度の閾値1203を下回らない範囲で基準となる位置に近づけることで、任意視点画像の生成時の画質の低下を抑制することもできる。同様に、寄与度の閾値1203を越えない範囲であれば視点変更範囲を拡大することもできる。
それに対して、点1206に示すような、視点変更範囲bとオクルージョン領域の割合eの関係では、オクルージョン領域の割合eが寄与度の閾値1203を下回っているため、任意視点画像の生成時に使用される可能性の低い画像を撮影することになってしまう。この場合、表1に基づいて寄与度を向上させるために、仮想的な視点位置を基準となる位置からさらに遠ざかるように移動させるか、現状の仮想的な視点位置のままで視点変更範囲bを小さくすることで寄与度の閾値1203を超えるようにする必要がある。
また、点1207に示すような、視点変更範囲cとオクルージョン領域の割合fの関係では、基準となる位置から仮想的な視点位置までの距離が離れすぎている。そのため、オクルージョン領域の割合が大きく、視点変更画像合成時の幾何変形による画質の低下の閾値1204を超えており、合成時に使用すると任意視点画像の画質の低下の原因となってしまう。点1207では、どのような視点変更範囲であっても画質の低下を招くことになるため、画質低下の閾値1204を下回るように基準となる位置に近づけるしかない。
以上のように仮想的な視点位置の調整を行うことで、オクルージョン領域の割合とユーザが想定する視点変更範囲、そして視点変更画像合成時の幾何変形量を考慮した上で次撮影位置姿勢を決定することが可能となる。
仮想的な視点位置や視点変更範囲をどのように変更するかについては、液晶モニタに表示される設定可能範囲に従ってユーザが任意に指定したり、例えば画質重視モードのような設定をユーザが行うことで撮像装置が自動で決定したりするようにすればよい。
仮想的な視点位置や視点変更範囲をどのように変更するかについては、液晶モニタに表示される設定可能範囲に従ってユーザが任意に指定したり、例えば画質重視モードのような設定をユーザが行うことで撮像装置が自動で決定したりするようにすればよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。つまり、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:光学系、102:撮像素子、103:現像処理部、104:メモリ、105:位置姿勢推定部、106:距離情報取得部、107:仮想視点画像生成部、108:オクルージョン判定部、109:次撮影位置姿勢決定部、110:指示部、901:幾何変形量判定部
Claims (12)
- 撮影画像を取得する撮像装置であって、
前記撮像装置の位置情報を取得する位置情報取得手段と、
撮影の距離情報を取得する距離情報取得手段と、
前記撮影画像と、前記位置情報取得手段で取得した前記撮像装置の位置情報と、前記距離情報取得手段で取得した距離情報とを用いて、仮想的に設定した位置から見た仮想視点画像を生成する仮想視点画像生成手段と、
前記仮想視点画像生成手段で生成した前記仮想視点画像に生じる欠落領域に基づいて、次に撮影を行うべき位置を決定する次撮影位置決定手段と、
前記次撮影位置決定手段で決定した次に撮影を行うべき位置を提示する提示手段とを備えたことを特徴とする撮像装置。 - 前記次撮影位置決定手段は、前記仮想視点画像に占める欠落領域の割合に基づいて、次に撮影を行うべき位置を決定することを特徴とする請求項1に記載の撮像装置。
- 前記次撮影位置決定手段は、前記仮想視点画像に占める、着目する被写体に対して生じる欠落領域の割合に基づいて、次に撮影を行うべき位置を決定することを特徴とする請求項1に記載の撮像装置。
- 前記次撮影位置決定手段は、画像合成時の幾何変形量に基づいて、次に撮影を行うべき位置を決定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
- 撮影済みの位置の情報を記憶媒体に記憶するようにし、
前記次撮影位置決定手段は、前記記憶媒体に記憶された位置を参照して、次に撮影を行うべき位置を決定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 - 前記次撮影位置決定手段は、被写体の形状に基づいて、次に撮影を行うべき位置を決定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
- 前記次撮影位置決定手段は、前記距離情報取得手段で取得した距離情報を用いて被写体の形状の複雑度を判定し、その結果に基づいて、次に撮影を行うべき位置を決定することを特徴とする請求項6に記載の撮像装置。
- 前記仮想視点画像生成手段は、前記位置情報取得手段で取得した前記撮像装置の位置を基準として、所定の格子状に定められた位置、又は所定の軌跡に沿う位置を前記仮想的に設定した位置とすることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
- 前記位置情報取得手段は、前記撮像装置の姿勢情報も取得し、
前記仮想視点画像生成手段は、前記撮像装置の姿勢を一定に保って前記仮想視点画像を生成し、
前記次撮影位置決定手段は、次に撮影を行うべき位置姿勢を決定し、
前記提示手段は、前記次撮影位置決定手段で決定した次に撮影を行うべき位置姿勢を提示することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 - 前記位置情報取得手段は、前記撮像装置の姿勢情報も取得し、
前記仮想視点画像生成手段は、所定の被写体の方向を向くように前記撮像装置の姿勢を設定して前記仮想視点画像を生成し、
前記次撮影位置決定手段は、次に撮影を行うべき位置姿勢を決定し、
前記提示手段は、前記次撮影位置決定手段で決定した次に撮影を行うべき位置姿勢を提示することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 - 撮影画像を取得する撮像装置の制御方法であって、
前記撮像装置の位置情報を取得するステップと、
撮影の距離情報を取得するステップと、
前記撮影画像と、前記撮像装置の位置情報と、前記距離情報とを用いて、仮想的に設定した位置から見た仮想視点画像を生成するステップと、
前記仮想視点画像に生じる欠落領域に基づいて、次に撮影を行うべき位置を決定するステップと、
前記決定した次に撮影を行うべき位置を提示するステップとを有することを特徴とする撮像装置の制御方法。 - 撮影画像を取得する撮像装置を制御するためのプログラムであって、
前記撮像装置の位置情報を取得する位置情報取得手段と、
撮影の距離情報を取得する距離情報取得手段と、
前記撮影画像と、前記位置情報取得手段で取得した前記撮像装置の位置情報と、前記距離情報取得手段で取得した距離情報とを用いて、仮想的に設定した位置から見た仮想視点画像を生成する仮想視点画像生成手段と、
前記仮想視点画像生成手段で生成した前記仮想視点画像に生じる欠落領域に基づいて、次に撮影を行うべき位置を決定する次撮影位置決定手段と、
前記次撮影位置決定手段で決定した次に撮影を行うべき位置を提示する提示手段としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001089A JP2019121945A (ja) | 2018-01-09 | 2018-01-09 | 撮像装置、その制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001089A JP2019121945A (ja) | 2018-01-09 | 2018-01-09 | 撮像装置、その制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019121945A true JP2019121945A (ja) | 2019-07-22 |
Family
ID=67306540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018001089A Pending JP2019121945A (ja) | 2018-01-09 | 2018-01-09 | 撮像装置、その制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019121945A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021022032A (ja) * | 2019-07-25 | 2021-02-18 | Kddi株式会社 | 合成装置、方法及びプログラム |
WO2021205772A1 (ja) * | 2020-04-07 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置と情報処理方法 |
EP4161069A1 (en) * | 2021-09-30 | 2023-04-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
-
2018
- 2018-01-09 JP JP2018001089A patent/JP2019121945A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021022032A (ja) * | 2019-07-25 | 2021-02-18 | Kddi株式会社 | 合成装置、方法及びプログラム |
JP7038683B2 (ja) | 2019-07-25 | 2022-03-18 | Kddi株式会社 | 合成装置、方法及びプログラム |
WO2021205772A1 (ja) * | 2020-04-07 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置と情報処理方法 |
EP4161069A1 (en) * | 2021-09-30 | 2023-04-05 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
US11935182B2 (en) | 2021-09-30 | 2024-03-19 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6395423B2 (ja) | 画像処理装置、制御方法及びプログラム | |
JP5906493B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 | |
KR102126241B1 (ko) | 화상 처리 장치, 화상 처리 방법, 화상 처리 장치용 프로그램, 기록 매체, 및 화상 표시 장치 | |
US7834907B2 (en) | Image-taking apparatus and image processing method | |
JP5645450B2 (ja) | 画像処理装置および方法 | |
JP2017220715A (ja) | 画像処理装置、画像処理方法、プログラム | |
US20150178595A1 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2019121945A (ja) | 撮像装置、その制御方法及びプログラム | |
JP2016063248A (ja) | 画像処理装置および画像処理方法 | |
TWI501193B (zh) | Computer graphics using AR technology. Image processing systems and methods | |
JP6552256B2 (ja) | 画像処理装置及び画像処理装置の制御方法 | |
JP2019029721A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP4102386B2 (ja) | 3次元情報復元装置 | |
JP6513941B2 (ja) | 画像処理方法、画像処理装置及びプログラム | |
JP7474137B2 (ja) | 情報処理装置およびその制御方法 | |
KR20220121533A (ko) | 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치 | |
JP2015154334A (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP5925109B2 (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP2011146762A (ja) | 立体モデル生成装置 | |
JP6320165B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
JP7013205B2 (ja) | 像振れ補正装置およびその制御方法、撮像装置 | |
US20220222834A1 (en) | Image processing system, image processing device, image processing method, and program | |
JP6708483B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2020120362A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2018174461A (ja) | 画像処理装置、画像処理方法、及びプログラム |