JP2016005027A - 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。 - Google Patents

情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。 Download PDF

Info

Publication number
JP2016005027A
JP2016005027A JP2014122534A JP2014122534A JP2016005027A JP 2016005027 A JP2016005027 A JP 2016005027A JP 2014122534 A JP2014122534 A JP 2014122534A JP 2014122534 A JP2014122534 A JP 2014122534A JP 2016005027 A JP2016005027 A JP 2016005027A
Authority
JP
Japan
Prior art keywords
imaging
imaging units
subjects
grouping
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014122534A
Other languages
English (en)
Other versions
JP6305232B2 (ja
Inventor
哲 鳥居
Satoru Torii
哲 鳥居
澤田 圭一
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014122534A priority Critical patent/JP6305232B2/ja
Publication of JP2016005027A publication Critical patent/JP2016005027A/ja
Application granted granted Critical
Publication of JP6305232B2 publication Critical patent/JP6305232B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 複数の撮像装置が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像するための技術を提供する。
【解決手段】 F値が小さい状態で撮影された画像に基づいて導出された、複数の被写体の形状及び位置関係に基づいて、複数の撮像部を組分けし、組分けされた各撮像部が、それぞれ対応する被写体にフォーカスし、前記形状および位置関係の導出に用いられた画像を撮影した時よりも大きなF値で撮像を行うように、複数の撮像部のフォーカスパラメータを決定する。
【選択図】 図4

Description

本発明は複数の撮像部のフォーカス合わせに関する技術である。
複数の撮像部で撮像した画像を用いた技術として、複数のカメラで同一の被写体を異なる視点から撮像した複数の画像間の画素値の整合を取ることで被写体の形状を推定する技術が存在する。このように画像から高精度に被写体形状を推定するためには、各撮像部が形状を推定したい被写体にフォーカスを合わせて撮像を行う必要がある。更に、形状を推定したい被写体が複数存在する場合には、全ての被写体にフォーカスを合わせて撮像を行う必要がある。
複数の撮像部が複数の被写体にフォーカスを合わせる技術として、特許文献1記載の技術が知られている。特許文献1には、各撮像装置で異なる被写体にフォーカスし、かつ各撮像部のフォーカス位置が互いの撮像部の被写界深度内に入るように、各撮像部の撮像条件を設定することが記載されている。
特開2012−44540号公報
しかしながら、特許文献1に記載の技術では、被写体が複数の場合、各撮像部が別々の被写体上にフォーカス位置を算出し、それら全てのフォーカス位置が被写界深度内に入るように、各撮像部について大きなF値が設定されてしまう。F値が大きい場合、露出を適正にするためにISO感度を大きくするか、シャッタースピードを遅くする必要がある。しかし、ISO感度を大きくすればノイズが増加してしまい、シャッタースピードを遅くすれば被写体ぶれが発生してしまうという課題があった。
そこで本発明では、複数の撮像装置が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像するための技術を提供することを目的とする。
上記課題を解決するために、本発明の情報処理装置は、複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部の、フォーカス位置を示す情報を含むフォーカスパラメータを決定する情報処理装置であって、前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と位置とを示す形状情報を取得する取得手段と、前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段とを有することを特徴とする。
複数の撮像装置が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像することができる。
撮像システムの構成例を示す図。 実施例1の情報処理装置の構成を示す図。 実施例1の情報処理装置の機能構成を示す図。 実施例1の情報処理装置で行われる処理の流れを示すフローチャート。 被写界深度と被写体奥行きの関係を説明する図。 実施例1の組分け処理を説明する図。 実施例1のパラメータ決定処理を説明する図。 実施例2の組分け処理の流れを示すフローチャート。 撮像部の各被写体に対するビジビリティの例を示す図。 実施例2の組分け処理を説明する図。 実施例3の情報処理装置の機能構成を示す図。 実施例3の情報処理装置で行われる処理の流れを示すフローチャート。
<実施例1>
本実施例では、複数の撮像部を利用して、複数の被写体を含むシーンを異なる方向から撮影する場合に、撮像部を複数の組に分割し、組ごとに異なる被写体にフォーカスを合わせて撮影する例について説明する。これにより、全ての被写体にフォーカスを合わせた状態で撮像を行うことができる。なお、本実施例で用いられる撮像部の数は、撮像対象の被写体の数に比べると十分に多いものとする。
以下、本実施例の撮像システムの構成について説明する。図1は、本実施例の撮像システム構成例を示す図である。本実施例の撮像システムは8つの撮像部101〜108と情報処理装置109とを含み、撮像部101〜108は、2つの被写体を取り囲むようにそれぞれ異なる視点位置に配置されている。撮像部101〜108は、被写体の光情報をセンサで受光し、A/D変換を施すことによって撮像した画像のデジタルデータ(撮像画像データ)を取得する。情報処理装置109は、撮像部101〜108の撮像条件を算出し、算出した撮像条件に応じて撮像部101〜108を制御する。尚、本実施例では、8つの撮像部101〜108を用いる場合を例として説明を行うが、撮像部の数はこれに限られず、任意の数の撮像部を用いることができる。
次に、情報処理装置109の構成について説明する。図2は、情報処理装置109の内部構成を示すブロック図である。情報処理装置109は、CPU201、RAM202、ROM203、HDD I/F204、HDD205、入力I/F206、出力I/F207、システムバス208とを有している。
CPU201は情報処理装置109の各構成部を制御するプロセッサであり、RAM202とROM203は、それぞれ情報処理装置109で扱われる種々のデータを記憶するメモリである。CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス208を介して情報処理装置109の各構成部を統括的に制御する。これにより、後述する様々な処理が実行される。
HDDI/F204は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD205を接続する。CPU201は、HDDI/F204を介したHDD205からのデータ読み出し及びHDD205へのデータ書き込みが可能である。さらにCPU201は、HDD205に格納されたデータをRAM202に展開し、同様に、RAM202に展開されたデータをHDD205に保存することが可能である。そしてCPU201は、RAM202に展開したデータをプログラムとみなし、実行することができる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。
入力I/F206は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU201は、入力I/F206を介して、撮像部101〜108、操作部209(例えば、マウスやキーボード)、外部メモリ211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得する。どのようなデータを取得するかについては後述する。
出力I/F207は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU201は、出力I/F207を介して、表示部210(ディスプレイなどの各種出力デバイス)に、撮像部101〜108の撮像画像や、撮像画像に対し何らかの処理を行い合成した画像を表示することができる。なお、タッチパネル式のディスプレイが操作部209と表示部210を兼ねてもよい。なお、情報処理装置109の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
次に、本実施例の情報処理装置109における撮像部101〜108のフォーカス位置決定処理の流れについて、図3に示すブロック図と、図4に示すフローチャートを参照して説明する。本実施例の情報処理装置109は、CPU201がROM203に格納された、図4のフローチャートに示すプログラムを実行し、図3に示す機能構成部としての役割を果たすことでフォーカス位置の決定処理を行う。なお、全ての処理をCPU201が行わずともよく、一部又は全部の処理を、同様の機能を有する処理回路などで置き換えてもよい。また、以下の処理に先立ちユーザによって撮像部101〜108についてそれぞれF値とシャッタースピードが設定済みで、ROM203に記憶してあるものとする。なお、ここで、各撮像部のF値は各撮像部で設定可能な最小値(開放値)に設定してある。
まず、ステップS401では、位置取得部301において、被写体形状測定時の撮像部101〜108の三次元位置、及び姿勢(撮像部の前方を表す三次元ベクトルと、撮像部の上方を表す三次元ベクトル)を示す情報を取得する。撮像部の三次元位置、及び姿勢は、入力I/F206を介して撮像部101〜108や外部メモリ211から取得する。または、操作部209を介してユーザに入力された値を取得するようにしてもよい。なお、外部から入力された値を撮像部の位置姿勢を示す情報として取得する代わりに、撮像部が取得した撮像画像データからstructure from motionなどの既存手法により、撮像部の位置姿勢を示す情報を算出するようにしても構わない。位置取得部301は、ここで取得した各撮像部の位置姿勢を示す情報を、比較部303とパラメータ決定部305に出力してステップS402に進む。
ステップS402では、形状取得部302において、撮像する複数の被写体のおおまかな位置と形状とを示す形状情報を取得する。形状情報は、被写体と撮像部101〜108との三次元的な相対位置を示す情報と各被写体の空間的な広がりを示す情報とを含み、例えば三次元空間にプロットされた複数の点群の座標で表わされる。被写体の形状情報は、予め何らかの方法で測定しRAM202やROM203に記憶してあるものとする。なお、被写体の形状情報の測定にはどのような方法を用いてもよく、3次元デジタイザ(3Dスキャナ)など不図示の外部センサを利用して測定してもよいし、撮像部101〜108のプレビューとして得られる多視点画像を利用して形状を推定してもよい。多視点画像から被写体の形状を推定する方法としては、例えば、多視点画像間の画素の位置ずれに基づいて距離を測定する既存手法であるMulti View Stereoを利用することができる。被写体の形状情報の取得方法については、本発明の主眼ではないため詳細な説明は省略する。いずれの方法で被写体の形状を取得するにしても、撮影前のプレビューの段階において逐次被写体の形状を取得し、ROM203を更新することが望ましい。なお、プレビューで得られた多視点画像から形状推定を行う場合には、各撮像部のF値を大きくして被写界深度を深くした状態で撮像された画像を用いると、各被写体の大まかな形状情報を容易に得ることができる。形状取得部302は、取得した形状情報を比較部303に出力し、ステップS403に進む。
続いてステップS403では、比較部303が、各撮像部の被写界深度を取得する。ここでは、撮像前にあらかじめ設定されたF値と撮像部から被写体までの距離とから被写界深度を算出する方法を示す。まず、ROM203から撮像部101〜108のF値をそれぞれ取得する。また、形状取得部302から入力された形状情報に基づいて、各撮像部から被写体までの距離である被写体距離を取得する。ここでは、各撮像部から全被写体の形状の重心位置までの距離を被写体距離とする。n番目の撮像部における被写界深度DnはF値をFn、被写体距離をdnとすると下記式で算出することができる。
Figure 2016005027
ここで、εは許容錯乱円の直径、fnはレンズの焦点距離を表している。許容錯乱円の直径εは、どのくらいまでの大きさのボケを許容するかを示す値である。許容錯乱円の直径は撮像部のセンササイズ、センサ上の画素ピッチなどによって変わる値だが、例えばAPS−Cサイズのセンサの場合、一般に0.019mmという値を用いられる。尚、被写界深度を算出するには上記以外のどのような方法を用いてもよい。また、上記のように処理の度に算出するのではなく、予め算出した値をテーブルとしてROM203に記憶しておき、それを参照することで被写体深度を取得するようにしてもよい。比較部303は、上記いずれかの方法によって、撮像部101〜108の全てについて被写界深度Dnを取得する。
続いて、ステップS404では、比較部303が、ステップS403で取得した被写界深度と、形状取得部302から入力された形状情報とを比較し、撮像部101〜108が一度の撮影で全ての被写体を被写界深度内に収めることができるかを判断する。被写体の形状情報を利用して各撮像部の光軸上での被写体の奥行きを算出し、ステップS403で取得した被写界深度と比較する。ここで、光軸上での被写体の奥行きとは、撮像部の光軸上において被写体のうちの最も手前にある被写体の最も手前にある点から、最も奥にある被写体の最も奥にある点までの距離である。被写界深度の方が大きい場合は全ての被写体が被写界深度内に収まり、他方、被写界深度の方が小さい場合は被写界深度に収まらないと判断される。ここで、撮像部の光軸は撮像部の三次元位置を始点として、撮像部の前方を表す三次元ベクトルと平行な方向を持つ線分である。
図5に処理の概念図を示す。尚、図5は図示の都合上2次元で被写体や撮像部、被写体深度を記載するが、実際にはこれらは3次元で表現され、以下の説明は3次元に単純に拡張が可能である。図5(a)は、撮像部501で2つの被写体を撮影する場合を示している。線分502は撮像部501の光軸を表しており、範囲503が光軸上の被写体の奥行きを表わしている。また、グレーで色づけした領域505は、撮像部501の被写界深度内に含まれるフォーカス領域を表している。この領域外にある被写体は、フォーカス範囲外になってしまうため、撮影画像中ではぼけてしまう。従って、この場合は一度の撮影では全ての被写体を被写界深度内に収めることはできない。一方、図5(b)は撮像部501とは位置が異なる撮像部506を用いた場合を示す図である。図5(b)では、光軸上の被写体奥行き508よりもフォーカス領域509の方が大きいため、一度の撮影で全ての被写体を被写界深度内に収めることができる。ここでは、比較部303が、全ての撮像部について上述の比較を行い、各撮像部について、被写界深度内に収めることができない被写体が存在するかどうかを判定する。撮像部101〜108のうち、一度に被写体全体を被写界深度内に収めることができない撮像部がある場合はステップS405へ進む。他方、全ての撮像部において、被写体全体を被写界深度内に収めて撮像することができる場合にはステップS406へ進む。
続いて、ステップS405では、組分け部304が、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に、撮像部101〜108を、それぞれが少なくとも一つの被写体に対応する複数の組に分ける。なお、組分け部304で行われる処理の詳細については後述する。組分け部304は、ここで行われた組分けの結果をパラメータ決定部305に出力し、ステップS406に進む。
最後に、ステップS406では、パラメータ決定部305が、組分け部304から入力された組分けの結果と、各撮像部と各被写体との位置関係に基づいて、撮像部101〜108のそれぞれについて、フォーカス距離を示すフォーカスパラメータを決定する。ここでは、同一組に割り振られた撮像部は同一の被写体にフォーカスを合わせ、グループごとに異なる被写体にフォーカスを合わせるように、フォーカスパラメータを決定する。なお、ここで、フォーカスパラメータは、各撮像部のフォーカス距離でもよいし、各撮像部のレンズ―センサ間距離などでもよい。なお、パラメータ決定部305で行われる処理の詳細は後述する。パラメータ決定部305は、ここで決定されたフォーカスパラメータを撮像部101〜108に出力し、処理を終了する。以下、ステップS405の組分け処理とステップS406のパラメータ決定処理の詳細について説明する。
<組分け処理>
まず、前述のステップS405の組分け処理の詳細について説明する。なお、本処理は、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に実施する。
本実施例の組分け処理では、撮像部101〜108を被写体の数と等しい数の組に分ける。例えば、被写体が2つ存在する場合は、撮像部101〜108を1つ目の被写体に対応する第1の組と、2つ目の被写体に対応する第2の組へと分割する。各撮像部の組分け方法としては任意の方法を用いることが可能である。例えば、本実施例では、図6(a)に示すように、隣り合う各撮像部を交互に異なる組に割り振る。図6(a)の例では、被写体1に対応する第1の組には撮像部101、103、105、107の4つの撮像部が、被写体2に対応する第2の組には撮像部102、104、106、108の4つの撮像部が割り振られている。
被写体が3つの場合は、図6(b)に示すように、被写体1に対応する第1の組には撮像部101、104、107が、被写体2に対応する第2の組には撮像部102、105、108が、被写体3に対応する第3の組には撮像部103、106が割り振られる。このように、上記の例では各撮像部を順番に各組へ割り振った。このような組分けの仕方であれば、各被写体に対して均等に撮像部を割り振ることができる。なお、ここで用いることができる組分け方法は上記の物に限られず、ランダムに割り振りを行ってもよいし、他の規則に従って割り振りを行ってもよい。また、各組には均等な数の撮像部を割り当てる例を示したが、各グループの撮像部の数は必ずしも均等である必要はない。さらに、組分けは撮像ごとに固定である必要はなく、撮影の度に新たに設定し直したり、時刻に応じて組分けを変更するようにしてもよい。
<パラメータ決定処理>
次に、前述のステップS406の、フォーカスパラメータ決定処理の詳細について説明する。本処理では、各組に対応する被写体にフォーカスが合うように、各組に属する撮像部のフォーカス距離を設定する。
図7(a)に示すように、パラメータ決定部305は、被写体1に対応する第1の組に属する撮像部101、103、105、107について、被写体1にフォーカスが合うようにフォーカス距離を決定する。このとき、パラメータ決定部305は、被写体の形状情報から被写体1の重心位置701を求め、各撮像部から重心位置までの距離702、703、704、705を算出し、対応する各撮像部のフォーカス距離とする。
同様に、図7(b)に示すように、パラメータ決定部305は、被写体2に対応する第2の組に属する撮像部102、104、106、108について、被写体2にフォーカスが合うようにフォーカス距離を決定する。なお、ステップS404において、一度の撮影で全ての被写体を被写界深度内に収めることができると判断された場合には、組数が1であるとして扱い、全ての被写体の重心位置と各撮像部との距離を、各撮像部のフォーカス距離とする。
パラメータ決定部305は、ここで設定されたフォーカス距離に基づいて、各撮像部に出力するためのフォーカスパラメータを決定する。フォーカスパラメータとしては、フォーカス距離そのものを出力するようにしてもよいし、フォーカス距離を示す情報であれば、各撮像部のレンズ―センサ間距離などをフォーカスパラメータとして出力するようにしてもよい。出力するフォーカスパラメータの種類は、出力先の撮像部の構成に応じて決定すればよい。例えば、出力先の撮像部が、入力されたフォーカス距離に応じて光学系の制御信号を生成する機能を有している場合には、フォーカスパラメータとしてフォーカス距離そのものを出力すればよい。
以上が本実施例の撮像システムで行われる処理である。上記の処理によれば、複数の撮像部が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像することができる。なお、上記では撮像する被写体が複数存在する場合について説明を行ったが、本発明は、被写体のサイズが大きく一度の撮影では被写界深度内に収まらない場合にも適用が可能である。その場合、一つの被写体を各撮像部の被写界深度に収まるサイズの複数のパーツへ分けることで上記の方法を適用することが可能である。また、被写界深度に入らない大きなサイズの被写体と複数の被写体とが存在する場合についても同様に適用が可能である。
なお、本実施例において、形状取得部302は、フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で撮像された複数の画像に基づいて導出された、複数の被写体の形状と撮像部との位置関係を示す形状情報を取得する取得手段として機能する。また、組分け部304は、前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段として機能する。また、パラメータ決定部305は、取得手段によって取得された形状情報と、組分け手段による組分けとに基づいて、複数の撮像部がそれぞれ対応する被写体にフォーカスするように、フォーカスパラメータを決定する決定手段として機能する。
<実施例2>
実施例1では、予め決められたパターンを用いて撮像部を各被写体へ割り振ることで組分け処理を行う例を示した。本実施例では、撮像部の組分けの際に、各撮像部から被写体が見えているかどうかを考慮して、各被写体へ割り振る撮像部を決定する。これによって、撮像部から見えていない被写体に対してその撮像部を割り振ってしまい、結果として撮影が無駄になってしまうことを防ぐことができる。
本実施例の情報処理装置109の構成は、実施例1と同様である。ただし、組分け部304で行われる処理が実施例1とは異なる。以下では、本実施例の組分け部304で行われる処理について説明し、実施例1と同様の動作をする他の要素に関する説明は省略する。
図8に、本実施例における組分け処理のフローチャートを示す。まず、ステップS801において、組分け部304は、各撮像部について各被写体に関するビジビリティ情報を算出する。ここで、ビジビリティ情報とは、各撮像部から各被写体がどれぐらい見えているかの度合いを示す情報である。
ビジビリティ情報は、位置取得部301で取得した各撮像部の位置・姿勢と、形状取得部302で取得した被写体の形状情報から算出することができる。例えば、撮像部101からの被写体1のビジビリティを算出する場合、撮像部101から被写体1の間に遮る物体がないかどうかを調べればよい。被写体1上の様々な点について撮像部101との間に遮る物体がないことが確認できた場合、撮像部101から被写体1は「見える」と判定することができる。逆に、被写体1上の複数の点について撮像部101との間に遮る物体が所定の閾値以上の割合で存在する場合、撮像部101から被写体1は「見えない」と判定することができる。なお、被写体が見えるか見えないかを判定するための閾値としては任意の値を用いることができるが、本実施例では50%という値を用いる。なお、ビジビリティは、各被写体の像を各撮像部の撮像センサに、各撮像部に近い被写体が優先されるように射影した時に、本来撮像センサに射影されるはずの像の何%が他の被写体の像に置き換わっているかを算出することで計算することができる。
その他のビジビリティ情報の算出方法として、ビジビリティ情報を算出する被写体、撮像部、その他の被写体を結んで成す角度が所定の値より大きい場合は「見える」と判定し、逆に所定の値より小さい場合は「見えない」と判定する方法もある。上述の2方法以外にもあらゆる方法でビジビリティを算出することができる。
前述の図6(a)の状況におけるビジビリティを図9に示す。ここでは、各撮像部から被写体が見える場合を○、被写体が見えない場合を×で表わしている。例えば、撮像部101は被写体1、被写体2ともに○であり、撮像部1からはどちらの被写体も見えることを表している。また、撮像部102からは、被写体1は見えないが、被写体2は見えることを表す。組分け部304は、各撮像部の各被写体に対するビジビリティを算出し、各撮像部から各被写体が見えるか見えないかの判定を行ったら、ステップS802に進む。
ステップS802では、組分け部304が、各撮像部を、各撮像部から見えている被写体に基づいて組分けする。各被写体への撮像部の割り振りは、ビジビリティ情報のうち○の数が少ない撮像部から行われる。まず、ビジビリティ情報に○が1つしかない撮像部、つまり1つの被写体しか見えていない撮像部は、○がついた被写体へ割り振られる。次にビジビリティ情報に○が2つある撮像部は、○がついた2つの被写体のうちのいずれかの被写体へ割り振られる。この時、2つの被写体のうちどちらに割り振るかはランダムに決定される。続いて○が3つある撮像部は、○がついた3つの被写体から、ランダムにひとつの被写体が選択され、その被写体に割り振られる。以降、○の数を増やしていき、全ての撮像部について、いずれかの被写体への割り振りが行われる。上記では、各撮像部をランダムにひとつの被写体へ割り振ると説明したが、各被写体に割り振る撮像部の数が均一になるように撮像部を割り振るようにしてもよい。
図10に図6(a)の状況において、ビジビリティに基づく撮像部の組分けが行われた結果の例を示す。図10(a)において、被写体1が見えている撮像部のうち、撮像部101、撮像部104、撮像部106、撮像部107が被写体1に対応する第1の組として割り振られた。また、図10(b)において、被写体2が見えている撮像部のうち、撮像部102、撮像部103、撮像部105、撮像部108が被写体2に対応する第2の組として割り振られた。
以上が本実施例の各撮像部の組分け処理である。以上の処理によれば、見えない被写体に撮像部が割り振られてしまい、撮影の結果が無駄になってしまうことを防ぐことができる。その結果、全ての被写界深度を被写界深度内に収めた良好な多視点画像を撮像することができるようになる。
<実施例3>
本実施例では、情報処理装置109で決定されたフォーカスパラメータを用いて撮像された画像データに基づいて、被写体の形状情報を精度よく算出する例について説明する。実施例1および2との共通点については説明を省略し、差異点についてのみ述べる。本実施例の情報処理装置109の構成は、図11に示すように、実施例1および2の構成に形状推定部1101を加えたものである。以下、本実施例の情報処理装置109で行われる処理について、図12に示すフローチャートを参照して説明する。
ステップS401〜S406の処理が終了すると、形状推定部1101は、ステップS406で決定されたフォーカスパラメータを用いて撮像部101〜108により新たに撮像された撮像画像データを取得する(ステップS1201)。次に、形状推定部1101は、ステップS1201で取得した撮像画像データに基づいて、各被写体のより詳細な形状情報を推定する。各被写体の形状情報の推定には、実施例1で述べたものと同様に、Multiview Stereoなどの公知の手法を用いることができる。この時、各被写体の距離情報を取得するために用いる画像データは、対応する撮像部により撮像された画像データが用いられる。対応する撮像部により撮像された画像データは、対応する被写体にフォーカスが合った、ノイズの少ない画像データであるため、被写体の形状情報を高精度に求めることができる。なお、この時、各被写体に対応する撮像部が分かるように、各撮像部は、各撮像画像データに対応する被写体を示すメタデータを付加して出力するようにしてもよい。
また、被写体の形状情報の推定精度をより向上させるために、各撮像部の組分けの際に、隣接する少なくとも2つの撮像部を1つの小グループとし、各撮像部の組を複数の小グループの集合で構成するようにしてもよい。このように組分けを行うことによって、被写体の同じ面を撮像する撮像部が少なくとも2つ確保されるようになるので、各被写体の形状情報を精度よく求めることができる可能性が上昇する。同様の効果を得るためには、各撮像部を、少なくとも2つ以上の光学系を有する複眼カメラに置き換えてもよい。
<その他の実施形態>
本発明の実施形態は上記に挙げたものに限られずその他の様々な形態をとることができる。例えば、上記の実施例では、組分け部304が、各撮像部がそれぞれ一つの被写体に対応するように撮像部の組分けを行ったが、複数の被写体が被写界深度内に含まれる場合には、各撮像部がそれぞれ複数の被写体に対応するように組分けを行うようにしてもよい。
また、上記の実施例では、比較部303が、F値が各撮像部の開放値である場合に、各被写体の奥行きと各撮像部の被写界深度を比較したが、F値は開放値に限られず、所定の閾値を超えない範囲でF値を変化させながら比較を行うようにしてもよい。被写体の形状に応じて撮像に用いるF値を変更させる場合は、パラメータ決定部305は、F値など、撮像に用いる被写界深度を示す情報をフォーカスパラメータに追加して撮像部101〜108に追加するようにすればよい。
実施例2では、各撮像部を、ビジビリティが閾値を超えている被写体にランダムで振り分ける例について説明したが、ビジビリティが閾値を超えている被写体が複数存在する場合に、よりビジビリティが大きい被写体を優先的に割り当てるようにしてもよい。
また、上記の実施例では、被写体を囲むように撮像部を配置した撮像システムについて説明したが、撮像部の配置例はこれに限られず、各撮像部がある一つの平面上に並べて配置された多眼カメラなどにも適用することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101〜108 撮像部
109 情報処理装置
201 CPU
202 RAM
203 ROM
301 位置取得部
302 形状取得部
303 比較部
304 組分け部
305 パラメータ決定部

Claims (11)

  1. 複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部の、フォーカス位置を示す情報を含むフォーカスパラメータを決定する情報処理装置であって、
    前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と位置とを示す形状情報を取得する取得手段と、
    前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
    前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段とを有することを特徴とする情報処理装置。
  2. 前記決定手段により決定された前記フォーカスパラメータに基づいて前記複数の撮像部によって撮像された複数の画像を取得し、該取得した複数の画像に基づいて、前記複数の被写体の形状を推定する推定手段を更に備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記組分け手段は、前記形状情報に基づいて、前記複数の撮像部のそれぞれについて各被写体の見え度合いを示すビジビリティを算出し、該算出したビジビリティに基づいて前記組分けを行うことを特徴とする請求項1に記載の情報処理装置。
  4. 前記形状情報と、前記複数の撮像部の被写界深度を示す情報とに基づいて、前記組分けを行うか否かを判定する判定手段を更に有することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記フォーカス位置を示す情報は、前記複数の撮像部のレンズと撮像センサの位置関係を示す情報であることを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記フォーカスパラメータは、前記複数の撮像部の被写界深度を示す情報を更に含むことを特徴とする請求項5に記載の情報処理装置。
  7. 前記複数の撮像部の被写界深度を示す情報は、前記複数の撮像部のF値を示す情報であることを特徴とする請求項6に記載の情報処理装置。
  8. 複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部と、
    前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状および前記複数の撮像部との位置関係を示す形状情報を取得する取得手段と、
    前記取得手段により取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
    前記取得手段により取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、かつ、前記複数の画像の撮像に用いたF値よりも小さなF値となるように、前記複数の撮像部を制御する制御手段とを有することを特徴とする撮像装置。
  9. 複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部と、前記複数の撮像部の、フォーカス位置を示す情報を含むフォーカスパラメータを決定する情報処理装置とを含む撮像システムであって、
    前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と前記複数の撮像部との位置関係を示す形状情報を取得する取得手段と、
    前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段と、
    前記取得手段によって取得された前記形状情報と、前記組分け手段による組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定手段と、
    前記決定手段により決定された前記フォーカスパラメータに基づいて、それぞれが対応する被写体にフォーカスするように前記複数の撮像部を制御する制御手段を有することを特徴とする撮像システム。
  10. 複数の被写体が存在するシーンを複数の異なる視点位置から撮像する複数の撮像部の、フォーカス位置を示す情報を含むフォーカスパラメータを決定する情報処理方法であって、
    前記フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で前記複数の撮像部により撮像された複数の画像に基づいて導出された、前記複数の被写体の形状と前記複数の撮像部との位置関係を示す形状情報を取得する取得ステップと、
    前記取得ステップで取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分けステップと、
    前記取得ステップで取得された前記形状情報と、前記組分けステップでの組分けとに基づいて、前記複数の撮像部がそれぞれ対応する被写体にフォーカスするように、前記フォーカスパラメータを決定する決定ステップとを含むことを特徴とする情報処理方法。
  11. コンピュータを請求項1乃至7のいずれか一項に記載の情報処理装置の各手段として機能させるプログラム。
JP2014122534A 2014-06-13 2014-06-13 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。 Active JP6305232B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014122534A JP6305232B2 (ja) 2014-06-13 2014-06-13 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014122534A JP6305232B2 (ja) 2014-06-13 2014-06-13 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018041221A Division JP6602412B2 (ja) 2018-03-07 2018-03-07 情報処理装置及び方法、情報処理システム、ならびにプログラム。

Publications (2)

Publication Number Publication Date
JP2016005027A true JP2016005027A (ja) 2016-01-12
JP6305232B2 JP6305232B2 (ja) 2018-04-04

Family

ID=55224052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014122534A Active JP6305232B2 (ja) 2014-06-13 2014-06-13 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。

Country Status (1)

Country Link
JP (1) JP6305232B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JPWO2017154606A1 (ja) * 2016-03-10 2019-01-10 ソニー株式会社 情報処理装置および情報処理方法
WO2020084894A1 (ja) * 2018-10-24 2020-04-30 ソニー株式会社 マルチカメラシステム、制御値算出方法及び制御装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261999A (ja) * 2005-03-16 2006-09-28 Olympus Corp カメラ、カメラシステムおよび複数カメラの協調撮影方法
JP2012044540A (ja) * 2010-08-20 2012-03-01 Canon Inc 撮影システム、撮像装置及び撮影方法
JP2013065280A (ja) * 2011-09-01 2013-04-11 Canon Inc 画像処理方法、画像処理装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261999A (ja) * 2005-03-16 2006-09-28 Olympus Corp カメラ、カメラシステムおよび複数カメラの協調撮影方法
JP2012044540A (ja) * 2010-08-20 2012-03-01 Canon Inc 撮影システム、撮像装置及び撮影方法
JP2013065280A (ja) * 2011-09-01 2013-04-11 Canon Inc 画像処理方法、画像処理装置およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017154606A1 (ja) * 2016-03-10 2019-01-10 ソニー株式会社 情報処理装置および情報処理方法
EP3410387A4 (en) * 2016-03-10 2019-01-23 Sony Corporation INFORMATION PROCESSOR AND INFORMATION PROCESSING METHOD
US10694081B2 (en) 2016-03-10 2020-06-23 Sony Corporation Information processing apparatus and information processing method
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JPWO2018088037A1 (ja) * 2016-11-14 2019-09-26 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
US10924691B2 (en) 2016-11-14 2021-02-16 Sony Corporation Control device of movable type imaging device and control method of movable type imaging device
JP7059937B2 (ja) 2016-11-14 2022-04-26 ソニーグループ株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
WO2020084894A1 (ja) * 2018-10-24 2020-04-30 ソニー株式会社 マルチカメラシステム、制御値算出方法及び制御装置
US20220224822A1 (en) * 2018-10-24 2022-07-14 Sony Corporation Multi-camera system, control value calculation method, and control apparatus

Also Published As

Publication number Publication date
JP6305232B2 (ja) 2018-04-04

Similar Documents

Publication Publication Date Title
KR101803712B1 (ko) 화상처리장치, 제어 방법, 프로그램 및 기록 매체
WO2019105214A1 (zh) 图像虚化方法、装置、移动终端和存储介质
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JP2010165248A (ja) 画像処理装置、画像照合方法、および、プログラム
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP6655379B2 (ja) 焦点スタックから適応スライス画像を生成する方法および装置
JP6694234B2 (ja) 距離測定装置
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
JP5968379B2 (ja) 画像処理装置およびその制御方法
JP6622575B2 (ja) 制御装置、制御方法、およびプログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP2013178684A (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP6915016B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム
WO2017187935A1 (en) Information processing apparatus, information processing method, and program
JP6655869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5086120B2 (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
JP2014179925A5 (ja)
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6639155B2 (ja) 画像処理装置及び画像処理方法
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2020004219A (ja) 3次元形状データを生成する装置、方法、及びプログラム
WO2016047220A1 (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151