JP2014039096A - 多眼カメラ撮影システム及びその制御方法 - Google Patents
多眼カメラ撮影システム及びその制御方法 Download PDFInfo
- Publication number
- JP2014039096A JP2014039096A JP2012179274A JP2012179274A JP2014039096A JP 2014039096 A JP2014039096 A JP 2014039096A JP 2012179274 A JP2012179274 A JP 2012179274A JP 2012179274 A JP2012179274 A JP 2012179274A JP 2014039096 A JP2014039096 A JP 2014039096A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- imaging
- image data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】被写体によらずに常に獲得情報量を最大化する。
【解決手段】各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、前記各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、前記各々のカメラに前記各々の撮像領域を撮影させる撮影手段と、前記複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで前記少なくとも1つのカメラの撮像領域と前記少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御手段と、前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段とを備えた多眼カメラ撮影システムによって上記課題を解決する。
【選択図】図7
【解決手段】各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、前記各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、前記各々のカメラに前記各々の撮像領域を撮影させる撮影手段と、前記複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで前記少なくとも1つのカメラの撮像領域と前記少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御手段と、前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段とを備えた多眼カメラ撮影システムによって上記課題を解決する。
【選択図】図7
Description
本発明は、多眼カメラ撮影システム及びその制御方法に関し、特に複数のカメラを被写体に応じて制御する技術に関する。
多数のカメラモジュールを組み合わせて撮影する多眼カメラが提案されている。例えば、特許文献1には、互いの撮像範囲の少なくとも一部が重なるように配置された複数の静電カメラモジュールと、これら静電カメラモジュールから得られた複数の画像データを処理する画像処理部を備えたマルチ静電カメラモジュールが開示されている。
特許文献1の技術によれば、それぞれの静電カメラモジュール毎にピント調整を行って撮影を行うことができるので、全体の撮像範囲中に遠い被写体と近い被写体が混在した場合であっても、各画像を合成することで全体的にピントが合っている画像を得ることができる。
しかしながら、特許文献1に記載の技術では、各カメラの撮像範囲の重なり具合が固定されているため、撮影シーンによっては、被写体が疎な場所では個々のカメラの性能が余り、密な場所では同性能が不足してしまう。このように、被写体情報量と撮像能力の不一致が発生すると、撮像した複数の画像から精細度の高い再構成画像を生成することができないという問題が発生する。
本発明はこのような事情に鑑みてなされたもので、被写体によらずに常に獲得情報量を最大化することができる多眼カメラ撮影システム及びその撮影制御方法を提供することを目的とする。
前記目的を達成するために多眼カメラ撮影システムの一の態様は、各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、各々のカメラに各々の撮像領域を撮影させる撮影手段と、複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで少なくとも1つのカメラの撮像領域と少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御手段と、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段とを備えた。
本態様によれば、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラの各々のカメラによって各々の撮像領域を撮影させ、複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで少なくとも1つのカメラの撮像領域と少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更し、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得するようにしたので、被写体によらずに常に獲得情報量を最大化することができる。
制御手段は、各々のカメラの撮像領域の情報量を比較して周囲のカメラとの情報量差を算出し、周囲のカメラとの情報量差に応じて少なくとも1つのカメラをパン動作及び/又はチルト動作させることが好ましい。これにより、情報量の大きい被写体を多重撮影することができ、被写体によらずに常に獲得情報量を最大化することができる。
各々のカメラの撮像領域の情報量を比較して、周囲のカメラよりも情報量が大きいカメラを第1のカメラとして選択する選択手段を備え、制御手段は、第1のカメラに隣接する第2のカメラを第1のカメラの撮像領域と第2のカメラの撮像領域の重複領域を増やす方向にパン動作及び/又はチルト動作させてもよい。これにより、情報量の大きい被写体を多重撮影することができ、適切に獲得情報量を最大化することができる。
情報量は、画像データの各画素の分散値であってもよいし、画像データの空間周波数の帯域毎の分散値に重み付け加算をした値であってもよい。これにより、適切に獲得情報量を最大化することができる。
制御手段は、各々の撮像領域の間に隙間が発生する場合に、隙間に隣接する撮像領域を撮影するカメラを隙間を無くす方向にパン動作及び/又はチルト動作させることが好ましい。これにより、各々のカメラの撮像領域の間の隙間を無くすことができ、適切な画像を取得することができる。
前記目的を達成するために多眼カメラ撮影システムの一の態様は、各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、各々のカメラのズーム倍率を変更するための光学ズーム機構と、各々のカメラに各々の撮像領域を撮影させる撮影手段と、複数のカメラのうち少なくとも1つのカメラのズーム倍率を変更する制御手段と、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段とを備えた。
本態様によれば、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラの各々のカメラに各々の撮像領域を撮影させ、複数のカメラのうち少なくとも1つのカメラのズーム倍率を変更し、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得するようにしたので、被写体によらずに常に獲得情報量を最大化することができる。
制御手段は、各々のカメラの撮像領域の情報量を比較して周囲のカメラとの情報量差を算出し、周囲のカメラとの情報量差に応じて少なくとも1つのカメラのズーム倍率を変更することが好ましい。これにより、情報量の大きい被写体を多重撮影することができ、被写体によらずに常に獲得情報量を最大化することができる。
各々のカメラの撮像領域の情報量を比較して、周囲のカメラよりも情報量が大きいカメラを第1のカメラとして選択する選択手段を備え、制御手段は、第1のカメラのズーム倍率を上げてもよい。これにより、情報量の大きい被写体を多重撮影することができ、被写体によらずに常に獲得情報量を最大化することができる。
選択手段は、第1のカメラ以外の第2のカメラを選択し、制御手段は、第2のカメラのズーム倍率を下げることが好ましい。このように、情報量の小さい被写体のズーム倍率を下げることで、情報量の大きい被写体のズーム倍率を上げて多重撮影することができ、被写体によらずに常に獲得情報量を最大化することができる。
選択手段は、第1のカメラ以外の第2のカメラを選択し、制御手段は、第2のカメラのズーム倍率を下げてもよい。これにより、適切に獲得情報量を最大化することができる。
選択手段は、各々のカメラが撮影した画像データの情報量を比較して、周囲のカメラよりも小さな情報量を持つカメラを第2のカメラとして選択する。これにより、適切にズーム倍率を下げる領域を選択することができる。
情報量は、画像データの空間周波数の高周波成分であってもよい。これにより、適切に獲得情報量を最大化することができる。
制御手段は、各々の撮像領域の間に隙間が発生する場合に、隙間に隣接する撮像領域を撮影するカメラのズーム倍率を下げることが好ましい。また、各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構を備え、制御手段は、各々の撮像領域の間に隙間が発生する場合に、隙間に隣接する撮像領域を撮影するカメラを隙間を無くす方向にパン動作及び/又はチルト動作させてもよい。これにより、各々のカメラの撮像領域の間の隙間を無くすことができ、適切な画像を取得することができる。
各々のカメラのピント位置を変更するためのフォーカス機構を備え、撮影手段は、各々のカメラの合焦位置において撮像領域を撮影することが好ましい。これにより、適切に獲得情報量を最大化することができる。
前記目的を達成するために多眼カメラ撮影システムの制御方法一の態様は、各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、を備えた多眼カメラ撮影システムの制御方法であって、各々のカメラに各々の撮像領域を撮影させる撮影工程と、複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで少なくとも1つのカメラの撮像領域と少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御工程と、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得する画像処理工程とを備えた。本態様によれば、情報量が大きな領域を検出し、その領域に多くの撮影リソースを割り当てるようにしたので、被写体によらずに常に獲得情報量を最大化することができる。
前記目的を達成するために多眼カメラ撮影システムの制御方法一の態様は、各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、各々のカメラのズーム倍率を変更するための光学ズーム機構と、を備えた多眼カメラ撮影システムの制御方法であって、各々のカメラに各々の撮像領域を撮影させる撮影工程と、複数のカメラのうち少なくとも1つのカメラのズーム倍率を変更する制御工程と、複数のカメラが撮影した画像データから各々の撮像領域よりも大きな領域を有する画像を取得する画像処理工程とを備えた。
本態様によれば、情報量が大きな領域を検出し、その領域に多くの撮影リソースを割り当てるようにしたので、被写体によらずに常に獲得情報量を最大化することができる。
本発明によれば、被写体によらずに常に獲得情報量を最大化することができ、撮像した複数の画像から精細度の高い再構成画像を安定して生成することができる。
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
<多眼カメラの構成>
図1は、本実施形態に係る多数カメラ撮影システム(多眼カメラ)の外観を示す図である。この多眼カメラ10は、複数のカメラを備えた撮像部12、被写体を確認するためのファインダ14、必要に応じて撮影補助光を発光する発光部(ストロボ)16、ユーザが撮影を行うための操作部18、各構成部品を収納している筐体19等から構成されている。
図1は、本実施形態に係る多数カメラ撮影システム(多眼カメラ)の外観を示す図である。この多眼カメラ10は、複数のカメラを備えた撮像部12、被写体を確認するためのファインダ14、必要に応じて撮影補助光を発光する発光部(ストロボ)16、ユーザが撮影を行うための操作部18、各構成部品を収納している筐体19等から構成されている。
図2は、撮像部12の拡大図である。撮像部12は、縦5列、横5行に配置された計25個のカメラC(1,1)〜C(5,5)を備えている。各カメラC(1,1)〜C(5,5)のうち、あるカメラC(i,j)は、周囲を8個の他のカメラC(i-1,j-1)、C(i,j-1)、C(i+1,j-1)、C(i-1,j)、C(i+1,j)、C(i-1,j+1)、C(i,j+1)、C(i+1,j+1)によって囲まれている。なお、各カメラの個数や配置は、図2に示す例に限定されるものではない。
図3は、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)を示す図である。同図に示すように、各カメラC(1,1)〜C(5,5)は、初期状態ではそれぞれ同じ画角(焦点距離)であり、均等に順序よく並んだ撮像領域を撮像する。また、各カメラC(1,1)〜C(5,5)の光軸(視線方位)は交差しない。
また、各カメラC(1,1)〜C(5,5)の撮像領域は、隣接して配置された他のカメラの撮像領域と重複するように配置されている。例えば、あるカメラC(i,j)の撮像領域CA(i,j)は、周囲の他の8個のカメラの撮像領域CA(i-1,j-1)、CA(i,j-1)、CA(i+1,j-1)、CA(i-1,j)、CA(i+1,j)、CA(i-1,j+1)、CA(i,j+1)、CA(i+1,j+1)とそれぞれ一部が重複している。
このように、カメラC(i,j)の初期の視線方位をCV(i0,j0)、画角をCAとすると、
CA>2×(CV((i+1)0,(j+1)0)- CV(i0,j0)) …(式1)
を満たしている。
CA>2×(CV((i+1)0,(j+1)0)- CV(i0,j0)) …(式1)
を満たしている。
多眼カメラ10は、各カメラC(1,1)〜C(5,5)の撮像領域の全体を撮像領域とする1枚の画像を取得する。
また、各カメラC(1,1)〜C(5,5)は、それぞれパン動作、チルト動作、ズーム動作、フォーカス動作を単独で行うことが可能に構成されている。
図4は、各カメラC(1,1)〜C(5,5)の各種動作を示す図であり、ここでは符号Cによってカメラを示している。
図4(a)はパン動作を示す図であり、カメラCは、撮像領域CA0から撮像領域CA1までパン動作によって撮像領域を変更することができる。また、図4(b)はチルト動作を示す図であり、カメラCは、撮像領域CA2から撮像領域CA3までチルト動作により撮像領域を変更することができる。
図4(c)はズーム動作を示す図であり、カメラCは、撮像領域CA4から撮像領域CA5までズーム動作によりズーム倍率を変更することができる。また、図4(d)はフォーカス動作を示す図であり、カメラCは、撮像領域CA6から撮像領域CA7までフォーカス動作によりピント調整をすることができる。
各カメラC(1,1)〜C(5,5)は、これらパン動作、チルト動作、ズーム動作、フォーカス動作のうち、2種類以上を組み合わせて動作することが可能に構成されている。
図5は、多眼カメラ10の全体構成を示すブロック図である。
同図に示すように多眼カメラ10は、上述したカメラC(1,1)〜C(5,5)を備えた撮像部12、発光部16、操作部18の他、CPU(中央処理装置)20、メインメモリ22、デジタル信号処理部24、積算部26、圧縮伸張処理部28、外部記録部30、表示部32、制御バス34、及びデータバス36等を備えて構成される。
CPU20は、操作部18からの操作入力に基づき、所定の制御プログラムに従って多眼カメラ10全体の動作を統括制御する制御手段として機能する。
撮像部12の各カメラC(1,1)〜C(5,5)は、それぞれ図6に示すように同一の構成を有するものであり、撮影レンズ40、絞り42、IRカットフィルタ44、光学ローパスフィルタ46、CCD(撮像素子)48、A/D変換器50、レンズ駆動部52、絞り駆動部54、CCD駆動部56、及び光学系駆動部60から構成されている。
撮影レンズ40は、フォーカスレンズ、ズームレンズ等を含み、レンズ駆動部52(光学ズーム機構に相当)に駆動されて光軸に沿って前後に移動する。CPU20は、レンズ駆動部52の駆動を制御することにより、フォーカスレンズの位置を制御して被写体に焦点が合うようにフォーカス動作(焦点調整)を行うとともに、操作部18からのズーム指令に応じてズームレンズの位置を制御してズーム動作を行う。
絞り42は、例えば、アイリス絞りで構成されており、絞り駆動部54に駆動されて動作する。CPU20は、絞り駆動部54を介して絞り42の開口量(絞り値)を制御し、CCD48への入射光量を制御する。
CCD48は、2次元のカラーCCD固体撮像素子により構成されている。CCD48の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードには所定の配列でカラーフィルタが配置されている。撮影レンズ40、絞り42、IRカットフィルタ44、及び光学ローパスフィルタ46を介してCCD48の受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU20の指令に従ってCCD駆動部56から与えられる駆動パルスに基づいて、信号電荷に応じた電圧信号(画像信号)としてCCD48から順次読み出される。CCD48は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。なお、本実施形態では、撮像素子としてCCD48を用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
また、撮影レンズ40、絞り42、IRカットフィルタ44、光学ローパスフィルタ46、CCD(撮像素子)48を含む光学系58は、光学系駆動部60(パン・チルト機構の一例)に駆動されて光軸に対して左右、上下方向に移動される。CPU20(制御手段に相当)は、光学系駆動部60の駆動を制御することにより、カメラCのパン動作、チルト動作を制御する。
CCD48から読み出された画像信号は、A/D変換器50によりデジタル信号に変換された後、データバス36を介して一旦、メインメモリ22に格納される。
CPU20は、各カメラC(1,1)〜C(5,5)のレンズ駆動部52及び光学系駆動部60をそれぞれ個別に駆動することができる。即ち、各カメラC(1,1)〜C(5,5)は、それぞれのレンズ駆動部52によりズーム動作及びフォーカス動作が個別に制御され、それぞれの光学系駆動部60によりパン動作及びチルト動作が個別に制御される。
なお、CPU20は、各C(1,1)〜C(5,5)の絞り駆動部54については、同期させて駆動する。即ち、各カメラC(1,1)〜C(5,5)の絞り駆動部54は、各カメラC(1,1)〜C(5,5)の絞り41が同じ絞り値となるように調整する。なお、絞り駆動部54を各カメラC(1,1)〜C(5,5)について個別に制御する態様も可能である。
発光部16は、例えば、放電管(キセノン管)により構成され、暗い被写体を撮影する
場合や逆光時等に必要に応じて発光される。
場合や逆光時等に必要に応じて発光される。
操作部18は、シャッタボタン、電源スイッチ、モードダイヤル、十字ボタン、ズームボタン等の公知の操作入力手段を含んでいる。シャッタボタンは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。撮影モード時には、シャッタボタンが半押しされると、撮影準備処理(即ち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス))が行われ、シャッタボタンが全押しされると、画像の撮影・記録処理が行われる。
メインメモリ22は、CPU20によるプログラムの実行時におけるワークエリアとして、また、各カメラC(1,1)〜C(5,5)により撮像され取得されたデジタル画像信号を一時保持する記憶手段として使用される。
デジタル信号処理部24は、合成処理回路、ホワイトバランス調整回路、階調変換処理回路(例えば、ガンマ補正回路)、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、輪郭補正回路、輝度・色差信号生成回路等を含む画像処理手段として機能し、メインメモリ22に格納されたR、G、Bの画像データに対して所定の信号処理を行う。即ち、各カメラC(1,1)〜C(5,5)から取得されたR、G、Bの画像信号は、デジタル信号処理部24において、1枚の画像に合成処理された後、輝度信号(Y信号)及び色差信号(Cr、Cb信号)からなるYUV信号に変換されるとともに、階調変換処理(例えば、ガンマ補正)等の所定の処理が施される。デジタル信号処理部24により処理された画像信号はメインメモリ22に格納される。
積算部26は、シャッタボタンの半押し時に取り込まれる画像信号に基づいて、各カメラC(1,1)〜C(5,5)のAF制御に必要な焦点評価値を算出する。CPU20は、積算部26により算出される焦点評価値が極大となる位置をサーチし、その位置に各カメラC(1,1)〜C(5,5)のフォーカスレンズを移動させることにより、被写体(主要被写体)への焦点合わせを行う。
また、積算部26は、シャッタボタンの半押し時に取り込まれる画像信号に基づいてAE制御に必要な被写体輝度を算出する。被写体輝度の算出は、各カメラC(1,1)〜C(5,5)から取得した画像信号を平均化して算出してもよいし、予め決められたカメラから取得した画像信号に基づいて算出してもよい。また、各カメラC(1,1)〜C(5,5)から取得した画像信号から主要被写体を抽出し、主要被写体の画像信号に基づいて算出してもよい。
CPU20は、積算部26により算出された被写体輝度に基づいて適正な露光量を得るための露出設定を行う。上述したように、CPU20は、各カメラC(1,1)〜C(5,5)の絞り41が同じ値となるように絞り駆動部54を制御する。また、発光部16を発光する必要がある場合には、CPU20は発光部16を制御する。
圧縮伸張処理部28は、CPU20からの指令に従い、入力された画像データに圧縮処理を施し、所定形式の圧縮画像データを生成する。例えば、静止画に対してはJPEG規格に準拠した圧縮処理が施され、動画に対してはMPEG2やMPEG4、H.264規格に準拠した圧縮処理が施される。また、圧縮伸張処理部28は、CPU20からの指令に従い、入力された圧縮画像データに伸張処理を施し、非圧縮の画像データを生成する。
外部記録部30は、上記圧縮伸張処理部28により生成されたJPEG形式等の画像データを格納した画像ファイルをメモリカード等の着脱自在な外部記録媒体に記録し、又は外部記録媒体から画像ファイルの読み出しを行う。
表示部32は、例えば、カラー液晶パネルを備えた表示装置により構成され、撮影済み画像を表示するための画像表示部として使用されるとともに、各種設定時にGUIとして使用される。また、表示部32は、撮影モード時に画角を確認するための電子ファインダとして利用される。
なお、各カメラC(1,1)〜C(5,5)は、ピンホールカメラであってもよい。この場合、ピンホールの位置を左右上下に動かすことでパン動作、チルト動作を行うことができる。また、ピンホールの位置を前後に動かすことでズーム動作を行うことができる。なお、パンフォーカスとなるため、ピントの調整は不要である。
<第1の実施形態>
図7は、本実施形態に係る撮影制御方法を示すフローチャートである。本実施形態では、被写体の情報量分布を検出し、情報量が大きい領域ほど多数のカメラによって多重撮影されるように、各カメラC(1,1)〜C(5,5)の視線方位を決定し、順次修正することで、獲得情報量を最大化する。
図7は、本実施形態に係る撮影制御方法を示すフローチャートである。本実施形態では、被写体の情報量分布を検出し、情報量が大きい領域ほど多数のカメラによって多重撮影されるように、各カメラC(1,1)〜C(5,5)の視線方位を決定し、順次修正することで、獲得情報量を最大化する。
(ステップS1)
まず、撮像部12の初期設定を行う。初期設定では、各カメラC(1,1)〜C(5,5)は、それぞれ視線方位がCV(10,10)〜C(50,50)に設定される。これにより、各カメラC(1,1)〜C(5,5)の視線方位は交差せずに、図3に示した撮像領域CA(1,1)〜CA(5,5)を撮像することになる。
まず、撮像部12の初期設定を行う。初期設定では、各カメラC(1,1)〜C(5,5)は、それぞれ視線方位がCV(10,10)〜C(50,50)に設定される。これにより、各カメラC(1,1)〜C(5,5)の視線方位は交差せずに、図3に示した撮像領域CA(1,1)〜CA(5,5)を撮像することになる。
(ステップS2)
初期設定の状態で、各カメラC(1,1)〜C(5,5)によって撮影を行う。例えば、ユーザによりシャッタボタンが半押しされた場合に、撮影を開始する。
初期設定の状態で、各カメラC(1,1)〜C(5,5)によって撮影を行う。例えば、ユーザによりシャッタボタンが半押しされた場合に、撮影を開始する。
本実施形態では、各C(1,1)〜C(5,5)のフォーカス動作は同期して駆動される。即ち、CPU20は、各カメラC(1,1)〜C(5,5)のレンズ駆動部52が、各カメラC(1,1)〜C(5,5)のフォーカスレンズをそれぞれ同じ焦点位置とするように制御する。また、本実施形態では、各C(1,1)〜C(5,5)のズーム動作は行わない。即ち、各カメラC(1,1)〜C(5,5)は、初期状態から焦点距離が同じ状態に保たれる。
各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データは、メインメモリ22に格納される。ここでは、撮像部12によって図8(a)に示す画像を撮影したものとする。
(ステップS3)
各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。画像データの情報量としては、例えば画素データの分散値や、画像データの空間周波数の帯域毎の分散値に重み付け加算をした値を用いることができる。
各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。画像データの情報量としては、例えば画素データの分散値や、画像データの空間周波数の帯域毎の分散値に重み付け加算をした値を用いることができる。
(ステップS4)
この各カメラC(1,1)〜C(5,5)の画像データの情報量値CI(1,1)〜CI(5,5)を比較し、大きな情報量値を持つ画像データを取得したカメラを選出する。例えば、CI(i,j)が周囲の隣接する8個のカメラの情報量値CI(i-1,j-1)〜CI(i+1,j+1)のいずれよりも大きいときには、カメラC(i,j)を選出する。この選出方法の場合、選出されるカメラは1つとは限らない。また、情報量が大きい順に所定数のカメラを選出してもよい。
この各カメラC(1,1)〜C(5,5)の画像データの情報量値CI(1,1)〜CI(5,5)を比較し、大きな情報量値を持つ画像データを取得したカメラを選出する。例えば、CI(i,j)が周囲の隣接する8個のカメラの情報量値CI(i-1,j-1)〜CI(i+1,j+1)のいずれよりも大きいときには、カメラC(i,j)を選出する。この選出方法の場合、選出されるカメラは1つとは限らない。また、情報量が大きい順に所定数のカメラを選出してもよい。
また、ユーザが所望の領域をマニュアルで選択するように構成してもよい。この場合、撮影画像を表示したタッチパネル(不図示)上で、ユーザに所望の被写体を選択させ、その被写体を撮影したカメラを選出すればよい。
図8(b)に示す例では、撮像領域CA(2,2)と撮像領域CA(4,4)の情報量が大きく、カメラC(2,2)とカメラC(4,4)が選出されたものとする。
(ステップS5)
次に、選出されたカメラC(i,j)の周囲の8個のカメラのC(i-1,j-1)〜C(i+1,j+1)の視線方位CV(i-1,j-1)〜CV(i+1,j+1)を暫定修正する。即ち、周囲の8個のカメラ(第2の領域を撮影するカメラに相当)の視線方位を選出されたカメラ(第1の領域を撮影するカメラに相当)の視線方位に近づけて、選出されたカメラの撮像領域(第1の領域に相当)と周囲のカメラの撮像領域(第2の領域に相当)の重複領域を増やす。
次に、選出されたカメラC(i,j)の周囲の8個のカメラのC(i-1,j-1)〜C(i+1,j+1)の視線方位CV(i-1,j-1)〜CV(i+1,j+1)を暫定修正する。即ち、周囲の8個のカメラ(第2の領域を撮影するカメラに相当)の視線方位を選出されたカメラ(第1の領域を撮影するカメラに相当)の視線方位に近づけて、選出されたカメラの撮像領域(第1の領域に相当)と周囲のカメラの撮像領域(第2の領域に相当)の重複領域を増やす。
ここでは、カメラC(i,j)の周囲のカメラの暫定修正方位CV1を、下記のように決定する。
CV1((i+m),(j+n))=CV0((i+m),(j+n))+g(CV0((i+m),(j+n))−CV0(i,j))+ε …(式2)
上記のCV0(i,j)は、カメラC(i,j)の初期値の視線方位であり、m=-1〜1,n=-1〜1である。収束性を良くするために、ランダムノイズ的な修正量εを加えているが、加えなくてもよい。また、gは適当な定数(ex.g=k)でもよいし、情報量値CI(i,j)に応じた値でもよい(ex.g=h×CI(i,j))。
上記のCV0(i,j)は、カメラC(i,j)の初期値の視線方位であり、m=-1〜1,n=-1〜1である。収束性を良くするために、ランダムノイズ的な修正量εを加えているが、加えなくてもよい。また、gは適当な定数(ex.g=k)でもよいし、情報量値CI(i,j)に応じた値でもよい(ex.g=h×CI(i,j))。
図8(b)に示す例では、まず撮像領域CA(2,2)について、周囲のカメラの暫定修正方位を決定し、修正する。
(ステップS6)
選出されたカメラが他にもあるか否かを判定し、他にもある場合はステップS5に戻り、同様の処理を行う。即ち、ステップS4において選出された順に、順次視線方位の暫定修正を行う。図8(b)に示す例では、カメラC(2,2)に続いてカメラC(4,4)について行う。選出された全てのカメラについて処理を行った場合は、ステップS7に移行する。
選出されたカメラが他にもあるか否かを判定し、他にもある場合はステップS5に戻り、同様の処理を行う。即ち、ステップS4において選出された順に、順次視線方位の暫定修正を行う。図8(b)に示す例では、カメラC(2,2)に続いてカメラC(4,4)について行う。選出された全てのカメラについて処理を行った場合は、ステップS7に移行する。
(ステップS7)
視線方位の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(各カメラC(1,1)〜C(5,5)のうちのいずれのカメラにおいても撮影できない領域)ができていないかを判定する。
視線方位の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(各カメラC(1,1)〜C(5,5)のうちのいずれのカメラにおいても撮影できない領域)ができていないかを判定する。
ステップS6において、選出されたカメラの周囲の8個のカメラの視線方位を、選出されたカメラの視線方位に近づけた。これにより、選出されたカメラとは反対側に隣接するカメラとの撮像領域に隙間ができる可能性がある。このような隙間ができると、全体画像を合成する際に欠落領域となってしまい、都合が悪い。
隙間ができている場合にはステップS8に移行し、隙間ができていない場合にはステップS9に移行する。
(ステップS8)
隙間ができている場合は、隙間ができないように視線方位の暫定修正の修正係数gを小さい値に再設定し、ステップS7へ移行する。なお、選出されたカメラ及びその周囲のカメラ以外のカメラを用いて隙間をカバーしてもよい。
隙間ができている場合は、隙間ができないように視線方位の暫定修正の修正係数gを小さい値に再設定し、ステップS7へ移行する。なお、選出されたカメラ及びその周囲のカメラ以外のカメラを用いて隙間をカバーしてもよい。
(ステップS9)
視線方位の修正量CVk((i+m),(j+n))-CVk-1((i+m),(j+n))が十分に小さいか否か、即ち収束したか否かを判定する。収束していない場合はステップS10へ移行し、収束した場合はステップS11に移行する。
視線方位の修正量CVk((i+m),(j+n))-CVk-1((i+m),(j+n))が十分に小さいか否か、即ち収束したか否かを判定する。収束していない場合はステップS10へ移行し、収束した場合はステップS11に移行する。
(ステップS10)
修正後の視線方位で、各カメラC(1,1)〜C(5,5)によって再撮影を行い、その後ステップS3に移行して同様の処理を行う。
修正後の視線方位で、各カメラC(1,1)〜C(5,5)によって再撮影を行い、その後ステップS3に移行して同様の処理を行う。
(ステップS11)
視線方位の修正量が収束した場合は、この修正後の視線方位で、各カメラC(1,1)〜C(5,5)によって本撮影を行う。例えば、ユーザによりシャッタボタンが全押しされた場合に、本撮影を行う。
視線方位の修正量が収束した場合は、この修正後の視線方位で、各カメラC(1,1)〜C(5,5)によって本撮影を行う。例えば、ユーザによりシャッタボタンが全押しされた場合に、本撮影を行う。
図8(c)は、最終的に決定した視線方位による各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)を示す図である。同図に示すように、図8(a)に示す初期状態から撮像領域CA(1,1)は図面左下方向へ、CA(1,2)は図面下方向へ、CA(1,3)は図面右下方向へ、CA(2,1)は図面左方向へ、CA(2,3)は図面右方向へ、CA(3,1)は図面左上方向へ、CA(3,2)は図面上方向へ、CA(3,4))は図面下方向へ、CA(3,5)図面右下方向へ、CA(4,3)図面左方向へ、CA(4,5)は図面右方向へ、CA(5,3)は図面左上方向へ、CA(5,4)は図面上方向へ、CA(5,5)は図面右上方向へと移動している。なお、この例では、カメラC(3,3)については、情報量が大きいカメラC(2,2)とカメラC(4,4)との間に位置するため、バランスを取って視線方位を修正していない。
このように、各カメラの視線方位を順次修正することで、情報量値CIの大きい画像データを撮影したカメラの撮像領域と隣接するカメラの撮像領域との重複領域を増やすことができる。これにより、重複領域において解像度を高めた画像を得ることができる。また、重複領域では、視差情報を得ることができる。
本実施形態によれば、獲得情報量を最大化するように各カメラの視線方位を変化させるので、被写体によらず、撮像した複数の画像から精細度の高い再構成画像を安定して生成することができる。なお、本実施形態では、本撮影前に各カメラの視線方位の修正を行ったが、連写を行いながら解析を繰り返し、最適な視線方位へ収束させてもよい。
<第1の実施形態の変形例>
図9は、第1の実施形態の変形例に係る撮影制御方法を示すフローチャートである。なお、図7に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。本実施形態では、各カメラC(1,1)〜C(5,5)の視線方位を同時に修正することで、獲得情報量を最大化する。
図9は、第1の実施形態の変形例に係る撮影制御方法を示すフローチャートである。なお、図7に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。本実施形態では、各カメラC(1,1)〜C(5,5)の視線方位を同時に修正することで、獲得情報量を最大化する。
(ステップS1〜S3)
第1の実施形態と同様に、まず撮像部12の初期設定を行い、各カメラC(1,1)〜C(5,5)によって撮影を行う。この各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。
(ステップS14)
次に、各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量と、周囲の連接する8個のカメラによって撮影された画像データの情報量とを比較し、情報量差を長さとするベクトルの総和を算出する。即ち、情報量値CI(i,j)と、情報量値CI(i-1,j-1)〜CI(i+1,j+1)とを比較し、カメラC(i,j)のベクトルの総和を算出する。
第1の実施形態と同様に、まず撮像部12の初期設定を行い、各カメラC(1,1)〜C(5,5)によって撮影を行う。この各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。
(ステップS14)
次に、各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量と、周囲の連接する8個のカメラによって撮影された画像データの情報量とを比較し、情報量差を長さとするベクトルの総和を算出する。即ち、情報量値CI(i,j)と、情報量値CI(i-1,j-1)〜CI(i+1,j+1)とを比較し、カメラC(i,j)のベクトルの総和を算出する。
ここでは、撮像領域CA(2,2)と撮像領域CA(4,4)の情報量が大きく、その他の撮像領域の情報量が0である場合を例に説明する。
図10(a)に示すように、撮像領域CA(2,2)と撮像領域CA(4,4)の情報量が大きいため、カメラC(2,2)とカメラC(4,4)は、周囲から向かってくるベクトルに取り囲まれ、総和するとベクトルは0となる。
また、図10(b)に示すように、撮像領域CA(2,2)と撮像領域CA(4,4)のいずれかのみに隣接する領域を撮影するカメラ(カメラC(2,2)とカメラC(4,4)とのいずれかのみに隣接するカメラ)であるカメラC(1,1)、C(1,2)、C(1,3)、C(2,1)、C(2,3)、C(3,1)、C(3,2)、C(3,4)、C(3,5)、C(4,3)、C(4,5)、C(5,3)、C(5,4)、C(5,5)は、カメラC(2,2)又はカメラC(4,4)に向かう総和ベクトルとなる。
また、図10(c)に示すように、撮像領域CA(2,2)と撮像領域CA(4,4)との両方に隣接する領域を撮影するカメラ(カメラC(2,2)とカメラC(4,4)との両方に隣接するカメラ)であるカメラC(3,3)は、それぞれ反対方向のベクトルが存在するが、総和するとベクトルは打ち消しあって0となる。
(ステップS15)
ステップS4において算出した総和ベクトルの大きさと方位に応じて、各カメラC(1,1)〜C(5,5)の視線方位CV(1,1)〜CV(5,5)を同時に暫定修正する。
ステップS4において算出した総和ベクトルの大きさと方位に応じて、各カメラC(1,1)〜C(5,5)の視線方位CV(1,1)〜CV(5,5)を同時に暫定修正する。
(ステップS7〜)
ステップS15における視線方位の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(各カメラC(1,1)〜C(5,5)のうちのいずれのカメラにおいても撮影できない領域)ができていないかを判定する。
ステップS15における視線方位の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(各カメラC(1,1)〜C(5,5)のうちのいずれのカメラにおいても撮影できない領域)ができていないかを判定する。
以下の処理は、第1の実施形態の処理と同様である。
このように、各カメラの視線方位を同時に修正してもよい。これにより、情報量値CIの大きい画像データを撮影したカメラの撮像領域と隣接するカメラの撮像領域との重複領域を増やすことができる。
<第2の実施形態>
図11は、第2の実施形態に係る撮影制御方法を示すフローチャートである。本実施形態では、被写体の情報量分布を検出し、情報量(特に空間周波数の高周波成分)が大きい領域ほど高分解能に撮影されるように、各カメラC(1,1)〜C(5,5)のレンズの焦点距離(ズーム倍率)を大きくし、かつ撮影領域の欠落が起きないように、情報量が小さいカメラの焦点距離(ズーム倍率)を小さくしたり、光軸(視線)方位を調整したりすることで、獲得情報量を最大化する。
図11は、第2の実施形態に係る撮影制御方法を示すフローチャートである。本実施形態では、被写体の情報量分布を検出し、情報量(特に空間周波数の高周波成分)が大きい領域ほど高分解能に撮影されるように、各カメラC(1,1)〜C(5,5)のレンズの焦点距離(ズーム倍率)を大きくし、かつ撮影領域の欠落が起きないように、情報量が小さいカメラの焦点距離(ズーム倍率)を小さくしたり、光軸(視線)方位を調整したりすることで、獲得情報量を最大化する。
(ステップS21)
まず、撮像部12の初期設定を行う。第1の実施形態と同様に、初期設定では、各カメラC(1,1)〜C(5,5)は、それぞれ同じ撮影画角(焦点距離)であり、かつ視線方位がCV(10,10)〜C(50,50)に設定される。
まず、撮像部12の初期設定を行う。第1の実施形態と同様に、初期設定では、各カメラC(1,1)〜C(5,5)は、それぞれ同じ撮影画角(焦点距離)であり、かつ視線方位がCV(10,10)〜C(50,50)に設定される。
(ステップS22)
初期設定の状態で、各カメラC(1,1)〜C(5,5)によって撮影を行う。なお、本実施形態においても、各C(1,1)〜C(5,5)のフォーカス動作は同期して駆動される。
初期設定の状態で、各カメラC(1,1)〜C(5,5)によって撮影を行う。なお、本実施形態においても、各C(1,1)〜C(5,5)のフォーカス動作は同期して駆動される。
各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データは、メインメモリ22に格納される。ここでは、撮像部12によって図8(a)に示す画像を撮影した例を用いて説明する。
(ステップS23)
各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。具体的には、画像データをフーリエ解析やウェーブレット解析によって、空間周波数帯域毎に分解し、高周波成分の量を指標として用いる。高周波成分ほど重要視するよう重み付けした評価値にしてもよい。画像領域内の中央部ほど重要視するよう重み付けした評価値にしてもよい。
各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。具体的には、画像データをフーリエ解析やウェーブレット解析によって、空間周波数帯域毎に分解し、高周波成分の量を指標として用いる。高周波成分ほど重要視するよう重み付けした評価値にしてもよい。画像領域内の中央部ほど重要視するよう重み付けした評価値にしてもよい。
(ステップS24)
この各カメラC(1,1)〜C(5,5)の画像データの高周波成分情報量値CIH(1,1)〜CI(5,5)を比較し、空間周波数の高周波成分が大きな情報量値を持つ画像データを取得したカメラを選出する。ここでは、第1の実施形態と同様に、CIH(i,j)が周囲の8個のカメラのCIH(i-1,j-1)〜CIH(i+1,j+1)のいずれよりも大きいときには、カメラC(i,j)を選出する。
この各カメラC(1,1)〜C(5,5)の画像データの高周波成分情報量値CIH(1,1)〜CI(5,5)を比較し、空間周波数の高周波成分が大きな情報量値を持つ画像データを取得したカメラを選出する。ここでは、第1の実施形態と同様に、CIH(i,j)が周囲の8個のカメラのCIH(i-1,j-1)〜CIH(i+1,j+1)のいずれよりも大きいときには、カメラC(i,j)を選出する。
図12(a)に示す例では、撮像領域CA(1,2)、CA(2,2)、CA(3,4)、CA(4,4)の情報量が大きく、カメラC(1,2)、C(2,2)、C(3,4)、C(4,4)が選出されたものとする。
(ステップS25)
次に、選出されたカメラC(i,j)の焦点距離(ズーム倍率)が大きくなるように暫定修正する。即ち、選出されたカメラC(i,j)の撮像領域CA(i,j)を狭くすることで、撮像領域CA(i,j)を高解像度に撮影する。
次に、選出されたカメラC(i,j)の焦点距離(ズーム倍率)が大きくなるように暫定修正する。即ち、選出されたカメラC(i,j)の撮像領域CA(i,j)を狭くすることで、撮像領域CA(i,j)を高解像度に撮影する。
カメラC(i,j)のズーム倍率の初期値をCZ0(i,j)とすると、暫定修正ズーム倍率CZ1(i,j)は、下記のように決定する。
CZ1(i,j)= g・CZ0(i,j) …(式3)
ここで、gは適当な定数(ex.gz=k)でもよいし、情報量値CIH(i,j)に応じた値でもよい(ex.g=h×CIH(i,j))。
ここで、gは適当な定数(ex.gz=k)でもよいし、情報量値CIH(i,j)に応じた値でもよい(ex.g=h×CIH(i,j))。
(ステップS26)
逆に、各カメラC(1,1)〜C(5,5)の画像データの高周波成分情報量値CIH(1,1)〜CI(5,5)を比較し、空間周波数の高周波成分が小さい情報量値を持つ画像データを取得したカメラを選出する。
逆に、各カメラC(1,1)〜C(5,5)の画像データの高周波成分情報量値CIH(1,1)〜CI(5,5)を比較し、空間周波数の高周波成分が小さい情報量値を持つ画像データを取得したカメラを選出する。
図12(a)に示す例では、撮像領域CA(1,5)と撮像領域CA(5,1)の情報量が小さく、カメラC(1,5)とカメラC(5,1)が選出されたものとする。
(ステップS27)
次に、ステップS26において選出されたカメラC(i,j)の焦点距離(ズーム倍率)が小さくなるように暫定修正する。即ち、選出されたカメラC(i,j)の撮像領域CA(i,j)を広くする。
次に、ステップS26において選出されたカメラC(i,j)の焦点距離(ズーム倍率)が小さくなるように暫定修正する。即ち、選出されたカメラC(i,j)の撮像領域CA(i,j)を広くする。
カメラC(i,j)のズーム倍率の初期値をCZ0(i,j)とすると、暫定修正ズーム倍率CZ1(i,j)は、下記のように決定する。
CZ1(i,j)= gz・CZ0(i,j) …(式4)
ここで、gzは適当な定数(ex.gz=k)でもよいし、情報量値CIH(i,j)の逆数に応じた値でもよい(ex.g=h×1/CIH(i,j))。
ここで、gzは適当な定数(ex.gz=k)でもよいし、情報量値CIH(i,j)の逆数に応じた値でもよい(ex.g=h×1/CIH(i,j))。
(ステップS28)
ズーム倍率の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(欠落領域)ができていないかを判定する。
ズーム倍率の暫定修正によって、各カメラC(1,1)〜C(5,5)の撮像領域CA(1,1)〜CA(5,5)に、隙間(欠落領域)ができていないかを判定する。
隙間ができている場合にはステップS29に移行し、隙間ができていない場合にはステップS31に移行する。
図12(b)に示す例では、カメラC(1,2)、C(2,2)、C(3,4)、C(4,4)のズーム倍率を大きくしたことで、撮像領域CA(1,2)、CA(2,2)、CA(3,4)、CA(4,4)が小さくなり、カメラC(1,5)、C(5,1)のズーム倍率を小さくしたことで、撮像領域CA(1,5)、CA(5,1)が大きくなっている。ここで撮像領域CA(1,2)の上側及び下側の部分に欠落領域LAが発生している。
(ステップS29、S30)
隙間ができている場合は、隙間ができないように、情報量が大きいカメラC(1,5)、C(5,1)以外の各カメラC(1,1)〜C(5,5)の視線方位を調整する。カメラC(i,j)の修正方位CV1(i,j)を、下記のように決定する。
隙間ができている場合は、隙間ができないように、情報量が大きいカメラC(1,5)、C(5,1)以外の各カメラC(1,1)〜C(5,5)の視線方位を調整する。カメラC(i,j)の修正方位CV1(i,j)を、下記のように決定する。
CV1(i,j)= CV0(i,j)+Σg・(CV0(i,j)/2+CFOV0(i+m,j+n)/2)…(式5)
ここで、CV0(i,j)はカメラC(i,j)の初期値の視線方位、m=-1〜1,n=-1〜1である。
ここで、CV0(i,j)はカメラC(i,j)の初期値の視線方位、m=-1〜1,n=-1〜1である。
また、情報量が大きいカメラC(1,5)、C(5,1)のズーム倍率の暫定修正の修正係数gkを小さい値に修正することで、隙間を無くしてもよい。
(ステップS31)
視線方位の修正量CVk((i+m),(j+n))-CVk-1((i+m),(j+n))とズーム倍率の修正量CZk(i,j)-CZk-1(i,j)が十分に小さいか否か、即ち収束したか否かを判定する。収束していない場合はステップS32へ移行し、収束した場合はステップS33に移行する。
視線方位の修正量CVk((i+m),(j+n))-CVk-1((i+m),(j+n))とズーム倍率の修正量CZk(i,j)-CZk-1(i,j)が十分に小さいか否か、即ち収束したか否かを判定する。収束していない場合はステップS32へ移行し、収束した場合はステップS33に移行する。
(ステップS32)
修正後の視線方位及びズーム倍率で、各カメラC(1,1)〜C(5,5)によって再撮影を行い、その後ステップS23に移行して同様の処理を行う。
修正後の視線方位及びズーム倍率で、各カメラC(1,1)〜C(5,5)によって再撮影を行い、その後ステップS23に移行して同様の処理を行う。
(ステップS33)
視線方位及びズーム倍率の修正量が収束した場合は、この修正後の視線方位及びズーム倍率で、各カメラC(1,1)〜C(5,5)によって本撮影を行う。
視線方位及びズーム倍率の修正量が収束した場合は、この修正後の視線方位及びズーム倍率で、各カメラC(1,1)〜C(5,5)によって本撮影を行う。
本実施形態によれば、獲得情報量を最大化するように各カメラのズーム倍率を変化させるので、被写体によらず、撮像した複数の画像から精細度の高い再構成画像を安定して生成することができる。なお、本実施形態では、本撮影前に各カメラのズーム倍率の修正を行ったが、連写を行いながら解析を繰り返し、最適なズーム倍率へ収束させてもよい。
<第3の実施形態>
図13は、第3の実施形態に係る撮影制御方法を示すフローチャートである。なお、図11に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。本実施形態では、各カメラC(1,1)〜C(5,5)がフォーカス動作をそれぞれ単独で行う。
図13は、第3の実施形態に係る撮影制御方法を示すフローチャートである。なお、図11に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。本実施形態では、各カメラC(1,1)〜C(5,5)がフォーカス動作をそれぞれ単独で行う。
(ステップS21、S22)
第2の実施形態と同様に、最初に撮像部12の初期設定を行い、この状態で各カメラC(1,1)〜C(5,5)によって撮影を行う。各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データは、メインメモリ22に格納される。
第2の実施形態と同様に、最初に撮像部12の初期設定を行い、この状態で各カメラC(1,1)〜C(5,5)によって撮影を行う。各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データは、メインメモリ22に格納される。
(ステップS41)
ここで、各カメラC(1,1)〜C(5,5)は、それぞれ別個にフォーカス動作(合焦動作)が行われる。即ち、各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データについて焦点評価値が算出され、この焦点評価値に基づいて各カメラC(1,1)〜C(5,5)のフォーカスレンズが合焦位置に移動される。
ここで、各カメラC(1,1)〜C(5,5)は、それぞれ別個にフォーカス動作(合焦動作)が行われる。即ち、各カメラC(1,1)〜C(5,5)によって撮影されたそれぞれの画像データについて焦点評価値が算出され、この焦点評価値に基づいて各カメラC(1,1)〜C(5,5)のフォーカスレンズが合焦位置に移動される。
(ステップS23)
次に、各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。
次に、各カメラC(1,1)〜C(5,5)によって撮影された画像データの情報量をそれぞれ数値化する。
以下の処理は、第2の実施形態と同様である。
本実施形態のように、各カメラC(1,1)〜C(5,5)がそれぞれフォーカス動作を行うことで、撮像領域の全範囲に渡って、2次元的な被写体情報の密度を高い領域を算出するとともに、距離方向に被写体情報の密度を高い領域を算出することができる。
これにより、総データ量を増やすことなく、情報密度が高い領域に対して高解像で、かつ従来では被写界深度に収まらなかった複数の被写体の合焦撮影を行うことができる。
ここでは、第2の実施形態においてフォーカスを多重化する形態として説明したが、第1の実施形態においてフォーカスを多重化する態様も可能である。
<多眼カメラの他の実施形態>
図14は、他の実施形態に係る多眼カメラを示す模式図である。この多眼カメラ70は、メインレンズ72、マイクロレンズアレイ74、CCD(撮像素子)76、可変プリズムアレイ78等から構成されている。
図14は、他の実施形態に係る多眼カメラを示す模式図である。この多眼カメラ70は、メインレンズ72、マイクロレンズアレイ74、CCD(撮像素子)76、可変プリズムアレイ78等から構成されている。
メインレンズ72から入射した被写体光は、マイクロレンズアレイ74の手前で結像する。マイクロレンズアレイ74の各マイクロレンズは、この像に対してピントが合うように設計されている。各マイクロレンズを透過した光は、CCD76に入射する。
このように、マイクロレンズアレイ74のうちの1つのマイクロレンズとその光路後段に配置された撮像素子との組合せを1つのカメラと考えることができる。したがって、多眼カメラ70は、マイクロレンズアレイ74のマイクロレンズの数だけカメラを有する多眼カメラとして機能する。
また、マイクロレンズアレイ74の各マイクロレンズは、図14では不図示の機構によりピント合わせ(フォーカス動作)及びズーム倍率変更(ズーム動作)が可能となっている。
図15は、マイクロレンズアレイ74の1つのマイクロレンズの一例を示す拡大図であって、フォーカス動作を示す模式図である。
マイクロレンズアレイ74の各マイクロレンズは、自らの一部が変形することにより、焦点距離を任意に変化させることの可能な光学デバイスである。各マイクロレンズは、剛性層としての透明基板80と、この透明基板80と対向配置された弾性層としての透明変形部材81と、透明基板80および透明変形部材81の間に設けられた支柱82と、透明基板80、透明変形部材81および支柱82が取り囲む空間に充填された充填層83と、透明基板80の一表面および透明変形部材81の一表面にそれぞれ設けられて互いに対向する透明電極層84,85とを有している。
透明電極層84は接地されており、透明電極層85は外部制御電源(不図示)に接続されている。さらに、支柱82の一部には連通孔(不図示)が設けられており、外部との通気が可能となっている。
透明基板80は、例えば石英などの高い剛性を示す透明材料により構成されている。支柱82も透明基板80と同様に、高剛性材料によって形成されている。透明基板80の上に支柱82によって支えられるように設けられた透明変形部材81は、例えば透明で柔軟なポリエステル材料などのポリマーによって構成されており、高い弾性率を示すものである。
透明変形部材81は、メインレンズ72からの入射光が通過する領域において、例えば中央部から周辺部へ向かうほど徐々に薄くなっている。また、透明電極層85が設けられた表面は平面であり、その反対側の面は凸面(曲面)をなしている。したがって、透明変形部材81はレンズとしての機能を発揮する。さらに、透明変形部材81を構成するポリマーの組成はほぼ均質であることから、透明変形部材81は面内方向(XY平面の広がる方向)に弾性定数分布を有することとなる。この弾性定数分布は透明変形部材81の厚さの分布によって生じるものである。
充填層83は、例えばシリコーンなどの透明で極めて柔軟な流動性材料によって構成されている。充填層83は、透明基板80と透明変形部材81とにより挟まれた領域のうち、少なくとも入射光が通過する領域を含む一部領域にのみ充填されている。
図15(a)は、透明電極層84,85間に電圧を印加しない初期状態を表している。このとき、透明変形部材81の入射側となる表面の形状は、透明基板80の入射側に凸形状をなしている。このため、マイクロレンズは凸レンズとして作用し、入射光束を集束する機能を発揮する。一方、図15(b)は、透明電極層84,85間に所定の電圧を印加した状態を表している。電圧の印加により透明電極層84,85間に静電気力が働き、透明変形部材81と充填層83とが変形して表面が凹面となっている。このとき、透明基板80の表面は平面のままである。したがって、この場合にはマイクロレンズが凹レンズとして作用し、入射光束を発散する機能を発揮する。
ここで、透明変形部材81は所定の厚さ分布(弾性定数分布)を有しているので、印加電圧を調整することにより表面の形状が適切に選択される。よって、フォーカス動作を行いつつ波面収差の補正が良好に行われることとなる。
なお、被写体のおおまかなピント合わせは、メインレンズ72側で行う。
可変プリズムアレイ78(パン・チルト機構の一例)は、マイクロレンズアレイ74の光路前段に配置されており、可変プリズムアレイ78の各可変プリズムは、マイクロレンズアレイ74の各マイクロレンズに対応して配置されている。可変プリズムアレイ78の各可変プリズムは、対応するマイクロレンズに入射する光の光軸(視線)方位を変更する。
図16(a)は、可変プリズムアレイ78の1つの可変プリズムの一例を示す拡大図である。各可変プリズムは、ガラス,アクリル等からなる透明基板90,91、透明電極92,93、配向膜94,95、液晶96等を有している。
透明基板90の一の面は断面鋸歯状に加工され、これにより断面直角三角形状をなす複数の溝が同一向きで平行に形成されている。透明電極92,93は前記溝のピッチに合わせてストライプ状にパターニングされており、透明電極92及び配向膜94は各溝の傾斜した底面に配されている。また、前記透明電極92,93の各々の電極パターンには異なった電圧が印加される。
液晶96は、両透明基板90,91の間に形成される断面直角三角形状の空間に夫々充填されている。各空間に充填された液晶96は相互に完全に分離されているか、または完全に分離されていなくとも相互作用を及ぼさない程度に分離されている。
入射光は、透明基板90を通じて各可変プリズムに夫々入射し、透明基板90の各溝の底面に入射する。液晶96は溝のリッジに平行に配向されており、電圧を印加するとその配向方向が透明基板90の面に垂直に立つようになる。このとき液晶96の屈折率が変化し、透明基板90,91と液晶96との界面での屈折角が変化することによって、入射光の入射方向を偏向させることができる。
図16(b)は、図16(a)に示した可変プリズムアレイ78を用いて、それぞれ向きを変えて4段カスケードに接続した例を示す拡大図である。このように構成することで、上下左右に入射方向を変更することができ、パン・チルト動作が可能となる。
以上のように構成された多眼カメラ70を用いることで、第1〜第3の実施形態に係る撮影制御方法を実現することができる。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10,70…多眼カメラ、12…撮像部、22…メインメモリ、24…デジタル信号処理部、40…撮影レンズ、48,76…CCD(撮像素子)、52…レンズ駆動部、56…CCD駆動部、58…光学系、60…光学系駆動部、72…メインレンズ、74…マイクロレンズアレイ、78…可変プリズムアレイ、C…カメラ、CA…撮像領域
Claims (17)
- 各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、
前記各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、
前記各々のカメラに前記各々の撮像領域を撮影させる撮影手段と、
前記複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで前記少なくとも1つのカメラの撮像領域と前記少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御手段と、
前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段と、
を備えた多眼カメラ撮影システム。 - 前記制御手段は、前記各々のカメラの撮像領域の情報量を比較して周囲のカメラとの情報量差を算出し、前記周囲のカメラとの情報量差に応じて前記少なくとも1つのカメラをパン動作及び/又はチルト動作させる請求項1に記載の多眼カメラ撮影システム。
- 前記各々のカメラの撮像領域の情報量を比較して、周囲のカメラよりも情報量が大きいカメラを第1のカメラとして選択する選択手段を備え、
前記制御手段は、前記第1のカメラに隣接する第2のカメラを前記第1のカメラの撮像領域と前記第2のカメラの撮像領域の重複領域を増やす方向にパン動作及び/又はチルト動作させる請求項1に記載の多眼カメラ撮影システム。 - 前記情報量は、前記画像データの各画素の分散値である請求項2又は3に記載の多眼カメラ撮影システム。
- 前記情報量は、前記画像データの空間周波数の帯域毎の分散値に重み付け加算をした値である請求項2又3に記載の多眼カメラ撮影システム。
- 前記制御手段は、前記各々の撮像領域の間に隙間が発生する場合に、前記隙間に隣接する撮像領域を撮影するカメラを前記隙間を無くす方向にパン動作及び/又はチルト動作させる請求項1から5のいずれか1項に記載の多眼カメラ撮影システム。
- 各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、
前記各々のカメラのズーム倍率を変更するための光学ズーム機構と、
前記各々のカメラに前記各々の撮像領域を撮影させる撮影手段と、
前記複数のカメラのうち少なくとも1つのカメラのズーム倍率を変更する制御手段と、
前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理手段と、
を備えた多眼カメラ撮影システム。 - 前記制御手段は、前記各々のカメラの撮像領域の情報量を比較して周囲のカメラとの情報量差を算出し、前記周囲のカメラとの情報量差に応じて前記少なくとも1つのカメラのズーム倍率を変更する請求項7に記載の多眼カメラ撮影システム。
- 前記各々のカメラの撮像領域の情報量を比較して、周囲のカメラよりも情報量が大きいカメラを第1のカメラとして選択する選択手段を備え、
前記制御手段は、前記第1のカメラのズーム倍率を上げる請求項7に記載の多眼カメラ撮影システム。 - 前記選択手段は、前記第1のカメラ以外の第2のカメラを選択し、
前記制御手段は、前記第2のカメラのズーム倍率を下げる請求項9に記載の多眼カメラ撮影システム。 - 前記選択手段は、前記各々のカメラが撮影した画像データの情報量を比較して、周囲のカメラよりも小さな情報量を持つカメラを前記第2のカメラとして選択する請求項10に記載の多眼カメラ撮影システム。
- 前記情報量は、前記画像データの空間周波数の高周波成分である請求項8から11のいずれか1項に記載の多眼カメラ撮影システム。
- 前記制御手段は、前記各々の撮像領域の間に隙間が発生する場合に、前記隙間に隣接する撮像領域を撮影するカメラのズーム倍率を下げる請求項7から12のいずれか1項に記載の多眼カメラ撮影システム。
- 前記各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構を備え、
前記制御手段は、前記各々の撮像領域の間に隙間が発生する場合に、前記隙間に隣接する撮像領域を撮影するカメラを前記隙間を無くす方向にパン動作及び/又はチルト動作させる請求項6又は7に記載の多眼カメラ撮影システム。 - 前記各々のカメラのピント位置を変更するためのフォーカス機構を備え、
前記撮影手段は、前記各々のカメラの合焦位置において前記撮像領域を撮影する請求項1から12のいずれか1項に記載の多眼カメラ撮影システム。 - 各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、前記各々のカメラをそれぞれパン動作及び/又はチルト動作させるためのパン・チルト機構と、を備えた多眼カメラ撮影システムの制御方法であって、
前記各々のカメラに前記各々の撮像領域を撮影させる撮影工程と、
前記複数のカメラのうち少なくとも1つのカメラをパン動作及び/又はチルト動作させることで前記少なくとも1つのカメラの撮像領域と前記少なくとも1つのカメラに隣接して配置されたカメラの撮像領域との重複領域を変更する制御工程と、
前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理工程と、
を備えた多眼カメラ撮影システムの制御方法。 - 各々のカメラがそれぞれ各々の撮像領域を撮影して画像データに変換する複数のカメラであって、それぞれ隣接して配置されたカメラと互いに撮像領域の一部が重複する複数のカメラと、前記各々のカメラのズーム倍率を変更するための光学ズーム機構と、を備えた多眼カメラ撮影システムの制御方法であって、
前記各々のカメラに前記各々の撮像領域を撮影させる撮影工程と、
前記複数のカメラのうち少なくとも1つのカメラのズーム倍率を変更する制御工程と、
前記複数のカメラが撮影した画像データから前記各々の撮像領域よりも大きな領域を有する画像を取得する画像処理工程と、
を備えた多眼カメラ撮影システムの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012179274A JP2014039096A (ja) | 2012-08-13 | 2012-08-13 | 多眼カメラ撮影システム及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012179274A JP2014039096A (ja) | 2012-08-13 | 2012-08-13 | 多眼カメラ撮影システム及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014039096A true JP2014039096A (ja) | 2014-02-27 |
Family
ID=50286917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012179274A Pending JP2014039096A (ja) | 2012-08-13 | 2012-08-13 | 多眼カメラ撮影システム及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014039096A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016132267A3 (en) * | 2015-02-19 | 2016-11-03 | Spark S.R.L. | A video management system and method |
JP2017050684A (ja) * | 2015-09-01 | 2017-03-09 | キヤノン株式会社 | 制御装置、制御方法、およびプログラム |
WO2018061882A1 (ja) * | 2016-09-28 | 2018-04-05 | 京セラ株式会社 | カメラモジュール、セレクタ、コントローラ、カメラモニタシステム及び移動体 |
JP2020031332A (ja) * | 2018-08-22 | 2020-02-27 | シャープ株式会社 | 電子機器、電子機器の制御装置、制御プログラムおよび制御方法 |
CN112335049A (zh) * | 2018-08-24 | 2021-02-05 | 宁波舜宇光电信息有限公司 | 成像组件、触摸屏、摄像模组、智能终端、相机和距离测量方法 |
WO2021103427A1 (zh) * | 2019-11-29 | 2021-06-03 | 威海华菱光电股份有限公司 | 图像扫描系统 |
WO2023024753A1 (zh) * | 2021-08-25 | 2023-03-02 | 浙江宇视科技有限公司 | 相机镜头模组、相机镜头光轴调节装置及双目相机 |
-
2012
- 2012-08-13 JP JP2012179274A patent/JP2014039096A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016132267A3 (en) * | 2015-02-19 | 2016-11-03 | Spark S.R.L. | A video management system and method |
JP2017050684A (ja) * | 2015-09-01 | 2017-03-09 | キヤノン株式会社 | 制御装置、制御方法、およびプログラム |
EP3522516A4 (en) * | 2016-09-28 | 2020-05-06 | Kyocera Corporation | CAMERA MODULE, SELECTOR, CONTROL DEVICE, CAMERA MONITORING SYSTEM AND MOBILE BODY |
CN109792482A (zh) * | 2016-09-28 | 2019-05-21 | 京瓷株式会社 | 摄像机模块、选择器、控制器、摄像机监视系统以及移动体 |
JPWO2018061882A1 (ja) * | 2016-09-28 | 2019-06-24 | 京セラ株式会社 | カメラモジュール、セレクタ、コントローラ、カメラモニタシステム及び移動体 |
WO2018061882A1 (ja) * | 2016-09-28 | 2018-04-05 | 京セラ株式会社 | カメラモジュール、セレクタ、コントローラ、カメラモニタシステム及び移動体 |
US10893208B2 (en) | 2016-09-28 | 2021-01-12 | Kyocera Corporation | Camera module, selector, controller, camera monitoring system, and moveable body |
CN109792482B (zh) * | 2016-09-28 | 2021-07-23 | 京瓷株式会社 | 摄像机模块、选择器、控制器、摄像机监视系统以及移动体 |
JP2020031332A (ja) * | 2018-08-22 | 2020-02-27 | シャープ株式会社 | 電子機器、電子機器の制御装置、制御プログラムおよび制御方法 |
CN112335049A (zh) * | 2018-08-24 | 2021-02-05 | 宁波舜宇光电信息有限公司 | 成像组件、触摸屏、摄像模组、智能终端、相机和距离测量方法 |
CN112335049B (zh) * | 2018-08-24 | 2024-03-22 | 宁波舜宇光电信息有限公司 | 成像组件、触摸屏、摄像模组、智能终端、相机和距离测量方法 |
WO2021103427A1 (zh) * | 2019-11-29 | 2021-06-03 | 威海华菱光电股份有限公司 | 图像扫描系统 |
WO2023024753A1 (zh) * | 2021-08-25 | 2023-03-02 | 浙江宇视科技有限公司 | 相机镜头模组、相机镜头光轴调节装置及双目相机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9843710B2 (en) | Focusing adjustment apparatus and focusing adjustment method | |
US8786676B2 (en) | Imaging device for generating stereoscopic image | |
US8593509B2 (en) | Three-dimensional imaging device and viewpoint image restoration method | |
EP2618585B1 (en) | Monocular 3d-imaging device, shading correction method for monocular 3d-imaging device, and program for monocular 3d-imaging device | |
US9426349B2 (en) | Image processing apparatus, image processing method, image pickup apparatus, and display device | |
JP5705270B2 (ja) | 撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体 | |
JP2014039096A (ja) | 多眼カメラ撮影システム及びその制御方法 | |
US9344617B2 (en) | Image capture apparatus and method of controlling that performs focus detection | |
US10171732B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating an image based on plurality of parallax images | |
WO2015080163A1 (ja) | 電子機器、撮像装置、および、撮像素子 | |
JP6624834B2 (ja) | 撮像装置およびその制御方法 | |
JP2015138994A (ja) | 電子機器 | |
JP2014215436A (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP2010204385A (ja) | 立体撮像装置および立体撮像方法 | |
JP2012124650A (ja) | 撮像装置および撮像方法 | |
JP5907668B2 (ja) | 撮像装置及び撮像素子 | |
JP2017032978A (ja) | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 | |
JP6720037B2 (ja) | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム | |
JP6671868B2 (ja) | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 | |
JP2016071275A (ja) | 撮像装置およびフォーカス制御プログラム | |
KR20140140495A (ko) | 능동형 배열 렌즈를 이용한 공간정보 획득장치 및 방법 | |
JP5949893B2 (ja) | 撮像装置 | |
JP5978570B2 (ja) | 撮像装置 | |
JP2018046563A (ja) | 撮像素子 | |
US11122196B2 (en) | Image processing apparatus |