JP2011077680A - 立体撮影装置および撮影制御方法 - Google Patents
立体撮影装置および撮影制御方法 Download PDFInfo
- Publication number
- JP2011077680A JP2011077680A JP2009225040A JP2009225040A JP2011077680A JP 2011077680 A JP2011077680 A JP 2011077680A JP 2009225040 A JP2009225040 A JP 2009225040A JP 2009225040 A JP2009225040 A JP 2009225040A JP 2011077680 A JP2011077680 A JP 2011077680A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- condition
- photographing
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
【課題】平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合にそれぞれ最適の撮影条件で撮影された平面画像および立体画像を取得すること。
【解決手段】第1の撮影レンズ30Lと被写体を撮像して第1の撮像画像を生成する第1の撮像素子34Lとを有する第1の撮像系11Lと、第2の撮影レンズ30Rと前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子34Rとを有する第2の撮像系11Rと、合焦位置および露出量のうち少なくとも一方を撮影条件として検出する際に、平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出する撮影条件検出部73を備えた。
【選択図】図3
【解決手段】第1の撮影レンズ30Lと被写体を撮像して第1の撮像画像を生成する第1の撮像素子34Lとを有する第1の撮像系11Lと、第2の撮影レンズ30Rと前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子34Rとを有する第2の撮像系11Rと、合焦位置および露出量のうち少なくとも一方を撮影条件として検出する際に、平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出する撮影条件検出部73を備えた。
【選択図】図3
Description
本発明は、複数の撮像系を備えた立体撮影装置および複数の撮像系を用いる撮影制御方法に関し、特に、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合にそれぞれ最適の撮影条件で撮影された平面画像および立体画像を取得することができる立体撮影装置および撮影制御方法に関する。
撮影光学系および撮像素子をそれぞれ有する複数の撮像系を備え、一方の撮像系で撮像して得られた一枚の撮像画像からなる2D画像(平面画像)を記録する2D撮影モードと、複数の撮像系で撮像して得られた複数枚の撮像画像からなる立体視可能な3D画像(立体画像)を記録する3D撮影モードとを切り替え可能にした3Dデジタルカメラが、ユーザに提供されている。
また、特許文献1には、パノラマ撮影モードと3D撮影モードとを切り替える操作手段を備え、3D撮影モードでは一方の撮像系について画面の中央部に重み付けする測光(中央重点平均測光)を行い、パノラマ撮影モードでは2つの画面を合わせた合成画面の中央部に重み付けする測光(合成部重点平均測光)を行う構成が開示されている。
また、特許文献2には、通常撮影モードと画面規制撮影モードとを切り替える操作手段を備え、画面規制撮影モードが選択されると、複数の焦点検出エリアで検出された複数のデフォーカス量の中から、最も遠距離にある被写体に対応するデフォーカス量に基づいてフォーカスレンズの合焦を行う構成が開示されている。
3D撮影では、視差量を調整して立体視可能にするため、実効画素領域のうち複数枚の撮像画像で共通する領域を、撮影範囲として切り出して記録する。その一方で、2D撮影では、実効画素領域のうちできる限り広い範囲を、撮影範囲としたい。このような場合、3D画像の撮影範囲よりも2D画像の撮影範囲が広くなるので、3D画像と2D画像とで最適な合焦位置および露出量が異なる可能性がある。また、一度の撮影動作で2D画像および3D画像を撮影したいという要求がある。
本発明はこのような事情に鑑みてなされたもので、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合にそれぞれ最適の撮影条件で撮影された平面画像および立体画像を取得することができる立体撮影装置および撮影制御方法を提供することを目的とする。
前記目的を達成するために、本発明は、フォーカスレンズを含む第1の撮影光学系と被写体を撮像して第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系と前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、合焦位置および露出量のうち少なくとも一方を撮影条件として検出する際に、前記平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる前記立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出する撮影条件検出手段を備えたことを特徴とする立体撮影装置を提供する。
即ち、平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、平面画像の撮影範囲とは異なる立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出することで、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合にそれぞれ最適の撮影条件で撮影された平面画像および立体画像を得ることが可能になる。
本発明の一態様では、前記第1の撮影条件で前記平面画像の撮影を行うとともに、前記第2の撮影条件で前記立体画像の撮影を行う撮影制御手段を備えた。
本発明の一態様では、前記第1の撮影条件と前記第2の撮影条件とを比較する撮影条件比較手段と、警告を発する警告手段と、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記警告手段により警告を発する撮影制御手段とを備えた。
即ち、平面画像と立体画像とで撮影条件の差が許容範囲内である場合には、撮影範囲が小さい方の画像に対応する撮影条件で撮影を行うことで一回の撮像で平面画像および立体画像を取得することが可能であり、平面画像と立体画像とで撮影条件の差が許容範囲外である場合には、不適切な撮影条件で撮影されることを回避することができる。
本発明の一態様では、前記第1の撮影条件と前記第2の撮影条件とを比較する撮影条件比較手段と、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記第1の撮影条件で前記平面画像の撮影を行うとともに前記第2の撮影条件で前記立体画像の撮影を行う撮影制御手段を備えた。
即ち、平面画像と立体画像とで撮影条件の差が許容範囲内である場合には、撮影範囲が小さい方の画像に対応する撮影条件で撮影を行うことで一回の撮像で平面画像および立体画像を取得することが可能であり、平面画像と立体画像とで撮影条件の差が許容範囲外である場合でも、それぞれ最適の撮影条件で撮影された平面画像および立体画像を得ることができる。
本発明の一態様では、前記撮影制御手段は、前記平面画像の撮影時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像する。
即ち、メモリへの書き込み量が低減されるとともに、消費電力の節約になる。
本発明の一態様では、前記撮影条件検出手段は、前記撮像画像を複数のブロックに分割して、前記撮影条件を検出するための評価値を前記各ブロックごとに取得し、前記第1の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第1の撮影条件を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の撮影条件を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の撮影条件を検出する。
即ち、前記平面画像および前記立体画像の両方の撮影条件を検出する際に1回の評価値取得動作で済むので、平面画像および立体画像の撮影を短時間で行うことができる。特に、フォーカスレンズを移動させながら合焦評価値を取得するコントラスト方式の焦点検出を行う場合には、サーチ時間を短縮可能である。
また、本発明は、フォーカスレンズを含む第1の撮影光学系と被写体を撮像して第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系と前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、合焦位置および露出量の少なくとも一方を撮影条件として検出する際に、前記平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる前記立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出することを特徴とする撮影制御方法を提供する。
本発明の一態様では、前記第1の撮影条件で前記平面画像の撮影を行うとともに、前記第2の撮影条件で前記立体画像の撮影を行う。
本発明の一態様では、前記第1の撮影条件と前記第2の撮影条件とを比較して、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、警告手段により警告を発する。
本発明の一態様では、前記第1の撮影条件と前記第2の撮影条件とを比較して、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記第1の撮影条件で前記平面画像の撮影を行うとともに前記第2の撮影条件で前記立体画像の撮影を行う。
本発明の一態様では、前記平面画像の撮影時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像する。
本発明の一態様では、前記撮像画像を複数のブロックに分割して、前記撮影条件を検出するための評価値を前記各ブロックごとに取得し、前記第1の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第1の撮影条件を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の撮影条件を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の撮影条件を検出する。
本発明によれば、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合にそれぞれ最適の撮影条件で撮影された平面画像および立体画像を取得することができる。
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
図1は、本発明に係る立体撮影装置の一例であるデジタルカメラ1の全体構成を示すブロック図である。
図1において、デジタルカメラ1は、同一の被写体を複数の視点から撮像して3D画像(立体画像)を生成可能な立体撮影装置であり、CPU10、撮像系11(11R,11L)、操作部12、ROM16、フラッシュROM18、SDRAM20、VRAM22、ズームレンズ制御部24(24L、24R)、フォーカスレンズ制御部26(26L、26R)、絞り制御部28(28L、28R)、撮像素子制御部36(36L、36R)、アナログ信号処理部38(38L、38R)、A/D変換器40(40L、40R)、画像入力コントローラ41(41L、41R)、デジタル信号処理部42(42L、42R)、AF評価値取得部44、AE/AWB評価値取得部46、圧縮・伸張処理部52、メディア制御部54、メモリカード56、モニタ制御部58、モニタ60、電源制御部61、バッテリ62、フラッシュ制御部64、フラッシュ65、姿勢検出センサ66、スピーカ67、及び、計時部68を含んで構成されている。
左眼用の撮像系11L(「左撮像手段」ともいう)は、主として、撮影レンズ14L、ズームレンズ制御部24L、フォーカスレンズ制御部26L、絞り制御部28L、撮像素子34L、撮像素子制御部36L、アナログ信号処理部38L、A/D変換器40L、画像入力コントローラ41L、デジタル信号処理部42L等から構成されている。
右眼用の撮像系11R(「右撮像手段」ともいう)は、主として、撮影レンズ14R、ズームレンズ制御部24R、フォーカスレンズ制御部26R、絞り制御部28R、撮像素子34R、撮像素子制御部36R、アナログ信号処理部38R、A/D変換器40R、画像入力コントローラ41R、デジタル信号処理部42R等から構成されている。
なお、本明細書では、撮像系11L、11Rにより被写体を撮像して得られる画像信号を、「撮像画像」という。また、左眼用の撮像系11Lにより得られる撮像画像を「左撮像画像」、右眼用の撮像系11Rにより得られる撮像画像を「右撮像画像」という。
CPU10は、撮影、再生などデジタルカメラ全体の動作を統括制御する制御手段として機能し、操作部12からの入力に基づき、プログラムに従って各部を制御する。
操作部12は、シャッタボタン、電源スイッチ、モードスイッチ、ズームボタン、十字ボタン、メニューボタン、OKボタン、BACKボタンなどを含む。シャッタボタンは、いわゆる「半押し」と「全押し」が可能な二段ストローク式のスイッチで構成されている。電源スイッチは、デジタルカメラ1の電源のオンおよびオフを切り替えるスイッチである。モードスイッチは、各種のモードを切り替えるスイッチである。ズームボタンはズーム操作に用いられる。十字ボタンは、上下左右4方向に操作可能であり、メニューボタン、OKボタンおよびBACKボタンと共に、各種の設定操作に用いられる。
バス14を介して接続されたROM16には、CPU10が実行するプログラム及びCPU10の制御に必要な各種データ等が格納されており、フラッシュROM18には、ユーザ設定情報等のデジタルカメラ1の動作に関する各種設定情報等が格納されている。SDRAM20は、CPU10の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM22は、表示用の画像データ専用の一時記憶領域として利用される。
左右一対の撮影レンズ14L、14Rは、ズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを含んで構成されている。
ズームレンズ30ZR、30ZLは、ズームレンズ駆動手段としてのズームレンズ制御部24R、24Lにより駆動されて、光軸に沿って前後移動する。CPU10は、ズームレンズ制御部24L、24Rを介して、ズームレンズ30ZL、30ZRの位置を制御し、撮影レンズ14L、14Rのズーミングを行う。
フォーカスレンズ30FL、30FRは、フォーカスレンズ駆動手段としてのフォーカスレンズ制御部26L、26Rにより駆動されて、光軸に沿って前後移動する。CPU110は、フォーカスレンズ制御部26L、26Rを介して、フォーカスレンズ30FL、30FRの位置を制御し、撮影レンズ14L、14Rのフォーカシングを行う。
絞り32L、32R、は、たとえば、アイリス絞りで構成されており、絞り駆動手段としての絞り制御部28Rにより駆動されて、開口量(絞り値)が変化する。CPU10は、絞り制御部28L、28Rを介して絞りの開口量を制御し、撮像素子34L、34Rの露光量を制御する。
撮像素子34L、34Rは、所定のカラーフィルタ配列のカラーCCD撮像素子で構成されている。CCDは、その受光面に多数のフォトダイオードが二次元的に配列されている。撮影レンズ14L、14RによってCCDの受光面上に結像された被写体の光学像(被写体像)は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU10の指令に従って撮像素子制御部36L、36Rから与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子34L、34Rから順次読み出される。撮像素子34L、34Rには、電子シャッタの機能が備えられており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。なお、本実施の形態では、撮像素子としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
CPU10は、撮影レンズ14L、14Rを構成するズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを駆動する際、左右の撮影レンズ14L、14Rを同期させて駆動する。すなわち、左右の撮影レンズ14L、14Rは、常に同じ焦点距離(ズーム倍率)に設定されるとともに、常に同じ被写体に合焦するように、フォーカスレンズ30FL、30FRの位置が設定される。また、常に同じ露光量となるように絞り値および露光時間(シャッタ速度)が調整される。
アナログ信号処理部38L、38Rは、撮像素子34L、34Rから出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CD)、画像信号を増幅して一定レベルの大きさにコントロールするためのAGC回路を含み、撮像素子34L、34Rから出力される画像信号を相関二重サンプリング処理するとともに増幅する。A/D変換器40L、40Rは、アナログ信号処理部38L、38Rから出力されたアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ41L、41Rは、A/D変換器40L、40Rから出力された画像信号を取り込んで、SDRAM20に格納する。本例では、左撮像画像及び右撮像画像がSDRAM20に一時的に格納される。デジタル信号処理部42L、42Rは、CPU10からの指令に従い、SDRAM20に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、Cbとからなる画像データ(Y/C信号)を生成する。また、CPU10からの指令に応じて、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補間処理、RGB/YC変換処理、ノイズ低減処理、輪郭補正処理、色調補正、光源種別判定処理等の各種のデジタル補正を行う。なお、デジタル信号処理部42L、42Rはハードウェア回路で構成してもよいし、同じ機能をソフトウェアにて構成してもよい。
AF評価値取得部44は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR,G,B各色の画像信号(撮像画像)に基づいて、フォーカスレンズ30Fの合焦位置を検出するためのAF評価値(合焦評価値)を算出する。本例のAF評価値取得部44は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとにAF評価値を算出する。また、本例のAF評価値取得部44は、G信号の高周波成分のみを通過させるハイパスフィルタ、各検出ブロック内の信号を切り出す信号抽出部、及び、各検出ブロック内の信号の絶対値を積算する積算部を含み、各検出ブロックごとの積算値をAF評価値として出力する。本例のAF評価値は、各検出ブロックごとに合焦程度を示す。
CPU10は、AF制御時、複数のブロックによって構成される合焦エリアにてAF評価値取得部144から出力されるAF評価値が極大となるレンズ位置(合焦位置)を検出し、そのレンズ位置にフォーカスレンズ30FL、30FRを移動させることにより、フォーカスレンズ30FL、30FRの合焦を行う。CPU10は、例えば、まず、フォーカスレンズ30FL、30FRを至近から無限遠まで移動させ、その移動過程で逐次AF評価値取得部44からAF評価値を取得し、合焦位置検出エリアにてAF評価値が極大となるレンズ位置を検出して、そのレンズ位置(合焦位置)にフォーカスレンズ30FL、30FRを移動させる。これにより、画角内の合焦エリアに位置する被写体(主要被写体)にピントが合わせられる。
AE/AWB評価値取得部46は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR、G、Bの各色の画像信号(撮像画像)に基づいて、AE(自動露出)制御及びAWB(自動ホワイトバランス調整)制御に必要な評価値を算出する。本例のAE/AWB評価値取得部46は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとのR、G、B信号の積算値をAE評価値およびAWB評価値として算出する。
CPU10は、AE制御時、AE評価値に基づいて、露出量を算出する。すなわち、感度、絞り値、シャッタ速度、フラッシュ発光要否などを決定する。
また、CPU10は、AWB制御時、AWB評価値として取得し、ホワイトバランス調整用のゲイン値を算出するとともに、光源種を検出する。
圧縮・伸張処理部52は、CPU10からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU10からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
メディア制御部54は、CPU10からの指令に従い、メモリカード56に対してデータの読み/書きを制御する。
モニタ制御部58は、CPU10からの指令に従い、モニタ60への表示を制御する。モニタ60は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、モニタ60は、撮影時には、各撮像素子34R、34Lが継続的に捉えた画像(スルー画像)を順次表示し、電子ファインダとして利用される。
電源制御部61は、CPU10からの指令に従い、バッテリ62から各部への電源供給を制御する。フラッシュ制御部64は、CPU10からの指令に従い、フラッシュ65の発光を制御する。姿勢検出センサ66は、デジタルカメラ1のボディの姿勢(上下、左右の傾き)を検出し、その結果をCPU10に出力する。すなわち、デジタルカメラ1のボディの左右方向の傾き角度(撮影レンズ14L、14Rの光軸回りの回転角度)と、デジタルカメラ1のボディの上下方向の傾き角度(撮影レンズ14L、14Rの光軸の上下方向の傾き角度)とを検出する。スピーカ67は音を出力する。計時部68は、現在日時を計時するとともに、CPU10からの指令に従って時間の計測を行う。
なお、本明細書にて、「2D」は平面を意味し、「3D」は立体を意味する。2D撮影は単視点の撮像画像(「2D画像」または「平面画像」という)の撮像及び記録を行うことを意味し、2D表示は2D画像を表示することを意味する。また、3D撮影は複数視点の撮像画像(「3D画像」または「立体画像」という)の撮像及び記録を行うことを意味し、3D表示は3D画像を立体視可能に表示することを意味する。
立体視可能なモニタ60としては、例えば光方向制御(ライトディレクションコントロール)方式の3D液晶モニタを用いる。光方向制御方式では、モニタ60を構成する液晶表示デバイスの背面を照らすバックライトの方向を、観察者の右眼方向及び左眼方向に制御する。光方向制御方式の一例は、特開2004‐20684号公報などに記載されている。特許第3930021号公報などに記載された、いわゆるスキャンバックライト方式を用いてもよい。
また、視差バリア(パララックスバリア)方式の3D液晶モニタでもよい。視差バリア方式では、左撮像画像及び右撮像画像をそれぞれ画像の縦方向に細長い短冊状にして切り取り、交互に並べて表示するとともに、縦方向に刻まれたスリットを通して画像を観察者に見せる。これにより、観察者の左眼には左撮像画像、右眼には右撮像画像がそれぞれ映るようにする。その他の空間分割方式でもよい。
また、かまぼこ状のレンズ群を有するレンチキュラレンズを備えたモニタ60でもよい。また、左右の画像を交互に表示するとともに、観察者に画像分離メガネを着用させることで、立体視させてもよい。
また、モニタ60は、特に液晶表示デバイスに限定されない。例えば有機ELデバイスでもよい。
次に、図2を用い、図1に示したデジタルカメラ1における3D撮影(立体視撮影)及び3D表示(立体視表示)の概要を説明する。
まず、発明の理解を容易にするため、基線長SB(デジタルカメラ1における撮像系11L、11Rの光軸の間隔)、及び、輻輳角θc(撮像系11L、11Rの光軸同士が成す角度)は、固定であるものとして説明する。
複数の撮像系11L、11Rにより、同一の特定対象91(例えば球)を複数の視点から撮像することで、複数の撮像画像(左撮像画像92L及び右撮像画像92R)が生成される。生成された撮像画像92L、92Rは、同一の特定対象91が投影された特定対象像93L、93Rを、それぞれ含んでいる。これらの撮像画像92L、92Rを、立体視表示可能なモニタ60で重ね合わせて表示することで、すなわち3D表示することで、3D表示画像94が再生される。3D表示画像94は左撮像画像92L及び右撮像画像92Rによって構成されている。観察者95は、モニタ60上の3D表示画像94を両眼96L、96Rから観察する。そうすると、観察者95には特定対象91(例えば球)の虚像97が飛び出して見える。尚、図2では、光軸間の交点99(「クロスポイント」ともいう)よりも近い位置に特定対象91が存在するので虚像97が手前側に飛び出して見えるが、交点99よりも遠い位置に特定対象が存在する場合には虚像が奥側に引き込んで見える。
図2に示すように被写体距離Sが撮像系11L、11Rの光軸間の交点99までの距離よりも小さい範囲内では、被写体距離Sが小さいほど、撮像画像92L、92R上で特定対象像93L、93Rの中心座標XLF、XRF(図2ではx座標のみ図示)の差分|XLF−XRF|が大きくなる。すなわち、被写体距離Sが小さいほど、視点別の撮像画像間で対応点同士が離れる。ここで、差分|XLF−XRF|はx座標のみであり、これを両眼視差量APとして表す。つまり、基線長SB及び輻輳角θcが決まっていれば、被写体距離Sが小さいほど、APが大きくなり、観察者95が体感する虚像97の飛び出し量ADも大きくなる。
なお、基線長SB及び輻輳角θcが一定である場合を例に説明したが、輻輳角θcが可変である構造の場合には、輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。また、輻輳角θcに加えて基線長SBも可変である構造の場合には、基線長SB及び輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。
また、基線長SB及び輻輳角θcが一定であっても、両眼視差量APを変更するように撮像画像92L、92R間で画素ずらしを行うことで、飛び出し量ADを変更することもできる。
以下では、本発明を各種の実施形態に分けて説明する。
まず、第1実施形態について説明する。
図3は、第1実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図1に示したものには同じ符号を付してあり、既に説明した事項については、以下では説明を省略する。尚、図3における30Rは図1における30ZR及び30FRであり、図3における30Lは図1における30ZL及び30FLである。
本実施形態のCPU10は、撮影範囲取得部71、検出エリア決定部72、撮影条件検出部73および撮影制御部74を含んで構成されている。
撮影範囲取得部71は、撮影範囲情報を取得する。撮影範囲情報は、撮像系11R、11Lにより撮像して得られる撮像画像の全体のうちで記録する範囲(以下「撮影範囲」という)を示す。
ここで2D画像の撮影範囲および3D画像の撮影範囲について、図4および図5を用いて説明しておく。例えば、図4に示す撮影場面では、図5(A)に示す左撮像画像92Lが左撮像系11Lによって生成され、図5(B)に示す右撮像画像92Rが右撮像系11Rによって生成される。図5(A)の左撮像画像92Lの全体領域210(以下「イメージエリア」という)を2D画像の撮影範囲として記録することで、主要被写体201(本例では猿)だけでなく副被写体202(本例では人)などを含んだ2D画像を記録できる。また、図5(A)の左撮像画像92Lと図5(B)の右撮像画像92Rとで被写体が共通し、且つ、特定の縦横比(アスペクト比)を有する切り出し領域220L、220Rを3D画像の撮影範囲として記録することで、主要被写体201を立体視するために必要且つ十分な3D画像を記録できる。つまり、2D画像は立体視させる必要がないので実効画素領域(イメージエリア)に対応する撮影範囲で記録したく、3D画像は後で十分且つ容易に立体視可能にするために実効画素領域よりも狭い切り出し領域で記録したい。このような場合、2D画像の撮影範囲210は、3D画像の撮影範囲220L、220Rよりも広くなる。
また、3D画像では、操作部12からの入力指示に応じて左撮像画像と右撮像画像との画素ずらしを行うことで両眼視差量(図2のAP)を調整する場合、画素ずらし量に基づいて3D画像の撮影範囲が変わってくる。このような場合には、画素ずらし量に基づいて3D画像の撮影範囲を算出する。デジタルカメラ1が輻輳角(図2のθc)や基線長(図2のSB)を変更可能な構造である場合にも、3D画像の撮影範囲が変わってくる。このような場合には、構造上変更可能なパラメータ(例えばθc)に基づいて3D画像の撮影範囲を算出する。さらに、操作部12からの入力指示に応じて2D画像の撮影範囲を変更可能である場合には、その2D画像の撮影範囲を取得する。
検出エリア決定部72は、撮影範囲情報に基づいて、イメージエリアのうちで撮影条件を検出するエリア(以下単に「検出エリア」という)を決定する。本例では、2D画像と3D画像とで撮影範囲が異なるので、2D画像と3D画像とで異なる検出エリアが決定される。
撮影条件検出部73は、検出エリア決定部72にて決定された検出エリアにて、撮影条件を検出する。即ち、撮影条件検出部73は、2D画像の場合には、2D画像の撮影範囲に対応する検出エリア(2D画像の検出エリア)にて撮影条件を検出し、3D画像の場合には、3D画像の撮影範囲に対応した検出エリア(3D画像の検出エリア)にて撮影条件を検出する。
撮影制御部74は、撮影条件検出部73にて検出された撮影条件で、撮影を行う。即ち、撮影制御部74は、2D画像の場合には、2D画像の検出エリアにて検出した撮影条件で撮影を行い、3D画像の場合には、3D画像の検出エリアにて検出した撮影条件で撮影を行う。
図6は、検出エリア決定部72および撮影条件検出部73の詳細を示すブロック図である。
検出エリア決定部72は、フォーカスレンズ30F(30FL,30FL)が被写体に合焦するレンズ位置(合焦位置)を検出するためのエリア(以下「合焦位置検出エリア」という)を決定する合焦位置検出エリア決定部721と、露光量を検出するためのエリア(以下「露光量検出エリア」という)を決定する露光量検出エリア決定部722を含む。
撮影条件検出部73は、合焦位置検出エリアにて合焦位置を検出する合焦位置検出部731と、露光量検出エリアにて露光量を検出する露光量検出部732を含む。
図7は、第1実施形態における撮影処理の一例の流れを示すフローチャートである。この処理は、図1のCPU10によりプログラムに従って実行される。
ステップS102にて、撮影準備指示の入力を待つ。本例では、シャッタボタンが半押しされると撮影指示が入力されたと判定し、ステップS104に進む。
ステップS104にて、AF評価値取得部44により、図8に示すイメージエリア210内の各検出ブロック230ごとに、フォーカスレンズ30Fの合焦程度を示すAF評価値を取得する。例えば、フォーカスレンズを移動させながら各検出ブロック230ごとに画像のコントラストを示すAF評価値を算出する。なお、図8は、撮影条件検出部73がイメージエリア210に7×7個の検出ブロック230を設定した場合を例示しているが、検出ブロック230の個数や配列は特に限定されない。図8の例では、検出ブロック230間に隙間(ギャップ)を設けたことにより、検出ブロック230の大きさを最低限にして各検出ブロックごとの評価値算出処理を軽減しながら、広範囲にわたって撮影条件を検出できる。検出ブロック230間に隙間を設けない態様もある。
ステップS106にて、AE/AWB評価値取得部46により、図8に示すイメージエリア210内の各検出ブロック230ごとに、AE評価値を取得する。例えば、AE評価値およびAWB評価値として各検出ブロック230ごとに輝度値を算出する。
ステップS108にて、撮影範囲取得部71により、2D画像の撮影範囲情報をフラッシュROM18(またはROM16)から取得する。本例では、図5(A)を用いて説明したように、イメージエリア210の全体が2D画像の撮影範囲である。なお、イメージエリアは撮像素子34L,34Rの総画素領域のうちで性能が保証された実効画素領域であり、本例ではその実効画素領域の範囲を示す情報が2Dの撮影範囲情報としてフラッシュROM18に予め記憶されている。また、操作部12により2D画像の撮影範囲を指定入力可能である場合には、その指定された撮影範囲がフラッシュROM18に記憶されている。
ステップS110にて、検出エリア決定部72により、2D画像の撮影範囲に対応する検出エリアを決定する。イメージエリア210の全体が2D画像の撮影範囲である場合、図9に示すように、イメージエリア210内の全ての検出ブロック230を撮影条件(合焦位置および露出量を含む)の検出対象とする。なお、図9にて、ブロック内の数字は、各ブロックの評価値に対する重みを示している。図9に示すように、本例では、X軸対称、且つ、Y軸対称、且つ、中心点対称で、重み付けされている。
ステップS112にて、撮影条件検出部73により、2D画像の検出エリアにて、合焦位置および露出量を検出する。本例では、2D画像の検出エリア210に属する各検出ブロック230ごとに、検出されたAF評価値に対して図9に示した重みをかけた後、検出エリア210全体で総和することで、合焦の程度を示すAF評価値を算出する。AE評価値に対しても、AF評価値と同様に重みをかけ、検出エリア210全体の総和に基づいて、露出量を算出する。
ステップS114にて、撮影範囲取得部71により、3D撮影のパラメータに基づいて3D画像の撮影範囲情報を算出する。3D撮影の可変パラメータとしては、両眼視差量を調整するための画素ずらし量がある。画素ずらし量は、操作部12からの指示入力によりフラッシュROM18に予め記憶されているので、これを取得する。また、輻輳角θcや基線長SBが可変である場合には、これらの可変パラメータに基づいて撮影範囲情報の算出を行う。
ステップS116にて、検出エリア決定部72により、3D画像の撮影範囲に対応する検出エリアを決定する。例えば、図10(A)に示すように、イメージエリア210内の7×7個の検出ブロック230のうち3D画像の撮影範囲に対応する4×4個の検出ブロックを撮影条件の検出対象とする。即ち、図中に符号240で示すエリアが3D画像の検出エリアである。図10(B)は、3×3個の検出ブロックを撮影条件の検出対象とした場合を示す。
ステップS118にて、撮影条件検出部73により、3D画像の検出エリアにて、合焦位置および露出量を検出する。本例では、3D画像の検出エリア240に属する各検出ブロック230ごとに、検出されたAF評価値に対して図10(A)または(B)に示した重みをかけた後、検出エリア240全体で総和することで、AF評価値を算出する。AE評価値に対しても、AF評価値と同様に重みをかけ、検出エリア240全体の総和に基づいて、露出量を算出する。
ステップS120にて、撮影指示の入力を待つ。本例では、シャッタボタンが全押しされると撮影指示が入力されたと判定し、ステップS124に進む。
ステップS124では、撮影制御部74により、2D画像の検出エリア210にて検出された撮影条件で2D画像の撮像を行って、得られた2D画像をメディア制御部54によりメモリカード56に記録する。即ち、撮影制御部74は、2D画像の検出エリア210で検出された合焦位置および露出量で1回目の撮像を行って、一方の撮像系(例えば左撮像系11L)で得られた2D画像(例えば左撮像画像)をメディア制御部54によりメモリカード56に記録する。
ステップS126では、撮影制御部74により、3D画像の撮影条件検出エリア240にて検出された撮影条件で3D画像の撮像を行って、得られた3D画像をメディア制御部54によりメモリカード56に記録する。即ち、撮影制御部74は、3D画像の検出エリア240で検出された合焦位置および露出量で2回目の撮像を行って、左撮像系11Lおよび右撮像系11Rでそれぞれ得られた左撮像画像および右撮像画像からそれぞれ3D画像の撮影範囲(図5(A)の220L、図5(B)の220R)内の画像を切り出し、切り出された2枚の画像からなる3D画像を、メディア制御部54によりメモリカード56に記録する。
なお、撮影条件として合焦位置および露出量の両方を2D画像および3D画像のそれぞれで検出する場合について説明したが、合焦位置および露出量のうち一方を2D画像および3D画像のそれぞれで検出する場合にも、本発明を適用できる。また、合焦位置および露出量以外の撮影条件(例えばホワイトバランス調整値)を2D画像および3D画像のそれぞれで検出する場合に本発明を適用できることは、言うまでもない。
次に、第2実施形態について、説明する。
図11は、第2実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図1および図3に示したものには同じ符号を付してあり、既に説明した事項については、以下では説明を省略する。
本実施形態のデジタルカメラ1は、警告を発する警告部80を備える。本例の警告部80は、図1のモニタ60およびスピーカ67によって構成されている。
また、本実施形態のCPU10は、撮影範囲取得部71、検出エリア決定部72、撮影条件検出部73、撮影制御部74、撮影範囲比較部75および撮影条件比較部76を含んで構成されている。
撮影範囲比較部75は、2D画像の撮影範囲と3D画像の撮影範囲とを比較する。
撮影条件比較部76は、2D画像の検出エリアで検出された撮影条件(2D画像の撮影条件)と3D画像の検出エリアで検出された撮影条件(3D画像の撮影条件)とを比較する。
本実施形態の撮影制御部74は、2D画像の撮影条件と3D画像の撮影条件との差が予め決められた許容範囲内であった場合、2D画像の撮影条件および3D画像の撮影条件のうち撮影範囲が小さい方の画像の撮影条件で、2D画像および3D画像の撮影を行う。また、本実施形態の撮影制御部74は、2D画像の撮影条件と3D画像の撮影条件との差が許容範囲外であった場合、警告部80により警告を発する。
図12は、第2実施形態における撮影処理の一例の流れを示すフローチャートである。
ステップS202〜S218は、第1実施形態のステップS102〜S118と同様である。
ステップS220にて、撮影指示の入力を待つ。本例では、シャッタボタンの全押しで撮影指示が入力されたと判定し、ステップS222に進む。
ステップS222にて、撮影条件比較部76により、2D画像の検出エリアで検出された合焦位置(2D画像の合焦位置)と3D画像の検出エリアで検出された合焦位置(3D画像の合焦位置)とを比較する。
ステップS224にて、2D画像の合焦位置と3D画像の合焦位置との差が焦点深度×2以上であるか否かを判定し、Yes(焦点深度×2以上)の場合にはステップS232に進み、No(焦点深度×2未満)の場合にはステップS226に進む。
ステップS226にて、撮影条件比較部76により、2D画像の検出エリアで検出された露出量(2D画像の露出量)と3D画像の検出エリアで検出された露出量(3D画像の露出量)とを比較する。
ステップS228にて、2D画像の露出量と3D画像の露出量との差が1EV以上であるか否かを判定し、Yes(1EV以上)の場合にはステップS232に進み、No(1EV未満)の場合にはステップS230に進む。
ステップS230にて、撮影制御部74は、2D画像および3D画像のうち撮影範囲が小さい方の画像(本例では3D画像)に対応する撮影条件(本例では3D画像の撮影条件)で撮影を行う。即ち、撮影制御部74は、左撮像系11Lおよび右撮像系11Rの両方を用い、3D画像の検出エリアで検出された合焦位置および露出量で1回撮像を行って、一方の撮像系(例えば左撮像系11L)で得られた2D画像(例えば左撮像画像)をメディア制御部54によりメモリカード56に記録するとともに、両方の撮像系(左撮像系11Lおよび右撮像系11R)で得られた撮像画像(左撮像画像および右撮像画像)からそれぞれ3D画像の撮影範囲の画像を切り出し、切り出された2枚の画像からなる3D画像を、メディア制御部54によりメモリカード56に記録する。なお、3D画像の記録時には切り出しを行わないで、左撮像系11Lで得られた左撮像画像と右撮像系11Rで得られた右撮像画像と切り出し情報とを記録するようにしてもよい。
2D画像と3D画像とで合焦位置および露出量のうち少なくとも一方の差が許容範囲外であった場合(即ちステップS224およびS228のうち一方でYesの場合)、ステップS232にて、警告部80により警告を発する。例えば、モニタ60に警告メッセージと撮影を実行するか否かの選択要求メッセージを表示するとともに、スピーカ67から警告音を出力する。
ステップS234にて、撮影実行か否かの選択指示を受付け、操作部12により撮影実行指示が入力された場合にはステップS230に進み、操作部12により撮影中止指示が入力された場合には本処理を終了する。
次に、第3実施形態について、説明する。
図13は、第3実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図1および図11に示したものには同じ符号を付してあり、既に説明した事項については、以下では説明を省略する。
本実施形態の撮影制御部74は、2D画像の撮影条件と3D画像の撮影条件との差が予め決められた許容範囲内であった場合、2D画像の撮影条件および3D画像の撮影条件のうち撮影範囲が小さい方の画像の撮影条件で、2D画像および3D画像の撮影を行う。また、本実施形態の撮影制御部74は、2D画像の撮影条件と3D画像の撮影条件との差が許容範囲外であった場合、2D画像の検出エリアで検出された撮影条件(2D画像の撮影条件)で2D画像の撮影を行うとともに、3D画像の検出エリアで検出された撮影条件(3D画像の撮影条件)で3D画像の撮影を行う。
図14は、第3実施形態における撮影処理の一例の流れを示すフローチャートである。
ステップS302〜S330は、第2実施形態のステップS202〜S230と同様である。
2D画像と3D画像とで合焦位置および露出量のうち少なくとも一方の差が許容範囲外であった場合(即ちステップS324およびS328のうち一方でYesの場合)、ステップS332にて、2D画像の検出エリアで検出された撮影条件(2D画像の撮影条件)で2D画像の撮影を行い、次に、ステップS334にて、3D画像の検出エリアで検出された撮影条件(3D画像の撮影条件)で3D画像の撮影を行う。即ち、まず、撮影制御部74は、2D画像の検出エリアで検出された合焦位置および露出量で1回目の撮像を行って、一方の撮像系(例えば左撮像系11L)で得られた2D画像(例えば左撮像画像)をメディア制御部54によりメモリカード56に記録する。次に、撮影制御部74は、3D画像の検出エリアで検出された合焦位置および露出量で2回目の撮像を行って、左撮像系11Lおよび右撮像系11Rでそれぞれ得られた左撮像画像および右撮像画像からそれぞれ3D画像の撮影範囲の画像を切り出し、切り出された2枚の画像からなる3D画像を、メディア制御部54によりメモリカード56に記録する。
次に、第4実施形態について、説明する。
第4実施形態におけるデジタルカメラ1の要部ブロック構成は、図13に示した通りある。以下では、第3実施形態に対し限定した事項のみ説明する。
本実施形態の撮影制御部74は、2D画像の撮影時は左撮像系11Lおよび右撮像系11Rのうち一方(例えば左撮像系11L)でのみ被写体を撮像する。
第4実施形態における撮影処理例の流れは、図14に示した通りである。ただし、本実施形態ではステップS332の2D撮影にて、左撮像系11Lおよび右撮像系11Rのうち一方(例えば左撮像系11L)でのみ被写体を撮像する。つまり、2D撮影は片眼のみで実施する。
これにより、メモリへの書込み量が低減されるととに、消費電力の節約になる。
以上、静止画撮影の場合を例に本発明を説明したが、本発明は静止画撮影に限定されず、動画撮影の場合にも適用できることは、言うまでもない。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
1…デジタルカメラ(立体撮影装置)、10…CPU、11(11L,11R)…撮像系(撮像手段)、26(26L,26R)…フォーカスレンズ制御部、28(28L,28R)…絞り制御部、34(34L,34R)…撮像素子、36(36L,36R)…撮像素子制御部、38(38L,38R)・・・アナログ信号処理部、44・・・AF評価値取得部、46・・・AE/AWB評価値取得部、54・・・メディア制御部、58・・・モニタ制御部、60・・・モニタ、67・・・スピーカ、71…撮影範囲取得部、72…検出エリア決定部、73…撮影条件検出部、74…撮影制御部、75…撮影範囲比較部、76…撮影条件比較部、80…警告部、92L…左撮像画像、92R…右撮像画像、721…合焦検出エリア決定部、722…露出量検出エリア決定部、731…合焦位置検出部、732…露出量検出部
Claims (12)
- フォーカスレンズを含む第1の撮影光学系と被写体を撮像して第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系と前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、
合焦位置および露出量のうち少なくとも一方を撮影条件として検出する際に、前記平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる前記立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出する撮影条件検出手段を備えたことを特徴とする立体撮影装置。 - 前記第1の撮影条件で前記平面画像の撮影を行うとともに、前記第2の撮影条件で前記立体画像の撮影を行う撮影制御手段を備えたことを特徴とする請求項1に記載の立体撮影装置。
- 前記第1の撮影条件と前記第2の撮影条件とを比較する撮影条件比較手段と、
警告を発する警告手段と、
前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記警告手段により警告を発する撮影制御手段と、
を備えたことを特徴とする請求項1に記載の立体撮影装置。 - 前記第1の撮影条件と前記第2の撮影条件とを比較する撮影条件比較手段と、
前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記第1の撮影条件で前記平面画像の撮影を行うとともに前記第2の撮影条件で前記立体画像の撮影を行う撮影制御手段と、
を備えたことを特徴とする請求項1に記載の立体撮影装置。 - 前記撮影制御手段は、前記平面画像の撮影時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像することを特徴とする請求項2または4に記載の立体撮影装置。
- 前記撮影条件検出手段は、前記撮像画像を複数のブロックに分割して、前記撮影条件を検出するための評価値を前記各ブロックごとに取得し、前記第1の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第1の撮影条件を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の撮影条件を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の撮影条件を検出することを特徴とする請求項1ないし5のうちいずれか1項に記載の立体撮影装置。
- フォーカスレンズを含む第1の撮影光学系と被写体を撮像して第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、フォーカスレンズを含む第2の撮影光学系と前記被写体を撮像して第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、
合焦位置および露出量のうち少なくとも一方を撮影条件として検出する際に、前記平面画像の撮影範囲に対応する第1の検出エリアにて第1の撮影条件を検出するとともに、前記平面画像の撮影範囲とは異なる前記立体画像の撮影範囲に対応する第2の検出エリアにて第2の撮影条件を検出することを特徴とする撮影制御方法。 - 前記第1の撮影条件で前記平面画像の撮影を行うとともに、前記第2の撮影条件で前記立体画像の撮影を行うことを特徴とする請求項7に記載の撮影制御方法。
- 前記第1の撮影条件と前記第2の撮影条件とを比較して、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、警告手段により警告を発することを特徴とする請求項7に記載の撮影制御方法。
- 前記第1の撮影条件と前記第2の撮影条件とを比較して、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲内である場合には、前記第1の撮影条件および前記第2の撮影条件のうち撮影範囲が小さい方の画像に対応する撮影条件で前記平面画像および前記立体画像の撮影を行い、前記第1の撮影条件と前記第2の撮影条件との差が許容範囲外である場合には、前記第1の撮影条件で前記平面画像の撮影を行うとともに前記第2の撮影条件で前記立体画像の撮影を行うことを特徴とする請求項7に記載の撮影制御方法。
- 前記平面画像の撮影時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像することを特徴とする請求項8または10に記載の撮影制御方法。
- 前記撮像画像を複数のブロックに分割して、前記撮影条件を検出するための評価値を前記各ブロックごとに取得し、前記第1の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第1の撮影条件を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の撮影条件を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の撮影条件を検出することを特徴とする請求項7ないし11のうちいずれか1項に記載の撮影制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009225040A JP2011077680A (ja) | 2009-09-29 | 2009-09-29 | 立体撮影装置および撮影制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009225040A JP2011077680A (ja) | 2009-09-29 | 2009-09-29 | 立体撮影装置および撮影制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011077680A true JP2011077680A (ja) | 2011-04-14 |
Family
ID=44021224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009225040A Withdrawn JP2011077680A (ja) | 2009-09-29 | 2009-09-29 | 立体撮影装置および撮影制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011077680A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114788261A (zh) * | 2019-11-25 | 2022-07-22 | 富士胶片株式会社 | 影像制作方法 |
-
2009
- 2009-09-29 JP JP2009225040A patent/JP2011077680A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114788261A (zh) * | 2019-11-25 | 2022-07-22 | 富士胶片株式会社 | 影像制作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8885026B2 (en) | Imaging device and imaging method | |
JP5180407B2 (ja) | 立体撮像装置および視差画像復元方法 | |
JP2011101240A (ja) | 立体撮影装置および撮影制御方法 | |
WO2012039180A1 (ja) | 撮像デバイス及び撮像装置 | |
EP2590421B1 (en) | Single-lens stereoscopic image capture device | |
JP5368350B2 (ja) | 立体撮像装置 | |
US20110234767A1 (en) | Stereoscopic imaging apparatus | |
JP5788518B2 (ja) | 単眼立体撮影装置、撮影方法及びプログラム | |
US8823778B2 (en) | Imaging device and imaging method | |
WO2012036019A1 (ja) | 単眼立体撮像装置、単眼立体撮像装置用シェーディング補正方法及び単眼立体撮像装置用プログラム | |
JP5871989B2 (ja) | 撮影装置、撮影方法及びプログラム | |
JP5433109B2 (ja) | 立体撮像装置および立体撮像方法 | |
JP2011077900A (ja) | 画像処理装置、カメラ及び画像処理方法 | |
JP5767715B2 (ja) | 撮像装置、撮像方法及びプログラム | |
JP2011199755A (ja) | 撮像装置 | |
US9124875B2 (en) | Stereoscopic imaging apparatus | |
WO2013069445A1 (ja) | 立体撮像装置及び画像処理方法 | |
WO2013035427A1 (ja) | 立体撮像装置および方法 | |
JP5457240B2 (ja) | 立体撮像装置 | |
JP2012124650A (ja) | 撮像装置および撮像方法 | |
JP2011077680A (ja) | 立体撮影装置および撮影制御方法 | |
JP2010200024A (ja) | 立体画像表示装置および立体画像表示方法 | |
WO2013031392A1 (ja) | 立体撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120806 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130423 |