JP2011101240A - 立体撮影装置および撮影制御方法 - Google Patents

立体撮影装置および撮影制御方法 Download PDF

Info

Publication number
JP2011101240A
JP2011101240A JP2009255113A JP2009255113A JP2011101240A JP 2011101240 A JP2011101240 A JP 2011101240A JP 2009255113 A JP2009255113 A JP 2009255113A JP 2009255113 A JP2009255113 A JP 2009255113A JP 2011101240 A JP2011101240 A JP 2011101240A
Authority
JP
Japan
Prior art keywords
image
exposure amount
focus position
imaging
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009255113A
Other languages
English (en)
Other versions
JP2011101240A5 (ja
Inventor
Takayuki Matsuura
孝之 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009255113A priority Critical patent/JP2011101240A/ja
Priority to US12/940,708 priority patent/US20110109727A1/en
Publication of JP2011101240A publication Critical patent/JP2011101240A/ja
Publication of JP2011101240A5 publication Critical patent/JP2011101240A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

【課題】平面画像および立体画像をそれぞれ適切な撮影条件で撮影することができるとともに、平面画像と立体画像とのタイムラグを低減すること。
【解決手段】平面画像の撮影範囲に対応する露出量EVAと立体画像の撮影範囲に対応する露出量EVBとの差分(露出量差)を△EVとしたとき、△EV≦閾値である場合には、撮影範囲が小さい方の画像に対応する露出量を用いると判定し、△EV>閾値である場合には、EVA、EVBをそれぞれ用いると判定する撮影条件判定部75と、露出量以外の撮影条件の差分が許容範囲内であって、△EV≦閾値である場合には、平面画像および立体画像の両方を一回の露出で取得し、△EV>閾値である場合には、小さい方の露出量で露出を行って第1の撮像画像を生成するとともに、△EVで露出を行って第2の撮像画像を生成し、画像合成部77により前記第1の撮像画像と前記第2の撮像画像とを合成する撮影制御部76を備えた。
【選択図】図3

Description

本発明は、複数の撮像手段を備えた立体撮影装置および複数の撮像手段を用いる撮影制御方法に関し、特に、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合に、平面画像および立体画像をそれぞれ適切な撮影条件で撮影することができるとともに、平面画像と立体画像とのタイムラグを低減することができる立体撮影装置および撮影制御方法に関する。
撮影光学系および撮像素子をそれぞれ有する複数の撮像系を備え、一方の撮像系で撮像した得られた一枚の撮像画像からなる2D画像(平面画像)を記録する2D撮影モードと、複数の撮像系で撮像して得られた複数枚の撮像画像からなる立体視可能な3D画像(立体画像)を記録する3D撮影モードとを切り替え可能にした3Dデジタルカメラが、ユーザに提供されている。
また、特許文献1には、パノラマ撮影モードと3D撮影モードとを切り替える操作手段を備え、3D撮影モードでは一方の撮像系について画面の中央部に重み付けする測光(中央重点平均測光)を行い、パノラマ撮影モードでは2つの画面を合わせた合成画面の中央部に重み付けする測光(合成部重点平均測光)を行う構成が開示されている。
また、特許文献2には、通常撮影モードと画面規制撮影モードとを切り替える操作手段を備え、画面規制撮影モードが選択されると、複数の焦点検出エリアで検出された複数のデフォーカス量の中から、最も遠距離にある被写体に対応するデフォーカス量に基づいてフォーカスレンズの合焦を行う構成が開示されている。
特開平7−110505号公報 特開平5−341172号公報
3D撮影では、視差量を調整して立体視可能にするため、実効画素領域のうち複数枚の撮像画像で共通する領域を、撮影範囲として切り出して記録する。その一方で、2D撮影では、実効画素領域のうちできる限り広い範囲を、撮影範囲としたい。このような場合、3D画像の撮影範囲よりも2D画像の撮影範囲が広くなるので、3D画像と2D画像とで最適な合焦位置および露出量が異なる場合がでてくる。
また、2D画像および3D画像の両方を撮影したいという要求がある。しかし、まず1回目の露出で2D画像を撮像し、次に2回目の露出で3D画像を撮像すると、1回目の露出と2回目の露出とでタイムラグが生じるので、2D画像と3D画像とを見比べたユーザが違和感を感じることになる。
本発明はこのような事情に鑑みてなされたもので、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合に、平面画像および立体画像をそれぞれ適切な撮影条件で撮影することができるとともに、平面画像と立体画像とのタイムラグを低減することができる立体撮影装置および撮影制御方法を提供することを目的とする。
前記目的を達成するために、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出手段と、前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定手段と、前記露出量判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記露出量以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であるときには、前記露出量の差分が前記閾値以下である場合、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成し、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御手段と、を備えたことを特徴とする立体撮影装置を提供する。
即ち、平面画像の撮影範囲に対応する第1の露出量と立体画像の撮影範囲に対応する第2の露出量との差分が許容範囲内である場合、共通の適切な露出量で撮影されたタイムラグのない平面画像および立体画像を得ることができる。また、前記露出量の差分が許容範囲外である場合、それぞれ最適な露出量で撮影された平面画像および立体画像を得ることができるとともに、小さい方の露出量で露出した第1の撮像画像と露出量の差分で露出した第2の撮像画像とを合成するので、平面画像と立体画像とのタイムラグを短縮することが可能である。
また、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出手段と、前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択する絞り値選択手段と、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定手段と、前記合焦位置判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記合焦位置以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であり、且つ、前記合焦位置の差分が前記被写界深度内に含まれる場合、前記平面画像および前記立体画像の両方を一回の露出で取得する制御手段と、を備えたことを特徴とする立体撮影装置を提供する。
即ち、平面画像の撮影範囲に対応する第1の合焦位置と立体画像の撮影範囲に対応する第2の合焦位置との差分が被写界深度内である場合、共通の適切な合焦位置で撮影されたタイムラグのない平面画像および立体画像を得ることができる。また、撮影光学系に設定可能な複数の絞り値のうちから合焦位置の差分を撮影光学系の被写界深度内に含ませる絞り値を選択するので、平面画像と立体画像とのタイムラグが無くなる確率が向上する。
また、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出手段と、前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出手段と、前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定手段と、前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択する絞り値選択手段と、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定手段と、前記露出量判定手段および前記合焦位置判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記合焦位置の差分が前記被写界深度内に含まれるとき、前記露出量の差分が前記閾値以下である場合には、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合には、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成し、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御手段と、を備えたことを特徴とする立体撮影装置を提供する。
本発明の一態様では、前記露出量検出手段は、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記露出量を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の露出量を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の露出量を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の露出量を検出する。
即ち、平面画像および立体画像の両方の露出量を検出する際に1回の評価値取得動作で済むので、平面画像および立体画像の撮影を短時間で行うことができる。
本発明の一態様では、前記合焦位置検出手段は、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記合焦位置を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の合焦位置を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の合焦位置を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の合焦位置を検出する。
即ち、平面画像および立体画像の両方の合焦位置を検出する際に1回の評価値取得動作で済むので、平面画像および立体画像の撮影を短時間で行うことができる。特に、フォーカスレンズを移動させながら合焦評価値を取得するコントラスト方式の焦点検出を行う場合、サーチ時間を短縮可能である。
本発明の一態様では、前記撮像制御手段は、前記平面画像のみの撮像時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像する。
即ち、平面画像のみの撮像時に一方の撮像手段でのみ撮像を行うので、記憶容量および消費電力の節約が図れる。
また、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出ステップと、前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定ステップと、露出量判定結果に従い前記撮像手段を制御する制御ステップであって、前記露出量以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であるときには、前記露出量の差分が前記閾値以下である場合、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成し、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御ステップと、を含むことを特徴とする撮影制御方法を提供する。
また、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出ステップと、前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択するとともに、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定ステップと、合焦位置判定結果に従い前記撮像手段を制御する制御ステップであって、前記合焦位置以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であり、且つ、前記合焦位置の差分が前記被写界深度内に含まれる場合、前記平面画像および前記立体画像の両方を一回の露出で取得する制御ステップと、を含むことを特徴とする撮影制御方法を提供する。
また、本発明は、第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出ステップと、前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出ステップと、前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定ステップと、前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択するとともに、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定ステップと、露出量判定結果および合焦位置判定結果に従い前記撮像手段を制御する制御ステップであって、前記合焦位置の差分が前記被写界深度内に含まれるとき、前記露出量の差分が前記閾値以下である場合には、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合には、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成するとともに、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御ステップと、を含むことを特徴とする撮影制御方法を提供する。
本発明の一態様では、前記露出量検出ステップにて、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記露出量を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の露出量を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の露出量を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の露出量を検出する。
本発明の一態様では、前記合焦位置検出ステップにて、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記合焦位置を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の合焦位置を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の合焦位置を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の合焦位置を検出する。
本発明の一態様では、前記制御ステップにて、前記平面画像のみの撮像時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像する。
本発明によれば、平面画像の撮影範囲と立体画像の撮影範囲とが異なる場合に、平面画像および立体画像をそれぞれ適切な撮影条件で撮影することができるとともに、平面画像と立体画像とのタイムラグを低減することができる。
本発明に係る立体撮影装置の一例であるデジタルカメラの全体構成を示すブロック図 3D撮影および3D表示の説明に用いる説明図 第1実施形態におけるデジタルカメラの要部ブロック図 撮影場面の一例の説明に用いる説明図 2D画像の撮影範囲と3D画像の撮影範囲との相違の説明に用いる説明図 検出エリア決定部および撮影条件検出部および撮影条件判定部の詳細を示すブロック図 第1実施形態における撮影処理の一例の流れを示す第1のフローチャート 第1実施形態における撮影処理の一例の流れを示す第2のフローチャート イメージエリアに設定したアレイ状の検出ブロックの一例を示す説明図 2D画像の撮影条件検出エリアの一例を示す説明図 (A)および(B)は3D画像の撮影条件検出エリアの一例を示す説明図 第1実施形態における撮影制御の説明に用いる説明図 (A)および(B)はマルチフレーム合成の説明に用いる説明図 第2実施形態におけるデジタルカメラの要部ブロック図 第2実施形態における撮影処理の一例の流れを示すフローチャート 第2実施形態における撮影制御の説明に用いる説明図 第3実施形態におけるデジタルカメラの要部ブロック図 第3実施形態における撮影処理の一例の流れを示すフローチャート 第3実施形態における撮影制御の説明に用いる説明図 第4実施形態における撮影制御の説明に用いる説明図
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
図1は、本発明に係る立体撮影装置の一例であるデジタルカメラ1の全体構成を示すブロック図である。
図1において、デジタルカメラ1は、同一の被写体を複数の視点から撮像して3D画像(立体画像)を生成可能な立体撮影装置であり、CPU10、撮像系11(11R,11L)、操作部12、ROM16、フラッシュROM18、SDRAM20、VRAM22、ズームレンズ制御部24(24L、24R)、フォーカスレンズ制御部26(26L、26R)、絞り制御部28(28L、28R)、撮像素子制御部36(36L、36R)、アナログ信号処理部38(38L、38R)、A/D変換器40(40L、40R)、画像入力コントローラ41(41L、41R)、デジタル信号処理部42(42L、42R)、AF評価値取得部44、AE/AWB評価値取得部46、圧縮・伸張処理部52、メディア制御部54、メモリカード56、モニタ制御部58、モニタ60、電源制御部61、バッテリ62、フラッシュ制御部64、フラッシュ65、姿勢検出センサ66、スピーカ67、および、計時部68を含んで構成されている。
左眼用の撮像系11L(「左撮像手段」ともいう)は、主として、撮影光学系14L、ズームレンズ制御部24L、フォーカスレンズ制御部26L、絞り制御部28L、撮像素子34L、撮像素子制御部36L、アナログ信号処理部38L、A/D変換器40L、画像入力コントローラ41L、デジタル信号処理部42L等から構成されている。
右眼用の撮像系11R(「右撮像手段」ともいう)は、主として、撮影光学系14R、ズームレンズ制御部24R、フォーカスレンズ制御部26R、絞り制御部28R、撮像素子34R、撮像素子制御部36R、アナログ信号処理部38R、A/D変換器40R、画像入力コントローラ41R、デジタル信号処理部42R等から構成されている。
なお、本明細書では、撮像系11L、11Rにより被写体を撮像して得られる画像信号を、「撮像画像」という。また、左眼用の撮像系11Lにより得られる撮像画像を「左撮像画像」、右眼用の撮像系11Rにより得られる撮像画像を「右撮像画像」という。
CPU10は、撮影、再生などデジタルカメラ全体の動作を統括制御する制御手段として機能し、操作部12からの入力に基づき、プログラムに従って各部を制御する。
操作部12は、シャッタボタン、電源スイッチ、モードスイッチ、ズームボタン、十字ボタン、メニューボタン、OKボタン、BACKボタンなどを含む。シャッタボタンは、いわゆる「半押し」と「全押し」が可能な二段ストローク式のスイッチで構成されている。電源スイッチは、デジタルカメラ1の電源のオンおよびオフを切り替えるスイッチである。モードスイッチは、各種のモードを切り替えるスイッチである。ズームボタンはズーム操作に用いられる。十字ボタンは、上下左右4方向に操作可能であり、メニューボタン、OKボタンおよびBACKボタンとともに、各種の設定操作に用いられる。
バス14を介して接続されたROM16には、CPU10が実行するプログラムおよびCPU10の制御に必要な各種データ等が格納されており、フラッシュROM18には、ユーザ設定情報等のデジタルカメラ1の動作に関する各種設定情報等が格納されている。SDRAM20は、CPU10の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM22は、表示用の画像データ専用の一時記憶領域として利用される。
左右一対の撮影光学系14L、14Rは、ズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを含んで構成されている。
ズームレンズ30ZR、30LRは、ズームレンズ駆動手段としてのズームレンズ制御部24R、24Lにより駆動されて、光軸に沿って前後移動する。CPU10は、ズームレンズ制御部24L、24Rを介して、ズームレンズ30LR、30ZRの位置を制御し、撮影光学系14L、14Rのズーミングを行う。
フォーカスレンズ30FL、30FRは、フォーカスレンズ駆動手段としてのフォーカスレンズ制御部26L、26Rにより駆動されて、光軸に沿って前後移動する。CPU110は、フォーカスレンズ制御部26L、26Rを介して、フォーカスレンズ30FL、30FRの位置を制御し、撮影光学系14L、14Rのフォーカシングを行う。
絞り32L、32R、は、たとえば、アイリス絞りで構成されており、絞り駆動手段としての絞り制御部28Rにより駆動されて、開口量(絞り値)が変化する。CPU10は、絞り制御部28L、28Rを介して絞りの開口量を制御し、撮像素子34L、34Rの露出量を制御する。
撮像素子34L、34Rは、所定のカラーフィルタ配列のカラーCCD撮像素子で構成されている。CCDは、その受光面に多数のフォトダイオードが二次元的に配列されている。撮影光学系14L、14RによってCCDの受光面上に結像された被写体の光学像(被写体像)は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU10の指令に従って撮像素子制御部36L、36Rから与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子34L、34Rから順次読み出される。撮像素子34L、34Rには、電子シャッタの機能が備えられており、フォトダイオードへの電荷蓄積時間を制御することにより、露出時間(シャッタ速度)が制御される。なお、本実施の形態では、撮像素子としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
CPU10は、撮影光学系14L、14Rを構成するズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを駆動する際、左右の撮影光学系14L、14Rを同期させて駆動する。すなわち、左右の撮影光学系14L、14Rは、常に同じ焦点距離(ズーム倍率)に設定されるとともに、常に同じ被写体に合焦するように、フォーカスレンズ30FL、30FRの位置が設定される。また、常に同じ露出量となるように絞り値および露出時間(シャッタ速度)が調整される。
アナログ信号処理部38L、38Rは、撮像素子34L、34Rから出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CD)、画像信号を増幅して一定レベルの大きさにコントロールするためのAGC回路を含み、撮像素子34L、34Rから出力される画像信号を相関二重サンプリング処理するとともに増幅する。A/D変換器40L、40Rは、アナログ信号処理部38L、38Rから出力されたアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ41L、41Rは、A/D変換器40L、40Rから出力された画像信号を取り込んで、SDRAM20に格納する。本例では、左撮像画像および右撮像画像がSDRAM20に一時的に格納される。デジタル信号処理部42L、42Rは、CPU10からの指令に従い、SDRAM20に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、Cbとからなる画像データ(Y/C信号)を生成する。また、CPU10からの指令に応じて、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補間処理、RGB/YC変換処理、ノイズ低減処理、輪郭補正処理、色調補正、光源種別判定処理等の各種のデジタル補正を行う。なお、デジタル信号処理部42L、42Rはハードウェア回路で構成してもよいし、同じ機能をソフトウェアにて構成してもよい。
AF評価値取得部44は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR,G,B各色の画像信号(撮像画像)に基づいて、フォーカスレンズ30Fの合焦位置を検出するためのAF評価値(合焦評価値)を算出する。本例のAF評価値取得部44は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとにAF評価値を算出する。また、本例のAF評価値取得部44は、G信号の高周波成分のみを通過させるハイパスフィルタ、各検出ブロック内の信号を切り出す信号抽出部、および、各検出ブロック内の信号の絶対値を積算する積算部を含み、各検出ブロックごとの積算値をAF評価値として出力する。本例のAF評価値は、各検出ブロックごとに合焦程度を示す。
CPU10は、AF制御時、複数のブロックによって構成される合焦エリアにてAF評価値取得部144から出力されるAF評価値が極大となるレンズ位置(合焦位置)を検出し、そのレンズ位置にフォーカスレンズ30FL、30FRを移動させることにより、フォーカスレンズ30FL、30FRの合焦を行う。CPU10は、例えば、まず、フォーカスレンズ30FL、30FRを至近から無限遠まで移動させ、その移動過程で逐次AF評価値取得部44からAF評価値を取得し、合焦位置検出エリアにてAF評価値が極大となるレンズ位置を検出して、そのレンズ位置(合焦位置)にフォーカスレンズ30FL、30FRを移動させる。これにより、画角内の合焦エリアに位置する被写体(主要被写体)にピントが合わせられる。
AE/AWB評価値取得部46は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR、G、Bの各色の画像信号(撮像画像)に基づいて、AE(自動露出)制御およびAWB(自動ホワイトバランス調整)制御に必要な評価値を算出する。本例のAE/AWB評価値取得部46は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとに、R、G、B信号の積算値をAE評価値およびAWB評価値として算出する。
CPU10は、AE制御時、AE評価値に基づいて、露出量を算出する。すなわち、感度、絞り値、シャッタ速度、フラッシュ発光要否などを決定する。
また、CPU10は、AWB制御時、AWB評価値として取得し、ホワイトバランス調整用のゲイン値を算出するとともに、光源種を検出する。
圧縮・伸張処理部52は、CPU10からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU10からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
メディア制御部54は、CPU10からの指令に従い、メモリカード56に対してデータの読み/書きを制御する。
モニタ制御部58は、CPU10からの指令に従い、モニタ60への表示を制御する。モニタ60は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、モニタ60は、撮影時には、各撮像素子34R、34Lが継続的に捉えた画像(スルー画像)を順次表示し、電子ファインダとして利用される。
電源制御部61は、CPU10からの指令に従い、バッテリ62から各部への電源供給を制御する。フラッシュ制御部64は、CPU10からの指令に従い、フラッシュ65の発光を制御する。姿勢検出センサ66は、デジタルカメラ1のボディの姿勢(上下、左右の傾き)を検出し、その結果をCPU10に出力する。すなわち、デジタルカメラ1のボディの左右方向の傾き角度(撮影光学系14L、14Rの光軸回りの回転角度)と、デジタルカメラ1のボディの上下方向の傾き角度(撮影光学系14L、14Rの光軸の上下方向の傾き角度)とを検出する。スピーカ67は音を出力する。計時部68は、現在日時を計時するとともに、CPU10からの指令に従って時間の計測を行う。
なお、本明細書にて、「2D」は平面を意味し、「3D」は立体を意味する。2D撮影は単視点の撮像画像(「2D画像」または「平面画像」という)の撮像および記録を行うことを意味し、2D表示は2D画像を表示することを意味する。また、3D撮影は複数視点の撮像画像(「3D画像」または「立体画像」という)の撮像および記録を行うことを意味し、3D表示は3D画像を立体視可能に表示することを意味する。
立体視可能なモニタ60としては、例えば光方向制御(ライトディレクションコントロール)方式の3D液晶モニタを用いる。光方向制御方式では、モニタ60を構成する液晶表示デバイスの背面を照らすバックライトの方向を、観察者の右眼方向および左眼方向に制御する。光方向制御方式の一例は、特開2004‐20684号公報などに記載されている。特許第3930021号公報などに記載された、いわゆるスキャンバックライト方式を用いてもよい。
また、視差バリア(パララックスバリア)方式の3D液晶モニタでもよい。視差バリア方式では、左撮像画像および右撮像画像をそれぞれ画像の縦方向に細長い短冊状にして切り取り、交互に並べて表示するとともに、縦方向に刻まれたスリットを通して画像を観察者に見せる。これにより、観察者の左眼には左撮像画像、右眼には右撮像画像がそれぞれ映るようにする。その他の空間分割方式でもよい。
また、かまぼこ状のレンズ群を有するレンチキュラレンズを備えたモニタ60でもよい。また、左右の画像を交互に表示するとともに、観察者に画像分離メガネを着用させることで、立体視させてもよい。
また、モニタ60は、特に液晶表示デバイスに限定されない。例えば有機ELデバイスでもよい。
次に、図2を用い、図1に示したデジタルカメラ1における3D撮影(立体視撮影)および3D表示(立体視表示)の概要を説明する。
まず、発明の理解を容易にするため、基線長SB(デジタルカメラ1における撮像系11L、11Rの光軸の間隔)、および、輻輳角θc(撮像系11L、11Rの光軸同士が成す角度)は、固定であるものとして説明する。
複数の撮像系11L、11Rにより、同一の特定対象91(例えば球)を複数の視点から撮像することで、複数の撮像画像(左撮像画像92Lおよび右撮像画像92R)が生成される。生成された撮像画像92L、92Rは、同一の特定対象91が投影された特定対象像93L、93Rを、それぞれ含んでいる。これらの撮像画像92L、92Rを、立体視表示可能なモニタ60で重ね合わせて表示することで、すなわち3D表示することで、3D表示画像94が再生される。3D表示画像94は左撮像画像92Lおよび右撮像画像92Rによって構成されている。観察者95は、モニタ60上の3D表示画像94を両眼96L、96Rから観察する。そうすると、観察者95には特定対象91(例えば球)の虚像97が飛び出して見える。尚、図2では、光軸間の交点99(「クロスポイント」ともいう)よりも近い位置に特定対象91が存在するので虚像97が手前側に飛び出して見えるが、交点99よりも遠い位置に特定対象が存在する場合には虚像が奥側に引き込んで見える。
図2に示すように被写体距離Sが撮像系11L、11Rの光軸間の交点99までの距離よりも小さい範囲内では、被写体距離Sが小さいほど、撮像画像92L、92R上で特定対象像93L、93Rの中心座標XLF、XRF(図2ではx座標のみ図示)の差分|XLF−XRF|が大きくなる。すなわち、被写体距離Sが小さいほど、視点別の撮像画像間で対応点同士が離れる。ここで、差分|XLF−XRF|はx座標のみであり、これを両眼視差量APとして表す。つまり、基線長SBおよび輻輳角θcが決まっていれば、被写体距離Sが小さいほど、APが大きくなり、観察者95が体感する虚像97の飛び出し量ADも大きくなる。
なお、基線長SBおよび輻輳角θcが一定である場合を例に説明したが、輻輳角θcが可変である構造の場合には、輻輳角θcおよび被写体距離Sに応じて、飛び出し量ADが変化する。また、輻輳角θcに加えて基線長SBも可変である構造の場合には、基線長SBおよび輻輳角θcおよび被写体距離Sに応じて、飛び出し量ADが変化する。
また、基線長SBおよび輻輳角θcが一定であっても、両眼視差量APを変更するように撮像画像92L、92R間で画素ずらしを行うことで、飛び出し量ADを変更することもできる。
以下では、本発明を各種の実施形態に分けて説明する。
図3は、第1実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図1に示したものには同じ符号を付してあり、既に説明した事項については、以下では説明を省略する。
記憶部70は、各種の情報を記憶するデバイスである。本例では、図1のROM16、フラッシュROM18およびSDRAM20によって構成される。
本実施形態のCPU10は、撮影範囲取得部71、検出エリア決定部72、撮影条件検出部73、撮影範囲比較部74、撮影条件判定部75、撮影制御部76、および、画像合成部77を含んで構成されている。
撮影範囲取得部71は、撮影範囲情報を記憶部70から取得する。撮影範囲情報は、撮像系11R、11Lにより撮像して得られる撮像画像の全体のうちで記録する範囲(以下「撮影範囲」という)を示す。
ここで2D画像の撮影範囲および3D画像の撮影範囲について、図4および図5を用いて説明しておく。例えば、図4に示す撮影場面では、図5(A)に示す左撮像画像92Lが左撮像系11Lによって生成され、図5(B)に示す右撮像画像92Rが右撮像系11Rによって生成される。図5(A)の左撮像画像92Lの全体領域210(以下「イメージエリア」という)を2D画像の撮影範囲として記録することで、主要被写体201(本例では猿)だけでなく副被写体202(本例では人)などを含んだ2D画像を記録できる。また、図5(A)の左撮像画像92Lと図5(B)の右撮像画像92Rとで被写体が共通し、且つ、特定の縦横比(アスペクト比)を有する切り出し領域220L、220Rを3D画像の撮影範囲として記録することで、主要被写体201を立体視するために必要且つ十分な3D画像を記録できる。つまり、2D画像は立体視させる必要がないので実効画素領域(イメージエリア)に対応する撮影範囲で記録したく、3D画像は後で十分且つ容易に立体視可能にするために実効画素領域よりも狭い切り出し領域で記録したい。このような場合、2D画像の撮影範囲210は、3D画像の撮影範囲220L、220Rよりも広くなる。
また、3D画像では、操作部12からの入力指示に応じて左撮像画像と右撮像画像との画素ずらしを行うことで両眼視差量(図2のAP)を調整する場合、画素ずらし量に基づいて3D画像の撮影範囲が変わってくる。このような場合には、画素ずらし量に基づいて3D画像の撮影範囲を算出する。デジタルカメラ1が輻輳角(図2のθc)や基線長(図2のSB)を変更可能な構造である場合にも、3D画像の撮影範囲が変わってくる。このような場合には、構造上変更可能なパラメータ(例えばθc)に基づいて3D画像の撮影範囲を算出する。さらに、操作部12からの入力指示に応じて2D画像の撮影範囲を変更可能である場合には、その2D画像の撮影範囲を取得する。
検出エリア決定部72は、撮影範囲情報に基づいて、イメージエリアのうちで撮影条件を検出するエリア(以下単に「検出エリア」という)を決定する。本例では、2D画像と3D画像とで撮影範囲が異なるので、2D画像と3D画像とで異なる検出エリアが決定される。
検出エリア決定部72は、図6に示すように、フォーカスレンズ30F(30FL,30FL)が被写体に合焦するレンズ位置(合焦位置)を検出するためのエリア(以下「合焦位置検出エリア」という)を決定する合焦位置検出エリア決定部721と、露出量を検出するためのエリア(以下「露出量検出エリア」という)を決定する露出量検出エリア決定部722とを含む。
撮影条件検出部73は、検出エリア決定部72にて決定された検出エリアにて、撮影条件を検出する。即ち、撮影条件検出部73は、2D画像の場合には、2D画像の撮影範囲に対応した検出エリア(2D画像の検出エリア)にて撮影条件を検出し、3D画像の場合には、3D画像の撮影範囲に対応した検出エリア(3D画像の検出エリア)にて撮影条件を検出する。
撮影条件検出部73は、図6に示すように、合焦位置検出エリアにて合焦位置を検出する合焦位置検出部731と、露出量検出エリアにて露出量を検出する露出量検出部732とを含む。
合焦位置検出部731は、2D画像の撮影範囲に対応する合焦位置検出エリアにて合焦位置PA(以下「第1の合焦位置」という)を検出するとともに、3D画像の撮影範囲に対応する合焦位置検出エリアにて合焦位置PB(以下「第2の合焦位置」という)を検出する。
露出量検出部732は、2D画像の撮影範囲に対応する露出量検出エリアにて露出量EVA(以下「第1の露出量」という)を検出するとともに、3D画像の撮影範囲に対応する露出量検出エリアにて露出量EVB(以下「第2の露出量」という)を検出する。
撮影範囲比較部74は、2D画像の撮影範囲と3D画像の撮影範囲とを比較する。
撮影条件判定部75は、2D画像の検出エリアで検出された撮影条件(即ち2D画像の撮影範囲に対応する撮影条件)と3D画像の検出エリアで検出された撮影条件(即ち3D画像の撮影範囲に対応する撮影条件)とを比較して、検出された撮影条件の使用態様を判定する。
撮影条件判定部75は、図6に示すように、合焦位置検出部731で検出された合焦位置の使用態様を判定する合焦位置判定部751と、露出量検出部732で検出された露出量の使用態様を判定する露出量判定部752とを含む。
合焦位置判定部751は、2D画像の撮影範囲に対応する第1の合焦位置PAと3D画像の撮影範囲に対応する第2の合焦位置PBとの差分△P=|PA−PB|(以下「合焦位置差」という)と、撮影光学系14L、14Rの被写界深度とを比較する。
ここで、被写界深度は、前側被写界深度または後側被写界深度である。例えば、PBを基準とした場合、PAがPBよりも前側であれば△Pと前側被写界深度とを比較し、PAがPBよりも後側であれば△Pと後側被写界深度とを比較する。また、合焦位置PA、PBと被写界深度とで単位を整合して比較することは言うまでもない。本例では、被写界深度を合焦位置(フォーカスレンズの位置)に整合させるが、合焦位置(フォーカスレンズの位置)を被写界深度に整合させてもよい。
本実施形態の合焦位置判定部751は、合焦位置差△P≦被写界深度である場合には、第1の合焦位置PAおよび第2の合焦位置PBのうちで撮影範囲が小さい方の画像に対応する合焦位置(本例ではPB)で2D画像および3D画像の両方を取得すると判定する。また、合焦位置判定部751は、合焦位置差△P>被写界深度である場合には、2D画像の撮影範囲に対応する第1の合焦位置PAで2D画像を取得して、3D画像の撮影範囲に対応する第2の合焦位置PBで3D画像を取得すると判定する。
露出量判定部752は、2D画像の撮影範囲に対応する第1の露出量EVAと3D画像の撮影範囲に対応する第2の露出量EVBとの差分△EV=|EVA−EVB|(以下「露出量差」という)と、記憶部70に予め記憶された閾値Thとを比較する。
本実施形態の露出量判定部752は、露出量差△EV≦閾値である場合には、第1の露出量EVA及び第2の露出量EVBのうち撮影範囲が小さい方の画像に対応する露出量(本例ではEVB)で2D画像および3D画像の撮影を行うと判定する。また、本実施形態の露出量判定部752は、露出量差△EV>閾値である場合には、第1の露出量EVAで2D画像の撮影を行って第2の露出量EVBで3D画像の撮影を行うと判定する。
撮影制御部76は、撮影条件判定部75の判定結果に従い撮像系11L、11Rを制御して、2D画像および3D画像の撮影を行う。
画像合成部77は、マルチフレーム合成を行う。マルチフレーム合成では、複数フレームの画像間で、画素ごとに、画素値の加算を行う。
次に、第1実施形態における撮影処理例について、主に図7および図8のフローチャートを用いて、説明する。
ステップS102にて、撮影準備指示の入力を待つ。本例では、シャッタボタンが半押しされると撮影指示が入力されたと判定し、ステップS104に進む。
ステップS104にて、AF評価値取得部(図1の44)により、図9に示すイメージエリア210内の各検出ブロック230ごとに、フォーカスレンズ30Fの合焦程度を示すAF評価値を取得する。例えば、フォーカスレンズを移動させながら各検出ブロック230ごとに画像のコントラストを示すAF評価値(合焦評価値)を算出する。算出された各検出ブロック230毎の評価値は、記憶部70に記憶される。なお、図9は、撮影条件検出部73がイメージエリア210に7×7個の検出ブロック230を設定した場合を例示しているが、検出ブロック230の個数や配列は特に限定されない。図9の例では、検出ブロック230間に隙間(ギャップ)を設けたことにより、検出ブロック230の大きさを最低限にして各検出ブロックごとの評価値算出処理を軽減しながら、広範囲にわたって撮影条件を検出できる。検出ブロック間230に隙間を設けない態様もある。
ステップS106にて、AE/AWB評価値取得部(図1の46)により、図9に示すイメージエリア210内の各検出ブロック230ごとに、AE評価値を取得する。例えば、AE評価値およびAWB評価値として各検出ブロック230ごとに輝度値を算出する。算出された各検出ブロック230毎の評価値は、記憶部70に記憶される。
ステップS108にて、撮影範囲取得部71により、2D画像の撮影範囲情報を記憶部70から取得する。本例では、図5(A)を用いて説明したように、イメージエリア210の全体が2D画像の撮影範囲である。なお、イメージエリアは撮像素子34L,34Rの総画素領域のうちで性能が保証された実効画素領域であり、本例ではその実効画素領域の範囲を示す情報が2Dの撮影範囲情報として記憶部70に予め記憶されている。また、操作部12により2D画像の撮影範囲を指定入力可能である場合には、その指定された撮影範囲が記憶部70に記憶されている。
ステップS110にて、検出エリア決定部72により、2D画像の撮影範囲に対応する検出エリアを決定する。イメージエリア210の全体が2D画像の撮影範囲である場合、図9に示すように、イメージエリア210内の全ての検出ブロック230を撮影条件(合焦位置および露出量を含む)の検出対象とする。なお、図10にて、ブロック内の数字は、各ブロックの評価値に対する重みを示している。図10に示すように、本例では、X軸対称、且つ、Y軸対称、且つ、中心点対称で、重み付けされている。
ステップS112にて、撮影条件検出部73により、2D画像の検出エリアにて、第1の合焦位置PAおよび第1の露出量EVAを検出する。本例では、2D画像のイメージエリア210に属する各検出ブロック230ごとに、検出されたAF評価値に対して図9に示した重みをかけた後、イメージエリア210全体で総和することで、2D画像の検出エリア全体のAF評価値を算出する。そして、AF評価値が極大となるフォーカスレンズの位置を合焦位置として検出する。AE評価値に対しても、AF評価値と同様に重みをかけ、イメージエリア210全体の総和に基づいて、露出量を算出する。
ステップS114にて、撮影範囲取得部71により、3D撮影のパラメータに基づいて3D画像の撮影範囲情報を算出する。3D撮影の可変パラメータとしては、両眼視差量を調整するための画素ずらし量がある。画素ずらし量は、操作部12からの指示入力により記憶部70に予め記憶されているので、これを取得する。また、輻輳角θcや基線長SBが可変である場合には、これらの可変パラメータに基づいて撮影範囲情報の算出を行う。
ステップS116にて、検出エリア決定部72により、3D画像の撮影範囲に対応する検出エリアを決定する。例えば、図11(A)に示すように、イメージエリア210内の7×7個の検出ブロック230のうち3D画像の撮影範囲に対応する4×4個の検出ブロックを撮影条件の検出対象とする。即ち、図中に符号240で示すエリアが3D画像の検出エリアである。図11(B)は、3×3個の検出ブロックを撮影条件の検出対象とした場合を示す。
ステップS118にて、撮影条件検出部73により、3D画像の検出エリアにて、第2の合焦位置PBおよび第2の露出量EVBを検出する。本例では、3D画像の検出エリア240に属する各検出ブロック230ごとに、検出されたAF評価値に対して図11(A)または(B)に示した重みをかけた後、検出エリア240全体で総和することで、3D画像の検出エリア全体のAF評価値を算出する。そして、AF評価値が極大となるフォーカスレンズの位置を合焦位置として検出する。AE評価値に対しても、AF評価値と同様に重みをかけ、検出エリア240全体の総和に基づいて、露出量を算出する。
尚、図9〜図11を用い、各検出ブロック230ごとの評価値取得(ステップS104及びS106)を2D及び3Dで共通に行って、撮影条件(露出量および合焦位置)の演算(ステップS112及びS118)を2D及び3Dでそれぞれ個別に行う場合を例に説明した。これにより、撮影範囲の異なる2D及び3Dの各々で最適な撮影条件を検出することができるとともに、一回の評価値取得動作で済むため撮影条件検出処理の高速化が可能である。ただし、本発明はこのような場合には限定されず、評価値取得を2D及び3Dでそれぞれ個別に行う場合を含む。
図8に示すステップS120にて、撮影指示の入力を待つ。本例では、シャッタボタンが全押しされると撮影指示が入力されたと判定し、ステップS122に進む。
ステップS122にて、露出量判定部752により、第1の露出量EVAと第2の露出量EVBとの差分△EV(露出量差)を、閾値Th(本例では1EV)と比較する。即ち、2D画像の撮影範囲に対応する第1の露出量EVAと3D画像の撮影範囲に対応する第2の露出量EVBとの差分△EV=|EVA−EVB|が、許容範囲内であるか否かを判定する。
露出量差△EV≦閾値Thである場合には、ステップS124にて、露出量判定部752により、最も撮影範囲が狭い画像に対応する露出量のみを用いて、2D画像および3D画像の両方を取得すると判定する。本例では、2D画像の露出および3D画像の露出の両方に、第2の露出量EVBのみを用いると判定する。
露出量差△EV>閾値Thである場合には、ステップS126にて、露出量判定部752により、第1の露出量EVAで2D画像を取得して、第2の露出量EVBで3D画像を取得すると判定する。ただし、後述のように、第1の露出量EVAおよび第2の露出量EVBのうち小さい方の露出量による露出と、露出量差△EVによる露出とを行うと判定する。露出量は、実際には、露出時間(またはシャッタ速度)、絞り値、および、感度(増幅度)によって決まる。例えば、EVAとEVBとで絞り値および感度を同じとした場合、EVA及びEVBのうち露出時間が短い(シャッタ速度が速い)方による露出と、△EVによる露出を行うことになる。
ステップS128にて、合焦位置判定部751により、第1の合焦位置PAと第2の合焦位置PBとの差分△P(合焦位置差)を、撮影光学系14L、14Rの被写界深度と比較する。即ち、2D画像の撮影範囲に対応する第1の合焦位置PAと3D画像の撮影範囲に対応する第2の合焦位置PBとの差分△P=|PA−PB|が、許容範囲内であるか否かを判定する。
合焦位置差△P≦被写界深度の場合には、ステップS130にて、合焦位置判定部751により、最も撮影範囲が狭い画像に対応する合焦位置のみを用いて、2D画像および3D画像の両方を取得すると判定する。本例では、2D画像の合焦および3D画像の合焦の両方に、第2の合焦位置PBのみを用いると判定する。
合焦位置差△P>被写界深度である場合には、ステップS132にて、合焦位置判定部751により、第1の合焦位置PAで2D画像を取得して、第2の合焦位置PBで3D画像の撮影を取得すると判定する。
ステップS134にて、撮影制御部76は、合焦位置判定部751および露出量判定部752の判定結果に従い撮像系11L、11Rを制御することで、2D画像および3D画像を撮影する。
本例の撮影制御部76は、図12に示す制御を行う。
露出量差△EV≦1EVであり、且つ、合焦位置差△P≦被写界深度である場合、最も撮影範囲が狭い画像に対応する撮影条件のみを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVBを用い、1回の露出で、2D画像および3D画像の両方の撮影を行う。
露出量差△EV≦1EVであり、且つ、合焦位置差△P>被写界深度である場合、最も撮影範囲が狭い画像に対応する露出量EVBと、それぞれの合焦位置PA、PBとを用いて、2D画像および3D画像の撮影を行う。即ち、PAおよびEVBを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
露出量差△EV>1EVであり、且つ、合焦位置差△P≦被写界深度である場合、それぞれの露出量EVA、EVBと、最も撮影範囲が狭い画像に対応する合焦位置PBとを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVAを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。但し、後述するようにマルチフレーム合成画像を作成する。
露出量差△EV>1EVであり、且つ、合焦位置差△P>被写界深度である場合、それぞれの撮影条件で、2D画像の撮影および3D画像の撮影を行う。即ち、PAおよびEVAを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
露出量EVA、EVBおよび露出量差△EVの例を示す。なお、下記例1〜例3では、大きい方の露出量、小さい方の露出量、露出量差△EVの順に示した。
例1: 9.2EV, 7.8EV、△EV=1.4EV
例2: 6.4EV. 2.8EV、△EV=3.6EV
例3: 4.0EV, 1.0EV、△EV=3.0EV
例1では、1回目の露出を小さい方の露出量7.8EVを用いて行い、2回目の露出を△EV=1.4EVで行う。△EVでは、一般に露出時間が非常に短い(シャッタ速度が高い)ので、2D画像と3D画像とのタイムラグが極めて小さくなる。
なお、本例の撮影制御部76は、EVA及びEVBのうちで露出量が小さい方と、露出量差△EVとで、露出時間による比較を行い、その比較結果に基づいて、露出時間が長い方の露出量で第1回目の露出を行い、露出時間が短い方の露出量で第2回目の露出を行う。単に露出量で比較して、露出量が大きい方で第1回目の露出を行い、露出量が小さい方で第2回目の露出を行ってもよい。例えば、例3では、1回目の露出を△EV=3.0EVで行い、2回目の露出を1.0EVで行う。
尚、本実施形態にて、絞り値、露出時間(シャッタ速度)および感度の具体的な数値は、通常と同じプログラム線図を用いて決定することができる。
図13(A)は、EVA>EVBである場合のマルチフレーム合成の説明図である。まず、撮影制御部76は、露出量EVBで露出を行って、第1の左撮像画像92L1および第1の右撮像画像92R1を生成する。次に、撮影制御部76は、露出量差△EVで露出を行って、第2の左撮像画像92L2および第2の右撮像画像92R2を生成する。なお、第2の右撮像画像92R2の撮像は、省電力のため、行わなくてもよい。次に、撮影制御部76は、画像合成部77により、第1の左撮像画像92L1と第2の左撮像画像92L2とを合成するとともに、第1の右撮像画像92R1と第2の右撮像画像92R2とを合成することで、露出量EVAで露出した場合と同等の第3の左撮像画像92L3(単視点のマルチフレーム合成画像)を生成する。本例では、第1の左撮像画像92L1からの切り出し画像および第1の右撮像画像92R1からの切り出し画像によって、露出量EVBに対応する3D表示画像94が構成される。また、第3の左撮像画像92L3によって、露出量EVAに対応する2D画像が構成される。
図13(B)は、EVA<EVBである場合のマルチフレーム合成の説明図である。まず、撮影制御部76は、露出量EVAで露出を行って、第1の左撮像画像92L1および第1の右撮像画像92R1を生成する。次に、撮影制御部76は、露出量差△EVで露出を行って、第2の左撮像画像92L2および第2の右撮像画像92R2を生成する。次に、撮影制御部76は、画像合成部77により、第1の左撮像画像92L1と第2の左撮像画像92L2とを合成するとともに、第1の右撮像画像92R1と第2の右撮像画像92R2とを合成することで、露出量EVBで露出した場合と同等の第3の左撮像画像92L3および第3の右撮像画像92R3(複数視点のマルチフレーム合成画像)を生成する。本例では、第1の左撮像画像92L1によって、露出量EVAに対応する2D画像が構成される。また、第3の左撮像画像92L3からの切り出し画像と、第3の右撮像画像92R3からの切り出し画像とによって、露出量EVBに対応する3D表示画像94が構成される。
次に、第2実施形態について説明する。
図14は、第2実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図14において、図3に示した第1実施形態における構成要素と同じ構成要素には同じ符号を付してある。以下では第1実施形態と異なる事項のみ説明する。
本実施形態の記憶部70は、撮影光学系14L、14Rに設定可能な複数の絞り値を示す絞り値テーブル情報を記憶する。
絞り値選択部78は、記憶部80から絞り値テーブル情報を読み出し、撮影光学系14L、14Rに設定可能な複数の絞り値のうちから、撮影光学系14L、14Rの被写界深度内に合焦位置差△Pを含ませる絞り値を選択する。選択された絞り値は、撮影制御部76に与えられ、撮影制御部76により撮影光学系14L、14Rに設定される。
撮影条件判定部75は、図6に示したように、合焦位置判定部751および露出量判定部752を有する。
本実施形態の合焦位置判定部751は、合焦位置差△P≦被写界深度となる絞り値が無い場合には、2D画像の撮影範囲に対応する第1の合焦位置PAで2D画像を取得して、3D画像の撮影範囲に対応する第2の合焦位置PBで3D画像を取得すると判定する。また、合焦位置判定部751は、合焦位置差△P≦被写界深度となる絞り値がある場合には、第1の合焦位置PAおよび第2の合焦位置PBのうちで撮影範囲が小さい方の画像に対応する合焦位置(本例ではPB)で2D画像および3D画像の両方を取得すると判定する。
本実施形態の露出量判定部752は、露出量差△EV≦閾値である場合には、第1の露出量EVA及び第2の露出量EVBのうち撮影範囲が小さい方の画像に対応する露出量(本例ではEVB)で2D画像および3D画像の撮影を行うと判定する。また、本実施形態の露出量判定部752は、露出量差△EV>閾値である場合には、第1の露出量EVAで2D画像の撮影を行って第2の露出量EVBで3D画像の撮影を行うと判定する。
撮影制御部76は、撮影条件判定部75の判定結果に従い、撮像系11L、11Rを制御して、2D画像および3D画像の撮影を行う。また、本実施形態の撮影制御部76は、絞り値選択部78によって選択された絞り値を撮影光学系14L、14Rに設定する。
次に、第2実施形態における撮影処理例について、説明する。
本撮影処理では、まず、第1実施形態と同様に図7のフローチャートに示した処理(ステップS102〜S118)を実行し、次に、図15のフローチャートに示した処理(ステップS220〜S236)を実行する。
ステップS220にて、撮影指示の入力を待つ。本例では、シャッタボタンが全押しされると撮影指示が入力されたと判定し、ステップS222に進む。
ステップS222にて、露出量判定部752により、第1の露出量EVAと第2の露出量EVBとの差分△EV(露出量差)を、閾値Thと比較する。閾値は、例えば1EVである。
露出量差△EV≦閾値Thである場合には、ステップS224にて、露出量判定部752により、最も撮影範囲が狭い画像に対応する露出量のみを用いて、2D画像および3D画像の両方を取得すると判定する。本例では、2D画像の露出および3D画像の露出の両方に、第2の露出量EVBのみを用いると判定する。
露出量差△EV>閾値Thである場合には、ステップS226にて、露出量判定部752により、第1の露出量EVAで2D画像を取得して、第2の露出量EVBで3D画像を取得すると判定する。
ステップS228にて、合焦位置判定部751により、第1の合焦位置PAと第2の合焦位置PBとの差分△P(合焦位置差)を、撮影光学系14L、14Rの被写界深度と比較する。本例では、合焦位置差△Pを、それぞれ、絞り開放の被写界深度、および、小絞りの被写界深度と、比較する。
合焦位置差△P≦絞り開放の被写界深度である場合には、ステップS230にて、合焦位置判定部751により、最も撮影範囲が狭い画像に対応する合焦位置のみを用いると判定する。本例では、2D画像の合焦および3D画像の合焦の両方に、第2の合焦位置PBのみを用いると判定する。
絞り開放の被写界深度<合焦位置差△P≦小絞りの被写界深度である場合には、ステップS232にて、合焦位置判定部751により、最も撮影範囲が狭い画像に対応する合焦位置のみを用いると判定する。本例では、2D画像の合焦および3D画像の合焦の両方に、第2の合焦位置PBのみを用いると判定する。また、絞り値選択部78は、撮影光学系14L、14Rの絞り32L、32Rを小絞りにする絞り値を選択する。
小絞りの被写界深度<合焦位置差△Pである場合には、ステップS234にて、合焦位置判定部751により、第1の合焦位置PAを用いて2D画像の取得を行い、第2の合焦位置PBを用いて3D画像の取得を行うと判定する。
ステップS236にて、撮影制御部76は、合焦位置判定部751および露出量判定部752の判定結果に従い撮像系11L、11Rを制御することで、2D画像および3D画像を撮影する。
本例の撮影制御部76は、図16に示す制御を行う。
露出量差△EV≦1EVであり、且つ、合焦位置差△P≦絞り開放の被写界深度である場合、最も撮影範囲が狭い画像に対応する撮影条件のみを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVBを用い、1回の露出で、2D画像および3D画像の両方の撮影を行う。
露出量差△EV≦1EVであり、且つ、絞り開放の被写界深度<合焦位置差△P≦小絞りの被写界深度である場合、小絞りにし、且つ、最も撮影範囲が狭い画像に対応する撮影条件(合焦位置PBおよび露出量EVB)のみを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVBを用い、1回の露出で、2D画像および3D画像の両方の撮影を行う。
露出量差△EV≦1EVであり、且つ、小絞りの被写界深度<合焦位置差△Pである場合、最も撮影範囲が狭い画像に対応する露出量EVBと、それぞれの合焦位置PA、PBとを用いて、2D画像および3D画像の撮影を行う。本例では、PAおよびEVBを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
露出量差△EV>1EVであり、且つ、合焦位置差△P≦絞り開放の被写界深度である場合、それぞれの露出量EVA、EVBと、最も撮影範囲が狭い画像に対応する合焦位置PBとを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVAを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
露出量差△EV>1EVであり、且つ、絞り開放の被写界深度<合焦位置差△P≦小絞りの被写界深度である場合、小絞りにし、且つ、最も撮影範囲が狭い画像に対応する合焦位置PBとを用いて、2D画像および3D画像の撮影を行う。即ち、PBおよびEVAを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
露出量差△EV>1EVであり、且つ、小絞りの被写界深度<合焦位置差△Pである場合、それぞれの撮影条件で、2D画像および3D画像の撮影を行う。即ち、PAおよびEVAを用いて2D画像の撮影を行い、PBおよびEVBを用いて3D画像の撮影を行う。
次に、小絞りの例を説明する。
二段絞り(例えば、F2.8、F8.0)の場合、次のように制御する。
(1a) △P≦F2.8の被写界深度である場合、合焦位置PBで撮影する。
(1b) F2.8の被写界深度<△P≦F8.0の被写界深度である場合、絞り値をF8.0にして、合焦位置PBで撮影する。
(1c)F8.0の被写界深度<△Pである場合、それぞれの合焦位置PA、PBで撮影する。
つまり、(1a)および(1b)の場合、他の撮影条件の差分(本例では露出量差△EV)が許容範囲内であれば、同一の合焦位置PBを用い、露出1回の撮影で、2D画像および3D画像の両方を取得する。
三段絞り(例えば、F2.8、F5.6、F8.0)の場合、次のように制御する。
(2a)△P≦F2.8の被写界深度である場合、合焦位置PBで撮影する。
(2b)F2.8の被写界深度<△P≦F8.0の被写界深度では、絞りをF5.6およびF8.0のうちいずれかにして、合焦位置PBで撮影する。
(2c) F8.0の被写界深度<△Pでは、それぞれの合焦位置PA、PBで撮影する。
つまり、(2a)および(2b)の場合、他の撮影条件の差分(本例では露出量差△EV)が許容範囲内であれば、同一の合焦位置PBを用い、露出1回の撮影で、2D画像および3D画像の両方を取得する。
次に、第3実施形態について説明する。
図17は、第3実施形態におけるデジタルカメラ1の要部ブロック図である。なお、図17において、図3に示した第1実施形態における構成要素および図14に示した第2実施形態における構成要素と同じ構成要素には同じ符号を付してある。以下では本実施形態に特有の事項のみ説明する。
本実施形態のデジタルカメラ1は、第1実施形態にて説明した画像合成部77、および、第2実施形態にて説明した絞り値選択部78を備える。
第3実施形態における撮影処理例について説明する。本撮影処理では、まず、第1実施形態と同様に図7のフローチャートに示した処理(ステップS102〜S118)を実行し、次に、図18のフローチャートに示した処理(ステップS320〜S336)を実行する。
ステップS320〜ステップS326は、第1実施形態におけるステップS120〜S124と同様である。また、ステップS328〜ステップS334は、第2実施形態におけるステップS228〜S234と同様である。
ステップS336にて、撮影制御部76は、図16に示す制御を行う。
露出量差△EV≦1EVである場合の処理は、第2実施形態と同様であり、ここではその説明を省略する。
露出量差△EV>1EV、且つ、合焦位置差△P≦絞り開放の被写界深度である場合の処理は、第1実施形態における露出量差△EV>1EV且つ△P≦被写界深度における処理と同様であり、ここではその説明を省略する。
露出量差△EV>1EV、且つ、絞り開放の被写界深度<合焦位置差△P≦小絞りの被写界深度である場合、小絞りにし、且つ、最も撮影範囲が狭い画像に対応する合焦位置PBと、それぞれの露出量EVA、EVBとを用いて、2D画像および3D画像の撮影を行う。但し、第1実施形態にて説明したマルチフレーム合成を行う。
露出量差△EV>1EV、且つ、合焦位置差△P>小絞りの被写界深度である場合における処理は、第1実施形態における露出量差△EV>1EV且つ△P>被写界深度における処理と同様である。
次に、第4実施形態について説明する。本実施形態では、図20に示すように、撮影ステップにて、2D画像は左眼のみの撮影を行う。即ち、本例の撮影制御部76は、2D画像のみの撮影時には、左撮像系11Lのみを用いて、被写体を撮像する。
この撮影ステップは、第1実施形態のステップS134、第2実施形態のステップS236、および、第3実施形態のステップS336に相当する。それ以外の処理については、第1〜第3実施形態にて説明したので、ここではその説明を省略する。
なお、撮影条件として合焦位置および露出量を検出する場合について説明したが、合焦位置および露出量以外の撮影条件(例えばホワイトバランス調整値)を検出してもよい。
また、静止画撮影の場合を例に本発明を説明したが、本発明は静止画撮影に限定されず、動画撮影の場合にも適用できることは、言うまでもない。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
1…デジタルカメラ(立体撮影装置)、10…CPU、11(11L,11R)…撮像系(撮像手段)、26(26L,26R)…フォーカスレンズ制御部、28(28L,28R)…絞り制御部、34(34L,34R)…撮像素子、36(36L,36R)…撮像素子制御部、38(38L,38R)・・・アナログ信号処理部、44・・・AF評価値取得部、46・・・AE/AWB評価値取得部、54・・・メディア制御部、58・・・モニタ制御部、60・・・モニタ、71…撮影範囲取得部、72…検出エリア決定部、73…撮影条件検出部、74…撮影範囲比較部、75…撮影条件判定部、76…撮影制御部、77…画像合成部、78…絞り値選択部、92L…左撮像画像、92R…右撮像画像、721…合焦位置検出エリア決定部、722…露出量検出エリア決定部、731…合焦位置検出部、732…露出量検出部、751…合焦位置判定部、752…露出量判定部

Claims (12)

  1. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、
    前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出手段と、
    前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定手段と、
    前記露出量判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記露出量以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であるときには、前記露出量の差分が前記閾値以下である場合、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成するとともに、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御手段と、
    を備えたことを特徴とする立体撮影装置。
  2. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、
    前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出手段と、
    前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択する絞り値選択手段と、
    前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定手段と、
    前記合焦位置判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記合焦位置以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であり、且つ、前記合焦位置の差分が前記被写界深度内に含まれる場合、前記平面画像および前記立体画像の両方を一回の露出で取得する制御手段と、
    を備えたことを特徴とする立体撮影装置。
  3. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像する第2の撮像素子とを有する第2の撮像手段とを備え、平面画像および立体画像の撮影が可能な立体撮影装置において、
    前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出手段と、
    前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出手段と、
    前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定手段と、
    前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択する絞り値選択手段と、
    前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定手段と、
    前記露出量判定手段および前記合焦位置判定手段の判定結果に従い前記撮像手段を制御する制御手段であって、前記合焦位置の差分が前記被写界深度内に含まれるとき、前記露出量の差分が前記閾値以下である場合には、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合には、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成するとともに、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御手段と、
    を備えたことを特徴とする立体撮影装置。
  4. 前記露出量検出手段は、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記露出量を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の露出量を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の露出量を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の露出量を検出することを特徴とする請求項1または3に記載の立体撮影装置。
  5. 前記合焦位置検出手段は、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記合焦位置を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の合焦位置を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の合焦位置を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の合焦位置を検出することを特徴とする請求項2または3に記載の立体撮影装置。
  6. 前記制御手段は、前記平面画像のみの撮像時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像することを特徴とする請求項1ないし5のうちいずれか1項に記載の立体撮影装置。
  7. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、
    前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出ステップと、
    前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定ステップと、
    露出量判定結果に従い前記撮像手段を制御する制御ステップであって、前記露出量以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であるときには、前記露出量の差分が前記閾値以下である場合、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成するとともに、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御ステップと、
    を含むことを特徴とする撮影制御方法。
  8. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、
    前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出ステップと、
    前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択するとともに、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定ステップと、
    合焦位置判定結果に従い前記撮像手段を制御する制御ステップであって、前記合焦位置以外の撮影条件における前記平面画像と前記立体画像との差分が許容範囲内であり、且つ、前記合焦位置の差分が前記被写界深度内に含まれる場合、前記平面画像および前記立体画像の両方を一回の露出で取得する制御ステップと、
    を含むことを特徴とする撮影制御方法。
  9. 第1の撮影光学系と該第1の撮影光学系を介して被写体を撮像し第1の撮像画像を生成する第1の撮像素子とを有する第1の撮像手段と、第2の撮影光学系と該第2の撮影光学系を介して前記被写体を撮像し第2の撮像画像を生成する第2の撮像素子とを有する第2の撮像手段とを用い、平面画像および立体画像の撮影を行う撮影制御方法において、
    前記平面画像の撮影範囲に対応する第1の露出量および前記立体画像の撮影範囲に対応する第2の露出量を検出する露出量検出ステップと、
    前記平面画像の撮影範囲に対応する第1の合焦位置および前記立体画像の撮影範囲に対応する第2の合焦位置を検出する合焦位置検出ステップと、
    前記第1の露出量と前記第2の露出量との差分が閾値以下である場合には、前記第1の露出量および前記第2の露出量のうち撮影範囲が小さい方の画像に対応する露出量で前記平面画像および前記立体画像を取得すると判定し、前記第1の露出量と前記第2の露出量との差分が前記閾値よりも大きい場合には、前記第1の露出量で前記平面画像を取得して前記第2の露出量で前記立体画像を取得すると判定する露出量判定ステップと、
    前記撮影光学系に設定可能な複数の絞り値のうちから、前記第1の合焦位置と前記第2の合焦位置との差分を前記撮影光学系の被写界深度内に含ませる絞り値を選択するとともに、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が無い場合には、前記第1の合焦位置で前記平面画像を取得して前記第2の合焦位置で前記立体画像を取得すると判定し、前記合焦位置の差分を前記被写界深度内に含ませる絞り値が有る場合には、前記第1の合焦位置および前記第2の合焦位置のうち撮影範囲が小さい方の画像に対応する合焦位置で前記平面画像および前記立体画像を取得すると判定する合焦位置判定ステップと、
    露出量判定結果および合焦位置判定結果に従い前記撮像手段を制御する制御ステップであって、前記合焦位置の差分が前記被写界深度内に含まれるとき、前記露出量の差分が前記閾値以下である場合には、前記平面画像および前記立体画像の両方を一回の露出で取得し、前記露出量の差分が前記閾値よりも大きい場合には、前記第1の露出量および前記第2の露出量のうち小さい方で露出を行って第1の撮像画像を生成し、前記第1の露出量と前記第2の露出量との差分で露出を行って第2の撮像画像を生成し、前記第1の撮像画像と前記第2の撮像画像とを合成する制御ステップと、
    を含むことを特徴とする撮影制御方法。
  10. 前記露出量検出ステップにて、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記露出量を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の露出量を検出するとともに、前記立体画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第2の露出量を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の露出量を検出することを特徴とする請求項7または8に記載の撮影制御方法。
  11. 前記合焦位置検出ステップにて、前記第1の撮像手段および前記第2の撮像手段の撮像画像を複数のブロックに分割して、前記合焦位置を検出するための評価値を前記各ブロックごとに取得し、前記平面画像の撮影範囲に属する複数の前記ブロックの評価値に基づいて前記第1の合焦位置を検出するとともに、前記第2の検出エリアに属する複数の前記ブロックの評価値に基づいて前記第2の合焦位置を検出することで、1回の評価値取得動作で前記平面画像および前記立体画像の両方の合焦位置を検出することを特徴とする請求項7または9に記載の撮影制御方法。
  12. 前記制御ステップにて、前記平面画像のみの撮像時に前記第1の撮像手段および前記第2の撮像手段のうち一方でのみ前記被写体を撮像することを特徴とする請求項7ないし11のうちいずれか1項に記載の撮影制御方法。
JP2009255113A 2009-11-06 2009-11-06 立体撮影装置および撮影制御方法 Withdrawn JP2011101240A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009255113A JP2011101240A (ja) 2009-11-06 2009-11-06 立体撮影装置および撮影制御方法
US12/940,708 US20110109727A1 (en) 2009-11-06 2010-11-05 Stereoscopic imaging apparatus and imaging control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009255113A JP2011101240A (ja) 2009-11-06 2009-11-06 立体撮影装置および撮影制御方法

Publications (2)

Publication Number Publication Date
JP2011101240A true JP2011101240A (ja) 2011-05-19
JP2011101240A5 JP2011101240A5 (ja) 2012-12-06

Family

ID=43973886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009255113A Withdrawn JP2011101240A (ja) 2009-11-06 2009-11-06 立体撮影装置および撮影制御方法

Country Status (2)

Country Link
US (1) US20110109727A1 (ja)
JP (1) JP2011101240A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111415A1 (ja) * 2012-01-26 2013-08-01 ソニー株式会社 画像処理装置および画像処理方法
JP2017192663A (ja) * 2016-04-22 2017-10-26 オリンパス株式会社 立体視内視鏡システム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8588600B2 (en) 2010-07-27 2013-11-19 Texas Instruments Incorporated Stereoscopic auto-focus based on coordinated lens positions
JP5597525B2 (ja) * 2010-07-28 2014-10-01 パナソニック株式会社 立体映像撮像装置および立体映像撮像方法
US8836767B2 (en) * 2010-12-17 2014-09-16 Samsung Electronics Co., Ltd Imaging apparatus and imaging method
JP2012142748A (ja) * 2010-12-28 2012-07-26 Sony Corp 撮像制御装置、撮像制御方法及び撮像制御プログラム並びに撮像装置
US20140225991A1 (en) * 2011-09-02 2014-08-14 Htc Corporation Image capturing apparatus and method for obatining depth information of field thereof
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
KR101888967B1 (ko) * 2011-12-16 2018-08-20 엘지이노텍 주식회사 3차원 카메라 모듈 및 그의 오토 포커싱 방법
US9111484B2 (en) * 2012-05-03 2015-08-18 Semiconductor Components Industries, Llc Electronic device for scene evaluation and image projection onto non-planar screens
US10237528B2 (en) * 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
KR20150061277A (ko) * 2013-11-27 2015-06-04 삼성전자주식회사 영상 촬영 장치 및 이의 영상 촬영 방법
US10250814B2 (en) * 2016-03-07 2019-04-02 Kabushiki Kaisha Toshiba Image signal processor apparatus and image signal processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035434B2 (ja) * 1993-10-13 2000-04-24 キヤノン株式会社 複眼撮像装置
JP2006005608A (ja) * 2004-06-17 2006-01-05 Hitachi Ltd 撮像装置
JP2010054730A (ja) * 2008-08-27 2010-03-11 Samsung Digital Imaging Co Ltd 合焦位置検出装置、撮像装置及び合焦位置検出方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111415A1 (ja) * 2012-01-26 2013-08-01 ソニー株式会社 画像処理装置および画像処理方法
JPWO2013111415A1 (ja) * 2012-01-26 2015-05-11 ソニー株式会社 画像処理装置および画像処理方法
US9826170B2 (en) 2012-01-26 2017-11-21 Sony Corporation Image processing of captured three-dimensional images
JP2017192663A (ja) * 2016-04-22 2017-10-26 オリンパス株式会社 立体視内視鏡システム

Also Published As

Publication number Publication date
US20110109727A1 (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP2011101240A (ja) 立体撮影装置および撮影制御方法
US8885026B2 (en) Imaging device and imaging method
EP2590421B1 (en) Single-lens stereoscopic image capture device
US9258545B2 (en) Stereoscopic imaging apparatus
JP5368350B2 (ja) 立体撮像装置
US8878907B2 (en) Monocular stereoscopic imaging device
WO2011162227A1 (ja) 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
US8823778B2 (en) Imaging device and imaging method
US20110234767A1 (en) Stereoscopic imaging apparatus
JP5788518B2 (ja) 単眼立体撮影装置、撮影方法及びプログラム
JP5871989B2 (ja) 撮影装置、撮影方法及びプログラム
JP2011259168A (ja) 立体パノラマ画像撮影装置
US9124875B2 (en) Stereoscopic imaging apparatus
US20110025824A1 (en) Multiple eye photography method and apparatus, and program
JPWO2011162209A1 (ja) 画像出力装置、方法およびプログラム
JP5457240B2 (ja) 立体撮像装置
JP2012124650A (ja) 撮像装置および撮像方法
JP2011077680A (ja) 立体撮影装置および撮影制御方法
WO2013031392A1 (ja) 立体撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130423