以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
(第1実施形態)
図1は、本発明を適用した第1実施形態に係るデジタルカメラ10の外観構成を示す正面斜視図である。図2は、図1のデジタルカメラ10の背面斜視図である。
本実施形態のデジタルカメラ10は、複数(図1では二つを例示)の撮像手段(「撮像系」ともいう)を備えたデジタルカメラ(本発明の立体撮像装置に相当)であって、同一の被写体を複数視点(図1では左右二つの視点を例示)から撮影可能となっている。
なお、本実施形態では、説明の便宜のため二つの撮像手段を例示しているが、本発明は、三つ以上の撮像手段であっても同様に適用可能である。なお、撮像手段(主として撮影レンズ14R、14L)の配置は、水平方向に沿った横一列でなくてもよく、二次元的に配置されていてもよい。立体撮影又はマルチ視点や全方向の撮影でもよい。
デジタルカメラ10のカメラボディ12は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影レンズ14R、14L、補助光照射部15、フラッシュ16等が設けられている。また、カメラボディ12の上面には、シャッタボタン18、電源/モードスイッチ20、モードダイヤル22等が設けられている。
一方、カメラボディ12の背面には、図2に示すように、モニタ24、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、縦撮り/横撮り切替ボタン36等が設けられている。
また、図示されていないが、カメラボディ12の底面には、三脚ネジ穴、開閉自在なバッテリカバー等が設けられており、バッテリカバーの内側には、バッテリを収納するためのバッテリ収納室、メモリカードを装着するためのメモリカードスロット等が設けられている。
左右一対の撮影レンズ14R、14Lは、それぞれ沈胴式のズームレンズで構成されており、マクロ撮影機能(近接撮影機能)を有している。この撮影レンズ14R、14Lは、それぞれデジタルカメラ10の電源をONすると、カメラボディ12から繰り出される。なお、撮影レンズにおけるズーム機構や沈胴機構、マクロ撮影機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。
補助光照射部15は、被写界の任意の位置にオートフォーカス(AF)用の光(以下「AF補助光」という)を照射する。本例の補助光照射部15は、発光色が可変の発光ダイオード(LED)で構成されており、撮影レンズ14(14R、14L)のフォーカスレンズ(図4の130FR、130FL)を被写界上の特定対象に合焦させる際に、ユーザが合焦を希望する位置にAF補助光を照射する。本例では、ユーザがカメラボディ12を手で把持して動かし、AF補助光の光軸の方向を変更することで、被写界上のAF補助光の照射位置を任意に設定する。
補助光照射部15が発光するAF補助光としては、被写界を点状に照射するスポット光、被写界上の狭領域を照射する狭領域照射光などがある。スポット光として、赤外光を発光するようにしてもよい。
フラッシュ16は、被写界に本撮像用の光を照射する。本例のフラッシュ16は、キセノン管で構成されており、暗い被写体を撮影する場合や逆光時などに必要に応じて発光される。
シャッタボタン18は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル22で静止画撮影モード選択時、又はメニューから静止画撮影モード選択時)、このシャッタボタン18を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押すると、撮像画像の記録処理を行う。以下では、半押しの場合に少なくともAF処理を行うので「合焦指示」といい、全押しの場合に少なくとも撮像画像の記録処理を行うので「撮影指示」という場合もある。また、動画撮影時(例えば、モードダイヤル22で動画撮影モード選択時、又はメニューから動画撮影モード選択時)、このシャッタボタン18を全押すると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、シャッタボタン18を全押している間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにすることもできる。なお、静止画撮影専用のシャッタボタン及び動画撮影専用のシャッタボタンを設けるようにしてもよい。
電源/モードスイッチ20は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替手段として機能し、「OFF位置」と「再生位置」と「撮影位置」の間をスライド自在に設けられている。デジタルカメラ10は、この電源/モードスイッチ20を「再生位置」に位置させると、再生モードに設定され、「撮影位置」に位置させると、撮影モードに設定される。また、「OFF位置」に位置させると、電源がOFFされる。
モードダイヤル22は、撮影モードおよび再生モードの詳細設定に用いられる。このモードダイヤル22は、カメラボディ12の上面に回転自在に設けられており、図示しないクリック機構によって、「2D静止画位置」、「2D動画位置」、「3D静止画位置」、「3D動画位置」にセット可能に設けられている。
撮影モードにて、モードダイヤル22を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、2D/3Dモード切替フラグに、2Dモードであることを表すフラグが設定される。また、「2D動画位置」にセットすることにより、2Dの動画を撮影する2D動画撮影モードに設定され、2D/3Dモード切替フラグに、2Dモードであることを表すフラグが設定される。また、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定され、2D/3Dモード切替フラグに、3Dモードであることを表すフラグが設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定され、2D/3Dモード切替フラグに、3Dモードであることを表すフラグが設定される。後述するCPU110は、この2D/3Dモード切替フラグを参照して、2Dモード又は3Dモードのいずれであるかを把握する。
ここで、「2D」は2次元(すなわち平面)を意味し、「3D」は3次元(すなわち立体)を意味する。2D撮影は単視点の撮像画像(2D画像)を記録すること(「二次元撮影」、「平面撮影」ともいう)を意味し、2D表示は単視点の撮像画像(2D画像)を表示すること(「二次元表示」、「平面表示」ともいう)を意味する。また、3D撮影は複数視点の撮像画像(3D画像)を記録すること(「三次元撮影」、「立体撮影」ともいう)を意味し、3D表示は複数視点の撮像画像(3D画像)を表示すること(「三次元表示」、「立体表示」ともいう)を意味する。なお、3D撮影により得た複数視点の撮像画像は、通常は3D表示されるが、これらの複数視点の撮像画像のうちひとつの視点の撮像画像のみが2D表示される場合もある。
モニタ24は、カラー液晶パネル等の表示装置である。このモニタ24は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、モニタ24は、撮影時には、各撮像素子134R/Lが継続的に捉えた画像(スルー画像)を順次表示し、電子ファインダとして利用される。
ズームボタン26は、撮影レンズ14R、14Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。
十字ボタン28は、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにフラッシュモードを切り替える機能が割り当てられる。また、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、左ボタンにコマ送りの機能が割り当てられ、右ボタンにコマ戻しの機能が割り当てられる。また、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ24に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。
MENU/OKボタン30は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、デジタルカメラ10の設定状態に応じて割り当てられる機能が切り替えられる。
メニュー画面では、たとえば露出値、色合い、ISO感度、記録画素数などの画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否かなど、デジタルカメラ10が持つ全ての調整項目の設定が行われる。デジタルカメラ10は、このメニュー画面で設定された条件に応じて動作する。
DISPボタン32は、モニタ24の表示内容の切り替え指示等の入力に用いられ、BACKボタン34は入力操作のキャンセル等の指示の入力に用いられる。
縦撮り/横撮り切替ボタン36は、縦撮り又は横撮りのいずれで撮影を行うかを指示するためのボタンである。
入出力コネクタ38は、外部との有線通信に用いられる。入出力コネクタ38を介してデジタルカメラ10に撮像済の画像を入力することが可能である。
図3は、3D表示が可能なモニタ24の構造例を説明するための説明図である。本例は、レンチキュラ方式であり、かまぼこ状のレンズ群を有したレンチキュラレンズが前面に配置されたモニタ24を用いる。
モニタ24の前面(観察者の視点(左眼EL、右眼ER)が存在するz軸方向)には、レンチキュラレンズ24aが配置されている。レンチキュラレンズ24aは、複数の円筒状凸レンズを図3中x軸方向に連ねることで構成されている。
モニタ24に表示される三次元画像(「立体視画像」ともいう)の表示領域は、左眼用短冊画像表示領域24Lと右眼用短冊画像表示領域24Rとから構成されている。左眼用短冊画像表示領域24L及び右眼用短冊画像表示領域24Rは、それぞれ画面の図3中のy軸方向に細長い短冊形状をしており、図3中のx軸方向に交互に配置される。
レンチキュラレンズ24aを構成する各凸レンズは、観察者の所与の観察点を基準として、それぞれ一組の左眼用短冊画像表示領域24L及び右眼用短冊画像表示領域24Rを含む各短冊集合画像表示領域24cに対応した位置に形成される。
図3では、観察者の左眼ELには、レンチキュラレンズ24aの光屈折作用により、モニタ24の左眼用短冊画像表示領域24Lに表示された左眼用短冊画像が入射される。また、観察者の右眼ERには、レンチキュラレンズ24aの光屈折作用により、モニタ24の右眼用短冊画像表示領域24Rに表示された右眼用短冊画像が入射される。したがって、観察者の左眼は左眼用短冊画像のみを、観察者の右眼は右眼用短冊画像のみを見ることになり、これら左眼用短冊画像の集合である左眼用画像及び右眼用短冊画像の集合である右眼用画像による左右視差により立体視が可能となる。
なお、三次元表示のためのモニタ24の構造として、図3を用いてレンチキュラ方式を用いた場合を例に説明したが、本発明はレンチキュラ方式には特に限定されない。
例えば、左眼画像および右眼画像をそれぞれ画像の縦方向に細長く切り取った短冊状にして、交互に並べて表示するとともに、同様に縦方向に刻まれたスリットを通して画像を観察者に見せることで、観察者の左眼には左眼画像を、右眼には右眼画像をそれぞれ届ける、視差バリア(パララックスバリア)方式を用いてもよい。その他の空間分割方式でもよい。
また、モニタ24を構成するLCD(液晶表示デバイス)の背面を照らすバックライトの方向を時分割で観察者の右眼方向および左眼方向に制御する光方向制御方式(時分割光方向制御バックライト方式ともいう)を用いてもよい。光方向制御方式は、豊岡健太郎,宮下哲哉,内田龍男,“時分割光方向制御バックライトを用いた三次元ディスプレイ”、2000年日本液晶学会討論会講演予稿集、pp.137-138(2000)や、特開2004‐20684号公報などに記載されている。特許第3930021号公報に記載された、いわゆるスキャンバックライト方式を用いてもよい。
左右の画像を交互に表示するとともに、画像分離メガネを使用させることで、画像を立体視させてもよい。
モニタ24は、例えば液晶表示デバイスや有機ELデバイスを用いる。自発光、あるいは別に光源があり光量を制御する方式であってもよい。また、偏光による方式やアナグリフ、裸眼式等、方式は問わない。また、液晶や有機ELを多層に重ねた方式でもよい。
次に、図4および図5を用い、図1〜図3に示したデジタルカメラ10における3D撮影(立体撮影)および3D表示(立体表示)の概要を説明する。
まず、発明の理解を容易にするため、基線長Lb(デジタルカメラ10側の撮像手段11L、11Rの光軸の間隔)、および、輻輳角θc(撮像手段11L、11Rの光軸同士が成す角度)は、固定であるものとして説明する。
複数の撮像手段11L、11Rにより、被写界上の同一の特定対象91(例えば球)を複数の視点から撮像することで、すなわち3D撮影することで、複数の撮像画像(本例では左眼画像92Lおよび右眼画像92R)が生成される。生成された撮像画像92L、92Rは、被写界上の同一の特定対象91が投影された特定対象像93L、93Rを、それぞれ含んでいる。
これらの撮像画像92L、92Rを、図3に示した立体表示可能なモニタ24で重ね合わせて表示することで、すなわち3D表示することで、3D表示画像94が再生される。本例では、3D表示画像94は左眼画像92Lおよび右眼画像92Rによって構成されている。観察者95は、モニタ24上の3D表示画像94を両眼96L、96Rから観察する。そうすると、観察者95には特定対象91(例えば球)の虚像97が飛び出して見える。
図4に示すように被写体距離Dsが撮像手段11L、11Rの光軸間の交点99までの距離よりも小さい範囲内では、被写体距離Dsが小さいほど、撮像画像92L、92R上で特定対象像93L、93Rの中心座標Xla、Xra(図4ではx座標のみ図示)の差分|Xla−Xra|が大きくなる。すなわち、被写界上での被写体距離Dsが小さいほど、視点別の撮像画像間で対応点同士が離れる。ここで、差分|Xla−Xra|はx座標のみであり、これを以下ではずれ量Zaf(「両眼の視差量」という場合もある)として表す。つまり、基線長Lbおよび輻輳角θcが決まっていれば、被写体距離Dsが小さいほど、ずれ量Zaf(=|Xla−Xra|)が大きくなり、観察者95が体感する虚像97の飛び出し量Adも大きくなる。
なお、基線長Lbおよび輻輳角θcが一定である場合を例に説明したが、輻輳角θcが可変である構造の場合には、輻輳角θcおよび被写体距離Dsに応じて、飛び出し量Adが変化する。もしも被写体距離Dsが同じであれば、輻輳角θcが小さいほど(すなわち遠くに注目するほど)、飛び出し量Adが大きくなる。
また、輻輳角θcに加えて基線長Lbも可変である構造の場合には、基線長Lbおよび輻輳角θcおよび被写体距離Dsに応じて、飛び出し量Adが変化する。もしも輻輳角θcおよび被写体距離Dsが同じであれば、基線長Lbが大きいほど(すなわち撮像手段11L、11Rの光軸間が離れるほど)、飛び出し量Adが大きくなる。
図6は、図1及び図2に示したデジタルカメラ10の内部構成を示すブロック図である。なお、図1、図2に示した要素には同じ符号を付してあり、既に説明した内容については、その説明を省略する。
図6に示すように、本実施形態のデジタルカメラ10は、二つの撮像系それぞれから画像信号を取得できるように構成されており、CPU110、対応点検出部71、差分ベクトル算出部72、サムネイル画像生成部73、記録制御部74、表示制御部81、視差量補正部82、画像処理部83、操作部112、ROM116、フラッシュROM118、SDRAM120、VRAM122(画像表示メモリ)、ズームレンズ制御部124(124R、124L)、フォーカスレンズ制御部126(126R、126L)、絞り制御部128(128R、128L)、撮像素子134(134R、134L)、撮像素子制御部136(136R、136L)、アナログ信号処理部138(138R、138L)、A/D変換器140(140R、140L)、画像入力コントローラ141(141R、141L)、デジタル信号処理部142(142R、142L)、AF制御部144、AE/AWB制御部146、特定対象検出部148、圧縮・伸張処理部152、メディア制御部154、メモリカード156、モニタ制御部158、電源制御部160、バッテリ162、および、フラッシュ制御部164を含んで構成されている。
左眼用の撮像手段11Lは、主として、撮影レンズ14L、ズームレンズ制御部124L、フォーカスレンズ制御部126L、絞り制御部128L、撮像素子134L、撮像素子制御部136L、アナログ信号処理部138L、A/D変換器140L、画像入力コントローラ141L、デジタル信号処理部142L等から構成される。
右眼用の撮像手段11Rは、主として、撮影レンズ14R、ズームレンズ制御部124R、フォーカスレンズ制御部126R、絞り制御部128R、撮像素子134R、撮像素子制御部136R、アナログ信号処理部138R、A/D変換器140R、画像入力コントローラ141R、デジタル信号処理部142R等から構成される。
本明細書では、撮像手段11L、11Rにより被写体を撮像して得られるデジタルの画像データを、「撮像画像」という。また、左眼用の撮像手段11Lにより得られる撮像画像を「左眼画像」、右眼用の撮像手段11Rにより得られる撮像画像を「右眼画像」という。
CPU110は、撮影、表示、記録などカメラ全体の動作を統括制御する制御手段として機能し、操作部112からの入力に基づき所定の制御プログラムに従って各部を制御する。
操作部112は、図1および図2に示した、シャッタボタン18、電源/モードスイッチ20、モードダイヤル22、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、縦撮り/横撮り切替ボタン36などを含む。
バス114を介して接続されたROM116には、このCPU110が実行する制御プログラム及び制御に必要な各種データ(後述するAE/AFの制御周期等)等が格納されており、フラッシュROM118には、ユーザ設定情報等のデジタルカメラ10の動作に関する各種設定情報等が格納されている。
SDRAM120は、CPU110の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM122は、表示用の画像データ専用の一時記憶領域として利用される。
左右一対の撮影レンズ14R、14L(まとめて撮影レンズ14と表すこともある)は、ズームレンズ130ZR、130ZL(まとめてズームレンズ130Zと表すこともある)、フォーカスレンズ130FR、130FL(まとめてフォーカスレンズ130Fと表すこともある)、絞り132R、132Lを含んで構成され、所定の間隔をもってカメラボディ12に配置されている。
ズームレンズ130ZR、130LRは、図示しないズームアクチュエータに駆動されて光軸に沿って前後移動する。CPU110は、ズームレンズ制御部124R、124Lを介してズームアクチュエータの駆動を制御することにより、ズームレンズの位置を制御し、撮影レンズ14R、14Lのズーミングを行う。
フォーカスレンズ130FR、130FLは、図示しないフォーカスアクチュエータに駆動されて光軸に沿って前後移動する。CPU110およびAF制御部144は、フォーカスレンズ制御部126R、126Lを介してフォーカスアクチュエータの駆動を制御することにより、フォーカスレンズの位置を制御し、撮影レンズ14R、14Lのフォーカシングを行う。
絞り132R、132Lは、たとえば、アイリス絞りで構成されており、図示しない絞りアクチュエータに駆動されて動作する。CPU110は、絞り制御部128R、128Lを介して絞りアクチュエータの駆動を制御することにより、絞り132R、132Lの開口量(絞り値)を制御し、撮像素子134R、134Lへの入射光量を制御する。
なお、CPU110は、この撮影レンズ14R、14Lを構成するズームレンズ130ZR、130ZL、フォーカスレンズ130FR、130FL、絞り132R、132Lを駆動する際、左右の撮影レンズ14R、14Lを同期させて駆動する。すなわち、左右の撮影レンズ14R、14Lは、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ被写体にピントが合うように、焦点調節が行われる。また、常に同じ入射光量(絞り値)となるように絞りが調整される。
撮像素子134R、134Lは、所定のカラーフィルタ配列のカラーCCDで構成されている。CCDは、その受光面に多数のフォトダイオードが二次元的に配列されている。撮影レンズ14R、14LによってCCDの受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU110の指令に従って撮像素子制御部136R、136Lから与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子134R、134Lから順次読み出される。
なお、この撮像素子134R、134Lには、電子シャッタの機能が備えられており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。
なお、本実施の形態では、撮像素子としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
アナログ信号処理部138R、138Lは、撮像素子134R、134Lから出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CDS)、画像信号を増幅し、一定レベルの大きさにコントロールするためのAGC回路を含み、撮像素子134R、134Lから出力される画像信号を相関二重サンプリング処理するとともに増幅する。A/D変換器140R、140Lは、アナログ信号処理部138R、138Lから出力されたアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ141R、141Lは、A/D変換器140R、140Lから出力された画像信号を取り込んで、SDRAM120に格納する。本例では、左眼画像および右眼画像がSDRAM120に一時的に格納される。デジタル信号処理部142R、142Lは、CPU110からの指令に従いSDRAM120に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、CbとからなるYUV信号を生成する。
デジタル信号処理部142R、142Lは、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補間処理、RGB/YC変換処理、ノイズ低減処理、輪郭補正処理、色調補正、光源種別判定処理等の各種のデジタル補正を行う。なお、デジタル信号処理部142(142R、142L)はハードウェア回路で構成してもよいし、同じ機能をソフトウェアにて構成してもよい。
AF制御部144(合焦制御手段)は、一方の画像入力コントローラ141Rから取り込まれたR、G、Bの各色の画像信号を取り込み、焦点評価値を算出する。このAF制御部144は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面に設定された所定のフォーカスエリア内の信号を切り出すフォーカスエリア抽出部、及び、フォーカスエリア内の絶対値データを積算する積算部を含み、この積算部で積算されたフォーカスエリア内の絶対値データを焦点評価値として算出する。
また、AF制御部144は、焦点評価値が極大となるレンズ位置(以下「合焦レンズ位置」という)をサーチし、その位置にフォーカスレンズ130FR、130FLを移動させることにより、被写界上の合焦させたい代表位置(以下「合焦位置」という)を含むフォーカスエリアへの焦点合わせを行う。AF制御部144は、例えば、まず、フォーカスレンズ130FR、130FLを至近から無限遠まで移動させ、その移動過程で逐次焦点評価値を取得し、その焦点評価値が極大となるレンズ位置を検出して、そのレンズ位置(合焦レンズ位置)にフォーカスレンズ130FR、130FLを移動させる。これにより、フォーカスエリア内の被写体(主要被写体)にピントが合わせられる。
AE/AWB制御部146は、一方の画像入力コントローラ141Rから取り込まれたR、G、Bの各色の画像信号を取り込み、AE制御及びAWB制御に必要な積算値を算出する。すなわち、このAE/AWB制御部146は、一画面を複数のエリア(たとえば、8×8=64エリア)に分割し、分割されたエリアごとにR、G、B信号の積算値を算出する。
AE/AWB制御部146は、AE制御時、このAE/AWB制御部146で算出されたエリアごとのR、G、B信号の積算値を取得し、被写体の明るさ(測光値)を求めて、適正な露光量を得るための露出設定を行う。すなわち、感度、絞り値、シャッタ速度、フラッシュ発光の要否を設定する。
また、AE/AWB制御部146は、算出されたエリアごとのR、G、B信号の積算値をデジタル信号処理部142のホワイトバランスゲイン算出回路及び光源種別判定回路に加える。ホワイトバランスゲイン算出回路は、このAE/AWB制御部146で算出された積算値に基づいてホワイトバランス調整用のゲイン値を算出する。また、光源種別判定回路は、このAE/AWB制御部146で算出された積算値に基づいて光源種を検出する。
圧縮・伸張処理部152は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。なお、本実施の形態のデジタルカメラ10では、静止画に対しては、JPEG規格に準拠した圧縮処理が施され、動画に対してはMPEG2規格に準拠した圧縮処理が施される。
メディア制御部154は、CPU110からの指令に従い、メモリカード156に対してデータの読み/書きを制御する。
モニタ制御部158は、CPU110および後述の表示制御部81からの指令に従い、モニタ24への表示を制御する。すなわち、入力された画像信号をモニタ24に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ24に出力するとともに、所定の文字、図形情報をモニタ24に出力する。
電源制御部160は、CPU110からの指令に従い、バッテリ162から各部への電源供給を制御する。
フラッシュ制御部164は、CPU110からの指令に従い、フラッシュ16の発光を制御する。
対応点検出部71は、各撮像画像(図4の92L、92R)上の合焦位置(図4の98L、98R)の座標情報(以下「対応点位置情報」という)を、視点別に検出する。つまり、各撮像手段11L、11Rごとに、被写界上の同一の合焦位置(図4の98)に対応する各撮像画像92L、92Rの合焦位置98L、98Rを検出し、視点別の各撮像画像92L、92Rごとに座標情報を算出する。これにより、複数視点の撮像画像92L、92R間で互いに対応する各撮像画像92L、92R上の対応点98L、98Rを検出し、視点別の各撮像画像92L、92Rごとに座標情報を算出する。
本例では、視点数が2つなので、対応点検出部71は、左眼画像92Lにおける原点OLを基準にした対応点98Lの座標情報(左眼の対応点位置情報)、および、右眼画像92Rにおける原点ORを基準にした対応点98Rの座標情報(右眼の対応点位置情報)をそれぞれ算出する。
前述のAF制御部144は、フォーカスレンズ制御部126L、126Rを用いて、フォーカスレンズ130FL、130FRを撮影レンズ14L、14Rの光軸方向にて移動させることで、被写界上の合焦位置98にフォーカスレンズ130FL、130Rを合焦させる。この際に、AF制御部144は、被写界上の合焦位置98までの被写体距離Ds(以下「対応点距離情報」という)を算出する。
本実施形態では、AF制御部144は、被写界上のAF補助光の照射位置98にフォーカスレンズ130FL、130FRを合焦させる。すなわち、本実施形態にて、対応点検出部71は、視点別の各撮像画像92L、92R上の照射位置98L、98Rの座標情報を、対応点位置情報として算出する。
また、本実施形態では、AF制御部144は、オートフォーカスの際に、被写界上のAF補助光の照射位置98までの被写体距離Dsを算出する。すなわち、本実施形態にて、対応点検出部71は、被写界上の照射位置98までの被写体距離Dsを、対応点距離情報として、SDRAM120上で視点別の撮像画像および対応点位置情報に関連付ける。
差分ベクトル算出部72は、視点別の撮像画像92L、92R間における対応点の座標情報(対応点位置情報)の差分ベクトルvd(「視差量ベクトル」ともいう)を算出する。本例では、視点数が2つであり、左眼画像92Lにおける対応点98Lの座標情報と右眼画像92Rにおける対応点98Rの座標情報との差分がベクトルとして算出されて、SDRAM120に格納される。
サムネイル画像生成部73は、撮像画像(「本画像」ともいう)を縮小し、サムネイル画像(「縮小画像」ともいう)を生成する。本例のサムネイル画像生成部73は、SDRAM120から視点別の各撮像画像92L、92Rを取得し、各撮像画像92L、92Rに対し画素の間引き処理を施して視点別の各サムネイル画像をそれぞれ生成し、SDRAM120に格納する。本例では、視点数が2つであり、左眼のサムネイル画像および右眼のサムネイル画像が生成される。
記録制御部74は、対応点位置情報、対応点距離情報、視点別のサムネイル画像、および、視点別の撮像画像を、互いに関連付けて、メディア制御部154によりメモリカード156に記録する。
表示制御部81は、スルー画像表示制御、サムネイル画像表示制御、3D再生表示制御、2D再生表示制御などの各種の表示制御を行う。
表示制御部81は、スルー画像表示制御として、単視点の撮像画像(すなわち複数の撮像手段11L、11Rのうちひとつの撮像手段11Lまたは11Rにより撮像された時系列に連続する撮像画像)を、モニタ24にリアルタイム表示させる。つまり、単視点の撮像画像をスルー画像として表示させる。
また、表示制御部81は、サムネイル画像表示制御として、サムネイル画像生成部73によって生成されたサムネイル画像を、モニタ24に一覧表示させる。
また、表示制御部81は、メモリカード156などの記録された撮像画像をモニタ24に再生表示させる。再生モードの場合、通常、複数視点で撮像して得られた3D画像は、3D表示(複数視点の撮像画像を重ねて表示)を行い、単視点で撮像して得られた2D画像は2D表示(単視点の撮像画像のみ表示)を行う。モードダイヤル22などの操作により、3D画像を2D表示することも可能になっている。
視差量補正部82は、複数視点の撮像画像92L、92Rに対し、対応点距離情報に基づいて差分ベクトルvdを補正する画像処理を施すことで、複数視点の撮像画像92L、92Rを重ね合わせて表示したときの両眼の視差量を補正する。つまり、差分ベクトルvdの両眼を結ぶ方向(x軸方向)におけるずれ量Zafを補正する。これにより、観察者によって視認されることになる飛び出し量Adが補正される。本例では、視点数が2つであり、後述の画像処理部83により左眼画像92Lおよび右眼画像92Rのうち少なくとも一方をシフトさせる画像処理により、左眼画像92L上の対応点98Lおよび右眼画像92R上の対応点98Rのうち少なくとも一方を撮像画像上で移動させることで、両眼の視差量(ずれ量Zaf)を補正する。
画像処理部83は、撮像画像に対して画像処理を施す。画像処理部83の画像処理としては、第1に、差分ベクトルvdを補正することでZafを補正する視差量補正処理、第2に、撮像画像(例えばスルー画像)やサムネイル画像等の画像に飛び出し量Adを示すガイド情報を合成するガイド情報合成処理、第3に、被写界上の合焦位置に対応する撮像画像上のマーキング部分を削除するとともに、撮像画像上の対応点周辺(マーキング周辺)の画素値に基づいて、削除したマーキング部分の画素値を補間する画素値補間処理などが挙げられる。
なお、図6にて、対応点検出部71、差分ベクトル算出部72、サムネイル画像生成部73、記録制御部74、表示制御部81、視差量補正部82、および、画像処理部83は、CPU110とは別に描いたが、CPU110により構成してもよいことは言うまでもない。
図7は、第1実施形態における撮影処理の第1の例の流れを示すフローチャートである。本処理は図6のCPU110によってプログラムに従い実行される。
本撮影処理は、電源/モードスイッチ20により撮影モードが設定されると開始する。
ステップS1にて、スルー画像の表示を開始する。本例では、表示制御部81の制御により、複数の撮像手段11L、11Rのうち一方の撮像手段により撮像された撮像画像がスルー画像としてモニタ24に表示される。
ステップS2にて、シャッタボタン18が半押し(S1オン)であるか否かを判定する。半押しの場合には、ステップS3に進む。
ステップS3にて、図5に示すように補助光照射部15により被写界上の任意の合焦位置98にAF補助光を照射する。本例では、撮影者がカメラボディ12を把持して補助光照射部15の光軸方向を変化させることで、撮影者が被写界上で合焦を希望する位置98にAF補助光を照射させる。
ステップS4にて、対応点検出部71により、視点別の撮像画像92L、92RにおけるAF補助光の照射位置98L、98Rの座標情報を対応点位置情報として算出し、SDRAM120に格納する。AF補助光がスポット光である場合には、被写界上の点状の照射点に対応する撮像画像92L、92R上の照射点の座標情報を算出する。AF補助光が、スポット光でない光(被写界上の限られた領域に照射される狭域照射光)である場合には、被写界上の照射領域に対応する各撮像画像上の照射領域の代表点の座標情報(例えば中心点の座標情報)を算出する。
図8(A)は被写界上の特定の点98に点状のスポット光が照射された様子を示す。対応点検出部71は、図8(B)に示す左眼画像92L上でスポット光の照射点98L(赤色光の場合は赤い点)を検出し、左眼画像92L上の原点OLを基準とした照射点98Lの座標情報Xla(本例ではx座標のみ)を算出する。また、対応点検出部71は、図8(C)に示す右眼画像92R上でスポット光の照射点98R(赤色光の場合は赤い点)を検出し、右眼画像92R上の原点ORを基準とした照射点98Rの座標情報Xra(本例ではx座標のみ)を算出する。
ステップS5にて、AF制御部144により、被写界上のAF補助光の照射位置98にフォーカスレンズ130FL、130FRを合焦させるAF(オートフォーカス)処理を行う。このAF処理では、ステップS4にて検出された撮像画像上の照射位置98L、98Rに対応する被写界上の照射位置98にフォーカスレンズ130FL、130FRを合焦させる。また、AF制御部144は、被写界上の照射位置98までの距離情報Ds(対応点距離情報)を算出し、SDRAM120に格納する。
ステップS6にて、図9に示す対応点処理を行う。本例では、ステップS101にて、対応点検出部71により算出された対応点位置情報をSDRAM120から取得する。なお、図7のステップS4の処理をステップ101にて行うようにしてもよい。ステップS102にて、差分ベクトル算出部72により対応点位置情報の差分ベクトルを算出する。本例では、図8(B)および(C)に示すXlaおよびXraを用い、ずれ量Zaf(=Xla−Xra)を算出する。ステップS103にて、AF制御部144により算出された対応点距離情報DsをSDRAM120から取得する。ステップS104にて、SDRAM120上で対応点位置情報および対応点距離情報を互いに関連付ける処理(属性情報の付加待機)を行う。
ステップS7にて、シャッタボタン18が全押し(S2オン)であるか否かを判定する。全押しの場合には、ステップS9に進む。全押しでない場合には、シャッタボタン18が離されたか否かを判定し(ステップS8)、離された場合にはステップS2に戻る。
ステップS9にて、補助光照射部15のAF補助光を消灯する。
ステップS10にて、本撮像を行う。つまり、フラッシュ制御部164により必要に応じてフラッシュ16を発光するとともに、撮像素子制御部136L、136Rにより複数の撮像手段11L、11Rを駆動し、複数視点から被写界を撮像する。これにより視点別の撮像画像92L、92Rが生成される。
ステップS11にて、サムネイル画像生成部73により、視点別の撮像画像92L、92Rをそれぞれ縮小してサムネイル画像を生成し、ステップS10にて取得された撮像画像92L、92Rに付加する。
ステップS12にて、対応点検出部71により、対応点情報付加処理を行う。本例では、撮像画像の属性情報として対応点位置情報および対応点距離情報を有するヘッダ情報を、視点別の各撮像画像92L、92Rに付加する。
ステップS13にて、記録制御部74により、画像ファイルをメモリカード156に記録する。図10は、画像ファイルの一例を示す。本例の画像ファイルは、左眼画像ファイルおよび右眼画像ファイルによって構成されている。各画像ファイルは、ヘッダ情報、サムネイル画像、および、撮像画像を含む。本例にて、ヘッダ情報は、対応点位置情報および対応点距離情報を少なくとも含む。つまり、記録制御部74により、対応点位置情報および対応点距離情報が各撮像画像92L、92Rと関連付けられてメモリカード156に記録される。
ステップS14にて、撮影終了か否かを判定する。本例では、電源/モードスイッチ20により撮影モードが解除されたか否かを判定する。撮影モードが継続している場合には、ステップS1に戻る。撮影モードが解除された場合、例えば再生モードが選択された場合には、ステップS15にて、撮影モードの終了処理を行う。
図7を用いて、対応点のマーキング付きの撮像画像を記録しない場合を例に説明したが、本発明はこのような場合に特に限定されない。
記録制御部74により、図11(A)に示すような対応点98のマーキングが有る撮像画像、および、図11(B)に示すような対応点のマーキング(例えば赤色の点)が無い撮像画像の両方を連続して記録する高速2回撮りを行ってもよい。
図12は、高速2回撮り概略撮影処理フローを示す。ステップS201にて、左眼画像および右眼画像に対して対応点箇所のマーキングを行い、ステップS202にてマーキング付きの左眼画像および右眼画像の2枚を1回目として記録し、ステップS203にて、左眼画像および右眼画像に対する対応点箇所のマーキングを中止し、ステップS204にて、マーキング付きの左眼画像および右眼画像の2枚を2回目として記録する。これにより、図13に示すように、マーキング付きの左眼画像を有する第1の左眼画像ファイル、マーキング付きの右眼画像を有する第1の右眼画像ファイル、マーキング無しの第2の左眼画像ファイル、および、マーキング無しの第2の右眼画像ファイルが記録される。
図12に示した高速2回撮りの実際の一例を図7の撮影処理にて説明すると、CPU110は、スルー画像表示開始(ステップS1)後、シャッタボタン18が半押しされたと判定したとき(ステップS2でYes)、すなわち合焦指示が入力されたときには、AF補助光を点灯する(ステップS3)。これにより撮像画像に対する対応点箇所のマーキング(投影)を行う。つまり、被写界の合焦位置98にAF補助光(例えば赤色光)が照射された状態で、対応点箇所がマーキングされた左眼画像および右眼画像を撮像手段11(11L、11R)により生成する。また、CPU110は、シャッタボタン18が全押しされたと判定したとき(ステップS7でYes)、すなわち撮影指示が入力されたときには、AF補助光を消灯する(ステップS9)。これにより撮像画像に対する対応点箇所のマーキング(投影)を中止する。つまり、被写界にAF補助光が照射されない状態で、対応点箇所のマーキングが無い左眼画像および右眼画像を撮像手段11(11L、11R)により生成する。なお、本撮像(ステップS10)にて、フラッシュ16を発光させる場合があるが、フラッシュ光は被写界上の撮像範囲のほぼ全領域に照射される広域照射光なので、フラッシュ光を発光させてもマーキング中止状態が継続する。そして、CPU110は、記録制御部74により、マーキング付きの撮像画像(第1の左眼画像および第1の右眼画像)とマーキング無しの撮像画像(第2の左眼画像および第2の右眼画像)とを互いに関連付けて、メモリカード156に記録する。
図14は、第1実施形態における撮影処理の第2の例の流れを示すフローチャートである。本例では、対応点がマーキングされたマーキング付き撮像画像のみを記録する。本処理は図6のCPU110によってプログラムに従い実行される。
図14にて、ステップS1〜S8は、図7に示した第1の例と同じであり、既に説明したので、ここではその説明を省略する。撮影処理の第2の例では、シャッタボタン18の全押しと判定されたとき(ステップS7にてYes)、すなわち、撮影者が撮影指示を入力したときには、補助光照射部15のAF補助光の消灯(図7のステップS9)は行わず、ステップS10にて、本撮像を行う。つまり、ステップS10にて、本撮像にて対応点箇所がマーキングされた視点別の各撮像画像を撮像手段11L、11Rにより生成する。なお、ステップS11およびS12は、図7に示した第1の例と同じであり、既に説明したので、その説明を省略する。ステップS13にて、記録制御部74により、図10に示したように、ヘッダ情報、サムネイル画像、および、本画像(撮像画像)をそれぞれ含む左眼画像ファイルおよび右眼画像ファイルをメモリカード156に記録する。本例では、左眼画像および右眼画像として、図8(B)および(C)に示すように対応点がマーキングされた左眼画像92Lおよび右眼画像92Rがメモリカード156に記録される。ステップS14〜S15は、図7に示した第1の例と同じであり、既に説明したので、その説明を省略する。
図15は、第1実施形態における再生処理の第1の例の流れを示すフローチャートである。本処理は図6のCPU110によってプログラムに従い実行される。本例は、図7に示した撮影処理にてマーキング無しの撮像画像が記録された場合の再生処理である。
本再生処理は、電源/モードスイッチ20により再生モードが設定されると開始する。
ステップS21にて、再生画像の選択を受け付ける。本例では、表示制御部81により図16に示す様にモニタ24にサムネイル画像を一覧表示させ、操作部112により一覧の中からサムネイル画像の選択指示を受け付けることにより、再生する撮像画像をユーザに選択させる。各サムネイル画像には、図4の飛び出し量Adを示すガイド情報として、ずれ量Zafおよび対応点距離情報AFが表示される。
ステップS22にて、再生する撮像画像が3D画像であるか否かを判定する。つまり、ステップS21にて選択されたサムネイル画像に対応する撮像画像が、複数視点から撮像された3D表示可能な撮像画像であるか否かを判定する。本例では、撮影時に画像ファイルのヘッダ情報に3D画像であるか否かを示す情報(3D画像フラグ)を書き込んであり、その情報を参照する。
3D画像である場合には、ステップS23に進み、2D画像(単視点のみから撮像された撮像画像)である場合には、ステップS28に進む。
ステップS23にて、画像ファイル内の対応点情報の有無を確認する。本例では、画像ファイルのヘッダ情報に対応点位置情報が書き込まれているか否かを判定する。
ステップS24にて、対応点情報が有りと判定された場合には、ステップS25に進み、対応点情報無しと判定された場合には、ステップS27に進む。
ステップS25にて、視差量補正部82により、対応点距離情報に基づいて、差分ベクトルを補正する。例えば、フラッシュROM118またはROM116に予め対応点距離情報とずれ量Zaf(両眼の視差量)の目的値との対応関係を示すテーブル情報を記憶しておき、このテーブル情報を参照して、対応点距離情報に対応する目的のZafとなるように、現在のZafに対する補正値(すなわち差分ベクトルに対する補正値)を算出する。
ステップS26にて、視差量補正部82により、飛び出し量を決定する。本例では、撮像画像92L、92Rのうち少なくとも一方に対して、画像全体をシフトする画像処理を施す。
ステップS27にて、撮像画像が3D画像である場合には、表示制御部81により、VRAM122に画像データを書き込むための前処理を行う。
ステップS28にて、表示制御部81により、モニタ24に撮像画像を表示する。
ステップS29にて、再生終了か否かを判定する。本例では、電源/モードスイッチ20により再生モードが解除されたか否かを判定する。再生モードが継続している場合には、ステップS21に戻る。再生モードが解除された場合、例えば撮影モードが選択された場合には、ステップS30にて、再生モードの終了処理を行う。
なお、図16を用いて、対応点部分の飛び出し量を示すガイド情報を、サムネイル画像に合成して表示した場合を例に説明したが、このような場合に限定されない。表示制御部81は、図17に示すように、スルー画像に対し、ガイド表示(本例ではずれ量Zafおよび対応点距離情報AF)を合成して表示させてもよい。
例えば、操作部112の切替操作により2D表示および3D表示を切り替え可能な場合、2D表示時にはガイド情報を撮像画像に合成して表示させる一方で、3D表示時には撮像画像に対するガイド情報の合成を行わずガイド情報を表示させないようにしてもよい。
図18(A)および(B)は、表示制御部81により、ガイド情報を立体視的に表示した画面表示例を示す。図18(A)および(B)にて、二次元表示された撮像画像92中には、ガイド情報部分240が、飛び出し量Adに対応する厚みtdを視認させるように台状に表示されている。ずれ量Zafおよび対応点距離情報AFが大きいほど(飛び出し量Adが大きいほど)、厚みtdを大きくすることでガイド情報部分240を浮き上がらせて表示する。
図19は、第1実施形態における再生処理の第2の例の流れを示すフローチャートである。本処理は図7のCPU110によってプログラムに従い実行される。本例は、図14に示した撮影処理にてマーキング付きの撮像画像が記録された場合の再生処理である。
本再生処理は、電源/モードスイッチ20により再生モードが設定されると開始する。
ステップS41およびS42は、図15に示した再生処理の第1の例のステップS21〜S22と同じである。
再生する撮像画像が3D画像である場合、ステップS43〜S47を実行する。
ステップS43にて、視点別の各撮像画像から対応点箇所を抽出する。つまり、画像処理部83により、マーキング部分を削除する。
ステップS44にて、視点別の各撮像画像に対し対応点補間処理を行う。つまり、画像処理部83により、削除したマーキング部分を補間する画像処理を行う。例えば、削除しマーキング部分(対応点箇所)の画素値を、その削除したマーキング部分の周辺(つまり対応点周辺)の画素値に基づいて、補間する。例えば、対応点周辺の画素値の平均値を、マーキング部分の画素値として設定する。マーキング部分の削除(ステップS43)を行わないで、直接、マーキング部分の補間を行ってもよい。
ステップS45〜S50は、図13に示した第1の例のステップS25〜S30と同じである。
(第2実施形態)
図20は、第2実施形態におけるデジタルカメラ10の内部構成を示すブロック図である。なお、図6に示した第1実施形態における構成要素と同じ構成要素には同じ符号を付してあり、既に説明した内容については、その説明を省略する。
視線入力部25は、撮影者の視線が入力されるものである。具体的には、撮影者の目を監視して、撮影者の両眼の位置および視線方向を検出することで、被写界上で撮影者が注視している位置(以下「視線位置」ともいう)を検出する。これにより、被写界のどの位置にフォーカスレンズ130FL、130FRを合焦させることを撮影者が希望しているのかを推定する。実際には、被写界上の撮影者の注視位置に対応する視点別の各撮像画像上の注視位置の座標情報を換算する。
例えば、眼球全体、瞳孔、虹彩等について、位置、パターン、大きさ等を時系列で監視し、撮影者の両眼の位置および視線方向を検出する。このような視線入力部25としては、公知のものを用いればよく、具体例については、後に説明する。
本実施形態にて、AF制御部144は、被写界上のユーザの視線位置にフォーカスレンズ130FL、130Rを合焦させる。すなわち、本実施形態にて、対応点検出部71は、被写界上の視線位置(図4の98)に対応する撮像画像92L、92R上の視線位置(図4の98L、98R)の座標情報を、対応点位置情報として算出し、SDRAM120に格納する。
図21(A)および(B)は、視線入力部25の一例を示す。本例の視線入力部25は、デジタルカメラ10の背面のモニタ24周辺に配置されたイメージセンサである。例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサによって構成される。このイメージセンサは、スルー画像が表示されたモニタ24を観察する撮影者の両目を撮像可能である。
図22(A)は、視線入力部25の他の例を示す。本例にて、デジタルカメラ10にはファインダ190が設けられており、撮影者の目に赤外光を照射する赤外光発光ダイオード191と、ファインダ190の画面を覗いた撮影者の目を撮像可能なイメージセンサ192と、可視光を透過し、赤外光を反射するミラー193と、ミラーで反射されてレンズ194で集光された赤外光を電気信号に変換することで、撮影者の眼球を撮像するイメージセンサ195を含んで構成されている。撮影者は、図22(B)に示すように、ファインダ190を介して、特定対象91(例えば球)を見ることができる。
なお、図23に示すように、撮影レンズ14L、14Rに視線入力部25を設けることで、視線入力レンズとしてもよい。
図24は、第2実施形態における撮影処理の第1の例の流れを示すフローチャートである。本処理は図20のCPU110によってプログラムに従い実行される。
ステップS61およびS62は、図7に示したステップS1およびS2と同じであり、第1実施形態にて既に説明したので、ここでは説明を省略する。
ステップS64にて、視線入力部25により、ユーザの視線位置(注視位置)を検出する。本実施形態の対応点検出部71は、視線入力部25の検出結果に基づいて、視点別の各撮像画像92L、92R上のユーザの視線位置の座標情報を、対応点位置情報として算出する。
なお、本実施形態では、AF補助光の照射が必須でないため、図24ではAF補助光点灯(図7のステップS3)およびAF補助光消灯(図7のステップS9)を省略したが、第1実施形態と同様に、AF補助光を被写界に照射するようにしてもよい。本実施形態にて、AF制御部144は、視線入力部25で検出された被写界上のユーザの視線位置にフォーカスレンズ130FL、130FRを合焦させる。
図25(A)は被写界上の注視点98の一例を示す。対応点検出部71は、図25(B)に示す左眼画像における注視点の座標Xlvaと、図25(C)に示す右眼画像における注視点の座標Xrvaとを算出する。
再生処理については、第1実施形態において説明したので、ここではその説明を省略する。
なお、発明の理解を容易にするため、輻輳角(図4のθc)および基線長(図4のLb)が固定であるものとして説明したが、輻輳角θcおよび基線長Lbを可変にする場合でも、本発明を適用できることは言うまでもない。この場合、撮影時には、記録制御部74により、可変の視差量パラメータ(輻輳角θc、基線長Lb)を、撮像画像に関連付けて、メモリカード156に記録する。また、視差量補正部82は、対応点距離情報だけでなく、他の可変の視差量パラメータ(輻輳角θc、基線長Lb)にも基づいて、差分ベクトルを補正する。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、例えば対応点の数を増やす等、各種の設計変更や改良を行ってよいのはもちろんである。