以下、添付図面に従って本発明に係る立体画像撮影装置を実施するための最良の形態について詳細に説明する。
<第1の実施の形態>
図1は、撮影者の利き目を自動的に判断する立体画像撮影装置の第1の実施の形態に係る複眼デジタルカメラ1の正面斜視図であり、図2は複眼デジタルカメラ1の背面斜視図である。
複眼デジタルカメラ1は、複数(図1では二つを例示)の撮像系を備えた複眼デジタルカメラ1であって、同一被写体を複数視点(図1では左右二つの視点を例示)からみた立体画像を撮影可能である。
複眼デジタルカメラ1のカメラボディ12は、略直方体の箱状に形成されており、その正面には、図1に示すように、主として、右側カメラ10a、左側カメラ10b、右側対物レンズ61a、左側対物レンズ61b等が設けられている。
カメラボディ12の側面には、図示しないバッテリーカバーが設けられている。バッテリーカバーの内側には、バッテリーを収納するためのバッテリー収納室、記録メディア144を装着するためのメモリカードスロット等が設けられている。
カメラボディ12の上面には、図2に示すように、モードダイヤル24、レリーズスイッチ26、電源ボタン28等が設けられている。
カメラボディ12の背面には、図2に示すように、モニタ30、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48、スライドスイッチ50、左側センサ51、右側センサ52、ファインダセンサ53、接眼レンズ64等が設けられている。
カメラボディ12の底面には、図示しない三脚ネジ穴などが設けられている。
右目用の画像を撮影する右側カメラ10aおよび左目用の画像を撮影する左側カメラ10bは、そのレンズ光軸が平行となるように、あるいは所定角度をなすように並設されている。複眼デジタルカメラ1の電源をONすると、右側カメラ10aおよび左側カメラ10bの前面に各々配設されたカバー(図示せず)が開くことにより右側カメラ10aおよび左側カメラ10bに被写体光が入射される。
モニタ30は、4:3の一般的なアスペクト比を有し、カラー表示が可能な液晶ディスプレイで構成されている。このモニタ30は、再生モード時に撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際の撮影者インターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてスルー画像が表示されて、画角確認用の電子ファインダとして利用される。
モードダイヤル24は、複眼デジタルカメラ1の再生モードと撮影モードとを切り替える切り替え手段として機能し、「再生位置」と「撮影位置」の間を回転自在に設けられている。複眼デジタルカメラ1は、このモードダイヤル24を「再生位置」に位置させると、再生モードに設定され、「撮影位置」に位置させると、撮影モードに設定される。また、モードダイヤル24は、各種モード(撮影モード、再生モード、消去モード、編集モード等)の切り替え、オート撮影やマニュアル撮影等の撮影モードの設定に用いられる。このモードダイヤル24は、カメラボディ12の上面のレリーズスイッチ26の下に回転自在に設けられており、図示しないクリック機構によって、「2D静止画位置」、「2D動画位置」、「3D静止画位置」、「3D動画位置」にセット可能に設けられている。
レリーズスイッチ26は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。複眼デジタルカメラ1は、静止画撮影時(例えば、モードダイヤル24で静止画撮影モード選択時、又はメニューから静止画撮影モード選択時)、このレリーズスイッチ26を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードダイヤル24で動画撮影モード選択時、又はメニューから動画撮影モード選択時)、このレリーズスイッチ26を全押しすると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズスイッチ26を全押している間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにすることもできる。なお、静止画撮影専用のシャッタボタン及び動画撮影専用のシャッタボタンを設けるようにしてもよい。
電源ボタン28は、複眼デジタルカメラ1の電源スイッチとして機能し、電源ボタン28を押下することにより、電源がON/OFFされる。
ズームボタン38は、右側カメラ10a及び左側カメラ10bのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタン34と、広角側へのズームを指示するズームワイドボタン36とで構成されている。
MENU/OKボタン44は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、複眼デジタルカメラ1の設定状態に応じて割り当てられる機能が切り替えられる。メニュー画面では、たとえば露出値、色合い、ISO感度、記録画素数などの画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否かなど、複眼デジタルカメラ1が持つ全ての調整項目の設定が行われる。複眼デジタルカメラ1は、このメニュー画面で設定された条件に応じて動作する。
DISPボタン46は、モニタ30の表示内容の切り替え指示等の入力に用いられ、BACKボタン77は入力操作のキャンセル等の指示の入力に用いられる。
十字ボタン48は、各種のメニューの設定や選択あるいはズームを行うためのボタンであり、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにストロボモードを切り替える機能が割り当てられる。また、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、右ボタンにコマ送りの機能が割り当てられ、左ボタンにコマ戻しの機能が割り当てられる。また、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ30に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。
スライドスイッチ50は、操作者の利き目の情報を入力するためのスイッチである。スライドスイッチ50を右に移動させた場合には利き目は右目に設定され、スライドスイッチ50を左に移動させた場合には利き目は左目に設定される。
左側センサ51、右側センサ52及びファインダセンサ53は、指向性の高い光を発光素子から出射し、その光が検出物体で反射され、反射された光の有無や反射された光の光量を受光素子で受光して、光の有無や光の光量に対応する信号を出力することにより、検出物体を検出する反射型の光電センサである。左側センサ51及び右側センサ52はカメラボディ12の両端に設けられており、左側センサ51は、左側センサ51の前に撮影者の顔があることを検出し、右側センサ52は、右側センサ52の前に撮影者の顔があることを検出する。また、ファインダセンサ53は、後述する接眼レンズ64の近傍に設けられており、ファインダセンサ53の前に撮影者の顔があること、すなわち撮影者が接眼レンズ64を覗いていることを検出する。すなわち、左側センサ51及びファインダセンサ53で撮影者の顔があることが検出された場合には、撮影者が接眼レンズ64を右目で覗いていることを示し、右側センサ52及びファインダセンサ53で撮影者の顔があることが検出された場合には、撮影者が接眼レンズ64を右目で覗いていることを示す。なお、左側センサ51、右側センサ52及びファインダセンサ53として、反射型の光電センサに限らず、物体により光量の変化を検出することが可能であれば様々な種類の光電センサを用いることもできる。また、光電センサに限らず、超音波を用いるセンサなど様々な種類の近接センサを用いることができる。
次に、複眼デジタルカメラ1の光学ファインダについて説明する。光学ファインダは、図3に示すように、右側対物レンズ61a、右側プリズム62a、左側対物レンズ61b、左側プリズム62b、中央プリズム63、接眼レンズ64とで構成される。左側対物レンズ61b及び左側プリズム62bは、右側対物レンズ61a及び右側プリズム62aに対して、接眼レンズ64の光軸Aを中心に線対称に設けられている。左側対物レンズ61b及び左側プリズム62bは、右側対物レンズ61a及び右側プリズム62aと同じ構成であるため、説明を省略する。
右側プリズム62aは、略三角柱形状の光学素子であり、右側対物レンズ61aの背面に設けられている。右側プリズム62aは、右側対物レンズ61aの光軸Laを略直角に屈折させて、接眼レンズ64の光軸Lへ導く。
接眼レンズ64は、カメラボディ12の略中央に設けられており、接眼レンズ64の前面には、中央プリズム63が設けられている。
中央プリズム63は、図4に示すように、略三角柱形状の光学素子であり、光軸Lを中心に時計回り及び反時計回りに回転自在に設けられている。中央プリズム63が回転することにより、右側対物レンズ61aによって導かれた光を接眼レンズ64に導くか、左側対物レンズ61bによって導かれた光を接眼レンズ64に導くかの切り替えが可能となっている。
図4は、中央プリズム63を左から見た場合に左上方に斜辺となる場合を図示している。中央プリズム63を図4に示す状態から反時計回りに90°回転させると、図3に示す状態となる。これは、右側対物レンズ61aが選択された状態であり、中央プリズム63は、右側プリズム62aによって屈折された右側対物レンズ61aの光軸Laを光軸Lへと屈折させる。これにより、撮影者が接眼レンズ64を覗くことで、右側対物レンズ61aによって導かれた光を見ることができる。
また、中央プリズム63を図3の状態から180°回転させることにより、右側対物レンズ61aから左側対物レンズ61bへ切り替えられる。左側対物レンズ61bが選択された状態では、中央プリズム63は、左側プリズム62bによって屈折された左側対物レンズ61bの光軸Lbを光軸Lへと屈折させる。これにより、撮影者が接眼レンズ64を覗くことで、左側対物レンズ61bによって導かれた光を見ることができる。
図5は、複眼デジタルカメラ1の電気的構成を示すブロック図である。複眼デジタルカメラ1は、単視点画像(2次元画像)と、多視点画像(3次元画像、立体画像)とが撮影可能であり、また、動画、静止画、音声の記録再生が可能である。また、動画、静止画どちらにおいても、単視点画像のみでなく、多視点画像の撮影も可能である。
右側カメラ10aと左側カメラ10bの動作はCPU110によって制御される。右側カメラ10aと左側カメラ10bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。
右側カメラ10aは、主として、第1絞り12a、第1フォーカスレンズ群13a及び第1イメージセンサ14aで構成される。左側カメラ10bは、右側カメラ10aと同様の構成であり、主として、第2絞り12b、第2フォーカスレンズ群13b及び第2イメージセンサ14bで構成される。
第1絞り12a及び第2絞り12bは、モータドライバ122に接続されている。モータドライバ122は、CPU110からの指令に応じて第1絞り12a及び第2絞り12bの動作をそれぞれ制御する。
第1フォーカスレンズ群13a及び第2フォーカスレンズ群13bは、モータドライバ124に接続されている。モータドライバ124は、CPU110からの指令に応じて第1フォーカスレンズ群13a及び第2フォーカスレンズ群13bの動作をそれぞれ制御する。
第1イメージセンサ14a及び第2イメージセンサ14bは、CCD型やCMOS型のイメージセンサであり、第1絞り12a、第1フォーカスレンズ群13a等、第2絞り12b、第2フォーカスレンズ群13bによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14a及び第2イメージセンサ14bにはタイミングジェネレータ(TG)130が接続されている。TG130の動作はCPU110によって制御される。右側カメラ10aと左側カメラ10bの第1イメージセンサ14aおよび第2イメージセンサ14bから出力された撮像信号は、それぞれA/D変換器134a、134bに入力される。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG130によって制御され、TG130から入力されるタイミング信号(クロックパルス)により、電子シャッター速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。レリーズスイッチ26の半押し状態が検出されたとき、CPU110は第1イメージセンサ14aから測距データを得る。CPU110は得られた測距データに基づいて、ピント、絞りなどの調整を行う。また、CPU110は得られた測距データに基づいて、図示しない駆動手段を介して右側カメラ10a及び左側カメラ10bの輻輳角の調整を行う。
システムバスには、CPU110、SDRAM114、VRAM116、画像入力コントローラ136、画像信号処理回路138、圧縮伸張処理回路140、画像ファイル生成部142、メディアコントローラ146、ビデオエンコーダ148、AE/AWB検出回路152、AF検出回路154などが接続される。
CPU110は、複眼デジタルカメラ1の全体の動作を統括制御する制御手段として機能するとともに、各種の演算処理を行う演算手段として機能し、操作部(モードダイヤル24、レリーズスイッチ26、電源ボタン28、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48、スライドスイッチ50など)からの入力に基づき所定の制御プログラムに従って複眼デジタルカメラ1の各部を制御する。
SDRAM114には、このCPU110が実行する制御プログラムであるファームウェア、制御に必要な各種データ、カメラ設定値、撮影された画像データ等が記録されている。なお、後述するように、撮影された画像データは、通常メモリカードに記録されるが、撮影者が選択した場合、メモリカードが装填されていない場合、メモリカードの容量が不足した場合等にはSDRAM114に記録される。
VRAM116は、CPU110の作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。
アナログ信号処理部132a、132bは、第1イメージセンサ14a及び第2イメージセンサ14bから出力された画像信号に対してそれぞれ相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅して出力する。
A/D変換器134a、134bは、入力された画像データをアナログからデジタルに変換する。A/D変換器134a、134bを通して、第1イメージセンサ14aの撮像信号は右眼用画像データとして、第2イメージセンサ14bの撮像信号は左眼用画像データとして出力される。
画像入力コントローラ136は、所定容量のラインバッファを内蔵しており、CPU110からの指令に従い、A/Dコンバータ134から出力された1画像分の画像信号を蓄積して、VRAM116に記録する。
画像信号処理回路138は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、A/D変換器134a、134bから入力された右眼用画像データおよび左眼用画像データに所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成し、表示用のビデオエンコーダ148に出力する。撮影モード時に電子ビューファインダとして使用される際には、生成された画像データが、ビデオエンコーダ148を介してモニタ30にライブビュー画像として表示される。また、画像信号処理回路138は、右側カメラ10aにより撮影された右眼用画像データ及び左側カメラ10bにより撮影された左眼用画像データのYC信号を、所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、外部の立体画像表示装置等において立体表示を行うための立体画像データに合成する。
圧縮伸張処理回路140は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、圧縮伸張処理回路140は、VRAM116に記憶された右眼用画像データおよび左眼用画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。圧縮伸張処理回路140は、静止画の2次元画像のデータをExifファイル等の所定のフォーマットの画像ファイル(画像ファイルについては後に詳述する)として記録メディア144に格納する。Exifファイルは、主画像のデータを格納する領域と、縮小画像(サムネイル画像)のデータを格納する領域とを有している。撮影によって取得された主画像のデータから画素の間引き処理その他の必要なデータ処理を経て、規定サイズ(例えば、160×120又は80×60ピクセルなど)のサムネイル画像が生成される。こうして生成されたサムネイル画像は、主画像とともにExifファイル内に書き込まれる。また、Exifファイルには、撮影日時、撮影条件、顔検出情報等のタグ情報が付属されている。
画像ファイル生成部142は、圧縮伸張処理回路140により生成されたJPEG形式の画像データの画像ファイルを生成するものである。なお、画像ファイルの詳細については、後に詳述する。
記録メディア144は、複眼デジタルカメラ1に着脱自在なxDピクチャカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等、種々の記録媒体である。
メディアコントローラ146は、圧縮伸張処理回路140によって圧縮処理された各画像データを、メディアコントローラ146経由で接続された記録メディア144やその他の記録メディアに記録させる。
ビデオエンコーダ148は、画像信号処理回路138から出力されたRGB信号をモニタ30に出力する。
AE/AWB検出回路152は、撮影スタンバイ状態時にレリーズスイッチ26が半押しされると、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。CPU110は、このAE/AWB検出回路152から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、算出した撮影EV値と所定のプログラム線図から絞り値とシャッター速度を決定する。また、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の色別の平均積算値を算出する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。
AF検出回路154は、撮影スタンバイ状態時にレリーズスイッチ26が半押しされると、CPU110からの指令に従い、入力された画像信号からAF制御に必要な物理量を算出する。本実施の形態の複眼デジタルカメラ1では、撮像素子128から得られる画像のコントラストによりAF制御が行われ(いわゆるコントラストAF)、AF検出回路154は、入力された画像信号から画像の鮮鋭度を示す焦点評価値を算出する。CPU110は、このAF検出回路154で算出される焦点評価値が極大となる位置を検出し、その位置にフォーカスレンズ群を移動させる。すなわち、フォーカスレンズ群を至近から無限遠まで所定のステップで移動させ、各位置で焦点評価値を取得し、得られた焦点評価値が最大の位置を合焦位置として、その位置にフォーカスレンズ群を移動させる。
また、複眼デジタルカメラ1には、電源電池が着脱可能に設けられている。電源電池は、充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池は、図示しない電池収納室に装填することにより、複眼デジタルカメラ1の各手段と電気的に接続される。
なお、図1の複眼デジタルカメラ1においては、2系統の撮像系(右側カメラ10aおよび左側カメラ10b)を有する例を示すが、撮像系が3個以上あってもよい。また、撮像系の配置は、横一列でなくても二次元で配置されていてもよい。また、図1の複眼デジタルカメラ1は、立体撮影のみでなく、マルチ視点や全方向の撮影も可能である。
上記のように構成された複眼デジタルカメラ1の撮影、記録、再生及び編集の各動作について説明する。以下の処理は、主としてCPU110で行われる。
[撮影、記録動作]
図6は、2枚の被写体像を立体画像として撮影する撮影処理の一連の処理の流れを示すフローチャートである。複眼デジタルカメラ1の電源ボタン28がON操作されたことが検出されると、カメラ内電源がONされ、利き目情報を初期値である右目として、撮影モードで撮影スタンバイ状態にされる(ステップS10)。利き目情報の初期値を右目とするのは、右目が利き目である撮影者が多い(7割程度)という統計的情報に基づいている。モニタ30には、右側カメラ10aで撮影されたライブビュー画像が表示される。
レリーズスイッチ26が半押しされたかどうかが判断される(ステップS12)。レリーズスイッチが半押しされていない場合(ステップS12でNO)には、複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードに選択されたどうかが判断される(ステップS14)。複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードが選択された場合(ステップS14でYES)には、処理が終了され、複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードが選択されなかった場合(ステップS14でNO)には、複眼デジタルカメラ1の電源ボタン26がOFF操作されたかどうかが判断される(ステップS16)。複眼デジタルカメラ1の電源ボタン26がOFF操作された場合(ステップS16でYES)には、処理が終了され、複眼デジタルカメラ1の電源ボタン26がOFF操作されなかった場合(ステップS16でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。
レリーズスイッチ26が半押しされた場合(ステップS12でYES)には、ファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS18)。ファインダセンサ53で撮影者の顔があることが検出された場合(ステップS18でYES)には、撮影者がファインダを用いて撮影を行っているということであるため、モニタ30の電源を切り非表示とする。これにより、複眼デジタルカメラ1の消費電力を減らすことができる。その後、利き目を判定するステップ(ステップS22〜S32)へ進む。一般的には、カメラのファインダ、単眼の望遠鏡や顕微鏡、銃の照準、板塀の節穴等をのぞくとき使う方が利き目である。すなわち、撮影者が光学ファインダを覗き込むときには利き目で覗くという特性がある。したがって、利き目を判定するステップ(ステップS22〜S32)では、左側センサ51、右側センサ52及びファインダセンサ53を用いてどちらの目で光学ファインダを覗いているか判定して、利き目の判定を行う。
まず、右側センサ52及びファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS22)。右側センサ52及びファインダセンサ53で撮影者の顔があることが検出された場合(ステップS22でYES)には、図7に示すように、撮影者が左目で接眼レンズ64を覗いている場合であるため、左目が利き目であると判定され(ステップS24)、左側対物レンズ61bによって導かれた光が接眼レンズ64に導かれるように中央プリズム63を回転させることで、光学ファインダの光路が左側に切り替えられる(ステップS26)。
右側センサ52及びファインダセンサ53で撮影者の顔があることが検出されていない場合(ステップS22でNO)には、左側センサ51及びファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS28)。左側センサ51及びファインダセンサ53で撮影者の顔があることが検出された場合(ステップS28でYES)には、図8に示すように、撮影者が右目で接眼レンズ64を覗いている場合であるため、右目が利き目であると判定され(ステップS30)、右側対物レンズ61aによって導かれた光が接眼レンズ64に導かれるように中央プリズム63を回転させることで、光学ファインダの光路が右側に切り替えられる(ステップS32)。これにより、利き目の情報の入力を意識する必要なく、接眼レンズ64を覗くだけで利き目の情報を取得することが可能であり、なおかつ接眼レンズ64を介して利き目に対応した被写体光を見ることができる。
ファインダセンサ53で撮影者の顔があることが検出されたかどうかを判断するステップ(ステップS18)において、ファインダセンサ53で撮影者の顔があることが検出されていない場合(ステップS18でNO)には、スライドスイッチ50によって入力された操作者の利き目の情報が右目であるかどうかが判断される(ステップS34)。入力された利き目の情報が右目である場合(ステップS34でYES)には、右目用の撮像系である右側カメラ10aを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS36)。入力された利き目の情報が左目である場合(ステップS34でNO)には、左目用の撮像系である左側カメラ10bを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS38)。
レリーズスイッチ26が全押しされたかどうかが判断される(ステップS40)。レリーズスイッチ26が全押しされなかった場合(ステップS40でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。レリーズスイッチ26が全押しされた場合(ステップS40でYES)には、CPU110にS2ON信号が入力される。このS2ON信号に応動して、以下のようにして立体画像の撮影(ステップS42)、撮影された立体画像の記録処理が行われる(ステップS44)。
まず、CPU110は、レリーズスイッチ26半押し時の測光値に基づいて決定した絞り値に基づいてモータドライバ122を介して第1絞り12a、第2絞り12bを駆動するとともに、前記測光値に基づいて決定したシャッター速度になるように第1イメージセンサ14a、第2イメージセンサ14bでの電荷蓄積時間(いわゆる電子シャッター)を制御する。
また、CPU110は、VRAM116に格納される右眼用画像データおよび左眼用画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。
CPU110は、CPU110が第1フォーカスレンズ13aおよび第2フォーカスレンズ13bを制御してそれぞれ所定方向に移動させながら、順次に得られる右眼用画像データおよび左眼用画像データの各々から算出されたAF評価値の最大値を求めることにより、AF動作(コントラストAF)を行う。
被写体光は、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aを介して第1イメージセンサ14aの受光面に入射する。また、第2ズームレンズ11b、第2絞り12b、および第2フォーカスレンズ13bを介して第2イメージセンサ14bの受光面に入射する。
第1イメージセンサ14a、第2イメージセンサ14bの受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、TG130から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として第1イメージセンサ14a、第2イメージセンサ14bから順次出力され、アナログ信号処理部132a、132bに入力される。
アナログ信号処理部132a、132bは、CDS回路及びアナログアンプを含み、CDS回路は、CDSパルスに基づいてCCD出力信号を相関二重サンプリング処理し、アナログアンプは、CPU110から加えられる撮影感度設定用ゲインによってCDS回路から出力される画像信号を増幅する。A/D変換器134a、134bにおいて、それぞれアナログの画像信号からデジタルの画像信号に変換される。
A/D変換器134a、134bから出力された右眼用画像データおよび左眼用画像データは、それぞれ画像信号処理回路138で階調変換、ホワイトバランス調整、γ調整処理などの各種画像処理を施され、画像入力コントローラ136に内蔵のバッファメモリ3にそれぞれ一旦蓄えられる。
バッファメモリから読み出されたR、G、Bの画像信号は、画像信号処理回路138により輝度信号Yと色差信号Cr、Cb(YC信号)に変換され、Y信号は、輪郭調整手段により輪郭強調処理される。画像信号処理回路138で処理されたYC信号は、それぞれバッファメモリに蓄えられる。これにより、右側カメラ10a及び左側カメラ10bの2つの撮像系で同時に撮影が行われ、2枚の被写体像、すなわち立体画像が撮影される。
バッファメモリに蓄えられたYC信号は、圧縮伸張処理回路140によって圧縮され、所定のフォーマットの画像ファイルとして、メディアコントローラ146を介して記録メディア144に記録される。
次に、画像ファイルについて説明する。図9は、同一画像ファイルに2枚の画像が連結された画像ファイルのデータ構造を模式的に示す図である。図9に示すように、画像ファイルは、右側カメラ10aで撮影された右目用の画像のデータの先頭を示すマーカSOI(Start of Image)の格納領域、右目用のタグ情報格納領域APP1、右目用の画像データ(JPEGデータ)の格納領域、右目用の画像のデータの終了を示すマーカEOI(End of Image)の格納領域、左側カメラ10bで撮影された左目用の画像のデータの先頭を示すマーカSOI(Start of Image)の格納領域、左目用のタグ情報格納領域APP1、左目用の画像データ(JPEGデータ)の格納領域、左目用の画像のデータの終了を示すマーカEOI(End of Image)の格納領域を含んでいる。
右目用及び左目用のタグ情報格納領域APP1は、APP1マーカ領域と、長さ情報領域と、Exif識別情報領域と、Tiffヘッダ領域と、IFD0領域と、Exif IFD領域と、DPS IFD領域と、互換IFD領域と、IFD1領域(サムネイルIFD領域)と、サムネイル画像データ領域とを含んでいる。撮影者の利き目の情報は、右目用のExif IFD領域、右目用の互換IFD領域、左目用のExif IFD領域、左目用の互換IFD領域の少なくとも1箇所に記録される。
また、図10に示すように、2枚の画像を別の画像ファイルに記録することもできる。右側カメラ10aで撮影された右目用の画像ファイルにはDSCF0001.JPGのような奇数番号をつけ、また左側カメラ10bで撮影された左目用の画像の画像ファイルにはDSCF0002.JPGのような偶数番号をつけて、記録メディア144内の同一のファイルに記録する。この場合には、撮影者の利き目の情報は、右目用の画像ファイル及び左目用の画像ファイルのそれぞれに記録する必要がある。
[再生動作]
複眼デジタルカメラ1のモードとして再生モードが選択されると、記録メディア144に記録されている最終コマの画像が選択され、画像ファイルがメディアコントローラ146を介して読み出される(ステップS50)。読み出された画像ファイルのタグ情報格納領域APP1に記録されている撮影者の利き目の情報に基づいて、利き目に相当する撮像系で撮影され記録された画像(利き目側の画像)の圧縮データは、圧縮伸張処理回路140を介して非圧縮のYC信号に伸長され、バッファメモリ等に保持され、ビデオエンコーダ148を介して、図12(a)に示すような被写体像がモニタ30に表示される(ステップS52)。
逆コマ送りスイッチ(十字キーの左キー)が押されたかどうかが判断される(ステップS54)。十字キーの左キーが押されたと判断された場合(ステップS54でYES)には、逆方向にコマ送りされ、現在選択中のコマ番号の次に小さいコマ番号の画像ファイルが記録メディア144から読み出され、上記と同様にして利き目側の画像がモニタ30に再生される(ステップS56)。十字キーの左キーが押されていないと判断された場合(ステップS54でNO)には、順コマ送りスイッチ(十字キーの右キー)が押されたかどうかが判断される(ステップS58)。十字キーの右キーが押されたと判断された場合(ステップS58でYES)には、順方向にコマ送りされ、現在選択中のコマ番号の次に大きいコマ番号の画像ファイルが記録メディア144から読み出され、上記と同様にして利き目側の画像がモニタ30に再生される。
複眼デジタルカメラ1の動作モードとして再生モード以外の動作モードが選択されたかどうかが判断される(ステップS62)。再生モード以外のモードが選択された場合(ステップS62でYES)には、再生モードが終了される。再生モード以外のモードとしては、消去モードや編集モードなどがあげられる。画像がモニタ30に再生表示された状態で消去モードが選択されると、モニタ30に再生表示された画像の画像ファイルが記録メディア144から消去される。また、画像がモニタ30に再生表示された状態で、編集モードが選択されと、モニタ30に表示された画像を編集することができる。
再生モード以外の動作モードが選択されなかった場合(ステップS62でNO)には、複眼デジタルカメラ1の電源ボタン26がOFF操作されたかどうかが判断される(ステップS64)。複眼デジタルカメラ1の電源ボタン26がOFF操作された場合(ステップS64でYES)には、処理が終了され、複眼デジタルカメラ1の電源ボタン26がOFF操作されなかった場合(ステップS64でNO)には、再度記録メディア144に記録されている最終コマの画像を選択するステップ(ステップS50)が行われる。
このように、モニタ30が2次元画像しか表示できない場合であっても、利き目の情報に基づいて利き目側の画像を再生することにより、撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」をモニタ30に再生することができる。
なお、図12(a)に示した再生方法(1枚画像の再生)以外に、図12(b)に示すような再生方法(インデックス表示)により、利き目側の被写体像を表示させることもできる。図12(b)は4枚の画像のインデックス表示の例であり、現在選択中のコマ番号の利き目側の画像が左上に表示され、次に小さいコマ番号の利き目側の画像が右上に表示され、3番目に小さいコマ番号の利き目側の画像が左下に表示され、4番目に小さいコマ番号の利き目側の画像が右下に表示される。
[選択された画像ファイルの表示動作]
記録メディア144に記録された所望の画像が選択され、選択された画像の画像ファイルが記録メディア144から読み出される(ステップS70)。画像の選択は、画像ファイルが記録されているフォルダを開いて選択してもよいし、インデックス表示を見ながら選択してもよい。読み出された画像ファイルのタグ情報格納領域APP1に記録されている撮影者の利き目の情報が参照され(ステップS72)、撮影者の利き目の情報が右目であるかどうかが判断される(ステップS74)。
撮影者の利き目の情報が右目である場合(ステップS74でYES)には、右側カメラ10aで撮影された右目用の画像がビデオエンコーダ148を介してモニタ30に表示され(ステップS76)、撮影者の利き目の情報が右目でない場合(ステップS74でNO)には、左側カメラ10bで撮影された左目用の画像がビデオエンコーダ148を介してモニタ30に表示される(ステップS78)。
このように、利き目の情報に基づいて利き目側の画像を表示することにより、撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」をモニタ30に表示することができる。
なお、本実施の形態では光学ファインダを用いて利き目の情報の取得、撮影動作を行ったが、光学ファインダに限らず、電子ビューファインダにも適用可能である。
<第2の実施の形態>
撮影者の利き目を自動的に判断する立体画像撮影装置の第1の実施の形態は、カメラボディ12の背面に設けられた左側センサ51、右側センサ52及びファインダセンサ53を用いて、接眼レンズ64を左目で覗いているか右目で覗いているかを検出することにより利き目を判断したが、利き目を判断する方法はこれに限らない。
撮影者の利き目を自動的に判断する立体画像撮影装置の第2の実施の形態は、カメラボディ12の背面に設けられたカメラを用いて撮影者の利き目を判断するものである。なお、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。
図14は、撮影者の利き目を自動的に判断する立体画像撮影装置の第2の実施の形態に係る複眼デジタルカメラ100の正面斜視図であり、図15は複眼デジタルカメラ100の背面斜視図である。図16は、複眼デジタルカメラ100の電気的構成を示すブロック図である。複眼デジタルカメラ100は、複数(図14では二つを例示)の撮像系を備えた複眼デジタルカメラ100であって、同一被写体を複数視点(図14では左右二つの視点を例示)からみた立体画像を撮影可能である。
複眼デジタルカメラ100のカメラボディ112は、略直方体の箱状に形成されており、その正面には、図14に示すように、主として、右側カメラ10aズ、左側カメラ10bが設けられている。
カメラボディ112の背面には、図15に示すように、主として背面カメラ10c、モニタ30、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48が設けられている。
背面カメラ10cは、モニタ30の略中央軸線M上に設けられており、主として、第3絞り12c、第3フォーカスレンズ群13c及び第3イメージセンサ14cで構成される。第3絞り12cはモータドライバ122に接続され、第3フォーカスレンズ13cは、モータドライバ124に接続されている。被写体光は、第3ズームレンズ11c、第3絞り12c、および第3フォーカスレンズ13cを介して第3イメージセンサ14cの受光面に入射する。第3イメージセンサ14cは、所定のカラーフィルタ配列(例えば、ハニカム配列、ベイヤ配列)のR、G、Bのカラーフィルタが設けられたカラーCCDで構成されており、第3イメージセンサ14cの受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、TG130から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として第3イメージセンサ14cから順次出力され、アナログ信号処理部132cに入力される。
アナログ信号処理部132cは、第3イメージセンサ14cから出力された画像信号に対してそれぞれ相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅して出力する。
A/D変換器134cは、入力された画像データをアナログからデジタルに変換する。A/D変換器134cを通して、第3イメージセンサ14cの撮像信号は背面画像データとして出力される。
システムバスには、CPU110、SDRAM114、VRAM116、画像入力コントローラ136、画像信号処理回路138、圧縮伸張処理回路140、画像ファイル生成部142、メディアコントローラ146、ビデオエンコーダ148、AE/AWB検出回路152、AF検出回路154、顔検出部160、顔位置検出部162などが接続される。
顔検出部160は、CPU110からの指令に従い、画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。
顔位置検出部162は、撮影者の顔の中心(たとえば、顔領域の重心)が背面カメラ10cで撮影された画像のどの位置にあるかを検出する。例えば、顔検出部160で検出された顔領域の重心位置を顔の中心とし、顔の中心が画像の中心に比べて右にあるか、左にあるかを検出する。また、顔検出部160で検出された顔領域の重心位置を用いる代わりに、顔検出部160で検出された顔領域に基づいて顔位置検出部162において顔の中心を算出してもよい。これにより、顔の中心と背面カメラ10cとの位置関係が検出され、この検出結果に基づいて利き目情報が取得される。
[撮影、記録動作]
図17は、2枚の被写体像を立体画像として撮影する撮影処理の一連の処理の流れを示すフローチャートである。複眼デジタルカメラ100の電源ボタン26がON操作されると、CPU110はこれを検出し、カメラ内電源をONにし、利き目情報を初期値である右目として、撮影モードで撮影スタンバイ状態にする(ステップS10)。モニタ30には、右側カメラ10aで撮影された被写体光がライブビュー画像として表示される。
レリーズスイッチ26が半押しされたかどうかが判断される(ステップS12)。レリーズスイッチが半押しされていない場合(ステップS12でNO)には、複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードに選択されたどうかが判断される(ステップS14)。複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードが選択された場合(ステップS14でYES)には、処理が終了され、複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードが選択されなかった場合(ステップS14でNO)には、複眼デジタルカメラ100の電源ボタン26がOFF操作されたかどうかが判断される(ステップS16)。複眼デジタルカメラ100の電源ボタン26がOFF操作された場合(ステップS16でYES)には、処理が終了され、複眼デジタルカメラ100の電源ボタン26がOFF操作されなかった場合(ステップS16でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。
レリーズスイッチ26が半押しされた場合(ステップS12でYES)には、利き目を判定するステップ(ステップS80〜S90)へ進む。一般的には、表示画面、単眼の望遠鏡や顕微鏡、銃の照準、板塀の節穴等をのぞくとき使う目が利き目である。すなわち、撮影者が液晶モニタを見るときには、主として利き目で見るという特性がある。したがって、利き目を判定するステップ(ステップS80〜S90)では、背面カメラ10cで撮影された画像を用いてどちらの目を主としてモニタ30を見ていているかを判定して、利き目の判定を行う。
背面カメラ10cがONされ、撮影が行われる(ステップS80)。顔検出部160において、背面カメラ10cで撮影された画像データから顔検出が行われ(ステップS82)、画像データに顔が含まれるかどうかが判断される(ステップS84)。画像データに顔が含まれない場合(ステップS84でNO)は、利き目を判定するステップ(ステップS80〜S90)が行われず、ステップ10で設定された利き目の情報のままでステップS92へ進む。画像データに顔が含まれる場合(ステップS84でYES)は、顔位置検出部162において、顔の中心が撮影された画像の右側にあるかどうかが判断される(ステップS86)。
顔位置が撮影された画像の右側にある場合(ステップS86でYES)は、図18に示すように、顔の中心が画像の中心より右にある場合である。背面カメラ10cは、モニタ30の略中央軸線M上にあるため、画像の中心はモニタ30の略中央軸線Mを示す。したがって、顔位置が撮影された画像の右側にある場合は、図19に示すように、操作者の顔位置が略中央軸線M、すなわちモニタ30の左にある場合である。したがって、操作者は右目でモニタ30を見ているため、操作者の利き目は右目と判定される(ステップS88)。
顔位置が撮影された画像の左側にある場合(ステップS86でNO)は、図20に示すように、顔の中心が画像の中心より左にある場合である。したがって、顔位置が撮影された画像の左側にある場合は、図21に示すように、操作者の顔位置が略中央軸線M、すなわちモニタ30の右にある場合である。したがって、操作者は左目でモニタ30を見ているため、操作者の利き目は左目と判定される(ステップS90)。
これにより、利き目の情報の入力を意識する必要なく、撮影時に撮影者がモニタ30を見るだけで利き目の情報を取得することが可能であり、なおかつモニタ30を介して利き目に対応した被写体光を見ることができる。
利き目を判定するステップ(ステップS80〜S90)が終了したら、操作者の利き目の情報が右目であるかどうかが判断される(ステップS92)。入力された利き目の情報が右目である場合(ステップS92でYES)の場合には、右目用の撮像系である右側カメラ10aを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS94)。入力された利き目の情報が左目である場合(ステップS92でNO)の場合には、左目用の撮像系である左側カメラ10bを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS96)。
レリーズスイッチ26が全押しされたかどうかが判断される(ステップS40)。レリーズスイッチ26が全押しされなかった場合(ステップS40でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。レリーズスイッチ26が全押しされた場合(ステップS40でYES)には、立体画像の撮影が行われ(ステップS42)、撮影された立体画像の記録処理が行われる(ステップS44)。
これにより、利き目の情報の入力を意識する必要なく、撮影時にモニタ30を見るという通常の撮影動作を行うだけで利き目の情報を入力可能であり、なおかつ撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」を撮影時のライブビュー画像や再生画像としてモニタ30に表示することができる。なお、立体画像の撮影方法、画像ファイルの記録形態、再生動作、選択された画像ファイルの表示動作については、第1の実施の形態と同じであるため、説明を省略する。
なお、本実施の形態では、背面カメラ10cと、右側カメラ10a及び左側カメラ10bとが同様の構成の場合を例に説明したが、背面カメラ10cとしてパンフォーカスのカメラを用いてもよい。
また、第1の実施の形態及び第2の実施の形態では、画像ファイル生成部142において画像ファイルの作成を行い、CPU110において画像ファイルの復元処理や関連画像情報修復処理などを行う複眼デジタルカメラ1及び複眼デジタルカメラ100という装置について説明したが、複眼デジタルカメラに限らずPCなどの装置として提供してもよいし、装置に限らず、例えば、撮像装置、PC、携帯情報端末のような装置に適用するプログラムとして提供してもよい。
1、100:複眼デジタルカメラ、10a:右側カメラ、10b:左側カメラ、10c:背面カメラ、30:モニタ、51:左側センサ、52:右側センサ、53:ファインダセンサ、61a:右側対物レンズ、61b:左側対物レンズ、62a、62b、63:プリズム、64:接眼レンズ、110:CPU