以下、添付図面に従って本発明に係るデジタルカメラを実施するための最良の形態について詳細に説明する。
図1は、複眼デジタルカメラ1の電気的構成を示すブロック図である。複眼デジタルカメラ1は、単視点画像(2次元画像)と、多視点画像(3次元画像)とが撮影可能であり、また、動画、静止画、音声の記録再生が可能である。また、動画、静止画どちらにおいても、単視点画像のみでなく、多視点画像の撮影も可能である。
複眼デジタルカメラ1には、主として、第1撮像系2aおよび第2撮像系2bの2個の撮像系と、ユーザーがこの複眼デジタルカメラ1を使用するときに種々の操作を行うための操作部3と、操作の手助けを行うための操作表示LCD4と、レリーズスイッチ5と、画像表示LCD6とが設けられている。
第1撮像系2aおよび第2撮像系2bは、そのレンズ光軸L1、L2が平行となるように、あるいは所定角度をなすように並設されている。
第1撮像系2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11a、第1絞り12a、第1フォーカスレンズ13a、および第1イメージセンサ14aによって構成されている。第1絞り12aには絞り制御部16aが接続されており、また、第1イメージセンサ14aにはタイミングジェネレータ(TG)18aが接続されている。第1絞り12a、第1フォーカスレンズ13aの動作は測光・測距CPU19aによって制御される。TG18aの動作はメインCPU10によって制御される。
第1ズームレンズ11aは、操作部3からのズーム操作に応じて、レンズ光軸L1に沿ってNEAR側(繰り出し側)、あるいはINF側(繰り込み側)に移動し、ズーム倍率を変化させる。この移動は図示しないモータで駆動される。
第1絞り12aは、AE(Auto Exposure)動作時に開口値(絞り値)を変化させて光束を制限し、露出調整を行う。
第1フォーカスレンズ13aは、AF(Auto Focus)動作時にレンズ光軸L1に沿ってNEAR側、あるいはINF側に移動されて合焦位置を変え、ピント調整を行う。この移動は図示しないモータで駆動される。静止画用レリーズスイッチ5aの半押し状態が検出されたとき、メインCPU10は第1イメージセンサ14aから測距データを得る。メインCPU10は得られた測距データに基づいて、ピント、絞りなどの調整を行う。
第1イメージセンサ14aは、CCD型やCMOS型のイメージセンサであり、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG18aによって制御され、TG18aから入力されるタイミング信号(クロックパルス)により、電子シャッター速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。
第2撮像系2bは、第1撮像系2aと同一の構成であり、第2ズームレンズ11b、第2絞り12b、第2フォーカスレンズ13b、およびタイミングジェネレータ(TG)18bが接続された第2イメージセンサ14bによって構成されている。
第1撮像系2aと第2撮像系2bの動作はメインCPU10によって制御される。第1撮像系2aと第2撮像系2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。
第1撮像系2aと第2撮像系2bの第1イメージセンサ14aおよび第2イメージセンサ14bから出力された撮像信号は、それぞれA/D変換器30a、30bに入力される。
A/D変換器30a、30bは、入力された画像データをアナログからデジタルに変換する。A/D変換器30a、30bを通して、第1イメージセンサ14aの撮像信号は右眼用画像データとして、第2イメージセンサ14bの撮像信号は左眼用画像データとして出力される。
画像信号処理手段31a、31bは、それぞれ、階調変換、ホワイトバランス調整、γ調整処理などの各種画像処理を、A/D変換器30a、30bから入力された右眼用画像データおよび左眼用画像データに施す。
バッファメモリ32a、32bは、画像信号処理手段31a、31bで各種画像処理が施された右眼用画像データおよび左眼用画像データを一時的に格納する。バッファメモリ32a、32bに格納された右眼用画像データおよび左眼用画像データは、システムバスを介して出力される。
システムバスには、メインCPU10、EEPROM21、ワークメモリ24a、24b、バッファメモリ32a、32b、コントローラ34、YC処理部35a、35b、圧縮伸張処理手段36a、36b、メディアコントローラ37、2D/3Dモード切替フラグ設定手段50、基線長/輻輳角記憶手段51、縦/横撮り検出手段52などが接続される。
メインCPU10は、複眼デジタルカメラ1の全体の動作を統括的に制御する。メインCPU10には、操作部3、レリーズスイッチ5、2D/3D設定スイッチ7、基線長/輻輳角制御手段55、距離用駆動/制御手段60が接続されている。
操作部3は、複眼デジタルカメラ1を作動させるための電源投入用の電源スイッチ、オート撮影やマニュアル撮影等を選択するためのモードダイヤル、各種のメニューの設定や選択あるいはズームを行うための十字キー、閃光発光用スイッチ、および十字キーで選択されたメニューの実行やキャンセル等を行うための情報位置指定キーなどで構成される。操作部3への適宜操作により、電源のオン/オフ、各種モード(撮影モード、ブラケット撮影モード、再生モード、消去モード、編集モード等)の切り替え、ズーミングなどが行われる。
レリーズスイッチ5は2段押しのスイッチ構造となっている。撮影モード中に、レリーズスイッチ5が軽く押圧(半押し)されると、AF動作およびAE動作が行われ撮影準備処理がなされる。この状態でさらにレリーズスイッチ5が強く押圧(全押し)されると、撮影処理が行われ、右眼用画像データおよび左眼用画像データがフレームメモリ32からメモリカード38に転送されて記録される。
画像表示LCD6は、パララックスバリア式、あるいはレンチキュラーレンズ式の3Dモニタであり、画像撮影時には電子ビューファインダとして使用され、画像再生時には撮影によって得られた画像データの立体表示を行う。画像表示LCD6aは第1撮像系2aの出力結果を表示し、画像表示LCD6bは第2撮像系2bの出力結果を表示する。画像表示LCD6の詳細な構造は図示しないが、画像表示LCD6は、その表面にパララックスバリア表示層を備えている。画像表示LCD6は、立体表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで立体視を可能にする。なお、立体視を可能にする表示装置の構成は、スリットアレイシートを用いるパララックス方式に限られる必然性はなく、レンチキュラーレンズシートを用いるレンチキュラー方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を用いるホログラフィー方式などが採用されてもよい。
2D/3D設定スイッチ7は、単視点画像を撮影する2Dモードと、多視点画像を撮影する3Dモードの切り替えを指示するためのスイッチである。
基線長/輻輳角制御手段55は、基線長/輻輳角記憶手段51に記憶された基線長及び輻輳角に基づいて、基線長/輻輳角駆動手段56a、56bを制御して、第1撮像系2a及び第2撮像系2bの基線長(第1撮像系2aと第2撮像系2bとの間隔)及び輻輳角(第1撮像系2aのレンズ光軸L1と、第2撮像系2bのレンズ光軸L2との成す角度)を調整するものである。
基線長/輻輳角駆動手段56a、56bは、基線長/輻輳角制御手段55に接続されており、基線長/輻輳角制御手段55からの指示に従って、第1撮像系2a及び第2撮像系2bを駆動するものである。
基線長/輻輳角検出手段57a、57bは、基線長/輻輳角制御手段55及び基線長/輻輳角駆動手段56a、56bに接続されており、基線長/輻輳角駆動手段56a、56bによってそれぞれ駆動された第1撮像系2a及び第2撮像系2bの基線長及び輻輳角を検出するものである。基線長/輻輳角制御手段55は、前記基線長/輻輳角記憶手段51から読み出した基線長及び輻輳角と、基線長/輻輳角検出手段57a、57bにおいて検出された基線長及び輻輳角に基づいて、基線長/輻輳角駆動手段56a、56bへ指示を出力する。
距離用駆動/制御手段60は、距離用発光素子62a、62bの発光タイミングと距離用撮像素子61a、61bとを同期させる制御を行う。
距離用発光素子62a、62bは、それぞれ第1撮像系2aおよび第2撮像系2bの捉えた同一被写体へ投光スポットを照射するための発光ダイオード(LED)で構成される。
距離用撮像素子61a、61bは、それぞれ距離用発光素子52a、52bにより投光スポットの照射された被写体像を取得する測距専用の2次元の撮像素子である。距離用撮像素子61a、61bの撮像動作で得られたアナログ画像信号は、それぞれ測距用A/D変換部63a、63bにおいてデジタル画像データに変換されて、距離情報処理手段64に出力される。
距離情報処理手段64は、距離用発光素子62a、62bから照射された光が被写体で反射されて距離用撮像素子61a、61bに返ってくるまでの時間を測定し、数式1に基づいて距離用撮像素子61a、61bの捉えた被写体までの距離を算出する。そして、算出された結果を用いて、各画素の画素値が距離の値である距離画像をそれぞれ生成する。
[数1]
L=c×Td/2 (L:距離、c:光速、Td:反射時間)
距離情報記憶手段65は、距離情報処理手段64から入力された距離情報、すなわち距離用撮像素子61a、61bでそれぞれ撮影された距離画像を記憶する。
EEPROM21は、不揮発性メモリであり、各種制御用のプログラムや設定情報などを格納している。メインCPU10は、このプログラムや設定情報に基づいて各種処理を実行する。
ワークメモリ24a、24bは、YC処理部35a、35bで処理されたYC信号をそれぞれ格納する。
コントローラ34は、ワークメモリ24a、24bに記憶された右眼用画像データおよび左眼用画像データのYC信号をYC/RGB処理部22に読み出す。
YC/RGB処理部22は、右眼用画像データおよび左眼用画像データのYC信号を、所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、画像表示LCD6での立体表示を行うための立体画像データに合成し、表示用のLCDドライバ23に出力する。撮影モード時に電子ビューファインダとして使用される際には、YC/RGB処理部22によって合成された立体画像データが、LCDドライバ23を介して画像表示LCD6にライブビュー画像として表示される。また、撮影によって得られた画像データの立体表示を行う場合には、YC/RGB処理部22は、メモリカード38に記録された各画像データがメディアコントローラ37によって読み出されて、圧縮伸張処理手段36a、36bによって伸張処理が行われたデータを立体画像データに変換し、その立体画像データがLCDドライバ23を介して再生画像として画像表示LCD6に表示される。
LCDドライバ23は、YC/RGB処理部22から出力されたRGB信号を画像表示LCD6に出力する。
YC処理部35a、35bは、バッファメモリ32a、32bに記憶された画像データを輝度信号(Y信号)及び色差信号(Cr,Cb 信号)に変換するとともに、ガンマ調整等の所定の処理を施す。
圧縮伸張処理手段36a、36bは、それぞれワークメモリ24a、24bに記憶された右眼用画像データおよび左眼用画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。
メディアコントローラ37は、圧縮伸張処理手段36a、36bによって圧縮処理された各画像データを、I/F39経由で接続されたメモリカード38やその他の記録メディアに記録させる。
メモリカード38は、複眼デジタルカメラ1に着脱自在なxDピクチャカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等、種々の記録媒体である。
2D/3Dモード切替フラグ設定手段50には、2Dモードであることまたは3Dモードであることを表すフラグが設定される。
基線長/輻輳角記憶手段51は、測光・測距CPU19a、19bに基づいて、適切な基線長や輻輳角を算出して記憶するものである。
縦/横撮り検出手段52は、内蔵のセンサー(図示せず)により、縦撮りまたは横撮りのいずれで撮影を行うかを検出する。なお、縦/横撮り検出手段52による検出は、縦撮り又は横撮りの設定を縦撮りまたは横撮りの指示を入力することにより行い、その設定を検出することにより行っても良い。
画像ファイル生成手段53は、圧縮伸張処理手段36a、36bにより生成されたJPEG形式の画像データの画像ファイルを生成するものである。まず、削除、紛失、離散などにより使用できなくなった画像データの修復や画像ファイルの復元ができるように、関連画像情報と付属情報とを生成する。ここで、関連画像情報とは第1撮像系2aと第2撮像系2bで撮影された画像に基づいて生成される情報であり、付属情報とは画像データや関連画像情報に関する情報である。そして、画像ファイル生成手段53は、画像データと、関連画像情報と、付属情報とが結合されたフォーマットで画像ファイルを生成する。また、画像ファイル生成手段53は、作成した画像ファイルにDCF規定に基づいたファイル名を自動的に付けて、メディアコントローラ37等に出力する。ここで、DCF規定に基づいたファイル名とは、例えばDSCF0001のように、アルファベット4桁(4文字の自由文字)と数字4桁(ファイル番号0001〜9999)とで構成されるものである。なお、画像ファイル、関連画像情報、付属情報等の詳細については、後に詳述する。
また、複眼デジタルカメラ1には、電源電池68が着脱可能に設けられている。
電源電池68は、充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は、図示しない電池収納室に装填することにより、複眼デジタルカメラ1の各手段と電気的に接続される。
充電・発光制御部43a、43bは、電源電池68からの電力の供給を受けて、それぞれストロボ44a、44bを発光させるために、図示しない閃光発光用のコンデンサを充電し、ストロボ44a、44bの発光を制御する。
充電・発光制御部43a、43bは、レリーズスイッチ5の半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号を、メインCPU10や測光・測距CPU19a、19bから取り込んだことに応じて、ストロボ44a、44bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。
なお、図1の複眼デジタルカメラ1においては、2系統の撮像系(第1撮像系2aおよび第2撮像系2b)を有する例を示すが、撮像系が3個以上あってもよい。また、撮像系の配置は、横一列でなくても二次元で配置されていてもよい。
また、図1の複眼デジタルカメラ1は、立体撮影のみでなく、マルチ視点や全方向の撮影、パノラマ画像の撮影も可能である。
上記のように構成された複眼デジタルカメラ1の撮影、記録動作及び再生動作について説明する。
この複眼デジタルカメラ1において、電源ボタン(図示せず)がON操作されると、メインCPU10はこれを検出し、カメラ内電源をONにし、撮影モードで撮影スタンバイ状態にする。また、2D/3D設定スイッチ7で2Dモードか3Dモードのどちらかに設定する。
この撮影スタンバイ状態では、メインCPU10は、通常、以下のようにして画像表示LCD6に動画(ライブビュー画像)を表示させる。
まず、メインCPU10は、2D/3Dモード切替フラグ設定手段50を参照し、単視点画像(2次元画像)を取得する2Dモードか、多視点画像(3次元画像)を取得する3Dモードかを検出する。2Dモードの場合は第1撮像系2aのみを駆動し、3Dモードの場合は第1撮像系2a及び第2撮像系2bを駆動する。
第1ズームレンズ11a、第2ズームレンズ11b、第1フォーカスレンズ13a、第2フォーカスレンズ13bが所定位置まで繰り出され、その後第1イメージセンサ14a、第2イメージセンサ14bによってライブビュー画像用の撮影が行われ、画像表示LCD6にライブビュー画像が表示される。すなわち、第1イメージセンサ14a、第2イメージセンサ14bで連続的に画像が撮像され、その画像信号が連続的に処理されて、ライブビュー画像用の画像データが生成される。生成された画像データは、順次コントローラ34に加えられ、表示用の信号形式に変換されて、画像表示LCD6に出力される。これにより、第1イメージセンサ14a、第2イメージセンサ14bで捉えた画像が画像表示LCD6にスルー表示される。
ユーザ(撮影者)は、画像表示LCD6に表示されるライブビュー画を見ながらフレーミングしたり、撮影したい被写体を確認したり、撮影後の画像を確認したり、撮影条件を設定したりする。
上記撮影スタンバイ状態時にレリーズスイッチ5が半押しされると、メインCPU10にS1ON信号が入力される。メインCPU10はこれを検知し、AE測光、AF制御を行う。AE測光時には、第1イメージセンサ14a、第2イメージセンサ14bを介して取り込まれる画像信号の積算値等に基づいて被写体の明るさを測光する。この測光した値(測光値)は、本撮影時における第1絞り12a、第2絞り12bの絞り値、及びシャッター速度の決定に使用される。同時に、検出された被写体輝度より、ストロボの発光が必要かどうかを判断する。同時に、検出された被写体輝度より、ストロボの発光が必要かどうかを判断する。ストロボ44a、44bの発光が必要と判断された場合には、ストロボ44a、44bをプリ発光させ、その反射光に基づいて本撮影時のストロボ44a、44bの発光量を決定する。3Dモードの場合には、上記以外に、基線長/輻輳角記憶手段51に記憶された撮影者毎の基線長、輻輳角の情報に基づいて、第1撮像系2aおよび第2撮像系2bの基線長及び輻輳角を調整する。
レリーズスイッチ5が全押しされると、メインCPU10にS2ON信号が入力される。メインCPU10は、このS2ON信号に応動して、撮影、記録処理を実行する。
まず、メインCPU10は、前記測光値に基づいて決定した絞り値に基づいて絞り制御部16a、16bを介して第1絞り12a、第2絞り12bを駆動するとともに、前記測光値に基づいて決定したシャッター速度になるように第1イメージセンサ14a、第2イメージセンサ14bでの電荷蓄積時間(いわゆる電子シャッター)を制御する。
また、メインCPU10は、バッファメモリ32a、32bに格納される右眼用画像データおよび左眼用画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。
メインCPU10は、メインCPU10が第1フォーカスレンズ13aおよび第2フォーカスレンズ13bを制御してそれぞれ所定方向に移動させながら、順次に得られる右眼用画像データおよび左眼用画像データの各々から算出されたAF評価値の最大値を求めることにより、AF動作(コントラストAF)を行う。
この際、ストロボ44a、44bを発光させる場合は、プリ発光の結果から求めたストロボ44a、44bの発光量に基づいてストロボ44a、44bを発光させる。
被写体光は、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aを介して第1イメージセンサ14aの受光面に入射する。また、第2ズームレンズ11b、第2絞り12b、および第2フォーカスレンズ13bを介して第2イメージセンサ14bの受光面に入射する。
第1イメージセンサ14a、第2イメージセンサ14bは、所定のカラーフィルタ配列(例えば、ハニカム配列、ベイヤ配列)のR、G、Bのカラーフィルタが設けられたカラーCCDで構成されており、第1イメージセンサ14a、第2イメージセンサ14bの受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、タイミングジェネレータ(TG)18aから加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として第1イメージセンサ14a、第2イメージセンサ14bから順次出力され、A/D変換器30a、30bに入力される。
A/D変換器30a、30bは、CDS回路及びアナログアンプを含み、CDS回路は、CDSパルスに基づいてCCD出力信号を相関二重サンプリング処理し、アナログアンプは、メインCPU10から加えられる撮影感度設定用ゲインによってCDS回路から出力される画像信号を増幅する。A/D変換器30a、30bにおいて、それぞれアナログの画像信号からデジタルの画像信号に変換される。
A/D変換器30a、30bから出力された右眼用画像データおよび左眼用画像データは、それぞれ画像信号処理手段31a、31bで階調変換、ホワイトバランス調整、γ調整処理などの各種画像処理を施され、バッファメモリ32a、32bに一旦蓄えられる。
バッファメモリ32a、32bから読み出されたR、G、Bの画像信号は、YC処理部35a、35bにより輝度信号Yと色差信号Cr、Cb(YC信号)に変換され、Y信号は、輪郭調整手段により輪郭強調処理される。YC処理部35a、35bで処理されたYC信号は、それぞれワークメモリ24a、24bに蓄えられる。
上記のようにしてバッファメモリ32a、32bに蓄えられたYC信号は、圧縮伸張処理手段36a、36bによって圧縮され、所定のフォーマットの画像ファイルとして、I/F39を介してメモリカード38に記録される。本例の複眼デジタルカメラ1の場合、静止画の2次元画像のデータは、所定のフォーマットの画像ファイル(画像ファイルについては後に詳述する)としてメモリカード38に格納される。Exifファイルは、主画像のデータを格納する領域と、縮小画像(サムネイル画像)のデータを格納する領域とを有している。撮影によって取得された主画像のデータから画素の間引き処理その他の必要なデータ処理を経て、規定サイズ(例えば、160×120又は80×60ピクセルなど)のサムネイル画像が生成される。こうして生成されたサムネイル画像は、主画像とともにExifファイル内に書き込まれる。また、Exifファイルには、撮影日時、撮影条件、顔検出情報等のタグ情報が付属されている。動画のデータは、MPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理が施されてメモリカード38に格納される。
また、メインCPU10は、このS2ON信号に応動して距離用駆動/制御手段60を制御し、距離用撮像素子61a、61bを介して距離用発光素子52a、52bにより投光スポットの照射された被写体像を取得する。取得された被写体像は、距離情報処理手段64で処理が行われ、各画素の画素値が距離の値である距離画像が距離用撮像素子61a、61bのそれぞれに対して生成され、距離情報記憶手段65に記憶される。そして、所定のフォーマットの画像ファイルと共にメモリカード38に記録される。
このようにしてメモリカード38に記録された画像データは、複眼デジタルカメラ1のモードを再生モードに設定することにより、画像表示LCD6に再生表示される。再生モードへの移行は、再生ボタン(図示せず)を押下することにより行われる。
再生モードが選択されると、メモリカード38に記録されている最終コマの画像ファイルがI/F39を介して読み出される。この読み出された画像ファイルの圧縮データは、圧縮伸張処理手段36a、36bを介して非圧縮のYC信号に伸長される。
伸長されたYC信号は、バッファメモリ32a、32b(又は図示しないVRAM)に保持され、コントローラ34によって表示用の信号形式に変換されて画像表示LCD6に出力される。
その後、順コマ送りスイッチ(十字キーの右キー)が押されると、順方向にコマ送りされ、逆コマ送りスイッチ(十字キーの左キー)が押されると、逆方向にコマ送りされる。そして、コマ送りされたコマ位置の画像ファイルがメモリカード38から読み出され、上記と同様にして画像が画像表示LCD6に再生される。
画像表示LCD6に再生表示された画像を確認しながら、必要に応じて、メモリカード38に記録された画像を消去することができる。画像の消去は、画像が画像表示LCD6に再生表示された状態でフォトモードボタンが押下されることによって行われる。
また、画像表示LCD6に再生表示された画像を確認しながら、必要に応じて、メモリカード38に記録された画像を編集することができる。画像の編集は、画像が画像表示LCD6に再生表示された状態で、操作部3により編集モードが選択されることによって行われる。
以上のように、複眼デジタルカメラ1は画像の撮影、記録及び再生を行う。上記説明は、静止画を撮影する場合について説明したが、動画の場合も同様である。動画、静止画の撮影は、個々のレリーズボタンにより制御される。また、動画、静止画のモードセレクトSWやメニューにより、動画、静止画の切り替えを行うようにしてもよい。また、上記説明は、1回のシャッターレリーズ動作で第1撮像系2a及び第2撮像系2bの2つの撮像系を介して2枚の画像を撮影する場合について説明したが、1回のシャッターレリーズ動作で第1撮像系2a及び第2撮像系2bにおいて連続的に画像データを取得することにより、2枚以上の画像を撮影し、それらの画像の中から所望の複数枚の画像を選択して立体表示するようにしてもよい。
[本願発明の概要]
さて、本願発明では、画像ファイル生成手段53において、第1撮像系2a及び第2撮像系2bで撮影された多視点画像を構成する各画像毎にそれぞれ別個の画像ファイルが生成され、それぞれの画像ファイルが関連付けられてメモリカード38に記録される。画像ファイルには、各画像の画像データ(主画像の画像データ)と、主画像を復元するための関連画像情報と、主画像の画像データと関連画像情報に関する付属情報とが各画像ファイルに含まれる。以下、画像ファイルの構成、配置等の詳細について説明する。
[画像ファイルの構成について]
<画像ファイルの構成についての第1の実施の形態>
画像ファイルの構成についての第1の実施の形態は、主画像とは異なる視点から撮影された画像を関連画像情報として記録する形態である。以下、多視点画像として第1撮像系2a及び第2撮像系2bにより各2枚(合計4枚)の画像が撮影された場合における画像ファイルの構成についての第1の実施の形態について、図2及び図3を用いて説明する。便宜上、第1撮像系2aで1回目に撮影された画像を視点1の画像とし、第1撮像系2aで2回目に撮影された画像を視点2の画像とし、第2撮像系2bで1回目に撮影された画像を視点3の画像とし、第2撮像系2bで2回目に撮影された画像を視点4の画像として説明する。
多視点画像の画像ファイルは、視点1の画像ファイルF10(ファイル名:ABCD0001.JPG)と、視点2の画像ファイルF11(ファイル名:ABCD0002.JPG)と、視点3の画像ファイルF12(ファイル名:ABCD0003.JPG)と、視点4の画像ファイルF13(ファイル名:ABCD0004.JPG)との4個の画像ファイルで構成されている。視点1の画像ファイルF10、視点2の画像ファイルF11、視点3の画像ファイルF12及び視点4の画像ファイルF13には連続したファイル名が自動的に付けられ、これらの画像ファイルの関連付けが行われる。
視点1の画像ファイルF10は、画像ファイルF10のデータの先頭を示すマーカSOI(Start of Image)の格納領域A101と、タグ情報格納領域A102と、視点1の画像(主画像)の画像データ格納領域A103と、データの終了を示すマーカEOI(End of Image)の格納領域A104と、関連画像情報格納領域A105とで構成される。視点2の画像ファイルF11は、画像ファイルF11のデータの先頭を示すマーカSOIの格納領域A111と、タグ情報格納領域A112と、視点2の画像(主画像)の画像データ格納領域A113と、データの終了を示すマーカEOIの格納領域A114と、関連画像情報格納領域A115とで構成される。視点3の画像ファイルF12は、画像ファイルF12のデータの先頭を示すマーカSOIの格納領域A121と、タグ情報格納領域A122と、視点3の画像(主画像)の画像データ格納領域A123と、データの終了を示すマーカEOIの格納領域A124と、関連画像情報格納領域A125とで構成される。視点4の画像ファイルF13は、画像ファイルF13のデータの先頭を示すマーカSOIの格納領域A131と、タグ情報格納領域A132と、視点4の画像(主画像)の画像データ格納領域A133と、データの終了を示すマーカEOIの格納領域A134と、関連画像情報格納領域A135とで構成される。
画像データ格納領域A103、A113、A123、A133には、各画像ファイルの主画像の画像データが格納される。ここで、主画像とは第1撮像系2a及び第2撮像系2bで撮影された画像のうちの所望の1枚の画像であり、視点1の画像ファイルF10の場合には視点1の画像が主画像であり、視点2の画像ファイルF11の場合には視点2の画像が主画像であり、視点3の画像ファイルF12の場合には視点3の画像が主画像であり、視点4の画像ファイルF13の場合には視点4の画像が主画像である。
関連画像情報格納領域A105、A115、A125、A135には、主画像とは異なる所望の1枚の視点の画像の画像データが格納される。視点1の画像ファイルF10の関連画像情報格納領域A105には、視点4の画像の画像データが格納され、視点2の画像ファイルF11の関連画像情報格納領域A115には、視点1の画像の画像データが格納され、視点3の画像ファイルF12の関連画像情報格納領域A125には、視点2の画像の画像データが格納され、視点4の画像ファイルF13の関連画像情報格納領域A135には、視点1の画像の画像データが格納される。このように、関連画像情報格納領域A105、A115、A125、A135に格納される画像データが重複せず、これにより関連画像情報格納領域A105、A115、A125、A135により視点1、視点2、視点3及び視点4の全ての主画像の画像データを容易に作成することができる。
タグ情報格納領域A102、A112、A122、A132には、図3に示すように、Exif識別情報A1021と、TIFFヘッダA1022と、IFD0領域A1023と、付属情報A1024とで構成される。付属情報A1024には、全視点数を格納する領域B11と、主画像がどの視点で撮影された画像かを示す情報を格納する領域(視点画像領域)B12と、関連画像情報に含まれる画像がどの視点で撮影された画像かを示す情報を格納する領域(関連画像領域)B13と、主画像の画像データがどの画像ファイルの関連画像領域に格納されているかを示す情報を格納する領域(関連視点画像情報領域)B14と、その他付属情報を格納する領域B15とが設けられている。
全視点数領域B11には、多視点画像を構成する画像の枚数(視点数)が格納される。本実施の形態では、視点1〜4の4枚の画像で多視点画像が構成されるため、全視点数領域B11には「4」が格納される。
視点画像領域B12には、画像ファイルの主画像の視点番号が格納される。画像ファイルF10は視点1が主画像の場合であるため、視点画像領域B12には「1」が格納される。
関連画像領域B13には、関連画像情報に含まれる画像の視点が格納される。画像ファイルF10の場合には、視点4の画像データが関連画像情報に格納されているため、関連画像領域B13には「4」が格納される。
関連視点画像情報領域B14には、主画像が関連画像情報として格納されている画像ファイルのファイル名及びその画像ファイルが配置されている位置が格納される。画像ファイルF10の場合には、主画像は視点1の画像であり、視点1が関連画像情報として格納されている画像ファイルは視点2の画像ファイルF11であり、視点2の画像ファイルF11はDCIMフォルダ内の100ABCDEフォルダに配置されているため、関連視点画像情報領域には、「/DCIM/100ABCDE/ABCD0002.JPG」が格納される。
このように、付属情報により画像ファイルF10〜F13の関連付けが行われる。全視点数領域B11に格納されている全視点数が「4」であり、視点画像領域B12に格納されている主画像の視点番号が「1」であるため、視点1の画像ファイルF10(ファイル名:ABCD0001.JPG)を先頭に4枚の画像で多視点画像として関連付けられていることが分かる。なお、画像ファイルの配置については、後に詳述する。
このように、視点1〜4の全ての画像に対して生成された画像ファイルF10〜F13の関連画像情報に重複する情報が含まれないように、関連画像情報に格納する画像を選択されることにより、最低限の関連画像情報で、関連画像情報に基づいて主画像を復元することができる。また、付属情報に主画像の画像データが関連画像情報として格納されている画像ファイルを示す情報が格納されているため、主画像が復元可能な関連画像情報がどの画像ファイルに含まれているかを、画像ファイルの付属情報から知ることができる。
<画像ファイルの構成についての第2の実施の形態>
画像ファイルの構成についての第2の実施の形態は、主画像と、主画像とは異なる視点から撮影された画像との差分情報を関連画像情報として記録する形態である。以下、第1撮像系2a及び第2撮像系2bにより各2枚の画像が撮影され、その中から選択された3枚の画像で多視点画像が構成された場合における画像ファイルの構成についての第2の実施の形態について図4及び図5を用いて説明する。なお、画像ファイルの構成についての第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。便宜上、第1撮像系2aで1回目に撮影された画像を視点1の画像とし、第1撮像系2aで2回目に撮影された画像を視点2の画像とし、第2撮像系2bで1回目に撮影された画像を視点3の画像とし、第2撮像系2bで2回目に撮影された画像は使用しないとして説明する。
視点画像の画像ファイルは、視点1の画像ファイルF20(ファイル名:3DF_0001.JPG)と、視点2の画像ファイルF21(ファイル名:3DF_0002.JPG)と、視点3の画像ファイルF22(ファイル名:3DF_0003.JPG)との3個の画像ファイルで構成されている。視点1の画像ファイルF20、視点2の画像ファイルF21及び視点3の画像ファイルF22には連続したファイル名が自動的に付けられ、これらの画像ファイルの関連付けが行われる。
視点1の画像ファイルF20は、画像ファイルF20のデータの先頭を示すマーカSOIの格納領域A101と、タグ情報格納領域A202と、視点1の画像(主画像)の画像データ格納領域A103と、データの終了を示すマーカEOIの格納領域A104と、付属情報領域A206と、関連画像情報格納領域A205とで構成される。視点2の画像ファイルF21は、画像ファイルF21のデータの先頭を示すマーカSOIの格納領域A111と、タグ情報格納領域A212と、視点2の画像(主画像)の画像データ格納領域A113と、データの終了を示すマーカEOIの格納領域A114と、付属情報領域A216と、関連画像情報格納領域A215とで構成される。視点3の画像ファイルF22は、画像ファイルF12のデータの先頭を示すマーカSOIの格納領域A121と、タグ情報格納領域A222と、視点3の画像(主画像)の画像データ格納領域A123と、データの終了を示すマーカEOIの格納領域A124と、付属情報領域A226と、関連画像情報格納領域A225とで構成される。
なお、図4に示す例では、付属情報領域A206、A216、A226及び関連画像情報格納領域A205、A215、A225が、EOIの格納領域A104、A114、A124の次にそれぞれ格納されているが、図5に示すように、付属情報領域A206、A216、A226及び関連画像情報格納領域A205、A215、A225をタグ情報格納領域A202’ 、A212’、A222 ’の中にそれぞれ格納してもよい。この場合には、タグ情報格納領域A202’には、タグ情報格納領域A202に格納されているExif識別情報A1021、TIFFヘッダA1022、IFD0領域A1023及び付属情報A1024に加えて、付属情報領域A206及び関連画像情報格納領域A205画が格納される。タグ情報格納領域A212’、A222’については、タグ情報格納領域A202’と同様の構成であるため、説明を省略する。
関連画像情報格納領域A205、A215、A225には、主画像以外の全ての画像の画像データと、主画像の画像データとの差分情報が格納される。視点1の画像ファイルF20の関連画像情報格納領域A205には、視点2の画像データと視点1(主画像)の画像データとの差分画像データ及び視点3の画像データと視点1の画像データとの差分画像データが格納され、視点2の画像ファイルF21の関連画像情報格納領域A215には、視点1の画像データと視点2(主画像)の画像データとの差分画像データ及び視点3の画像データと視点2の画像データとの差分画像データが格納され、視点3の画像ファイルF22の関連画像情報格納領域A225には、視点1の画像データと視点3(主画像)の画像データとの差分画像データ及び視点2の画像データと視点3の画像データとの差分画像データが格納される。このように、関連画像情報格納領域A205、A215、A225に主画像以外の所望の画像の画像データと、主画像の画像データとの差分情報を関連画像情報として格納することにより、関連画像情報を保存するのに必要な記憶容量を少なくすることができる。また、主画像以外の全ての画像の画像データと、主画像の画像データとの差分情報が関連画像情報として生成されることにより、1つの画像ファイルの関連画像情報に基づいて、全ての主画像を復元することができる。
付属情報領域A206、A216、A226には、図5に示すように、全視点数を格納する領域B21と、主画像がどの視点で撮影された画像かを示す情報を格納する領域(視点画像領域)B22と、関連画像情報に含まれる画像がどの視点で撮影された画像かを示す情報を格納する領域(関連画像領域)B23、B24と、主画像の画像データがどの画像ファイルの関連画像領域に格納されているかを示す情報を格納する領域(関連視点画像情報領域)B25、B26と、その他付属情報を格納する領域B27とが設けられている。
全視点数領域B21には、多視点画像を構成する画像の枚数(視点数)が格納される。本実施の形態では、視点1〜3の3枚の画像で多視点画像が構成されるため、全視点数領域B21には「3」が格納される。
視点画像領域B22には、画像ファイルの主画像の視点番号が格納される。画像ファイルF20は視点1が主画像の場合であるため、視点画像領域B22には「1」が格納される。
関連画像領域1B23、関連画像領域2B24には、関連画像情報に含まれる画像データの情報が格納される。画像ファイルF20の場合には、視点2の画像データと視点1の画像データとの差分画像データと、視点3の画像データと視点1の画像データとの差分画像データとが関連画像情報に格納されているため、関連画像領域1B23には「△(2−1)」が格納され、関連画像領域2B24には「△(3−1)」が格納される。
関連視点画像情報領域1B25、関連視点画像情報領域2B26には、主画像が関連画像情報として格納されている画像ファイルのファイル名及びその画像ファイルが配置されている位置が格納される。画像ファイルF20の場合には、主画像は視点1の画像であり、視点1が関連画像情報として格納されている画像ファイルは、視点2の画像ファイルF21及び視点3の画像ファイルF22であり、視点2の画像ファイルF21及び視点3の画像ファイルF22はDCIMフォルダ内の101_3DVFフォルダ内に配置されているため、関連視点画像情報領域1B25には、「/DCIM/101_3DVF/3DF_0002.JPG」が格納され、関連視点画像情報領域2B26には、「/DCIM/101_3DVF/3DF_0003.JPG」が格納される。
このように、付属情報により画像ファイルF20〜F22の関連付けが行われる。なお、画像ファイルの配置については、後に詳述する。
このように、主画像以外の全ての画像の画像データ又は主画像以外の全ての画像の画像データと、主画像の画像データとの差分情報が関連画像情報として生成されることにより、1つの画像ファイルの関連画像情報に基づいて、主画像を復元することができる。また、主画像以外の画像データと、主画像の画像データとの差分情報を関連画像情報とすることにより、複数枚の画像に関する情報が関連画像情報に含まれているとしても、関連画像情報を格納するのに必要な記憶容量を少なくすることができる。
なお、本実施の形態において関連画像情報に格納された視点画像の画像データを用いる場合には、まず関連画像情報に格納された差分画像データと主画像の画像データを足し合わせることにより関連画像情報の視点番号の画像データを作成する必要がある。その後で、後に詳述する画像ファイルの復元処理や関連画像情報の修復処理に使用すればよい。
[画像ファイルの配置について]
<画像ファイルの配置についての第1の実施の形態>
多視点画像をフォルダ別に保存する方法について、4枚の画像から多視点画像が構成されている場合(視点数:4)を例に図6を用いて説明する。視点1の画像ファイルABCD0001、視点2の画像ファイルABCD0002、視点3の画像ファイルABCD0003及び視点4の画像ファイルABCD0004が同一のフォルダ100ABCDEに保存される。別の多視点画像を構成する4枚の画像の画像ファイルABCD0005、ABCD0006、ABCD0007及びABCD0008は、画像ファイルABCD0001、ABCD0002、ABCD0003及びABCD0004が保存されているフォルダとは別のフォルダ101ABCDEに保存される。このように多視点画像をフォルダ別に保存することにより、多視点画像を構成する4枚の画像の関連付け及び他の多視点画像との識別が可能となる。
なお、本実施の形態では、複眼デジタルカメラ1を用いて多視点画像が撮影された場合を例に説明したが、これに限らず、パノラマ画像等の複数枚の画像を用いることではじめて画像表示ができるようなあらゆる場合にも適用することができる。
<画像ファイルの配置についての第2の実施の形態>
3枚の画像から多視点画像が構成されている場合(視点数:3)を例に図7を用いて説明する。画像ファイルのファイル名ABCD0001の下2桁01を01,02,03、11,12,13、21,22,23・・・というように変化させる命名規則を設ける。命名された全ての画像ファイルは同一フォルダ100ABCDEに保存される。このように多視点画像毎にファイル名を変えることにより、多視点画像を構成する3枚の画像の関連付け及び他の多視点画像を構成する3枚の画像との識別が可能となる。
<画像ファイルの配置についての第3の実施の形態>
3枚の画像から多視点画像が構成されている場合(視点数:3)を例に図8を用いて説明する。画像ファイルのファイル名ABCD0001の下2桁01を01,02,03、04,05,06・・・のように昇順に変化させるという命名規則を設ける。命名された全ての画像ファイルは同一フォルダ100ABCDEに保存される。この場合には、画像ファイルの関連付けは付属情報のみで行われ、多視点画像を構成する画像の枚数や視点番号は、画像ファイル中の付属情報を参照することで判断される。
[画像ファイルの復元処理]
多視点画像を構成する画像のうちの1枚の画像の画像ファイルを紛失した場合における当該画像ファイルの復元処理について、図9を用いて説明する。以下の処理は、メインCPU10によって行われる。
まず、多視点画像を構成する視点数分の画像ファイルを取得する(ステップS1)。視点数分の画像ファイルの取得方法は、先述した画像ファイルの配置の形態によって異なる。図6に示す画像ファイルの配置の場合には、フォルダにより関連付けされているため、所定のフォルダ内の4ファイル(4視点分)、例えばフォルダ100ABCDE内にある4枚の画像ファイルABCD0001、ABCD0002、ABCD0003及びABCD0004を取得する。図7に示す画像ファイルの配置の場合には、ファイル名で関連付けされているため、ファイル名から必要な3視点分のファイルを識別して取得する。例えば、フォルダ100ABCDE内にある画像ファイルのファイル名がABCD0001, ABCD0002, ABCD0003, ABCD0011, ABCD0012, ABCD0013・・・となっているため、ファイル名ABCD0001, ABCD0002, ABCD0003の3枚の画像ファイルで多視点画像を構成すると識別して、これら3枚の画像ファイルを取得する。図8に示す画像ファイルの配置の場合には、まず、任意の1ファイルを取得し、そのファイルの付属情報から視点数と視点番号を取得する。次に、取得した視点数と視点番号から多視点画像を構成する画像ファイルを識別して取得する。例えば、画像ファイルABCD0023.JPGを任意の1ファイルとして取得した場合には、画像ファイルABCD0023.JPGの視点数が3であり、かつ視点番号が2であり、これらの情報から視点番号1の画像ファイルABCD0022.JPGと、視点番号3の画像ファイルはABCD0024.JPGを識別することができる。
次に、全ての視点画像が揃っているかどうかを判定する(ステップS2)。全ての視点画像が揃っている場合(ステップS2でYES)には、主画像の画像データや関連画像情報の修復要否を判定し、必要に応じて修復処理(後述)を行う(ステップS3)。そして、画像ファイルを紛失した場合の処理を終了して、編集、再生、複製などの所望の別処理を行う。
全ての視点画像が揃っていない場合(ステップS2でNO)には、復元が必要な視点画像の特定を行う(ステップS4)。復元が必要な視点画像は、取得した画像ファイルのファイル名や、画像ファイル内の付属情報を参照することによって行うことができる。
ステップS4で特定された画像ファイルの復元が可能かどうか判定する(ステップS5)。例えば、視点数が4の場合で2視点の画像ファイルが無い場合や、視点1の画像ファイルのみが無い場合でも、当該視点画像を関連画像として持つべき画像ファイルから関連画像が消えてしまっている場合などは、復元不可(ステップS5でNO)としてエラー処理を行う(ステップS6)。
以下、ステップS5で画像ファイルの復元が可能な場合(ステップS5でYES)について、図2に示す形態の画像ファイルで「視点2画像ファイル」が無くなっていた場合を例に説明する。
まず、主画像の復元用の画像を抽出する(ステップS7)。視点3画像ファイルの付属情報には、関連画像情報に視点2の画像ファイルが格納されていることが記載されているため、視点2の画像データを視点3画像ファイルから抽出する。
次に、関連画像情報の復元用の画像を抽出する(ステップS8)。視点1画像ファイルの付属情報には、主画像として視点1の画像データが格納されていることが記載されているため、視点1の画像データを視点1画像ファイルから抽出する。
そして、画像ファイルの復元用の付属情報を生成する(ステップS9)。他の画像ファイルの付属情報を参照して、復元する視点2画像ファイル用の付属情報(図3参照)を生成する。
最後に、ステップS7で抽出された主画像の画像データと、ステップS8で抽出された関連画像情報と、ステップS9で生成された付属情報とを結合することにより、紛失等された画像ファイルを復元して、当該復元した画像ファイルを他の画像ファイルと同じ位置に書き込み(ステップS10)、処理を終了する。
これにより、削除、紛失、離散などにより、記録されているはずの画像ファイルが使用できない場合においても、使用できない画像ファイルをその他の画像ファイルから自動的に復元することができる。
また、多視点画像の一部の視点の画像が使用できなくなった場合においても、その画像を復元することができるため、多視点画像が表示できなくなるという不具合を防止することができる。
[画像ファイルの関連画像情報の修復]
編集モードにおいて画像を編集する場合に、関連画像情報が使用できないかどうかを判断し、使用できない場合には当該関連画像情報を修復する処理について、図10を用いて説明する。以下の処理は、メインCPU10によって行われる。
編集したい画像が主画像として格納されている画像ファイルを取得し(ステップS1)、当該画像ファイルの付属情報を読み込む(ステップS2)。
付属情報に記載された通りの関連画像情報が画像ファイルに格納されているかどうかを判断し(ステップS13)、付属情報に記載された通りの関連画像情報が画像ファイルに格納されていない場合(ステップS13でNO)には、その他付属情報を格納する領域B27に関連画像修復フラグをセットし(ステップS14)、主画像の画像データを編集するステップ(ステップS15)へ進む。付属情報に記載された通りの関連画像情報が画像ファイルに格納されている場合(ステップS13でYES)には、主画像の画像データを編集するステップ(ステップS15)へ進む。
主画像の画像データの編集(ステップS15)が終了したら、当該画像ファイルの関連画像情報として持つべき視点画像(関連視点画像)が主画像又は関連画像情報として格納されている画像ファイルを取得する(ステップS16)。
ステップS16で取得された画像ファイルの主画像の画像データ及び関連画像情報の修復が必要かどうかを判断する(ステップS17)。修復の要否は、付属情報に記載された主画像及び関連画像情報の情報と、実際に画像データ格納領域及び関連画像情報格納領域に格納された画像とを比較することによって行われる。ステップS16で取得された画像ファイルの修復が必要ない場合(ステップS17でNO)の場合には、ステップS14において関連画像修復フラグがセットされたかどうかを判断し(ステップS18)、関連画像修復フラグがセットされている場合(ステップS18でYES)には、主画像の編集を行った画像ファイルの関連画像情報を修復し(ステップS19)、当該画像ファイルを修復前と同じフォルダ内に書き込む、すなわち上書き処理を行う(ステップS20)。関連画像修復フラグがセットされていない場合(ステップS18でNO)には、当該画像ファイルの書き込み処理を行う(ステップS20)。
ステップS16で取得された画像ファイルの主画像の画像データ及び関連画像情報の修復が必要な場合、すなわち付属情報に記載された主画像及び関連画像情報の情報と、実際に画像データ格納領域及び関連画像情報格納領域に格納された画像と同じでない場合や、主画像の画像データ又は願練画像情報が使用できない場合など(ステップS17でYES)には、視点画像の修復(ステップS21)及び関連画像情報の修復(ステップS22)を行い、主画像の画像データや関連画像情報が修復された画像ファイルを修復前と同じフォルダ内に書き込む、すなわち上書きを行い(ステップS23)、その後編集が行われた画像ファイルの関連画像情報修復処理(ステップS18〜S20)を行う。なお、視点画像の修復(ステップS21)及び関連画像情報の修復(ステップS22)は、ステップS12、S16及びS18〜S20とほぼ同様の流れで処理を行なえばよいため、説明を省略する。
このように、編集対象となる画像を主画像とする画像ファイルの関連画像情報に問題がないかどうかを判断し、関連画像情報に問題があると判断された場合には、当該画像ファイルの付属情報及び当該画像ファイル以外の主画像の画像データ又は関連画像情報に基づいて、問題がある関連画像情報を修復することで、関連画像情報から主画像が修復可能な状態を常に保つことができる。これにより、多視点画像が表示できなくなるという不具合を防止することができる。
また、多視点画像を構成する画像の一部が使用できなくなった場合においても、使用できなくなった画像の復元が可能な状態を維持しながら画像データの編集を行うことができる。
<他の実施の形態>
また、本実施の形態では、複眼デジタルカメラ1を用いて画像ファイルの復元処理や、関連画像情報修復処理を行ったが、画像の記録、編集等が可能なパーソナルコンピュータ(PC)等の画像処理装置を用いてもよい。以下、図11を用いて画像記録装置100について説明する。
中央処理装置(CPU)102は、バス104を介して画像記録装置100内の各ブロックに接続されており、各ブロックの動作を制御する。また、CPU102は、複眼デジタルカメラ1又はメモリカード38から画像ファイルを読み込み、先に述べたような画像ファイルの復元処理や、関連画像情報修復処理などを行う。
主メモリ106は、制御プログラムが格納される記憶領域や、プログラム実行時の作業領域を含んでいる。
ハードディスク装置108には、画像記録装置100のオペレーティングシステム(OS)や、各種のアプリケーションソフト、撮影装置1又はメモリカード38から読み込まれた記録用画像データ(基本ファイルF10及び拡張画像ファイルF100)等が格納される。
CD−ROM装置110は、図示しないCD−ROMからのデータの読み込みを行う。
カードインターフェース部(カードI/F)112は、メモリカード38から画像データを読み取る。
表示メモリ116は、表示用データを一時記憶する。
モニタ118は、例えば、CRT(Cathode Ray Tube)モニタや液晶モニタにより構成され、この表示メモリ116から出力される画像データ、文字データ等に基づいて画像や文字等を表示する。
キーボード120及びマウス122は、操作者からの操作入力を受け付けて、操作入力に応じた信号をCPU102に入力する。なお、ポインティングデバイスとしては、マウス122のほか、タッチパネルやタッチパッド等を用いることができる。
マウスコントローラ124は、マウス122の状態を検出してモニタ118上のマウスポインタの位置や、マウス122の状態等の信号をCPU102に出力する。
オーディオ入出力回路126には、マイク128及びスピーカ130が接続され、各種の音声信号が入力されるとともに、キーボード120等からの操作入力に応じて各種動作音が再生出力される。通信インターフェイス部(通信I/F)132は、ネットワークNWとの通信を行う。カメラ接続インターフェイス部(カメラ接続I/F)134は、撮影装置(電子カメラ、デジタルカメラ)1との間でデータの送受信を行う。
また、本実施の形態では、画像ファイル生成手段53において画像ファイルの作成を行い、メインCPU10において画像ファイルの復元処理や関連画像情報修復処理などを行う複眼デジタルカメラ1という装置について説明したが、装置に限らず、例えば、撮像装置、PC、携帯情報端末のような装置に適用するプログラムとして提供してもよい。
1:複眼デジタルカメラ、2a:第1撮像系、2b:第2撮像系、6a、6b:画像表示LCD、10:メインCPU、38:メモリカード、50:2D/3Dモード切替フラグ設定手段、51:基線長/輻輳角記憶手段、53:画像ファイル生成手段