以下、添付図面に従って本発明に係る画像記録方法及び装置の好ましい実施の形態について説明する。
図1は本発明が適用された3D撮影システムの概略構成図である。同図に示すように、この3D撮影システムSは、複数台(本例では6台)のカメラC1〜C6と、各カメラC1〜C6を制御して、立体視用の画像の記録、生成を行うコントロールユニットUとで構成されている。
各カメラC1〜C6は、同一被写体を異なる視点から撮影可能に設置されており、それぞれ所定の位置に所定の方向に向けられて設置されている。各カメラC1〜C6はデジタルカメラで構成されており、レンズを通った光を撮像素子(CCDなど)で受け、デジタル信号に変換してコントロールユニットUに出力する。
なお、各カメラC1〜C6には、視点を識別するための視点番号が与えられており、本例では、図中右側のカメラから順に視点1、視点2、…、視点6と視点番号が与えられている。
コントロールユニットUは、主としてシステムコントローラU1、操作部U2、記録部U3、表示部U4、メモリU5、接続インターフェイス(I/F)U6で構成されている。
システムコントローラU1は、本システムの動作を統括制御するとともに、各カメラC1〜C2から得られた画像データに基づき3D画像の生成処理や画像の加工処理を行う。また、記録用の画像ファイルの生成処理を行う。このシステムコントローラU1は、CPU、ROM、RAM、フラッシュROM等を備えて構成されており、CPUは、所定の制御プログラムに従って各種処理を実行する。ROMには、このCPUが実行する各種制御プログラムや制御に必要な各種データが格納されている。
操作部U2は、マウス、キーボード等の入力デバイスによって構成されており、この操作部U2によって各種操作(撮影実行指示や各種設定入力等)が行われる。システムコントローラU1は、この操作部U2からの入力に応じて各種処理を実行する。
記録部U3は、記憶媒体を備え、システムコントローラU1による制御の下、撮影により得られた画像を記憶媒体に記録する。記憶媒体は、たとえばHDDやフラッシュメモリ等で構成される。なお、その構成としては、メモリカード等を用いて交換可能としてもよいし、固定的に設置してもよい。
表示部U4は、2D/3D表示が可能なディスプレイを備え、システムコントローラU1による制御の下、撮影された画像をディスプレイに3D表示する。また、必要に応じて各カメラC1〜C6で撮影された画像を個別に2D表示する。
メモリU5は、各種処理時における画像データ等の一時記憶等に使用される。
接続インターフェイスU6は、各カメラC1〜C6との接続に用いられ、この接続インターフェイスU6を介して各カメラC1〜C6に制御信号が出力される。また、この接続インターフェイスU6を介して各カメラC1〜C6から得られた画像データがコントロールユニットUに入力される。
次に、以上のように構成された本実施の形態の3D撮影システム1による画像データの記録方法について説明する。
上記のように各カメラC1〜C6は、それぞれ所定の位置に所定の方向に向けられて設置されている。コントロールユニットUには、この各カメラC1〜C6の設置状況の情報があらかじめ入力されている。
コントロールユニットUの操作部U2から撮影実行の指示が入力されると、システムコントローラU1は、各カメラC1〜C6を制御して、被写体を撮影する。
撮影により得られた画像データは、各カメラC1〜C6から接続インターフェイスU6を介してコントロールユニットUに取り込まれ、メモリU5に格納される。
システムコントローラU1は、このメモリU5に格納された各カメラC1〜C6の画像データを処理して、3D画像データを生成し、表示部U4に出力する。これにより、各カメラC1〜C6で撮影された画像が表示部U4のディスプレイに立体視可能な状態で表示される。
なお、この種の3D画像の生成方法については、公知の技術であるので、その詳細な説明は省略する。
また、システムコントローラU1は、メモリU5に格納された各カメラC1〜C6の画像データを処理して、所定形式の画像ファイルを生成し、生成した画像ファイルを記録部U3の記憶媒体に記録する。
以下、この記録用の画像ファイルの構成について説明する。
システムコントローラU1は、記録用の画像ファイルとして、2つの画像ファイルを生成する。一つは、全ての画像データを格納した拡張画像ファイルであり、他の一つは、その中の代表画像の画像データを格納した基本ファイルである。システムコントローラU1は、この2つの画像ファイルを生成し、所定のファイルフォーマットに従い互いに関連づけて記憶媒体に記録する。
図2は、基本ファイルのデータ構造を模式的に示す図であり、図3は、拡張画像ファイルのデータ構造を模式的に示す図である。また、図4は、記憶媒体に基本ファイル及び拡張画像ファイルを格納する際のフォルダのツリー構造を模式的に示す図である。
図4に示すように、基本ファイルF10と拡張画像ファイルF100は、記憶媒体の同一のフォルダに格納される(本実施形態では、「ルートフォルダ」の直下に生成された「DCIMフォルダ」に格納される。)。
この際、基本ファイルF10と拡張画像ファイルF100の拡張子は、それぞれ「JPG」、「F3D」とされる。また、基本ファイルF10と拡張画像ファイルF100は、同じファイル名が付与される。なお、本実施形態では、基本ファイルF10のファイル名と拡張画像ファイルF100のファイル名は、DCF(Design rule for Camera File system)に従って決定される。
図3に示すように、拡張画像ファイルF100は、SOI格納領域A100、タグ情報格納領域A102、画像データ格納領域A104、EOI格納領域A106を含んで構成されている。
SOI格納領域A100には、拡張画像ファイルF100のデータの先頭を示すマーカSOI(Start of Image)が格納され、EOI格納領域A106には、拡張画像ファイルF100のデータの終了を示すマーカEOI(End of Image)が格納される。
タグ情報格納領域A102には、拡張画像ファイルF100の3Dヘッダ情報が格納される。ここで、3Dヘッダ情報とは、画像データ格納領域A104に格納された多視点の画像データの中から2つ以上を組み合わせて立体視用の表示を行うために使用される情報であり、たとえば、立体視用の表示を行うときに使用する画像データの数を示す視点数、立体視用の表示を行うときに使用する画像データを指定するための情報、拡張画像ファイルF100における各画像データの読み出し開始位置を指定するポインタ情報が含まれる。
また、タグ情報格納領域A102には、対応する基本ファイルF10を特定するための情報が格納されており、拡張画像ファイルF100の再生時に基本ファイルF10が参照できるようにされている。
画像データ格納領域A104には、各カメラで撮影された画像データP(1)、P(2)、…、P(N)が格納される(本実施の形態では、各カメラC1〜C6で撮影された6つの画像データP(1)〜P(6)が格納され、代表画像データの元画像データも含まれる。)。
なお、この画像データ格納領域A104に格納する画像データの形式は、特に限定されず、たとえば、JPEG圧縮等して得られた圧縮画像データであってもよいし、また、RAW画像データであってもよい。システムコントローラ2aは、必要に応じて画像データの圧縮処理を行う。
図2に示すように、本実施形態の基本ファイルF10は、SOI格納領域A10、タグ情報格納領域A12、画像データ格納領域A14、EOI格納領域A16を含んで構成され、一般的なEXIF形式のファイルとして再生及び編集処理ができるように構成されている。
SOI格納領域A10には、基本ファイルF10のデータの先頭を示すマーカSOI(Start of Image)が格納され、EOI格納領域A16には、基本ファイルF10のデータの終了を示すマーカEOI(End of Image)が格納される。
画像データ格納領域A14には、拡張画像ファイルF100に格納された画像データP(1)、P(2)、…、P(N)の中の代表画像データP(d)が格納される。
システムコントローラU1は、各カメラC1〜C6で撮影された画像の中の1つを選択し、代表画像データとする。
なお、代表画像データの選択については、自動で行うようにしてもよいし、撮影のたびにユーザが選択するようにしてもよい。自動で行う場合の選択基準としては、たとえば、中間の視点番号の画像データを代表画像データP(d)としたり、先頭の視点番号の画像データを代表画像データとしたりして選定する。また、あらかじめ代表画像を撮影するカメラを選択し、当該カメラで撮影された画像データを代表画像データとするようにしてもよい。
ここで、この画像データ格納領域A14に格納される代表画像データP(d)は、当該基本ファイルF10が一般的なEXIF形式のファイルとして再生及び編集処理ができるように、JPEG形成に圧縮された上で格納される。また、その圧縮される画像データは、再生時にどの視点で撮影された画像かが識別できるように、画像に識別情報が重畳された上で圧縮処理が施される。すなわち、システムコントローラU1は、代表画像データを選択後、その代表画像データが表す画像(代表画像)に視点を示す情報を付加した画像データを生成し、これをJPEG形成で圧縮して、画像データ格納領域A14に格納する。
図5は、識別情報を付加した代表画像の一例を示す図である。この例では、各カメラC1〜C6で撮影された画像の縮小画像を代表画像に重ねて表示し、代表画像の縮小画像を他の画像の縮小画像と異なる色の枠で囲って強調することにより、その代表画像がどの視点の画像かを容易に識別できるようにしている。本例では、代表画像の縮小画像については赤い枠で囲い、他の画像の縮小画像については白い枠で囲って容易に識別できるようにしている。
なお、この例では、代表画像の画面下側に縮小画像を並列して配置(画面左から視点番号順に縮小画像を並列して配置)しているが、この縮小画像の配置レイアウトについては特に限定されるものではない。たとえば、画面右側に縦方向に並列して配置するようにしてもよい。なお、より明確に区別できるようにするには、本例のように、視点番号順に横方向に並列して配置することが好ましい。
また、本例では、代表画像の縮小画像を他の画像の縮小画像と異なる色の枠で囲うことにより、代表画像を識別させる方法を採っているが、代表画像を容易に識別できる方法であれば、その識別方法については、特に限定されるものではない。たとえば、この他に代表画像の縮小画像のみを枠で囲ったり、代表画像の縮小画像を囲う枠の上に代表画像であることを示すマークを付加したりして識別させるようにしてもよい。
また、このように代表画像に各画像の縮小画像を重ねて表示するのではなく、代表画像に視点を示す文字情報を重ねて表示することにより、どの視点の画像であるかを識別できるようにしてもよい。
図6は、代表画像に視点番号の情報を重ねて表示したものである。この方法によっても、代表画像が、どの視点の画像なのかを容易に認識することができる。なお、この例では、視点番号5の画像データが、代表画像データとして選択された場合の例を示している。この場合、視点番号5を示す番号5の情報が、代表画像データの右下隅に合成され、代表画像に重ねて表示される。
システムコントローラU1は、代表画像データとして選択された画像データに所定の加工を施すことにより、画像に所定の識別情報を合成し、識別情報が付加された画像データを生成する。
図2に示すように、タグ情報格納領域(APP1 Area)A12には、通常のEXIFファイルと同様の取り扱いができるように、Exif識別情報、TIFFヘッダ、IFD0領域(IFD0 Area)、IFD1領域が設けられている。
IFD0領域には、3Dタグ(3D IFD)が格納されており、3Dタグには、拡張画像ファイルF100との関連性に関する情報が格納されている。したがって、この領域を参照することにより、対応する拡張画像ファイルF100を参照することができる。
次に、上記の基本ファイルと拡張画像ファイルの作成処理の手順について説明する。
上記のように、撮影により得られた各カメラC1〜C6の画像データは、メモリU5に格納される。システムコントローラU1は、このメモリU5に格納された各カメラC1〜C6の画像データを処理して、拡張画像ファイルと基本ファイルを生成し、互いに関連づけて記録部U3の記憶媒体に記録する。
この際、まず、システムコントローラU1は、所定の選択基準に従って代表画像データを選択し、当該画像データを加工して、その画像データが表す画像に視点を示す所定の識別情報を合成して付加する。
この場合、たとえば、図5に示す識別情報を付加する場合には、各画像の縮小画像を生成し、生成した縮小画像を代表画像の画面下側に視点番号順に並列配置するとともに、代表画像の縮小画像を他の画像の縮小画像と異なる色の枠で囲う。
また、図6に示す識別情報を付加する場合には、代表画像の画面右下隅にその画像データの視点番号の文字情報を配置する。
このように、再生時に所定の識別情報が表示されるように、代表画像データを加工し、その加工された代表画像データをJPEG形式で圧縮する。そして、この圧縮された代表画像データを画像データ格納領域A14に格納して、基本ファイルF10を生成する。
また、全ての画像データを画像データ格納領域A104に格納して、拡張画像ファイルF100を生成する。なお、上記のように、この拡張画像ファイルF100に格納する画像データは、圧縮した画像データであってもよいし、また、非圧縮の画像データ(たとえば、RAW画像データ)であってもよい。
そして、生成した基本ファイルF10と拡張画像ファイルF100に同じファイル名を付して記録部2dの記憶媒体に記録する。
このように記録された画像ファイルは、3D再生機能があり、拡張画像ファイルを解釈可能な再生装置で再生した場合には、拡張画像ファイルに格納された各種情報及び画像データに基づいて3D画像の生成が行われ、所要のディスプレイに画像が3D表示される。また、必要に応じて、代表画像が2D表示される。
一方、3D再生機能がなく、拡張画像ファイルの解釈ができない再生装置で再生した場合には、基本ファイルに格納された各種情報及び画像データに基づいて画像の再生処理が行われる。この際、ディスプレイに表示されるのは、代表画像であり、当該代表画像には、図5又は図6に示すように、視点を示す識別情報が含まれる。したがって、当該画像に接したユーザは、その画像がどの視点の画像であるかを直ちに認識することができる。
このように、本実施の形態の3D撮影システムによれば、基本ファイルF10に格納される代表画像に視点を示す所定の識別情報が付加されるので、撮影後の画像データの取り扱いが容易になる。
また、3D画像を生成するための拡張画像ファイルF100の他に汎用性のある基本ファイルF10を生成することにより、3D再生機能のない再生装置でも代表画像の再生を行うことができ、この点においても撮影後の画像データの取り扱いが容易になる。
なお、本実施の形態では、拡張画像ファイルF100の画像データ格納領域A104に各視点の画像データを連続的に格納しているが、図7に示すように、各視点の画像データの直前、直後に各画像データのタグ情報やマーカなどを格納する領域を設けてもよい。
図8は、記録用の画像ファイルの他の実施の形態のデータ構造を示す模式図である。
本実施の形態の画像ファイル(以下、多視点画像ファイルという)F200では、全ての画像データを格納する領域と、代表画像データが格納される領域とが備えられており、1つの画像ファイルの中に全ての画像データと代表画像データとが格納される。そして、3D再生機能のない汎用の再生装置でも代表画像だけは再生できるように、前段はExif形式で代表画像データが格納され、そのExif形式のデータ領域に連続して、3D情報とすべて画像データが格納される。
図8に示すように、本実施形態の多視点画像ファイルF200は、SOI格納領域A200、タグ情報格納領域A202、代表画像データ格納領域A204、第1のEOI格納領域A206、メタデータ格納領域A208、画像データ格納領域A210、第2のEOI格納領域A212を含んで構成されている。
SOI格納領域A200には、多視点画像ファイルF200のデータの先頭を示すマーカSOI(Start of Image)が格納される。
タグ情報格納領域A202には、通常のEXIFファイルと同様の取り扱いができるように、Exif識別情報、TIFFヘッダ、IFD0領域(IFD0 Area)、IFD1領域が設けられている(図2参照)。
代表画像データ格納領域A204には、各カメラC1〜C6から得られた画像データP(1)、P(2)、…、P(N)の中の代表画像データP(d)が格納される。
なお、この代表画像データについては、上記実施の形態の基本ファイルF10に格納される代表画像データと同様に、再生時にどの視点で撮影された画像かが識別できるように、画像に識別情報が重畳される(図5、図6参照)。
また、Exif形式のファイルとしての取り扱いができるように、所定の圧縮処理(JPEG圧縮等)が施される。
なお、代表画像の選択基準等については、上記実施の形態と同じである。
第1のEOI格納領域A206には、Exif形式のデータの終了を示すマーカEOI(End of Image)が格納される。
Exif形式の画像ファイルが再生できる装置では、少なくともこの第1のEOI格納領域A206に格納されたマーカEOIまでを読み取ることにより、代表画像の再生を行うことができる。
メタデータ格納領域A208には、上記実施の形態の拡張画像ファイルF100のタグ情報格納領域A102に格納される3Dヘッダ情報と同様に画像データ格納領域A210に格納される多視点の画像データの中から2つ以上を組み合わせて立体視用の表示を行うために使用される情報が格納される。たとえば、立体視用の表示を行うときに使用する画像データの数を示す視点数、立体視用の表示を行うときに使用する画像データを指定するための情報、各画像データの読み出し開始位置を指定するポインタ情報が含まれる。
画像データ格納領域A210には、多視点撮影された画像データP(1)、P(2)、…、P(N)が格納される(本実施の形態では、各カメラC1〜C6で撮影された6つの画像データP(1)〜P(6)が格納され、代表画像の元画像のデータも含まれる。)。
なお、この画像データ格納領域A210に格納される画像データの形式は、特に限定されず、たとえば、JPEG圧縮等して得られた圧縮画像データであってもよいし、また、RAW画像データであってもよい。
第2のEOI格納領域A212には、多視点画像ファイルF200のデータの終了を示すマーカEOI(End of Image)が格納される。
次に、上記の多視点画像ファイルF200の作成処理の手順について説明する。
撮影により得られた各カメラC1〜C6の画像データは、メモリU5に格納される。システムコントローラU1は、このメモリU5に格納された各カメラC1〜C6の画像データを処理して、拡張画像ファイルと基本ファイルを生成し、互いに関連づけて記録部U3の記憶媒体に記録する。
この際、まず、システムコントローラU1は、所定の選択基準に従って代表画像データを選択し、当該画像データを加工して、その画像データが表す画像に視点を示す所定の識別情報を付加する(図5、図6参照)。
次に、その識別情報が付加された代表画像データをJPEG形式で圧縮する。そして、この圧縮された代表画像データを代表画像データ格納領域A204に格納するとともに、全ての画像データを画像データ格納領域A210に格納し、所要の情報を付加して多視点画像ファイルF200を生成する。
そして、生成した多視点画像ファイルF200に所定のファイル名を付して記録部2dの記憶媒体に記録する。この際、ファイル名は、たとえば、DCF規格に従って付与される。
このように記録された画像ファイルは、3D再生機能があり、メタデータ格納領域A208に格納された情報を解釈可能な再生装置で再生した場合には、画像データ格納領域A210に格納された画像データ及び3D情報等に基づいて3D画像の生成が行われ、所要のディスプレイに画像が3D表示される。また、必要に応じて、代表画像が2D表示される。
一方、3D再生機能がなく、拡張画像ファイルが解釈不能な再生装置で再生した場合には、第1のEOI領域に格納されたデータまでを解釈することにより、代表画像の再生処理が行われる。
この際、代表画像には、視点を示す識別情報が含まれるので(図5、図6参照)、当該画像に接したユーザは、その画像がどの視点の画像であるかを直ちに認識することができる。
このように、本実施の形態のデータ構造の多視点画像ファイルF200においても、代表画像に視点を示す所定の識別情報が付加されるので、撮影後の画像データの取り扱いをきわめて容易にすることができる。
また、3D再生機能のない再生装置でも代表画像の再生を行うことができ、撮影後の画像データの取り扱いを容易にすることができる。
なお、本例では、画像データ格納領域A210に各視点の画像データを連続的に格納しているが、図9に示すように、各視点の画像データの直前、直後に各画像データのタグ情報やマーカなどを格納する領域を設けるようにしてもよい。
図10は、本発明が適用された撮影装置の概略構成を示すブロック図である。
この撮影装置1は、選択的に2D撮影と3D撮影が可能なデジタルカメラであり、3D撮像された画像データを上述した3D撮影システムと同じ形式で記録媒体に記録する。
メインCPU12(以下、CPU12と記載する)は、操作部14からの入力に基づき所定の制御プログラムに従って撮影装置1全体の動作を統括制御する制御手段として機能する。電源制御部16は、バッテリ18からの電力を制御して、撮影装置1の各部に動作電力を供給する。
CPU12には、バス20を介してROM22、フラッシュROM24、SDRAM26及びVRAM28が接続されている。ROM22には、CPU12が実行する制御プログラム及び制御に必要な各種データ等が格納される。フラッシュROM24には、ユーザ設定情報等の撮影装置1の動作に関する各種設定情報等が格納される。
SDRAM26は、CPU12の演算作業用領域及び画像データの一時記憶領域(ワークメモリ)を含んでいる。VRAM28は、表示用の画像データ専用の一時記憶領域を含んでいる。
モニタ30は、2D/3Dの双方の画像を切り替え表示が可能な表示装置で構成され、撮影済み画像を表示するための画像表示部として使用されるとともに、各種設定時にGUIとして使用される。また、撮影時には、撮影部で撮像された画像がスルー表示されて電子ファインダとして利用される。
表示制御部32は、撮像素子48又はメモリカード70から読み出された画像データを表示用の画像信号(たとえば、NTSC信号、PAL信号又はSCAM信号)に変換してモニタ30に出力するとともに、所定の文字、図形情報(たとえば、オンスクリーン表示用のデータ)をモニタ30に出力する。
なお、この表示制御部32は、所定のインターフェイス(たとえば、USB、IEEE1394、LAN)を介して接続された外部表示装置に画像を出力できるようにされている。
操作部14は、シャッタボタン、電源/モードスイッチ、モードダイヤル、十字ボタン、ズームボタン、MENU/OKボタン、DISPボタン及びBACKボタン等の操作入力手段を含んでいる。
電源/モードスイッチは、撮影装置1の電源のオン/オフの切り替え、及び撮影装置1の動作モード(再生モード及び撮影モード)の切り替え手段として機能する。
モードダイヤルは、撮影装置1の撮影モードを切り替えるための操作手段であり、モードダイヤルの設定位置に応じて、2次元の静止画を撮影する2D静止画撮影モード、2次元の動画を撮影する2D動画撮影モード、3次元の静止画を撮影する3D静止画撮影モード及び3次元の動画を撮影する3D動画撮影モードの間で撮影モードが切り替えられる。撮影モードが2D静止画撮影モード又は2D動画撮影モードに設定されると、2D/3Dモード切替フラグ34に、2次元画像を撮影するための2Dモードであることを表すフラグが設定される。また、撮影モードが3D静止画撮影モード又は3D動画撮影モードに設定されると、2D/3Dモード切替フラグ34に、3次元画像を撮影するための3Dモードであることを表すフラグが設定される。CPU12は、2D/3Dモード切替フラグ34を参照して、2Dモードと3Dモードのいずれであるかを判別する。
シャッタボタンは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画撮影モード時には、シャッタボタンが半押しされると、撮影準備処理(すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス))が行われ、シャッタボタンが全押しされると、画像の撮影・記録処理が行われる。また、動画撮影モード時には、シャッタボタンが全押しされると、動画の撮影が開始され、再度全押しされると、撮影が終了する。設定により、シャッタボタンが全押しされている間、動画の撮影が行われ、全押しが解除されると、撮影を終了するようにすることもできる。なお、静止画撮影用のシャッタボタン及び動画撮影用のシャッタボタンを別々に設けるようにしてもよい。
十字ボタンは、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、撮影装置1の動作モード等に応じた機能が割り当てられる。たとえば、撮影モード時には、左ボタンにマクロ機能のオン/オフを切り替える機能が割り当てられ、右ボタンにフラッシュモードを切り替える機能が割り当てられる。また、撮影モード時には、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのオン/オフを切り替える機能が割り当てられる。再生モード時には、左ボタンにコマ送りの機能が割り当てられ、右ボタンにコマ戻しの機能が割り当てられる。また、再生モード時には、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ30に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。
ズームボタンは、撮影部10−1、10−2、…、10−Nのズーミング操作を行うための操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとを備えている。
MENU/OKボタンは、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、撮影装置1の設定状態に応じて割り当てられる機能が切り替えられる。メニュー画面では、MENU/OKボタンは、たとえば、露出値、色合い、撮影感度、記録画素数等の画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否か等、撮影装置1が持つすべての調整項目の設定が行われる。撮影装置1は、このメニュー画面で設定された条件に応じて動作する。
DISPボタンは、モニタ30の表示内容の切り替え指示等の入力に用いられ、BACKボタンは入力操作のキャンセル等の指示の入力に用いられる。
フラッシュ発光部36は、たとえば、放電管(キセノン管)により構成され、暗い被写体を撮影する場合や逆光時等に必要に応じて発光される。フラッシュ制御部38は、フラッシュ発光部(放電管)36を発光させるための電流を供給するためのメインコンデンサを含んでおり、CPU12からのフラッシュ発光指令に従ってメインコンデンサの充電制御、フラッシュ発光部36の放電(発光)のタイミング及び放電時間の制御等を行う。
次に、撮影装置1の撮影機能について説明する。撮影部10は、撮影レンズ40(ズームレンズ42、フォーカスレンズ44及び絞り46)、ズームレンズ制御部(Zレンズ制御部)42C、フォーカスレンズ制御部(Fレンズ制御部)44C、絞り制御部46C、撮像素子48、タイミングジェネレータ(TG)50、アナログ信号処理部52、A/D変換器54、画像入力コントローラ56及びデジタル信号処理部58を備えている。なお、図10では、各撮影部10−1、10−2、…、10−N内の構成にそれぞれ符号1、…、Nを付している。
ズームレンズ42は、図示しないズームアクチュエータに駆動されて光軸に沿って前後に移動する。CPU12は、ズームレンズ制御部42Cを介してズームアクチュエータの駆動を制御することにより、ズームレンズ42の位置を制御してズーミングを行う。
フォーカスレンズ44は、図示しないフォーカスアクチュエータに駆動されて光軸に沿って前後に移動する。CPU12は、フォーカスレンズ制御部44Cを介してフォーカスアクチュエータの駆動を制御することにより、フォーカスレンズ44の位置を制御してフォーカシングを行う。
絞り46は、たとえば、アイリス絞りで構成されており、図示しない絞りアクチュエータに駆動されて動作する。CPU12は、絞り制御部46Cを介して絞りアクチュエータの駆動を制御することにより、絞り46の開口量(絞り値)を制御し、撮像素子48への入射光量を制御する。
CPU12は、各撮影部の撮影レンズ40−1、40−2、…、40−Nを同期させて駆動する。すなわち、撮影レンズ40−1、40−2、…、40−Nは、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ被写体にピントが合うように焦点調節が行われる。また、常に同じ入射光量(絞り値)となるように絞りが調整される。
撮像素子48は、たとえば、カラーCCD固体撮像素子により構成されている。撮像素子(CCD)48の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードには所定の配列でカラーフィルタが配置されている。撮影レンズ40によってCCDの受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU12の指令に従ってTG50から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子48から順次読み出される。撮像素子48は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。
なお、本実施形態では、撮像素子48としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
アナログ信号処理部52は、撮像素子48から出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング回路(CDS)、画像信号を増幅して一定レベルの大きさにコントロールするためのAGS回路を含み、撮像素子48から出力される画像信号を相関2重サンプリング処理するとともに増幅する。
A/D変換器54は、アナログ信号処理部52から出力されたアナログの画像信号をデジタルの画像信号に変換する。
画像入力コントローラ56は、A/D変換器54から出力された画像信号を取り込んで、SDRAM26に格納する。
デジタル信号処理部58は、SDRAM26に格納されたR、G、Bの画像信号に対して所定の信号処理を行い、輝度信号(Y信号)と色差信号(Cr、Cb信号)からなるYUV信号を生成する。
撮影画像をモニタ30に出力する場合、デジタル信号処理部58により処理された画像データはVRAM28に格納される。そして、VRAM28から画像データが読み出され、バス20を介して表示制御部32に送られる。表示制御部32は、入力された画像データを表示用の所定方式のビデオ信号に変換してモニタ30に出力する。
AF検出部60は、画像入力コントローラ56−1、56−2、…、56−Nのいずれか1つから取り込まれたR、G、Bの各色の画像信号を取り込み、AF制御に必要な焦点評価値を算出する。AF検出部60は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面に設定された所定のフォーカスエリア内の信号を切り出すフォーカスエリア抽出部、及びフォーカスエリア内の絶対値データを積算する積算部を含み、この積算部で積算されたフォーカスエリア内の絶対値データを焦点評価値としてCPU12に出力する。
CPU12は、AF制御時にはAF検出部60から出力される焦点評価値が極大となる位置をサーチし、その位置にフォーカスレンズ44を移動させることにより、主要被写体への焦点合わせを行う。すなわち、CPU12は、AF制御時には、まず、フォーカスレンズ44を至近から無限遠まで移動させ、その移動過程でAF検出部60から焦点評価値を逐次取得し、その焦点評価値が極大となる位置を検出する。そして、検出された焦点評価値が極大の位置を合焦位置と判定し、その位置にフォーカスレンズ44を移動させる。これにより、フォーカスエリアに位置する被写体(主要被写体)にピントが合わせられる。
AE/AWB検出部62は、画像入力コントローラ56−1、56−2、…、56−Nのいずれか1つから取り込まれたR、G、Bの各色の画像信号を取り込み、AE制御及びAWB制御に必要な積算値を算出する。すなわち、AE/AWB検出部62は、1画面を複数のエリア(たとえば、8×8=64エリア)に分割し、分割されたエリアごとにR、G、B信号の積算値を算出する。
CPU12は、AE制御時にはAE/AWB検出部62において算出されたエリアごとのR、G、B信号の積算値を取得し、被写体の明るさ(測光値)を求めて、適正な露光量を得るための露出設定を行う。すなわち、撮影感度、絞り値、シャッタ速度、ストロボ発光の要否を設定する。
また、CPU12は、AWB制御時にAE/AWB検出部62により算出されたエリアごとのR、G、B信号の積算値をデジタル信号処理部58に入力する。デジタル信号処理部58は、AE/AWB検出部62により算出された積算値に基づいてホワイトバランス調整用のゲイン値を算出する。また、デジタル信号処理部58は、AE/AWB検出部62により算出された積算値に基づいて光源種を検出する。
圧縮・伸張処理部64は、CPU12からの指令に従い、入力された画像データに圧縮処理を施し、所定形式の圧縮画像データを生成する。たとえば、静止画に対してはJPEG規格に準拠した圧縮処理が施され、動画に対してはMPEG2やMPEG4、H.264規格に準拠した圧縮処理が施される。また、圧縮・伸張処理部64は、CPU12からの指令に従い、入力された圧縮画像データに伸張処理を施し、非圧縮の画像データを生成する。
画像加工部65は、代表画像データを画像処理して、その画像データが表す画像(代表画像)にその画像の視点を示す情報が表示されるように代表画像データを加工する(図5、図6参照)。
画像ファイル生成部66は、上記圧縮・伸張処理部64により生成されたJPEG形式のファイルを複数格納した記録用画像ファイルを生成する。
メディア制御部68は、CPU12からの指令に従い、メモリカード70に対するデータの読み/書きを制御する。
以上のように構成された本実施の形態の撮影装置1による3D画像の撮影、記録の処理は次のように行われる。
カメラのモードを3D静止画撮影モードに設定し、シャッタボタンを半押しすると、CPU12にS1ON信号が入力される。CPU12は、このS1ON信号の入力に応動して、撮影準備処理、すなわちAE、AF、AWBの各処理を実行する。
撮影者は、モニタ30にスルー表示される画像を見て画角、ピント状態等を確認し、撮影実行を指示する。すなわち、シャッタボタンを全押しする。
シャッタボタンが全押しされると、CPU12にS2ON信号が入力される。CPU12は、このS2ON信号に応動して、本撮影の処理を実行する。
まず、上記AE制御の結果求めた撮影感度、絞り値、シャッタ速度で各撮影部10−1、…、10−Nの撮像素子48−1、…、48−Nを同時に露光し、記録用の画像を撮像する。
各撮像素子48−1、…、48−Nから出力された記録用の画像信号は、それぞれアナログ信号処理部52−1、…、52−N、A/D変換器54−1、…、54−N、画像入力コントローラ56−1、…、56−Nを介してデジタル信号処理部58−1、…、58−Nに加えられる。デジタル信号処理部58−1、…、58−Nは、それぞれ入力された画像信号に所定の信号処理を施して、輝度データYと色差データCr、Cbとからなる画像データを生成する。
生成された画像データは、一旦、SDRAM26に格納される。CPU12は、このSDRAM26に格納された画像の中から代表画像の画像データを選出し、その画像データを画像加工部65に加える。
なお、この代表画像データの選択については、上述した3D撮影システムと同様に自動で行うようにしてもよいし、撮影のたびにユーザが選択するようにしてもよい。自動で行う場合の選択基準としては、たとえば、中間の視点番号の画像データを代表画像データP(d)としたり、先頭の視点番号の画像データを代表画像データとしたりして選定する。また、あらかじめ代表画像を撮影するカメラを選択し、当該カメラで撮影された画像データを代表画像データとするようにしてもよい。
画像加工部65は、入力された画像データを加工して、その画像データが表す画像に視点を示す情報を付加する(図5、図6参照)。加工された代表画像データは、再度、SDRAM26に格納される。
SDRAM26に格納された画像データ(加工後の代表画像データを含む)は、順次、圧縮・伸張処理部64に加えられ、所定の圧縮処理が施される。そして、再度、SDRAM26に格納される。
なお、画像データ(代表画像データを除く)を非圧縮のデータ(たとえば、RAWデータ)として記録する場合は、この圧縮処理はスキップされる。
この後、圧縮された各画像データが、画像ファイル生成部66に加えられ、所定形式の画像ファイルが生成される。すなわち、上述した基本ファイルと拡張画像ファイルの組みからなる画像ファイル、又は、単独のファイルで構成された多視点画像ファイルが生成される。
そして、生成された画像ファイルが、メディア制御部68を介してメモリカード70に記録される。
なお、この際、画像ファイルは、DCF(Design rule for Camera File system)に従って所定のファイル名が付与されて、メモリカード70に記録される。
なお、上記一連の実施の形態では、カメラ等で撮影されたが王データから直接画像ファイルを生成し、記録媒体に記録する場合を例に説明したが、撮影済みの画像データ(又は画像ファイル)を取得し、当該画像データから立体視用の画像ファイルを生成する場合にも本発明は適用することができる。
以下、撮影済みの画像データから立体視用の画像ファイルを生成する場合について説明する。
図11は、この処理を行う画像記録装置の主要構成を示すブロック図である。本実施形態では、画像記録装置100は、たとえば、パーソナルコンピュータ(PC)等で構成される。
図11に示すように、中央処理装置(CPU)102は、バス104を介して画像記録装置100内の各ブロックに接続されており、各ブロックの動作を制御する。主メモリ106は、制御プログラムが格納される記憶領域や、プログラム実時の作業領域を含んでいる。
ハードディスク装置108には、画像記録装置100のオペレーティングシステム(OS)や、各種のアプリケーションソフト、撮影装置1又はメモリカード70から読み込まれた画像データ等が格納される。
CD−ROM装置110は、図示せぬCD−ROMからのデータの読み込みを行う。
カードインターフェース部(カードI/F)112は、メモリカード70から画像データを読み取る。
表示メモリ116は、表示用データを一時記憶する。モニタ118は、たとえば、CRT(Cathode Ray Tube)モニタや液晶モニタにより構成され、この表示メモリ116から出力される画像データ、文字データ等に基づいて画像や文字等を表示する。
キーボード120及びマウス122は、操作者からの操作入力を受け付けて、操作入力に応じた信号をCPU102に入力する。なお、ポインティングデバイスとしては、マウス122のほか、タッチパネルやタッチパッド等を用いることができる。マウスコントローラ124は、マウス122の状態を検出してモニタ118上のマウスポインタの位置や、マウス122の状態等の信号をCPU102に出力する。
オーディオ入出力回路126には、マイク128及びスピーカ130が接続され、各種の音声信号が入力されるとともに、キーボード120等からの操作入力に応じて各種動作音が再生出力される。
通信インターフェイス部(通信I/F)132は、ネットワークNWとの通信を行う。カメラ接続インターフェイス部(カメラ接続I/F)134は、撮影装置(デジタルカメラ)1との間でデータの送受信を行う。
CPU102は、キーボード120又はマウス122からの入力に応じて画像ファイルの生成処理を行う。すなわち、メモリカード70、撮影装置1又はハードディスク装置108内の立体視用の画像データ群又は画像ファイル群を読み出し、上述した基本ファイルと拡張画像ファイルの組みからなる画像ファイル、又は、単独のファイルで構成された多視点画像ファイルを生成する。
このように、本発明は撮影済みの画像データ又は画像ファイルから立体視用の画像ファイルを生成する場合にも適用することができる。
また、本発明は、たとえば、撮影装置やパーソナルコンピュータ、携帯情報端末、画像ストレージ装置のような画像記録装置に適用するプログラムとしても提供することができる。
C1〜C6…カメラ、U…コントロールユニット、U1…システムコントローラ、U2…操作部、U3…記録部、U4…表示部、U5…メモリ、U6…接続インターフェイス、1…撮影装置、100…画像記録装置
.