JPWO2012014347A1 - 交換レンズユニット、カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 - Google Patents
交換レンズユニット、カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JPWO2012014347A1 JPWO2012014347A1 JP2012526272A JP2012526272A JPWO2012014347A1 JP WO2012014347 A1 JPWO2012014347 A1 JP WO2012014347A1 JP 2012526272 A JP2012526272 A JP 2012526272A JP 2012526272 A JP2012526272 A JP 2012526272A JP WO2012014347 A1 JPWO2012014347 A1 JP WO2012014347A1
- Authority
- JP
- Japan
- Prior art keywords
- interchangeable lens
- unit
- lens unit
- image
- extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims description 152
- 238000000034 method Methods 0.000 title claims description 51
- 230000003287 optical effect Effects 0.000 claims abstract description 334
- 238000000605 extraction Methods 0.000 claims abstract description 292
- 238000012937 correction Methods 0.000 claims abstract description 178
- 238000012545 processing Methods 0.000 claims description 85
- 101100054598 Hordeum vulgare ACL1.2 gene Proteins 0.000 abstract description 13
- 238000001514 detection method Methods 0.000 description 52
- 238000007906 compression Methods 0.000 description 24
- 238000013461 design Methods 0.000 description 24
- 230000006835 compression Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 14
- 101100161875 Arabidopsis thaliana ACR2 gene Proteins 0.000 description 12
- 101100495264 Arabidopsis thaliana CDC25 gene Proteins 0.000 description 12
- 101100380266 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) ARR2 gene Proteins 0.000 description 12
- 101150004068 acrB gene Proteins 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 6
- 238000003705 background correction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 102200048773 rs2224391 Human genes 0.000 description 2
- 102220241278 rs777474053 Human genes 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
- G02B7/10—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
- G02B7/102—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
- G03B17/14—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
- G03B35/10—Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/663—Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Structure And Mechanism Of Cameras (AREA)
- Studio Devices (AREA)
- Lens Barrels (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
カメラ本体(100)は、ボディマウント(150)と、CMOSイメージセンサー(110)と、特性情報取得部(143)と、を備えている。ボディマウント(150)は交換レンズユニット(200)を装着可能に設けられている。CMOSイメージセンサー(110)は光学像を画像信号に変換する。特性情報取得部(143)はボディマウント(150)に装着されている交換レンズユニット(200)から抽出位置補正量(L11)を取得可能である。抽出位置補正量(L11)は、輻輳点距離が無限遠の場合に対応する中心(ICL)および中心(ICR)から交換レンズユニット(200)の推奨輻輳点距離(L10)に対応する抽出中心(ACL2)および抽出中心(ACR2)まで距離を示している。
Description
ここに開示されている技術は、交換レンズユニットを装着可能なカメラ本体、交換レンズユニットおよび撮像装置に関する。また、ここに開示される技術は、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体に関する。
撮像装置として、例えばレンズ交換式のデジタルカメラが知られている。レンズ交換式のデジタルカメラは、交換レンズユニットと、カメラ本体と、を備えている。このカメラ本体は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子を有している。撮像素子は交換レンズユニットで形成された光学像を画像信号に変換する。こうして、被写体の画像データを取得することができる。
ところで、近年、いわゆる3次元表示用のディスプレイの開発が進められている。それに伴い、いわゆるステレオ画像データ(左眼用画像および右眼用画像を含む3次元表示用の画像データ)を生成するデジタルカメラの開発も進められている。
しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系(以下、3次元光学系とも言う)を用いる必要がある。
そこで、3次元撮影用のアダプタの着脱に基づいて2次元撮影モードと3次元撮影モードとを自動的に切り替えるビデオカメラが提案されている(例えば、特許文献1を参照)。
一方、3次元光学系ごとに適した撮影距離(カメラから輻輳点までの距離)が存在するが、推奨撮影距離が異なると左眼用画像データおよび右眼用画像データの抽出領域の位置が光学系ごとで変化する。
しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系(以下、3次元光学系とも言う)を用いる必要がある。
そこで、3次元撮影用のアダプタの着脱に基づいて2次元撮影モードと3次元撮影モードとを自動的に切り替えるビデオカメラが提案されている(例えば、特許文献1を参照)。
一方、3次元光学系ごとに適した撮影距離(カメラから輻輳点までの距離)が存在するが、推奨撮影距離が異なると左眼用画像データおよび右眼用画像データの抽出領域の位置が光学系ごとで変化する。
しかし、特許文献1に記載のビデオカメラでは、通常の光学系の前側に単に3次元撮影用の光学系を装着するだけであるので、装着される光学系で推奨されている撮影距離にて撮影を行っても、左眼用画像データおよび右眼用画像データを抽出する際に適切な抽出領域を設定できるわけではない。したがって、立体視するのに適したステレオ画像を取得できない場合も考えられる。
本発明の課題は、より適正なステレオ画像を取得できるカメラ本体および交換レンズユニットを提供することにある。
本発明の課題は、より適正なステレオ画像を取得できるカメラ本体および交換レンズユニットを提供することにある。
第1の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、補正情報取得部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は光学像を画像信号に変換する。補正情報取得部はボディマウントに装着されている交換レンズユニットから抽出位置補正量を取得可能である。抽出位置補正量は、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示している。
このカメラ本体では、ボディマウントに装着されている交換レンズユニットから補正情報取得部により抽出位置補正量が取得される。このため、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までのズレ量をカメラ本体が把握することができ、より適切なステレオ画像を取得することができる。
このカメラ本体では、ボディマウントに装着されている交換レンズユニットから補正情報取得部により抽出位置補正量が取得される。このため、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までのズレ量をカメラ本体が把握することができ、より適切なステレオ画像を取得することができる。
第2の特徴に係る交換レンズユニットは、3次元光学系と、補正情報記憶部と、を備えている。3次元光学系は被写体の立体視用光学像を形成する。補正情報記憶部は抽出位置補正量を記憶する。抽出位置補正量は、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示している。
この交換レンズユニットでは、補正情報記憶部が抽出位置補正量を記憶しているので、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までのズレ量をカメラ本体が把握することができ、より適切なステレオ画像を取得することができる。
第3の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示す抽出位置補正量を、ボディマウントに装着されている交換レンズユニットから取得するステップ、を備えている。
この交換レンズユニットでは、補正情報記憶部が抽出位置補正量を記憶しているので、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までのズレ量をカメラ本体が把握することができ、より適切なステレオ画像を取得することができる。
第3の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示す抽出位置補正量を、ボディマウントに装着されている交換レンズユニットから取得するステップ、を備えている。
第4の特徴に係るプログラムは、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示す抽出位置補正量を、交換レンズユニットから取得する補正情報取得機能をコンピュータに実現させる。
第5の特徴に係る記録媒体は、コンピュータにより読み取り可能な記録媒体であって、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示す抽出位置補正量を、交換レンズユニットから取得する補正情報取得機能を、コンピュータに実現させる。
第5の特徴に係る記録媒体は、コンピュータにより読み取り可能な記録媒体であって、輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離を示す抽出位置補正量を、交換レンズユニットから取得する補正情報取得機能を、コンピュータに実現させる。
上記のカメラ本体および交換レンズユニットでは、より適正なステレオ画像を取得することができる。また、上記のカメラ本体あるいは交換レンズユニットを有する撮像装置では、より適正なステレオ画像を取得することができる。さらに、上記の制御方法、プログラムおよびプログラムを記録した記録媒体では、より適正なステレオ画像がカメラ本体を用いて取得されるのを実現することができる。
〔デジタルカメラの構成〕
デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1〜図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1〜図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
なお、説明の便宜のため、デジタルカメラ1の被写体側を前、被写体と反対側を後ろまたは背、デジタルカメラ1の通常姿勢(以下、横撮り姿勢ともいう)における鉛直上側を上、鉛直下側を下ともいう。
<1:交換レンズユニットの構成>
交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
図1〜図4に示すように、交換レンズユニット200は、3次元光学系Gと、第1駆動ユニット271、第2駆動ユニット272、振れ量検出センサー275およびレンズコントローラー240を有している。さらに、交換レンズユニット200は、レンズマウント250、レンズ筒290、ズームリング213およびフォーカスリング234を有している。交換レンズユニット200をカメラ本体100に装着する際、レンズマウント250がカメラ本体100のボディマウント150(後述)に取り付けられる。図1に示すように、レンズ筒290の外部にはズームリング213とフォーカスリング234とが回転可能に設けられている。
<1:交換レンズユニットの構成>
交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
図1〜図4に示すように、交換レンズユニット200は、3次元光学系Gと、第1駆動ユニット271、第2駆動ユニット272、振れ量検出センサー275およびレンズコントローラー240を有している。さらに、交換レンズユニット200は、レンズマウント250、レンズ筒290、ズームリング213およびフォーカスリング234を有している。交換レンズユニット200をカメラ本体100に装着する際、レンズマウント250がカメラ本体100のボディマウント150(後述)に取り付けられる。図1に示すように、レンズ筒290の外部にはズームリング213とフォーカスリング234とが回転可能に設けられている。
(1)3次元光学系G
図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
左眼用光学系OLは、被写体に向かって左側の視点から被写体を撮影するための光学系であり、ズームレンズ210L、OISレンズ220L、絞りユニット260Lおよびフォーカスレンズ230Lを含んでいる。左眼用光学系OLは、第1光軸AX1を有しており、右眼用光学系ORと左右に並んだ状態でレンズ筒290の内部に収容されている。
図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
左眼用光学系OLは、被写体に向かって左側の視点から被写体を撮影するための光学系であり、ズームレンズ210L、OISレンズ220L、絞りユニット260Lおよびフォーカスレンズ230Lを含んでいる。左眼用光学系OLは、第1光軸AX1を有しており、右眼用光学系ORと左右に並んだ状態でレンズ筒290の内部に収容されている。
ズームレンズ210Lは、左眼用光学系OLの焦点距離を変化させるためのレンズであり、第1光軸AX1と平行な方向に移動可能に配置されている。ズームレンズ210Lは1枚または複数枚のレンズで構成されている。ズームレンズ210Lは第1駆動ユニット271のズームモータ214L(後述)により駆動される。ズームレンズ210Lを第1光軸AX1と平行な方向に駆動することにより、左眼用光学系OLの焦点距離を調整することができる。
OISレンズ220Lは、左眼用光学系OLで形成される光学像のCMOSイメージセンサー110(後述)に対する変位を抑制するためのレンズである。OISレンズ220Lは1枚または複数枚のレンズで構成される。OISモータ221Lは、OIS用IC223Lから送信される制御信号に基づいて、第1光軸AX1に垂直な面内で移動するようにOISレンズ220Lを駆動する。OISモータ221Lは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Lの位置は第1駆動ユニット271の位置検出センサー222L(後述)により検出される。
OISレンズ220Lは、左眼用光学系OLで形成される光学像のCMOSイメージセンサー110(後述)に対する変位を抑制するためのレンズである。OISレンズ220Lは1枚または複数枚のレンズで構成される。OISモータ221Lは、OIS用IC223Lから送信される制御信号に基づいて、第1光軸AX1に垂直な面内で移動するようにOISレンズ220Lを駆動する。OISモータ221Lは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Lの位置は第1駆動ユニット271の位置検出センサー222L(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第1光軸AX1と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
フォーカスレンズ230Lは、左眼用光学系OLの被写体距離(物点距離ともいう)を調整するためのレンズであり、第1光軸AX1に平行な方向に移動可能に配置されている。フォーカスレンズ230Lは第1駆動ユニット271のフォーカスモータ233L(後述)により駆動される。フォーカスレンズ230Lは1枚または複数枚のレンズで構成されている。
絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
フォーカスレンズ230Lは、左眼用光学系OLの被写体距離(物点距離ともいう)を調整するためのレンズであり、第1光軸AX1に平行な方向に移動可能に配置されている。フォーカスレンズ230Lは第1駆動ユニット271のフォーカスモータ233L(後述)により駆動される。フォーカスレンズ230Lは1枚または複数枚のレンズで構成されている。
右眼用光学系ORは、被写体に向かって右側の視点から被写体を撮影するための光学系であり、ズームレンズ210R、OISレンズ220R、絞りユニット260Rおよびフォーカスレンズ230Rを含んでいる。右眼用光学系ORは、第2光軸AX2を有しており、左眼用光学系OLと左右に並んだ状態でレンズ筒290の内部に収容されている。右眼用光学系ORの仕様は左眼用光学系OLの仕様と同じである。なお、第1光軸AX1と第2光軸AX2とのなす角度(輻輳角)とは、図10に示す角度θ1をいう。
ズームレンズ210Rは、右眼用光学系ORの焦点距離を変化させるためのレンズであり、第2光軸AX2と平行な方向に移動可能に配置されている。ズームレンズ210Rは1枚または複数枚のレンズで構成されている。ズームレンズ210Rは第2駆動ユニット272のズームモータ214R(後述)により駆動される。ズームレンズ210Rを第2光軸AX2と平行な方向に駆動することにより、右眼用光学系ORの焦点距離を調整することができる。ズームレンズ210Rの駆動はズームレンズ210Lの駆動と同期がとられている。したがって、右眼用光学系ORの焦点距離は左眼用光学系OLの焦点距離と同じである。
ズームレンズ210Rは、右眼用光学系ORの焦点距離を変化させるためのレンズであり、第2光軸AX2と平行な方向に移動可能に配置されている。ズームレンズ210Rは1枚または複数枚のレンズで構成されている。ズームレンズ210Rは第2駆動ユニット272のズームモータ214R(後述)により駆動される。ズームレンズ210Rを第2光軸AX2と平行な方向に駆動することにより、右眼用光学系ORの焦点距離を調整することができる。ズームレンズ210Rの駆動はズームレンズ210Lの駆動と同期がとられている。したがって、右眼用光学系ORの焦点距離は左眼用光学系OLの焦点距離と同じである。
OISレンズ220Rは、右眼用光学系ORで形成される光学像のCMOSイメージセンサー110に対する変位を抑制するためのレンズである。OISレンズ220Rは1枚または複数枚のレンズで構成される。OISモータ221Rは、OIS用IC223Rから送信される制御信号に基づいて、第2光軸AX2に垂直な面内で移動するようにOISレンズ220Rを駆動する。OISモータ221Rは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Rの位置は第2駆動ユニット272の位置検出センサー222R(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110(後述)で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第2光軸AX2と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110(後述)で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第2光軸AX2と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Rは右眼用光学系ORを透過する光の量を調整する。絞りユニット260Rは複数の絞り羽根(図示せず)を有している。絞り羽根は第2駆動ユニット272の絞りモータ235R(後述)により駆動される。カメラコントローラー140は絞りモータ235Rを制御する。絞りユニット260Rの駆動は絞りユニット260Lの駆動と同期がとられる。したがって、右眼用光学系ORの絞り値は左眼用光学系OLの絞り値と同じである。
フォーカスレンズ230Rは、右眼用光学系ORの被写体距離(物点距離ともいう)を調整するためのレンズであり、第2光軸AX2に平行な方向に移動可能に配置されている。フォーカスレンズ230Rは第2駆動ユニット272のフォーカスモータ233R(後述)により駆動される。フォーカスレンズ230Rは1枚または複数枚のレンズで構成されている。
フォーカスレンズ230Rは、右眼用光学系ORの被写体距離(物点距離ともいう)を調整するためのレンズであり、第2光軸AX2に平行な方向に移動可能に配置されている。フォーカスレンズ230Rは第2駆動ユニット272のフォーカスモータ233R(後述)により駆動される。フォーカスレンズ230Rは1枚または複数枚のレンズで構成されている。
(2)第1駆動ユニット271
第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
ズームモータ214Lはズームレンズ210Lを駆動する。ズームモータ214Lはレンズコントローラー240により制御される。
OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
ズームモータ214Lはズームレンズ210Lを駆動する。ズームモータ214Lはレンズコントローラー240により制御される。
OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
絞りモータ235Lは絞りユニット260Lを駆動する。絞りモータ235Lはレンズコントローラー240により制御される。
フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(3)第2駆動ユニット272
第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(3)第2駆動ユニット272
第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
ズームモータ214Rはズームレンズ210Rを駆動する。ズームモータ214Rはレンズコントローラー240により制御される。
OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
絞りモータ235Rは絞りユニット260Rを駆動する。絞りモータ235Rはレンズコントローラー240により制御される。
フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(4)レンズコントローラー240
レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(4)レンズコントローラー240
レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
レンズコントローラー240は、CPU(Central Processing Unit)240a、ROM(Read Only Memory)240bおよびRAM(Random Access Memory)240cを有しており、ROM240bに格納されたプログラムがCPU240aに読み込まれることで様々な機能を実現し得る。
また、フラッシュメモリ242(補正情報記憶部の一例、識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
また、フラッシュメモリ242(補正情報記憶部の一例、識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
ここで、レンズ識別情報F1、レンズ特性情報F2およびレンズ状態情報F3について説明する。
(レンズ識別情報F1)
レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
(レンズ識別情報F1)
レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
3次元撮影判定フラグが立っている場合は、その交換レンズユニットが3次元撮影に対応しており、3次元撮影判定フラグが立っていない場合は、その交換レンズユニットは3次元撮影に対応していない。3次元撮影判定フラグのアドレスは、3次元撮影に対応していない通常の交換レンズユニットで使用されていない領域が用いられる。これにより、3次元撮影に対応していない交換レンズユニットでは、3次元撮影判定フラグの設定を行わなくても、3次元撮影判定フラグが立っていない状態となり得る。
(レンズ特性情報F2)
レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
(A)基線長
立体光学系(G)の基線長L1
(B)光軸位置
撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
(C)輻輳角
第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
(D)左眼ズレ量
左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
(E)右眼ズレ量
右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
(F)撮像有効エリア
左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図8参照)
(G)推奨輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に推奨される、被写体(輻輳点P0)からCMOSイメージセンサー110の受光面110aまでの距離L10(図10参照)
(H)抽出位置補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が推奨輻輳点距離L10に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P21およびP22)までの距離L11(図10参照)(「輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離」ともいう)
(I)限界輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に、左眼用光学像QL1および右眼用光学像QR1の抽出領域がともに撮像有効エリア内に収まる場合の、被写体から受光面110aまでの最短距離L12(図10参照)
(J)抽出位置限界補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が限界輻輳点距離L12に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P31およびP32)までの距離L13(図10参照)
上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。
(レンズ特性情報F2)
レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
(A)基線長
立体光学系(G)の基線長L1
(B)光軸位置
撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
(C)輻輳角
第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
(D)左眼ズレ量
左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
(E)右眼ズレ量
右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
(F)撮像有効エリア
左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図8参照)
(G)推奨輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に推奨される、被写体(輻輳点P0)からCMOSイメージセンサー110の受光面110aまでの距離L10(図10参照)
(H)抽出位置補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が推奨輻輳点距離L10に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P21およびP22)までの距離L11(図10参照)(「輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離」ともいう)
(I)限界輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に、左眼用光学像QL1および右眼用光学像QR1の抽出領域がともに撮像有効エリア内に収まる場合の、被写体から受光面110aまでの最短距離L12(図10参照)
(J)抽出位置限界補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が限界輻輳点距離L12に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P31およびP32)までの距離L13(図10参照)
上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。
ここで、図9〜図10を用いて、上記のパラメータについて説明をする。図9はCMOSイメージセンサー110を被写体側から見た図である。CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図9および図10参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、受光面110aは、第1領域110Lと、第1領域110Lに隣接して配置された第2領域110Rと、を有している。第1領域110Lの面積は第2領域110Rの面積と同じである。図9に示すように、カメラ本体100の背面側から見た場合(透視した場合)、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。図9に示すように、交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像QL1が形成され、第2領域110Rには右眼用光学像QR1が形成される。
図9に示すように、設計上の左眼用光学系OLのイメージサークルILおよび右眼用光学系ORのイメージサークルIRをCMOSイメージセンサー110上に定義する。イメージサークルILの中心ICL(基準抽出位置の一例)は左眼用光学系OLの第1光軸AX10の設計上の位置と一致しており、イメージサークルIRの中心ICR(基準抽出位置の一例)は右眼用光学系ORの第2光軸AX20の設計上の位置と一致している。ここで、設計上の位置とは、第1光軸AX10および第2光軸AX20は、輻輳点が無限遠にある場合に対応している。したがって、設計上の基線長はCMOSイメージセンサー110上での第1光軸AX10および第2光軸AX20の間の設計上の距離L1となる。また、光軸位置は受光面110aの中心C0および第1光軸AX10の間の設計上の距離L2(あるいは中心C0および第2光軸AX20の間の設計上の距離L2)となる。
また図9に示すように、中心ICLに基づいて抽出可能範囲AL1および横長撮影用抽出可能範囲AL11が設定され、中心ICRに基づいて抽出可能範囲AR1および横長撮影用抽出可能範囲AR11が設定されている。中心ICLが受光面110aの第1領域110Lのほぼ中央位置に設定されているので、イメージサークルIL内の抽出可能範囲AL1およびAL11を広く確保できる。また、中心ICRが第2領域110Rのほぼ中央位置に設定されているので、イメージサークルIR内の抽出可能範囲AR1およびAR11を広く確保できる。
図9に示す抽出領域AL0およびAR0は、左眼用画像データおよび右眼用画像データを抽出する際の基準となる領域である。左眼用画像データの設計上の抽出領域AL0は、イメージサークルILの中心ICL(あるいは第1光軸AX10)を基準に設定されており、抽出可能範囲AL1の中央に位置している。また、右眼用画像データの設計上の抽出領域AR0は、イメージサークルIRの中心ICR(あるいは第2光軸AX20)を基準に設定されており、抽出可能範囲AR1の中央に位置している。
図9に示す抽出領域AL0およびAR0は、左眼用画像データおよび右眼用画像データを抽出する際の基準となる領域である。左眼用画像データの設計上の抽出領域AL0は、イメージサークルILの中心ICL(あるいは第1光軸AX10)を基準に設定されており、抽出可能範囲AL1の中央に位置している。また、右眼用画像データの設計上の抽出領域AR0は、イメージサークルIRの中心ICR(あるいは第2光軸AX20)を基準に設定されており、抽出可能範囲AR1の中央に位置している。
ところが、光軸中心ICLおよびICRは輻輳点が無限遠に存在する場合に対応しているので、抽出領域AL0およびAR0を基準に左眼用画像データおよび右眼用画像データを抽出すると、立体視の際に被写体が再現される位置は無限位置となる。したがって、このような設定で近接撮影(例えば、撮影位置から主被写体までの距離が1m程度の場合)用の交換レンズユニット200を用いると、立体視の際に3次元画像内で被写体がスクリーンから飛び出し過ぎるという問題が発生する。
そこで、撮影時にデジタルカメラ1から推奨輻輳点距離L10だけ離れた位置にある被写体が、立体視の際にスクリーン上に再現されるように、このカメラ本体100では、抽出領域AR0を推奨抽出領域AR3へ、抽出領域AL0を推奨抽出領域AR3へ、それぞれ距離L11だけずらしている。抽出位置補正量L11を用いた抽出領域の補正処理については後述する。
そこで、撮影時にデジタルカメラ1から推奨輻輳点距離L10だけ離れた位置にある被写体が、立体視の際にスクリーン上に再現されるように、このカメラ本体100では、抽出領域AR0を推奨抽出領域AR3へ、抽出領域AL0を推奨抽出領域AR3へ、それぞれ距離L11だけずらしている。抽出位置補正量L11を用いた抽出領域の補正処理については後述する。
<2:カメラ本体の構成>
図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
(1)CMOSイメージセンサー110
CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
(1)CMOSイメージセンサー110
CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
ここで、スルー画像とは、動画データのうちメモリーカード171に記録されない画像である。スルー画像は、主に動画であり、動画または静止画の構図を決めるためにカメラモニタ120または電子ビューファインダー(以下、EVFとも言う)180に表示される。
前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
なお、CMOSイメージセンサー110は被写体の光学像を電気的な画像信号に変換する撮像素子の一例である。撮像素子は、CMOSイメージセンサー110やCCDイメージセンサー等の光電変換素子を含む概念である。
(2)カメラモニタ120
カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
(2)カメラモニタ120
カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
なお、カメラモニタ120はカメラ本体100に設けられた表示部の一例である。表示部としては、他にも、有機EL、無機EL、プラズマディスプレイパネル等、画像を表示できる装置を用いることができる。
(3)電子ビューファインダー180
電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
(4)操作部130
図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
(3)電子ビューファインダー180
電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
(4)操作部130
図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
(5)カードスロット170
カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
メモリーカード171は、カメラコントローラー140が画像処理により生成した画像データを格納可能である。例えば、メモリーカード171は、非圧縮のRAW画像ファイルや圧縮されたJPEG画像ファイル等を格納できる。さらに、メモリーカード171はマルチピクチャーフォーマット(MPF)形式のステレオ画像ファイルを格納することもできる。
カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
メモリーカード171は、カメラコントローラー140が画像処理により生成した画像データを格納可能である。例えば、メモリーカード171は、非圧縮のRAW画像ファイルや圧縮されたJPEG画像ファイル等を格納できる。さらに、メモリーカード171はマルチピクチャーフォーマット(MPF)形式のステレオ画像ファイルを格納することもできる。
また、カードスロット170を介して、予め内部に格納された画像データをメモリーカード171から出力できる。メモリーカード171から出力された画像データまたは画像ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した画像データまたは画像ファイルを伸張などして表示用画像データを生成する。
メモリーカード171は、さらに、カメラコントローラー140が画像処理により生成した動画データを格納可能である。例えば、メモリーカード171は、動画圧縮規格であるH.264/AVCに従って圧縮された動画ファイルを格納できる。また、ステレオ動画ファイルを格納することもできる。また、カードスロット170を介して、予め内部に格納された動画データまたは動画ファイルをメモリーカード171から出力できる。メモリーカード171から出力された動画データまたは動画ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した動画データまたは動画ファイルに伸張処理を施し、表示用動画データを生成する。
メモリーカード171は、さらに、カメラコントローラー140が画像処理により生成した動画データを格納可能である。例えば、メモリーカード171は、動画圧縮規格であるH.264/AVCに従って圧縮された動画ファイルを格納できる。また、ステレオ動画ファイルを格納することもできる。また、カードスロット170を介して、予め内部に格納された動画データまたは動画ファイルをメモリーカード171から出力できる。メモリーカード171から出力された動画データまたは動画ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した動画データまたは動画ファイルに伸張処理を施し、表示用動画データを生成する。
(6)シャッターユニット190
シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
(7)ボディマウント150
ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
(7)ボディマウント150
ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
(8)カメラコントローラー140
カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
また、カメラコントローラー140は、交換レンズユニット200を制御するための信号を、ボディマウント150およびレンズマウント250を介してレンズコントローラー240に送信し、交換レンズユニット200の各部を間接的に制御する。また、カメラコントローラー140は、ボディマウント150およびレンズマウント250を介して、レンズコントローラー240から各種信号を受信する。
カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
また、カメラコントローラー140は、交換レンズユニット200を制御するための信号を、ボディマウント150およびレンズマウント250を介してレンズコントローラー240に送信し、交換レンズユニット200の各部を間接的に制御する。また、カメラコントローラー140は、ボディマウント150およびレンズマウント250を介して、レンズコントローラー240から各種信号を受信する。
カメラコントローラー140は、CPU(Central Processing Unit)140a、ROM(Read Only Memory)140bおよびRAM(Random Access Memory)140cを有しており、ROM140b(コンピュータにより読み取り可能な記録媒体)に格納されたプログラムがCPU140aに読み込まれることで様々な機能を実現し得る。
(カメラコントローラー140の詳細)
ここで、カメラコントローラー140の機能の詳細について説明する。
まず、カメラコントローラー140は、交換レンズユニット200がカメラ本体100(より詳細には、ボディマウント150)に装着されているか否かを検知する。具体的には図6に示すように、カメラコントローラー140はレンズ検知部146を有している。交換レンズユニット200がカメラ本体100に装着されると、カメラコントローラー140とレンズコントローラー240との間で信号の送受信が行われる。レンズ検知部146は、信号の送受信に基づいて交換レンズユニット200が装着されているか否かを判定する。
(カメラコントローラー140の詳細)
ここで、カメラコントローラー140の機能の詳細について説明する。
まず、カメラコントローラー140は、交換レンズユニット200がカメラ本体100(より詳細には、ボディマウント150)に装着されているか否かを検知する。具体的には図6に示すように、カメラコントローラー140はレンズ検知部146を有している。交換レンズユニット200がカメラ本体100に装着されると、カメラコントローラー140とレンズコントローラー240との間で信号の送受信が行われる。レンズ検知部146は、信号の送受信に基づいて交換レンズユニット200が装着されているか否かを判定する。
また、カメラコントローラー140は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを判定する機能、および交換レンズユニットから3次元撮影に関係する情報を取得する機能など、様々な機能を有している。カメラコントローラー140は、識別情報取得部142、特性情報取得部143、カメラ側判定部144、状態情報取得部145、抽出位置補正部139、領域決定部149、メタデータ生成部147および画像ファイル生成部148を有している。
識別情報取得部142は、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1を、ボディマウント150に装着されている交換レンズユニット200から取得する。図7(A)に示すように、レンズ識別情報F1は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばレンズコントローラー240のフラッシュメモリ242に格納されている。レンズ識別情報F1はフラッシュメモリ242の所定のアドレスに格納された3次元撮影判定フラグである。識別情報取得部142は取得したレンズ識別情報F1を例えばDRAM141に一時的に格納する。
識別情報取得部142は、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1を、ボディマウント150に装着されている交換レンズユニット200から取得する。図7(A)に示すように、レンズ識別情報F1は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばレンズコントローラー240のフラッシュメモリ242に格納されている。レンズ識別情報F1はフラッシュメモリ242の所定のアドレスに格納された3次元撮影判定フラグである。識別情報取得部142は取得したレンズ識別情報F1を例えばDRAM141に一時的に格納する。
カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1に基づいて、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かを判定する。ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードの実行を許容する。一方、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応していないとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードを実行しない。この場合、カメラコントローラー140は2次元撮影モードの実行を許容する。
特性情報取得部143(補正情報取得部の一例)は、交換レンズユニット200に搭載されている光学系の特性を示すレンズ特性情報F2を交換レンズユニット200から取得する。具体的には、特性情報取得部143は、交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合に、前述のレンズ特性情報F2を交換レンズユニット200から取得する。特性情報取得部143は、取得したレンズ特性情報F2を例えばDRAM141に一時的に格納する。
特性情報取得部143(補正情報取得部の一例)は、交換レンズユニット200に搭載されている光学系の特性を示すレンズ特性情報F2を交換レンズユニット200から取得する。具体的には、特性情報取得部143は、交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合に、前述のレンズ特性情報F2を交換レンズユニット200から取得する。特性情報取得部143は、取得したレンズ特性情報F2を例えばDRAM141に一時的に格納する。
状態情報取得部145は状態情報生成部243により生成されたレンズ状態情報F3(撮影可否フラグ)を取得する。このレンズ状態情報F3は交換レンズユニット200が撮影可能な状態か否かを判定するのに用いられる。状態情報取得部145は取得したレンズ状態情報F3を例えばDRAM141に一時的に格納する。
抽出位置補正部139は、画像データを抽出する際に用いられる使用抽出領域(より詳細には、使用抽出領域の中心位置)を、抽出位置補正量L11に基づいて補正する。初期状態では、使用抽出領域は抽出領域AL0およびAR0に設定されており、抽出領域AL0の中心はイメージサークルILの中心ICLに設定されており、抽出領域AR0の中心はイメージサークルIRの中心ICRに設定されている。抽出位置補正部139は、中心ICLおよびICRから抽出位置補正量L11だけ抽出中心を水平方向に移動させて、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2(推奨抽出位置の一例)を設定する。抽出中心ACL2およびACR2を基準とした使用抽出領域は、図9に示す抽出領域AL2およびAR2となる。このように、抽出位置補正量L11を用いて抽出中心の位置を補正することで、交換レンズユニットの特性に応じて使用抽出領域を設定することができ、より適正なステレオ画像を得ることができる。
抽出位置補正部139は、画像データを抽出する際に用いられる使用抽出領域(より詳細には、使用抽出領域の中心位置)を、抽出位置補正量L11に基づいて補正する。初期状態では、使用抽出領域は抽出領域AL0およびAR0に設定されており、抽出領域AL0の中心はイメージサークルILの中心ICLに設定されており、抽出領域AR0の中心はイメージサークルIRの中心ICRに設定されている。抽出位置補正部139は、中心ICLおよびICRから抽出位置補正量L11だけ抽出中心を水平方向に移動させて、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2(推奨抽出位置の一例)を設定する。抽出中心ACL2およびACR2を基準とした使用抽出領域は、図9に示す抽出領域AL2およびAR2となる。このように、抽出位置補正量L11を用いて抽出中心の位置を補正することで、交換レンズユニットの特性に応じて使用抽出領域を設定することができ、より適正なステレオ画像を得ることができる。
ここで、本実施形態では、交換レンズユニット200がズーム機能を有しているので、ズーム操作により焦点距離が変わると、推奨輻輳点距離L10が変化し、それに伴い抽出位置補正量L11も変化する。したがって、ズームポジションに応じて抽出位置補正量L11を演算により再計算してもよい。
具体的には、レンズコントローラー240はズーム位置センサ(図示せず)の検出結果に基づいてズームポジションを把握できる。レンズコントローラー240はズームポジション情報をカメラコントローラー140に所定の周期で送信する。ズームポジション情報はDRAM141に一時的に格納される。
一方、抽出位置補正部139は、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて焦点距離に適した抽出位置補正量を算出する。このとき、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11の関係を示す情報(例えば、演算式やデータテーブルなど)がカメラ本体10に格納されていてもよいし、交換レンズユニット200のフラッシュメモリ242に格納されていてもよい。抽出位置補正量の更新は所定の周期で行われる。更新された抽出位置補正量はDRAM141の所定のアドレスに格納される。この場合、抽出位置補正部139は、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて抽出領域AL0およびAR0の中心位置を補正する。
具体的には、レンズコントローラー240はズーム位置センサ(図示せず)の検出結果に基づいてズームポジションを把握できる。レンズコントローラー240はズームポジション情報をカメラコントローラー140に所定の周期で送信する。ズームポジション情報はDRAM141に一時的に格納される。
一方、抽出位置補正部139は、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて焦点距離に適した抽出位置補正量を算出する。このとき、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11の関係を示す情報(例えば、演算式やデータテーブルなど)がカメラ本体10に格納されていてもよいし、交換レンズユニット200のフラッシュメモリ242に格納されていてもよい。抽出位置補正量の更新は所定の周期で行われる。更新された抽出位置補正量はDRAM141の所定のアドレスに格納される。この場合、抽出位置補正部139は、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて抽出領域AL0およびAR0の中心位置を補正する。
領域決定部149は、画像抽出部16で左眼用画像データおよび右眼用画像データを抽出する際に用いられる抽出領域AL3およびAR3のサイズおよび位置を決定する。具体的には、領域決定部149は、抽出位置補正部139により算出された抽出中心ACL2およびACR2、イメージサークルILおよびIRの半径r、レンズ特性情報F2に含まれる左眼ズレ量DLおよび右眼ズレ量DRに基づいて、左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置を決定する。
なお、領域決定部149が、左眼用光学像および右眼用光学像が回転しているか否かを示す180度回転フラグ、左眼用光学像および右眼用光学像の左右の配置を示す配置変更フラグおよび左眼用光学像および右眼用光学像がそれぞれミラー反転しているか否かを示すミラー反転フラグに基づいて、左眼用画像データおよび右眼用画像データを正しく抽出できるように、画像データ上における抽出処理の始点を決定してもよい。
なお、領域決定部149が、左眼用光学像および右眼用光学像が回転しているか否かを示す180度回転フラグ、左眼用光学像および右眼用光学像の左右の配置を示す配置変更フラグおよび左眼用光学像および右眼用光学像がそれぞれミラー反転しているか否かを示すミラー反転フラグに基づいて、左眼用画像データおよび右眼用画像データを正しく抽出できるように、画像データ上における抽出処理の始点を決定してもよい。
メタデータ生成部147は基線長および輻輳角を設定したメタデータを生成する。基線長および輻輳角はステレオ画像を表示する際に用いられる。
画像ファイル生成部148は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。
(9)画像処理部10
画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
画像ファイル生成部148は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。
(9)画像処理部10
画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
画像抽出部16は信号処理部15で生成された基本画像データから左眼用画像データおよび右眼用画像データを抽出する。左眼用画像データは左眼用光学系OLにより形成される左眼用光学像QL1の一部に対応している。右眼用画像データは右眼用光学系ORにより形成される右眼用光学像QR1の一部に対応している。領域決定部149により決定された抽出領域AL3およびAR3に基づいて、DRAM141に格納された基本画像データから画像抽出部16は左眼用画像データおよび右眼用画像データを抽出する。画像抽出部16により抽出された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
補正処理部18は、抽出した左眼用画像データおよび右眼用画像データのそれぞれに対して歪曲収差補正およびシェーディング補正などの補正処理を行う。補正処理後、左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
補正処理部18は、抽出した左眼用画像データおよび右眼用画像データのそれぞれに対して歪曲収差補正およびシェーディング補正などの補正処理を行う。補正処理後、左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
画像圧縮部17はカメラコントローラー140の命令に基づいてDRAM141に記憶された補正後の左眼用および右眼用画像データに圧縮処理を施す。この圧縮処理により、画像データのデータサイズは元のデータサイズよりも小さくなる。画像データの圧縮方法として、例えば1フレームの画像データ毎に圧縮するJPEG(Joint Photographic Experts Group)方式が考えられる。圧縮された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
〔デジタルカメラの動作〕
(1)電源ON時
交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図11および図12のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。
〔デジタルカメラの動作〕
(1)電源ON時
交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図11および図12のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。
電源がONになると、表示制御部125の制御によりカメラモニタ120に黒画面が表示され、カメラモニタ120のブラックアウトの状態が保持される(ステップS1)。次に、カメラコントローラー140の識別情報取得部142により交換レンズユニット200からレンズ識別情報F1が取得される(ステップS2)。具体的には図8(A)および図8(B)に示すように、カメラコントローラー140のレンズ検知部146により交換レンズユニット200の装着が検知されると、カメラコントローラー140はレンズコントローラー240に種別確認コマンドを送信する。この種別確認コマンドは、レンズ識別情報F1の3次元撮影判定フラグのステータスを送信するようレンズコントローラー240に要求するコマンドである。図8(B)に示すように、交換レンズユニット200が3次元撮影に対応しているので、種別確認コマンドを受信するとレンズコントローラー240がレンズ識別情報F1(3次元撮影判定フラグ)をカメラ本体100に送信する。識別情報取得部142はこの3次元撮影判定フラグのステータスをDRAM141に一時的に格納する。
次に、通常初期通信がカメラ本体100および交換レンズユニット200の間で実行される(ステップS3)。通常初期通信とは、3次元撮影に対応していない交換レンズユニットおよびカメラ本体の間でも行われる通信であり、例えば交換レンズユニット200の仕様に関する情報(焦点距離、F値等)が交換レンズユニット200からカメラ本体100に送信される。
通常初期通信の後、カメラ側判定部144により、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される(ステップS4)。具体的には、カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1(3次元撮影判定フラグ)に基づいて、装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される。
通常初期通信の後、カメラ側判定部144により、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される(ステップS4)。具体的には、カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1(3次元撮影判定フラグ)に基づいて、装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される。
装着されている交換レンズユニットが3次元撮影に対応していない場合、2次元撮影に対応している通常のシーケンスが実行され、ステップS14に処理が移行する(ステップS8)。交換レンズユニット200のように3次元撮影に対応している交換レンズユニットが装着されている場合は、特性情報取得部143によりレンズ特性情報F2が交換レンズユニット200から取得される(ステップS5)。具体的には図8(B)に示すように、特性情報取得部143からレンズコントローラー240に特性情報送信コマンドが送信される。この特性情報送信コマンドはレンズ特性情報F2の送信を要求するコマンドである。カメラコントローラー140はこのコマンドを受信すると、レンズ特性情報F2をカメラコントローラー140に送信する。特性情報取得部143はレンズ特性情報F2を例えばDRAM141に格納する。
レンズ特性情報F2の取得後、レンズ特性情報F2に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の抽出中心の位置が補正される(ステップS6)。具体的には、抽出位置補正部139により、抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)に基づいて、抽出領域AL0およびAR0の中心位置を補正する。中心ICLおよびICRから抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)だけ抽出中心を水平方向に移動させることで、抽出位置補正部139により、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2が設定される。
さらに、レンズ特性情報F2に基づいて領域決定部149により抽出領域AL3およびAR3のサイズおよび位置が決定される(ステップS7)。例えば、前述のように、光軸位置、撮像有効エリア(半径r)、抽出中心ACL2およびACR2、左眼ズレ量DL、右眼ズレ量DRおよびCMOSイメージセンサー110のサイズに基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。例えば、抽出領域AL3およびAR3が横長撮影用抽出可能範囲AL11およびAR11内に収まるように、上記の情報に基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。
さらに、レンズ特性情報F2に基づいて領域決定部149により抽出領域AL3およびAR3のサイズおよび位置が決定される(ステップS7)。例えば、前述のように、光軸位置、撮像有効エリア(半径r)、抽出中心ACL2およびACR2、左眼ズレ量DL、右眼ズレ量DRおよびCMOSイメージセンサー110のサイズに基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。例えば、抽出領域AL3およびAR3が横長撮影用抽出可能範囲AL11およびAR11内に収まるように、上記の情報に基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。
なお、領域決定部149が抽出領域AL3およびAR3のサイズを決定する際に、限界輻輳点距離L12および抽出位置限界補正量L13が用いられてもよい。
また、抽出領域AL3およびAR3のいずれの画像を右眼用画像として抽出するか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定されてもよい。
さらに、ライブビュー表示用の画像が左眼用および右眼用画像データから選択される(ステップS10)。例えば、左眼用および右眼用画像データからユーザーに選択させるようにしてもよいし、また、カメラコントローラー140において予め決定されている方を表示用として設定してもよい。選択された方の画像データが表示用画像として設定され、画像抽出部16により抽出される(ステップS11Aまたは11B)。
また、抽出領域AL3およびAR3のいずれの画像を右眼用画像として抽出するか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定されてもよい。
さらに、ライブビュー表示用の画像が左眼用および右眼用画像データから選択される(ステップS10)。例えば、左眼用および右眼用画像データからユーザーに選択させるようにしてもよいし、また、カメラコントローラー140において予め決定されている方を表示用として設定してもよい。選択された方の画像データが表示用画像として設定され、画像抽出部16により抽出される(ステップS11Aまたは11B)。
続いて、抽出された画像データに対して、歪曲収差補正やシェーディング補正などの補正処理が補正処理部18により施される(ステップS12)。さらに、表示制御部125により補正後の画像データにサイズ調整処理が施され、表示用の画像データが生成される(ステップS13)。この補正用画像データはDRAM141に一時的に格納される。
その後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS14)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
その後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS14)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
さらに、状態情報生成部243は、レンズ側判定部244の判定結果に基づいて、3次元光学系Gの撮影状態が整っているか否かを示す撮影可否フラグ(待機情報の一例)のステータスを設定する。状態情報生成部243は、レンズ側判定部244によりカメラ本体が3次元撮影に対応していると判定された場合には(図8(B))、各部の初期化完了後、撮影可否フラグのステータスを「可」に設定する。一方、レンズ側判定部244によりカメラ本体が3次元撮影に対応していないと判定された場合には(図8(A)参照)、状態情報生成部243は、各部の初期化が完了しているか否かに関わらず、撮影可否フラグのステータスを「不可」に設定する。ステップS14において、状態情報取得部145からレンズコントローラー240へ撮影可否フラグのステータス情報の送信を要求するコマンドが送信されると、状態情報生成部243は撮影可否フラグのステータス情報をカメラコントローラー140に送信する。撮影可否フラグのステータス情報をカメラコントローラー140に送信する。カメラ本体100では、レンズコントローラー240から送信された撮影可否フラグのステータス情報を状態情報取得部145がDRAM141の所定のアドレスに一時的に格納する。
さらに、格納された撮影可否フラグに基づいて状態情報取得部145により交換レンズユニット200が撮影可能状態か否かが判定される(ステップS15)。交換レンズユニット200が撮影可能状態になっていない場合は、ステップS14およびステップS15の処理が所定の周期で繰り返される。一方、交換レンズユニット200が撮影可能状態になっている場合は、ステップS13で生成された表示用画像データをカメラモニタ120に可視画像として表示させる(ステップS16)。ステップS16以降は、例えばカメラモニタ120に左眼用画像、右眼用画像、左眼用画像と右眼用画像を組み合わせた画像、または、左眼用画像と右眼用画像とを用いた3次元画像がライブビュー表示される。
(2)3次元静止画撮影
次に、図13を用いて3次元静止画撮影時の動作について説明する。
(2)3次元静止画撮影
次に、図13を用いて3次元静止画撮影時の動作について説明する。
ユーザーがレリーズ釦131を押すと、オートフォーカス(AF)および自動露出(AE)が実行され、続いて露光が開始される(ステップS21およびS22)。CMOSイメージセンサー110から画像信号(全画素のデータ)が信号処理部15に取り込まれ、信号処理部15においてAD変換などの信号処理が画像信号に施される(ステップS23およびS24)。信号処理部15により生成された基本画像データはDRAM141に一時的に格納される。
信号処理の後、抽出領域AL3およびAR3の位置は焦点距離に応じて抽出位置補正部139により補正される(ステップS25A)。具体的には、抽出位置補正部139により、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて現在の焦点距離に適した抽出位置補正量が算出される。この場合、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の中心位置が補正される。
信号処理の後、抽出領域AL3およびAR3の位置は焦点距離に応じて抽出位置補正部139により補正される(ステップS25A)。具体的には、抽出位置補正部139により、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて現在の焦点距離に適した抽出位置補正量が算出される。この場合、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の中心位置が補正される。
次に、画像抽出部16により、左眼用画像データおよび右眼用画像データが基本画像データから抽出される(ステップS25B)。このときの抽出領域AL3およびAR3のサイズは、ステップS7で決定された値が用いられる。
さらに、補正処理部18により、抽出された左眼用画像データおよび右眼用画像データに補正処理が施され、画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS26およびS27)。
圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS28)。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS29)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
さらに、補正処理部18により、抽出された左眼用画像データおよび右眼用画像データに補正処理が施され、画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS26およびS27)。
圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS28)。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS29)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
〔カメラ本体の特徴〕
以上に説明したカメラ本体の特徴を以下にまとめる。
(1)カメラ本体100では、ボディマウント150に装着されている交換レンズユニットから識別情報取得部142によりレンズ識別情報が取得される。例えば、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1が、ボディマウント150に装着されている交換レンズユニット200から識別情報取得部142により取得される。このため、3次元撮影に対応している交換レンズユニット200がカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144が判断する。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体100装着されると、レンズ識別情報F1に基づいて交換レンズユニットが3次元撮影に対応していないとカメラ側判定部144が判断する。
以上に説明したカメラ本体の特徴を以下にまとめる。
(1)カメラ本体100では、ボディマウント150に装着されている交換レンズユニットから識別情報取得部142によりレンズ識別情報が取得される。例えば、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1が、ボディマウント150に装着されている交換レンズユニット200から識別情報取得部142により取得される。このため、3次元撮影に対応している交換レンズユニット200がカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144が判断する。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体100装着されると、レンズ識別情報F1に基づいて交換レンズユニットが3次元撮影に対応していないとカメラ側判定部144が判断する。
このように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
(2)また、カメラ本体100では、交換レンズユニットの特性(例えば光学系の特性)を示すレンズ特性情報F2が特性情報取得部143により取得される。例えば、交換レンズユニット200に搭載されている3次元光学系Gの特性を示すレンズ特性情報F2が交換レンズユニット200から特性情報取得部143により取得される。したがって、交換レンズユニットに搭載されている3次元光学系の特性に応じて、カメラ本体100における画像処理などの動作を調整することができる。
また、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているとカメラ側判定部144により判定された場合に、レンズ特性情報F2が交換レンズユニットから特性情報取得部143により取得される。したがって、交換レンズユニットが3次元撮影に対応していない場合に、余分なデータのやりとりを省略することができ、カメラ本体100での処理の高速化が期待できる。
(2)また、カメラ本体100では、交換レンズユニットの特性(例えば光学系の特性)を示すレンズ特性情報F2が特性情報取得部143により取得される。例えば、交換レンズユニット200に搭載されている3次元光学系Gの特性を示すレンズ特性情報F2が交換レンズユニット200から特性情報取得部143により取得される。したがって、交換レンズユニットに搭載されている3次元光学系の特性に応じて、カメラ本体100における画像処理などの動作を調整することができる。
また、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているとカメラ側判定部144により判定された場合に、レンズ特性情報F2が交換レンズユニットから特性情報取得部143により取得される。したがって、交換レンズユニットが3次元撮影に対応していない場合に、余分なデータのやりとりを省略することができ、カメラ本体100での処理の高速化が期待できる。
(3)このカメラ本体100では、抽出位置補正量L11に基づいて抽出位置補正部139により抽出領域AL0およびAR0の中心位置が推奨輻輳点距離L10に対応する位置に補正されるので、装着される交換レンズユニットの特性に適した抽出領域を設定することができる。したがって、このカメラ本体100では、より適正なステレオ画像を取得することができる。
(4)さらに、このカメラ本体100では、レンズ特性情報F2に基づいて領域決定部149により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置が決定される。したがって、抽出位置補正部139により抽出中心を補正しても、交換レンズユニットの特性により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3がCMOSイメージセンサー110の撮像有効エリアを越えてしまうのを抑制できる。
(4)さらに、このカメラ本体100では、レンズ特性情報F2に基づいて領域決定部149により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置が決定される。したがって、抽出位置補正部139により抽出中心を補正しても、交換レンズユニットの特性により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3がCMOSイメージセンサー110の撮像有効エリアを越えてしまうのを抑制できる。
(5)以上のように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することが可能となる。
〔交換レンズユニットの特徴〕
また、交換レンズユニット200も以下のような特徴を有している。
(1)この交換レンズユニット200では、抽出位置補正量L11がフラッシュメモリ242に記憶されているので、推奨輻輳点距離L10に対応する位置に抽出中心の位置を補正することができる。したがって、より適正なステレオ画像を得やすくなる。
〔他の実施形態〕
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
〔交換レンズユニットの特徴〕
また、交換レンズユニット200も以下のような特徴を有している。
(1)この交換レンズユニット200では、抽出位置補正量L11がフラッシュメモリ242に記憶されているので、推奨輻輳点距離L10に対応する位置に抽出中心の位置を補正することができる。したがって、より適正なステレオ画像を得やすくなる。
〔他の実施形態〕
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
(A)ミラーボックスを有していないデジタルカメラ1を例に、撮像装置およびカメラ本体について説明しているが、ミラーボックスを有するデジタル一眼レフカメラであっても、3次元撮影に対応させることは可能である。なお、撮像装置は静止画だけでなく動画撮影が可能な装置であってもよい。
(B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
(C)3次元光学系Gは並置撮影方式に限定されず、例えば交換レンズユニットの光学系として時分割撮影方式が採用されていてもよい。また、前述の実施形態では、通常の並置撮影方式を例に記載しているが、水平方向に左眼用および右眼用画像が圧縮される水平圧縮並置撮影方式、あるいは、左眼用および右眼用画像を90度回転させた回転並置撮影方式が採用されていてもよい。
(B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
(C)3次元光学系Gは並置撮影方式に限定されず、例えば交換レンズユニットの光学系として時分割撮影方式が採用されていてもよい。また、前述の実施形態では、通常の並置撮影方式を例に記載しているが、水平方向に左眼用および右眼用画像が圧縮される水平圧縮並置撮影方式、あるいは、左眼用および右眼用画像を90度回転させた回転並置撮影方式が採用されていてもよい。
(D)図9では画像サイズの変更を行っているが、撮像素子が小さい場合は撮影禁止にしてもよい。例えば、領域決定部149で抽出領域AL3およびAR3のサイズを決定するが、その際に、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合は、カメラモニタ120にその旨を警告表示させてもよい。また、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合でも、抽出領域AL3およびAR3のアスペクト比を変更(例えば、アスペクト比を1:1にする等)することで抽出領域のサイズを比較的大きくできるのであれば、アスペクト比を変更するようにしてもよい。
また、画像データを抽出する際にアスペクト比を変更せずに抽出領域を縮小し、抽出された画像データが所定のサイズまで拡大するようリサイズしてもよい。
(E)前述の交換レンズユニット200は、単焦点レンズであってもよい。この場合、前述の抽出位置補正量L11を用いることで、抽出中心ACL2およびACR2を求めることができる。なお、交換レンズユニット200が単焦点レンズの場合は、例えば、ズームレンズ210Lおよび210Rが固定されており、それに伴い、ズームリング213、ズームモータ214Lおよび214Rが搭載されていなくてもよい。
また、画像データを抽出する際にアスペクト比を変更せずに抽出領域を縮小し、抽出された画像データが所定のサイズまで拡大するようリサイズしてもよい。
(E)前述の交換レンズユニット200は、単焦点レンズであってもよい。この場合、前述の抽出位置補正量L11を用いることで、抽出中心ACL2およびACR2を求めることができる。なお、交換レンズユニット200が単焦点レンズの場合は、例えば、ズームレンズ210Lおよび210Rが固定されており、それに伴い、ズームリング213、ズームモータ214Lおよび214Rが搭載されていなくてもよい。
本発明は、カメラ本体、交換レンズユニットおよび撮像装置に適用できる。
1 デジタルカメラ(撮像装置の一例)
15 信号処理部
16 画像抽出部
17 画像圧縮部
18 補正処理部
100カメラ本体
110 CMOSイメージセンサー(撮像素子の一例)
139 抽出位置補正部
140 カメラコントローラー
140a CPU
140b ROM(角度記憶部の一例)
140c RAM
141 DRAM
142 識別情報取得部
143 特性情報取得部(補正情報取得部の一例)
144 カメラ側判定部
145 状態情報取得部
146 レンズ検知部
147 メタデータ生成部
148 画像ファイル生成部
149 領域決定部
150 ボディマウント
200 交換レンズユニット
240 レンズコントローラー
240a CPU
240b ROM
240c RAM
241 DRAM
242 フラッシュメモリ(補正情報記憶部の一例)
243 状態情報生成部
244 レンズ側判定部
OL 左眼用光学系
OR 右眼用光学系
QL1 左眼用光学像
QR1 右眼用光学像
F1 レンズ識別情報
F2 レンズ特性情報
F3 レンズ状態情報
300 交換レンズユニット
400 アダプタ
500 コリメータレンズ
510 測定用カメラ本体
520 測定用交換レンズユニット
550 チャート
600 交換レンズユニット
15 信号処理部
16 画像抽出部
17 画像圧縮部
18 補正処理部
100カメラ本体
110 CMOSイメージセンサー(撮像素子の一例)
139 抽出位置補正部
140 カメラコントローラー
140a CPU
140b ROM(角度記憶部の一例)
140c RAM
141 DRAM
142 識別情報取得部
143 特性情報取得部(補正情報取得部の一例)
144 カメラ側判定部
145 状態情報取得部
146 レンズ検知部
147 メタデータ生成部
148 画像ファイル生成部
149 領域決定部
150 ボディマウント
200 交換レンズユニット
240 レンズコントローラー
240a CPU
240b ROM
240c RAM
241 DRAM
242 フラッシュメモリ(補正情報記憶部の一例)
243 状態情報生成部
244 レンズ側判定部
OL 左眼用光学系
OR 右眼用光学系
QL1 左眼用光学像
QR1 右眼用光学像
F1 レンズ識別情報
F2 レンズ特性情報
F3 レンズ状態情報
300 交換レンズユニット
400 アダプタ
500 コリメータレンズ
510 測定用カメラ本体
520 測定用交換レンズユニット
550 チャート
600 交換レンズユニット
ここに開示されている技術は、交換レンズユニット、交換レンズユニットを装着可能なカメラ本体および撮像装置に関する。また、ここに開示される技術は、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体に関する。
撮像装置として、例えばレンズ交換式のデジタルカメラが知られている。レンズ交換式のデジタルカメラは、交換レンズユニットと、カメラ本体と、を備えている。このカメラ本体は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子を有している。撮像素子は交換レンズユニットで形成された光学像を画像信号に変換する。こうして、被写体の画像データを取得することができる。
ところで、近年、いわゆる3次元表示用のディスプレイの開発が進められている。それに伴い、いわゆるステレオ画像データ(左眼用画像および右眼用画像を含む3次元表示用の画像データ)を生成するデジタルカメラの開発も進められている。
しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系(以下、3次元光学系とも言う)を用いる必要がある。
しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系(以下、3次元光学系とも言う)を用いる必要がある。
そこで、3次元撮影用のアダプタの着脱に基づいて2次元撮影モードと3次元撮影モードとを自動的に切り替えるビデオカメラが提案されている(例えば、特許文献1を参照)。
一方、3次元光学系ごとに適した撮影距離(カメラから輻輳点までの距離)が存在するが、推奨撮影距離が異なると左眼用画像データおよび右眼用画像データの抽出領域の位置が光学系ごとで変化する。
しかし、特許文献1に記載のビデオカメラでは、通常の光学系の前側に単に3次元撮影用の光学系を装着するだけであるので、装着される光学系で推奨されている撮影距離にて撮影を行っても、左眼用画像データおよび右眼用画像データを抽出する際に適切な抽出領域を設定できるわけではない。したがって、立体視するのに適したステレオ画像を取得できない場合も考えられる。
しかし、特許文献1に記載のビデオカメラでは、通常の光学系の前側に単に3次元撮影用の光学系を装着するだけであるので、装着される光学系で推奨されている撮影距離にて撮影を行っても、左眼用画像データおよび右眼用画像データを抽出する際に適切な抽出領域を設定できるわけではない。したがって、立体視するのに適したステレオ画像を取得できない場合も考えられる。
本発明の課題は、より適正なステレオ画像を取得できるカメラ本体および交換レンズユニット、カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体を提供することにある。
交換レンズユニットは、撮像素子を有するカメラ本体に装着可能な交換レンズユニットであり、3次元光学系と、補正情報記憶部と、を備える。3次元光学系は、被写体の立体視用光学像を形成する。補正情報記憶部は、輻輳点距離が無限遠の場合に対応する基準抽出位置から前記交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を記憶する。
上記の交換レンズユニット、カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体では、より適正なステレオ画像を取得することができる。
〔デジタルカメラの構成〕
デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1〜図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1〜図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
なお、説明の便宜のため、デジタルカメラ1の被写体側を前、被写体と反対側を後ろまたは背、デジタルカメラ1の通常姿勢(以下、横撮り姿勢ともいう)における鉛直上側を上、鉛直下側を下ともいう。
<1:交換レンズユニットの構成>
交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
<1:交換レンズユニットの構成>
交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
図1〜図4に示すように、交換レンズユニット200は、3次元光学系Gと、第1駆動ユニット271、第2駆動ユニット272、振れ量検出センサー275およびレンズコントローラー240を有している。さらに、交換レンズユニット200は、レンズマウント250、レンズ筒290、ズームリング213およびフォーカスリング234を有している。交換レンズユニット200をカメラ本体100に装着する際、レンズマウント250がカメラ本体100のボディマウント150(後述)に取り付けられる。図1に示すように、レンズ筒290の外部にはズームリング213とフォーカスリング234とが回転可能に設けられている。
(1)3次元光学系G
図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
左眼用光学系OLは、被写体に向かって左側の視点から被写体を撮影するための光学系であり、ズームレンズ210L、OISレンズ220L、絞りユニット260Lおよびフォーカスレンズ230Lを含んでいる。左眼用光学系OLは、第1光軸AX1を有しており、右眼用光学系ORと左右に並んだ状態でレンズ筒290の内部に収容されている。
ズームレンズ210Lは、左眼用光学系OLの焦点距離を変化させるためのレンズであり、第1光軸AX1と平行な方向に移動可能に配置されている。ズームレンズ210Lは1枚または複数枚のレンズで構成されている。ズームレンズ210Lは第1駆動ユニット271のズームモータ214L(後述)により駆動される。ズームレンズ210Lを第1光軸AX1と平行な方向に駆動することにより、左眼用光学系OLの焦点距離を調整することができる。
ズームレンズ210Lは、左眼用光学系OLの焦点距離を変化させるためのレンズであり、第1光軸AX1と平行な方向に移動可能に配置されている。ズームレンズ210Lは1枚または複数枚のレンズで構成されている。ズームレンズ210Lは第1駆動ユニット271のズームモータ214L(後述)により駆動される。ズームレンズ210Lを第1光軸AX1と平行な方向に駆動することにより、左眼用光学系OLの焦点距離を調整することができる。
OISレンズ220Lは、左眼用光学系OLで形成される光学像のCMOSイメージセンサー110(後述)に対する変位を抑制するためのレンズである。OISレンズ220Lは1枚または複数枚のレンズで構成される。OISモータ221Lは、OIS用IC223Lから送信される制御信号に基づいて、第1光軸AX1に垂直な面内で移動するようにOISレンズ220Lを駆動する。OISモータ221Lは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Lの位置は第1駆動ユニット271の位置検出センサー222L(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第1光軸AX1と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
フォーカスレンズ230Lは、左眼用光学系OLの被写体距離(物点距離ともいう)を調整するためのレンズであり、第1光軸AX1に平行な方向に移動可能に配置されている。フォーカスレンズ230Lは第1駆動ユニット271のフォーカスモータ233L(後述)により駆動される。フォーカスレンズ230Lは1枚または複数枚のレンズで構成されている。
右眼用光学系ORは、被写体に向かって右側の視点から被写体を撮影するための光学系であり、ズームレンズ210R、OISレンズ220R、絞りユニット260Rおよびフォーカスレンズ230Rを含んでいる。右眼用光学系ORは、第2光軸AX2を有しており、左眼用光学系OLと左右に並んだ状態でレンズ筒290の内部に収容されている。右眼用光学系ORの仕様は左眼用光学系OLの仕様と同じである。なお、第1光軸AX1と第2光軸AX2とのなす角度(輻輳角)とは、図10に示す角度θ1をいう。
ズームレンズ210Rは、右眼用光学系ORの焦点距離を変化させるためのレンズであり、第2光軸AX2と平行な方向に移動可能に配置されている。ズームレンズ210Rは1枚または複数枚のレンズで構成されている。ズームレンズ210Rは第2駆動ユニット272のズームモータ214R(後述)により駆動される。ズームレンズ210Rを第2光軸AX2と平行な方向に駆動することにより、右眼用光学系ORの焦点距離を調整することができる。ズームレンズ210Rの駆動はズームレンズ210Lの駆動と同期がとられている。したがって、右眼用光学系ORの焦点距離は左眼用光学系OLの焦点距離と同じである。
OISレンズ220Rは、右眼用光学系ORで形成される光学像のCMOSイメージセンサー110に対する変位を抑制するためのレンズである。OISレンズ220Rは1枚または複数枚のレンズで構成される。OISモータ221Rは、OIS用IC223Rから送信される制御信号に基づいて、第2光軸AX2に垂直な面内で移動するようにOISレンズ220Rを駆動する。OISモータ221Rは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Rの位置は第2駆動ユニット272の位置検出センサー222R(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110(後述)で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第2光軸AX2と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Rは右眼用光学系ORを透過する光の量を調整する。絞りユニット260Rは複数の絞り羽根(図示せず)を有している。絞り羽根は第2駆動ユニット272の絞りモータ235R(後述)により駆動される。カメラコントローラー140は絞りモータ235Rを制御する。絞りユニット260Rの駆動は絞りユニット260Lの駆動と同期がとられる。したがって、右眼用光学系ORの絞り値は左眼用光学系OLの絞り値と同じである。
絞りユニット260Rは右眼用光学系ORを透過する光の量を調整する。絞りユニット260Rは複数の絞り羽根(図示せず)を有している。絞り羽根は第2駆動ユニット272の絞りモータ235R(後述)により駆動される。カメラコントローラー140は絞りモータ235Rを制御する。絞りユニット260Rの駆動は絞りユニット260Lの駆動と同期がとられる。したがって、右眼用光学系ORの絞り値は左眼用光学系OLの絞り値と同じである。
フォーカスレンズ230Rは、右眼用光学系ORの被写体距離(物点距離ともいう)を調整するためのレンズであり、第2光軸AX2に平行な方向に移動可能に配置されている。フォーカスレンズ230Rは第2駆動ユニット272のフォーカスモータ233R(後述)により駆動される。フォーカスレンズ230Rは1枚または複数枚のレンズで構成されている。
(2)第1駆動ユニット271
第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
ズームモータ214Lはズームレンズ210Lを駆動する。ズームモータ214Lはレンズコントローラー240により制御される。
OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
絞りモータ235Lは絞りユニット260Lを駆動する。絞りモータ235Lはレンズコントローラー240により制御される。
フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(3)第2駆動ユニット272
第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
ズームモータ214Rはズームレンズ210Rを駆動する。ズームモータ214Rはレンズコントローラー240により制御される。
OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
絞りモータ235Rは絞りユニット260Rを駆動する。絞りモータ235Rはレンズコントローラー240により制御される。
フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(4)レンズコントローラー240
レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
レンズコントローラー240は、CPU(Central Processing Unit)240a、ROM(Read Only Memory)240bおよびRAM(Random Access Memory)240cを有しており、ROM240bに格納されたプログラムがCPU240aに読み込まれることで様々な機能を実現し得る。
また、フラッシュメモリ242(補正情報記憶部の一例、識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
また、フラッシュメモリ242(補正情報記憶部の一例、識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
ここで、レンズ識別情報F1、レンズ特性情報F2およびレンズ状態情報F3について説明する。
(レンズ識別情報F1)
レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
(レンズ識別情報F1)
レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
3次元撮影判定フラグが立っている場合は、その交換レンズユニットが3次元撮影に対応しており、3次元撮影判定フラグが立っていない場合は、その交換レンズユニットは3次元撮影に対応していない。3次元撮影判定フラグのアドレスは、3次元撮影に対応していない通常の交換レンズユニットで使用されていない領域が用いられる。これにより、3次元撮影に対応していない交換レンズユニットでは、3次元撮影判定フラグの設定を行わなくても、3次元撮影判定フラグが立っていない状態となり得る。
(レンズ特性情報F2)
レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
(A)基線長
立体光学系(G)の基線長L1
(B)光軸位置
撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
(C)輻輳角
第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
(D)左眼ズレ量
左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
(E)右眼ズレ量
右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
(F)撮像有効エリア
左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図8参照)
(G)推奨輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に推奨される、被写体(輻輳点P0)からCMOSイメージセンサー110の受光面110aまでの距離L10(図10参照)
(H)抽出位置補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が推奨輻輳点距離L10に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P21およびP22)までの距離L11(図10参照)(「輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離」ともいう)
(I)限界輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に、左眼用光学像QL1および右眼用光学像QR1の抽出領域がともに撮像有効エリア内に収まる場合の、被写体から受光面110aまでの最短距離L12(図10参照)
(J)抽出位置限界補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が限界輻輳点距離L12に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P31およびP32)までの距離L13(図10参照)
上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。
レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
(A)基線長
立体光学系(G)の基線長L1
(B)光軸位置
撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
(C)輻輳角
第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
(D)左眼ズレ量
左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
(E)右眼ズレ量
右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
(F)撮像有効エリア
左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図8参照)
(G)推奨輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に推奨される、被写体(輻輳点P0)からCMOSイメージセンサー110の受光面110aまでの距離L10(図10参照)
(H)抽出位置補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が推奨輻輳点距離L10に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P21およびP22)までの距離L11(図10参照)(「輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの撮像素子上の距離」ともいう)
(I)限界輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に、左眼用光学像QL1および右眼用光学像QR1の抽出領域がともに撮像有効エリア内に収まる場合の、被写体から受光面110aまでの最短距離L12(図10参照)
(J)抽出位置限界補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が限界輻輳点距離L12に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P31およびP32)までの距離L13(図10参照)
上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。
ここで、図9〜図10を用いて、上記のパラメータについて説明をする。図9はCMOSイメージセンサー110を被写体側から見た図である。CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図9および図10参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、受光面110aは、第1領域110Lと、第1領域110Lに隣接して配置された第2領域110Rと、を有している。第1領域110Lの面積は第2領域110Rの面積と同じである。図9に示すように、カメラ本体100の背面側から見た場合(透視した場合)、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。図9に示すように、交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像QL1が形成され、第2領域110Rには右眼用光学像QR1が形成される。
図9に示すように、設計上の左眼用光学系OLのイメージサークルILおよび右眼用光学系ORのイメージサークルIRをCMOSイメージセンサー110上に定義する。イメージサークルILの中心ICL(基準抽出位置の一例)は左眼用光学系OLの第1光軸AX10の設計上の位置と一致しており、イメージサークルIRの中心ICR(基準抽出位置の一例)は右眼用光学系ORの第2光軸AX20の設計上の位置と一致している。ここで、設計上の位置とは、第1光軸AX10および第2光軸AX20は、輻輳点が無限遠にある場合に対応している。したがって、設計上の基線長はCMOSイメージセンサー110上での第1光軸AX10および第2光軸AX20の間の設計上の距離L1となる。また、光軸位置は受光面110aの中心C0および第1光軸AX10の間の設計上の距離L2(あるいは中心C0および第2光軸AX20の間の設計上の距離L2)となる。
また図9に示すように、中心ICLに基づいて抽出可能範囲AL1および横長撮影用抽出可能範囲AL11が設定され、中心ICRに基づいて抽出可能範囲AR1および横長撮影用抽出可能範囲AR11が設定されている。中心ICLが受光面110aの第1領域110Lのほぼ中央位置に設定されているので、イメージサークルIL内の抽出可能範囲AL1およびAL11を広く確保できる。また、中心ICRが第2領域110Rのほぼ中央位置に設定されているので、イメージサークルIR内の抽出可能範囲AR1およびAR11を広く確保できる。
図9に示す抽出領域AL0およびAR0は、左眼用画像データおよび右眼用画像データを抽出する際の基準となる領域である。左眼用画像データの設計上の抽出領域AL0は、イメージサークルILの中心ICL(あるいは第1光軸AX10)を基準に設定されており、抽出可能範囲AL1の中央に位置している。また、右眼用画像データの設計上の抽出領域AR0は、イメージサークルIRの中心ICR(あるいは第2光軸AX20)を基準に設定されており、抽出可能範囲AR1の中央に位置している。
ところが、光軸中心ICLおよびICRは輻輳点が無限遠に存在する場合に対応しているので、抽出領域AL0およびAR0を基準に左眼用画像データおよび右眼用画像データを抽出すると、立体視の際に被写体が再現される位置は無限位置となる。したがって、このような設定で近接撮影(例えば、撮影位置から主被写体までの距離が1m程度の場合)用の交換レンズユニット200を用いると、立体視の際に3次元画像内で被写体がスクリーンから飛び出し過ぎるという問題が発生する。
そこで、撮影時にデジタルカメラ1から推奨輻輳点距離L10だけ離れた位置にある被写体が、立体視の際にスクリーン上に再現されるように、このカメラ本体100では、抽出領域AR0を推奨抽出領域AR3へ、抽出領域AL0を推奨抽出領域AL3へ、それぞれ距離L11だけずらしている。抽出位置補正量L11を用いた抽出領域の補正処理については後述する。
<2:カメラ本体の構成>
図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
(1)CMOSイメージセンサー110
CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
ここで、スルー画像とは、動画データのうちメモリーカード171に記録されない画像である。スルー画像は、主に動画であり、動画または静止画の構図を決めるためにカメラモニタ120または電子ビューファインダー(以下、EVFとも言う)180に表示される。
前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
なお、CMOSイメージセンサー110は被写体の光学像を電気的な画像信号に変換する撮像素子の一例である。撮像素子は、CMOSイメージセンサー110やCCDイメージセンサー等の光電変換素子を含む概念である。
(2)カメラモニタ120
カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
(2)カメラモニタ120
カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
なお、カメラモニタ120はカメラ本体100に設けられた表示部の一例である。表示部としては、他にも、有機EL、無機EL、プラズマディスプレイパネル等、画像を表示できる装置を用いることができる。
(3)電子ビューファインダー180
電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
(3)電子ビューファインダー180
電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
(4)操作部130
図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
(5)カードスロット170
カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
メモリーカード171は、カメラコントローラー140が画像処理により生成した画像データを格納可能である。例えば、メモリーカード171は、非圧縮のRAW画像ファイルや圧縮されたJPEG画像ファイル等を格納できる。さらに、メモリーカード171はマルチピクチャーフォーマット(MPF)形式のステレオ画像ファイルを格納することもできる。
また、カードスロット170を介して、予め内部に格納された画像データをメモリーカード171から出力できる。メモリーカード171から出力された画像データまたは画像ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した画像データまたは画像ファイルを伸張などして表示用画像データを生成する。
メモリーカード171は、さらに、カメラコントローラー140が画像処理により生成した動画データを格納可能である。例えば、メモリーカード171は、動画圧縮規格であるH.264/AVCに従って圧縮された動画ファイルを格納できる。また、ステレオ動画ファイルを格納することもできる。また、カードスロット170を介して、予め内部に格納された動画データまたは動画ファイルをメモリーカード171から出力できる。メモリーカード171から出力された動画データまたは動画ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した動画データまたは動画ファイルに伸張処理を施し、表示用動画データを生成する。
(6)シャッターユニット190
シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
(7)ボディマウント150
ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
(8)カメラコントローラー140
カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
また、カメラコントローラー140は、交換レンズユニット200を制御するための信号を、ボディマウント150およびレンズマウント250を介してレンズコントローラー240に送信し、交換レンズユニット200の各部を間接的に制御する。また、カメラコントローラー140は、ボディマウント150およびレンズマウント250を介して、レンズコントローラー240から各種信号を受信する。
カメラコントローラー140は、CPU(Central Processing Unit)140a、ROM(Read Only Memory)140bおよびRAM(Random Access Memory)140cを有しており、ROM140b(コンピュータにより読み取り可能な記録媒体)に格納されたプログラムがCPU140aに読み込まれることで様々な機能を実現し得る。
(カメラコントローラー140の詳細)
ここで、カメラコントローラー140の機能の詳細について説明する。
(カメラコントローラー140の詳細)
ここで、カメラコントローラー140の機能の詳細について説明する。
まず、カメラコントローラー140は、交換レンズユニット200がカメラ本体100(より詳細には、ボディマウント150)に装着されているか否かを検知する。具体的には図6に示すように、カメラコントローラー140はレンズ検知部146を有している。交換レンズユニット200がカメラ本体100に装着されると、カメラコントローラー140とレンズコントローラー240との間で信号の送受信が行われる。レンズ検知部146は、信号の送受信に基づいて交換レンズユニット200が装着されているか否かを判定する。
また、カメラコントローラー140は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを判定する機能、および交換レンズユニットから3次元撮影に関係する情報を取得する機能など、様々な機能を有している。カメラコントローラー140は、識別情報取得部142、特性情報取得部143、カメラ側判定部144、状態情報取得部145、抽出位置補正部139、領域決定部149、メタデータ生成部147および画像ファイル生成部148を有している。
識別情報取得部142は、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1を、ボディマウント150に装着されている交換レンズユニット200から取得する。図7(A)に示すように、レンズ識別情報F1は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばレンズコントローラー240のフラッシュメモリ242に格納されている。レンズ識別情報F1はフラッシュメモリ242の所定のアドレスに格納された3次元撮影判定フラグである。識別情報取得部142は取得したレンズ識別情報F1を例えばDRAM141に一時的に格納する。
カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1に基づいて、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かを判定する。ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードの実行を許容する。一方、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応していないとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードを実行しない。この場合、カメラコントローラー140は2次元撮影モードの実行を許容する。
特性情報取得部143(補正情報取得部の一例)は、交換レンズユニット200に搭載されている光学系の特性を示すレンズ特性情報F2を交換レンズユニット200から取得する。具体的には、特性情報取得部143は、交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合に、前述のレンズ特性情報F2を交換レンズユニット200から取得する。特性情報取得部143は、取得したレンズ特性情報F2を例えばDRAM141に一時的に格納する。
状態情報取得部145は状態情報生成部243により生成されたレンズ状態情報F3(撮影可否フラグ)を取得する。このレンズ状態情報F3は交換レンズユニット200が撮影可能な状態か否かを判定するのに用いられる。状態情報取得部145は取得したレンズ状態情報F3を例えばDRAM141に一時的に格納する。
抽出位置補正部139は、画像データを抽出する際に用いられる使用抽出領域(より詳細には、使用抽出領域の中心位置)を、抽出位置補正量L11に基づいて補正する。初期状態では、使用抽出領域は抽出領域AL0およびAR0に設定されており、抽出領域AL0の中心はイメージサークルILの中心ICLに設定されており、抽出領域AR0の中心はイメージサークルIRの中心ICRに設定されている。抽出位置補正部139は、中心ICLおよびICRから抽出位置補正量L11だけ抽出中心を水平方向に移動させて、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2(推奨抽出位置の一例)を設定する。抽出中心ACL2およびACR2を基準とした使用抽出領域は、図9に示す抽出領域AL2およびAR2となる。このように、抽出位置補正量L11を用いて抽出中心の位置を補正することで、交換レンズユニットの特性に応じて使用抽出領域を設定することができ、より適正なステレオ画像を得ることができる。
抽出位置補正部139は、画像データを抽出する際に用いられる使用抽出領域(より詳細には、使用抽出領域の中心位置)を、抽出位置補正量L11に基づいて補正する。初期状態では、使用抽出領域は抽出領域AL0およびAR0に設定されており、抽出領域AL0の中心はイメージサークルILの中心ICLに設定されており、抽出領域AR0の中心はイメージサークルIRの中心ICRに設定されている。抽出位置補正部139は、中心ICLおよびICRから抽出位置補正量L11だけ抽出中心を水平方向に移動させて、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2(推奨抽出位置の一例)を設定する。抽出中心ACL2およびACR2を基準とした使用抽出領域は、図9に示す抽出領域AL2およびAR2となる。このように、抽出位置補正量L11を用いて抽出中心の位置を補正することで、交換レンズユニットの特性に応じて使用抽出領域を設定することができ、より適正なステレオ画像を得ることができる。
ここで、本実施形態では、交換レンズユニット200がズーム機能を有しているので、ズーム操作により焦点距離が変わると、推奨輻輳点距離L10が変化し、それに伴い抽出位置補正量L11も変化する。したがって、ズームポジションに応じて抽出位置補正量L11を演算により再計算してもよい。
具体的には、レンズコントローラー240はズーム位置センサ(図示せず)の検出結果に基づいてズームポジションを把握できる。レンズコントローラー240はズームポジション情報をカメラコントローラー140に所定の周期で送信する。ズームポジション情報はDRAM141に一時的に格納される。
具体的には、レンズコントローラー240はズーム位置センサ(図示せず)の検出結果に基づいてズームポジションを把握できる。レンズコントローラー240はズームポジション情報をカメラコントローラー140に所定の周期で送信する。ズームポジション情報はDRAM141に一時的に格納される。
一方、抽出位置補正部139は、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて焦点距離に適した抽出位置補正量を算出する。このとき、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11の関係を示す情報(例えば、演算式やデータテーブルなど)がカメラ本体100に格納されていてもよいし、交換レンズユニット200のフラッシュメモリ242に格納されていてもよい。抽出位置補正量の更新は所定の周期で行われる。更新された抽出位置補正量はDRAM141の所定のアドレスに格納される。この場合、抽出位置補正部139は、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて抽出領域AL0およびAR0の中心位置を補正する。
領域決定部149は、画像抽出部16で左眼用画像データおよび右眼用画像データを抽出する際に用いられる抽出領域AL3およびAR3のサイズおよび位置を決定する。具体的には、領域決定部149は、抽出位置補正部139により算出された抽出中心ACL2およびACR2、イメージサークルILおよびIRの半径r、レンズ特性情報F2に含まれる左眼ズレ量DLおよび右眼ズレ量DRに基づいて、左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置を決定する。
なお、領域決定部149が、左眼用光学像および右眼用光学像が回転しているか否かを示す180度回転フラグ、左眼用光学像および右眼用光学像の左右の配置を示す配置変更フラグおよび左眼用光学像および右眼用光学像がそれぞれミラー反転しているか否かを示すミラー反転フラグに基づいて、左眼用画像データおよび右眼用画像データを正しく抽出できるように、画像データ上における抽出処理の始点を決定してもよい。
メタデータ生成部147は基線長および輻輳角を設定したメタデータを生成する。基線長および輻輳角はステレオ画像を表示する際に用いられる。
画像ファイル生成部148は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。
画像ファイル生成部148は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。
(9)画像処理部10
画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
画像抽出部16は信号処理部15で生成された基本画像データから左眼用画像データおよび右眼用画像データを抽出する。左眼用画像データは左眼用光学系OLにより形成される左眼用光学像QL1の一部に対応している。右眼用画像データは右眼用光学系ORにより形成される右眼用光学像QR1の一部に対応している。領域決定部149により決定された抽出領域AL3およびAR3に基づいて、DRAM141に格納された基本画像データから画像抽出部16は左眼用画像データおよび右眼用画像データを抽出する。画像抽出部16により抽出された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
補正処理部18は、抽出した左眼用画像データおよび右眼用画像データのそれぞれに対して歪曲収差補正およびシェーディング補正などの補正処理を行う。補正処理後、左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
画像圧縮部17はカメラコントローラー140の命令に基づいてDRAM141に記憶された補正後の左眼用および右眼用画像データに圧縮処理を施す。この圧縮処理により、画像データのデータサイズは元のデータサイズよりも小さくなる。画像データの圧縮方法として、例えば1フレームの画像データ毎に圧縮するJPEG(Joint Photographic Experts Group)方式が考えられる。圧縮された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
画像圧縮部17はカメラコントローラー140の命令に基づいてDRAM141に記憶された補正後の左眼用および右眼用画像データに圧縮処理を施す。この圧縮処理により、画像データのデータサイズは元のデータサイズよりも小さくなる。画像データの圧縮方法として、例えば1フレームの画像データ毎に圧縮するJPEG(Joint Photographic Experts Group)方式が考えられる。圧縮された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
〔デジタルカメラの動作〕
(1)電源ON時
交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図11および図12のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。
(1)電源ON時
交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図11および図12のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。
電源がONになると、表示制御部125の制御によりカメラモニタ120に黒画面が表示され、カメラモニタ120のブラックアウトの状態が保持される(ステップS1)。次に、カメラコントローラー140の識別情報取得部142により交換レンズユニット200からレンズ識別情報F1が取得される(ステップS2)。具体的には図8(A)および図8(B)に示すように、カメラコントローラー140のレンズ検知部146により交換レンズユニット200の装着が検知されると、カメラコントローラー140はレンズコントローラー240に種別確認コマンドを送信する。この種別確認コマンドは、レンズ識別情報F1の3次元撮影判定フラグのステータスを送信するようレンズコントローラー240に要求するコマンドである。図8(B)に示すように、交換レンズユニット200が3次元撮影に対応しているので、種別確認コマンドを受信するとレンズコントローラー240がレンズ識別情報F1(3次元撮影判定フラグ)をカメラ本体100に送信する。識別情報取得部142はこの3次元撮影判定フラグのステータスをDRAM141に一時的に格納する。
次に、通常初期通信がカメラ本体100および交換レンズユニット200の間で実行される(ステップS3)。通常初期通信とは、3次元撮影に対応していない交換レンズユニットおよびカメラ本体の間でも行われる通信であり、例えば交換レンズユニット200の仕様に関する情報(焦点距離、F値等)が交換レンズユニット200からカメラ本体100に送信される。
通常初期通信の後、カメラ側判定部144により、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される(ステップS4)。具体的には、カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1(3次元撮影判定フラグ)に基づいて、装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される。
装着されている交換レンズユニットが3次元撮影に対応していない場合、2次元撮影に対応している通常のシーケンスが実行され、ステップS14に処理が移行する(ステップS8)。交換レンズユニット200のように3次元撮影に対応している交換レンズユニットが装着されている場合は、特性情報取得部143によりレンズ特性情報F2が交換レンズユニット200から取得される(ステップS5)。具体的には図8(B)に示すように、特性情報取得部143からレンズコントローラー240に特性情報送信コマンドが送信される。この特性情報送信コマンドはレンズ特性情報F2の送信を要求するコマンドである。カメラコントローラー140はこのコマンドを受信すると、レンズ特性情報F2をカメラコントローラー140に送信する。特性情報取得部143はレンズ特性情報F2を例えばDRAM141に格納する。
レンズ特性情報F2の取得後、レンズ特性情報F2に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の抽出中心の位置が補正される(ステップS6)。具体的には、抽出位置補正部139により、抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)に基づいて、抽出領域AL0およびAR0の中心位置を補正する。中心ICLおよびICRから抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)だけ抽出中心を水平方向に移動させることで、抽出位置補正部139により、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2が設定される。
さらに、レンズ特性情報F2に基づいて領域決定部149により抽出領域AL3およびAR3のサイズおよび位置が決定される(ステップS7)。例えば、前述のように、光軸位置、撮像有効エリア(半径r)、抽出中心ACL2およびACR2、左眼ズレ量DL、右眼ズレ量DRおよびCMOSイメージセンサー110のサイズに基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。例えば、抽出領域AL3およびAR3が横長撮影用抽出可能範囲AL11およびAR11内に収まるように、上記の情報に基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。
なお、領域決定部149が抽出領域AL3およびAR3のサイズを決定する際に、限界輻輳点距離L12および抽出位置限界補正量L13が用いられてもよい。
また、抽出領域AL3およびAR3のいずれの画像を右眼用画像として抽出するか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定されてもよい。
また、抽出領域AL3およびAR3のいずれの画像を右眼用画像として抽出するか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定されてもよい。
さらに、ライブビュー表示用の画像が左眼用および右眼用画像データから選択される(ステップS10)。例えば、左眼用および右眼用画像データからユーザーに選択させるようにしてもよいし、また、カメラコントローラー140において予め決定されている方を表示用として設定してもよい。選択された方の画像データが表示用画像として設定され、画像抽出部16により抽出される(ステップS11Aまたは11B)。
続いて、抽出された画像データに対して、歪曲収差補正やシェーディング補正などの補正処理が補正処理部18により施される(ステップS12)。さらに、表示制御部125により補正後の画像データにサイズ調整処理が施され、表示用の画像データが生成される(ステップS13)。この補正用画像データはDRAM141に一時的に格納される。
その後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS14)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
その後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS14)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
さらに、状態情報生成部243は、レンズ側判定部244の判定結果に基づいて、3次元光学系Gの撮影状態が整っているか否かを示す撮影可否フラグ(待機情報の一例)のステータスを設定する。状態情報生成部243は、レンズ側判定部244によりカメラ本体が3次元撮影に対応していると判定された場合には(図8(B))、各部の初期化完了後、撮影可否フラグのステータスを「可」に設定する。一方、レンズ側判定部244によりカメラ本体が3次元撮影に対応していないと判定された場合には(図8(A)参照)、状態情報生成部243は、各部の初期化が完了しているか否かに関わらず、撮影可否フラグのステータスを「不可」に設定する。ステップS14において、状態情報取得部145からレンズコントローラー240へ撮影可否フラグのステータス情報の送信を要求するコマンドが送信されると、状態情報生成部243は撮影可否フラグのステータス情報をカメラコントローラー140に送信する。カメラ本体100では、レンズコントローラー240から送信された撮影可否フラグのステータス情報を状態情報取得部145がDRAM141の所定のアドレスに一時的に格納する。
さらに、格納された撮影可否フラグに基づいて状態情報取得部145により交換レンズユニット200が撮影可能状態か否かが判定される(ステップS15)。交換レンズユニット200が撮影可能状態になっていない場合は、ステップS14およびステップS15の処理が所定の周期で繰り返される。一方、交換レンズユニット200が撮影可能状態になっている場合は、ステップS13で生成された表示用画像データをカメラモニタ120に可視画像として表示させる(ステップS16)。ステップS16以降は、例えばカメラモニタ120に左眼用画像、右眼用画像、左眼用画像と右眼用画像を組み合わせた画像、または、左眼用画像と右眼用画像とを用いた3次元画像がライブビュー表示される。
(2)3次元静止画撮影
次に、図13を用いて3次元静止画撮影時の動作について説明する。
ユーザーがレリーズ釦131を押すと、オートフォーカス(AF)および自動露出(AE)が実行され、続いて露光が開始される(ステップS21およびS22)。CMOSイメージセンサー110から画像信号(全画素のデータ)が信号処理部15に取り込まれ、信号処理部15においてAD変換などの信号処理が画像信号に施される(ステップS23およびS24)。信号処理部15により生成された基本画像データはDRAM141に一時的に格納される。
次に、図13を用いて3次元静止画撮影時の動作について説明する。
ユーザーがレリーズ釦131を押すと、オートフォーカス(AF)および自動露出(AE)が実行され、続いて露光が開始される(ステップS21およびS22)。CMOSイメージセンサー110から画像信号(全画素のデータ)が信号処理部15に取り込まれ、信号処理部15においてAD変換などの信号処理が画像信号に施される(ステップS23およびS24)。信号処理部15により生成された基本画像データはDRAM141に一時的に格納される。
信号処理の後、抽出領域AL3およびAR3の位置は焦点距離に応じて抽出位置補正部139により補正される(ステップS25A)。具体的には、抽出位置補正部139により、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて現在の焦点距離に適した抽出位置補正量が算出される。この場合、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の中心位置が補正される。
次に、画像抽出部16により、左眼用画像データおよび右眼用画像データが基本画像データから抽出される(ステップS25B)。このときの抽出領域AL3およびAR3のサイズは、ステップS7で決定された値が用いられる。
さらに、補正処理部18により、抽出された左眼用画像データおよび右眼用画像データに補正処理が施され、画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS26およびS27)。
さらに、補正処理部18により、抽出された左眼用画像データおよび右眼用画像データに補正処理が施され、画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS26およびS27)。
圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS28)。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS29)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS29)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
〔カメラ本体の特徴〕
以上に説明したカメラ本体の特徴を以下にまとめる。
(1)カメラ本体100では、ボディマウント150に装着されている交換レンズユニットから識別情報取得部142によりレンズ識別情報が取得される。例えば、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1が、ボディマウント150に装着されている交換レンズユニット200から識別情報取得部142により取得される。このため、3次元撮影に対応している交換レンズユニット200がカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144が判断する。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体100装着されると、レンズ識別情報F1に基づいて交換レンズユニットが3次元撮影に対応していないとカメラ側判定部144が判断する。
以上に説明したカメラ本体の特徴を以下にまとめる。
(1)カメラ本体100では、ボディマウント150に装着されている交換レンズユニットから識別情報取得部142によりレンズ識別情報が取得される。例えば、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1が、ボディマウント150に装着されている交換レンズユニット200から識別情報取得部142により取得される。このため、3次元撮影に対応している交換レンズユニット200がカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144が判断する。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体100装着されると、レンズ識別情報F1に基づいて交換レンズユニットが3次元撮影に対応していないとカメラ側判定部144が判断する。
このように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
(2)また、カメラ本体100では、交換レンズユニットの特性(例えば光学系の特性)を示すレンズ特性情報F2が特性情報取得部143により取得される。例えば、交換レンズユニット200に搭載されている3次元光学系Gの特性を示すレンズ特性情報F2が交換レンズユニット200から特性情報取得部143により取得される。したがって、交換レンズユニットに搭載されている3次元光学系の特性に応じて、カメラ本体100における画像処理などの動作を調整することができる。
(2)また、カメラ本体100では、交換レンズユニットの特性(例えば光学系の特性)を示すレンズ特性情報F2が特性情報取得部143により取得される。例えば、交換レンズユニット200に搭載されている3次元光学系Gの特性を示すレンズ特性情報F2が交換レンズユニット200から特性情報取得部143により取得される。したがって、交換レンズユニットに搭載されている3次元光学系の特性に応じて、カメラ本体100における画像処理などの動作を調整することができる。
また、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているとカメラ側判定部144により判定された場合に、レンズ特性情報F2が交換レンズユニットから特性情報取得部143により取得される。したがって、交換レンズユニットが3次元撮影に対応していない場合に、余分なデータのやりとりを省略することができ、カメラ本体100での処理の高速化が期待できる。
(3)このカメラ本体100では、抽出位置補正量L11に基づいて抽出位置補正部139により抽出領域AL0およびAR0の中心位置が推奨輻輳点距離L10に対応する位置に補正されるので、装着される交換レンズユニットの特性に適した抽出領域を設定することができる。したがって、このカメラ本体100では、より適正なステレオ画像を取得することができる。
(4)さらに、このカメラ本体100では、レンズ特性情報F2に基づいて領域決定部149により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置が決定される。したがって、抽出位置補正部139により抽出中心を補正しても、交換レンズユニットの特性により左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3がCMOSイメージセンサー110の撮像有効エリアを越えてしまうのを抑制できる。
(5)以上のように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することが可能となる。
〔交換レンズユニットの特徴〕
また、交換レンズユニット200も以下のような特徴を有している。
〔交換レンズユニットの特徴〕
また、交換レンズユニット200も以下のような特徴を有している。
(1)この交換レンズユニット200では、抽出位置補正量L11がフラッシュメモリ242に記憶されているので、推奨輻輳点距離L10に対応する位置に抽出中心の位置を補正することができる。したがって、より適正なステレオ画像を得やすくなる。
〔他の実施形態〕
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
〔他の実施形態〕
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
(A)ミラーボックスを有していないデジタルカメラ1を例に、撮像装置およびカメラ本体について説明しているが、ミラーボックスを有するデジタル一眼レフカメラであっても、3次元撮影に対応させることは可能である。なお、撮像装置は静止画だけでなく動画撮影が可能な装置であってもよい。
(B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
(B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
(C)3次元光学系Gは並置撮影方式に限定されず、例えば交換レンズユニットの光学系として時分割撮影方式が採用されていてもよい。また、前述の実施形態では、通常の並置撮影方式を例に記載しているが、水平方向に左眼用および右眼用画像が圧縮される水平圧縮並置撮影方式、あるいは、左眼用および右眼用画像を90度回転させた回転並置撮影方式が採用されていてもよい。
(D)図9では画像サイズの変更を行っているが、撮像素子が小さい場合は撮影禁止にしてもよい。例えば、領域決定部149で抽出領域AL3およびAR3のサイズを決定するが、その際に、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合は、カメラモニタ120にその旨を警告表示させてもよい。また、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合でも、抽出領域AL3およびAR3のアスペクト比を変更(例えば、アスペクト比を1:1にする等)することで抽出領域のサイズを比較的大きくできるのであれば、アスペクト比を変更するようにしてもよい。
また、画像データを抽出する際にアスペクト比を変更せずに抽出領域を縮小し、抽出された画像データが所定のサイズまで拡大するようリサイズしてもよい。
(E)前述の交換レンズユニット200は、単焦点レンズであってもよい。この場合、前述の抽出位置補正量L11を用いることで、抽出中心ACL2およびACR2を求めることができる。なお、交換レンズユニット200が単焦点レンズの場合は、例えば、ズームレンズ210Lおよび210Rが固定されており、それに伴い、ズームリング213、ズームモータ214Lおよび214Rが搭載されていなくてもよい。
(E)前述の交換レンズユニット200は、単焦点レンズであってもよい。この場合、前述の抽出位置補正量L11を用いることで、抽出中心ACL2およびACR2を求めることができる。なお、交換レンズユニット200が単焦点レンズの場合は、例えば、ズームレンズ210Lおよび210Rが固定されており、それに伴い、ズームリング213、ズームモータ214Lおよび214Rが搭載されていなくてもよい。
本発明は、カメラ本体、交換レンズユニットおよび撮像装置に適用できる。
1 デジタルカメラ(撮像装置の一例)
15 信号処理部
16 画像抽出部
17 画像圧縮部
18 補正処理部
100カメラ本体
110 CMOSイメージセンサー(撮像素子の一例)
139 抽出位置補正部
140 カメラコントローラー
140a CPU
140b ROM(角度記憶部の一例)
140c RAM
141 DRAM
142 識別情報取得部
143 特性情報取得部(補正情報取得部の一例)
144 カメラ側判定部
145 状態情報取得部
146 レンズ検知部
147 メタデータ生成部
148 画像ファイル生成部
149 領域決定部
150 ボディマウント
200 交換レンズユニット
240 レンズコントローラー
240a CPU
240b ROM
240c RAM
241 DRAM
242 フラッシュメモリ(補正情報記憶部の一例)
243 状態情報生成部
244 レンズ側判定部
OL 左眼用光学系
OR 右眼用光学系
QL1 左眼用光学像
QR1 右眼用光学像
F1 レンズ識別情報
F2 レンズ特性情報
F3 レンズ状態情報
300 交換レンズユニット
400 アダプタ
500 コリメータレンズ
510 測定用カメラ本体
520 測定用交換レンズユニット
550 チャート
600 交換レンズユニット
15 信号処理部
16 画像抽出部
17 画像圧縮部
18 補正処理部
100カメラ本体
110 CMOSイメージセンサー(撮像素子の一例)
139 抽出位置補正部
140 カメラコントローラー
140a CPU
140b ROM(角度記憶部の一例)
140c RAM
141 DRAM
142 識別情報取得部
143 特性情報取得部(補正情報取得部の一例)
144 カメラ側判定部
145 状態情報取得部
146 レンズ検知部
147 メタデータ生成部
148 画像ファイル生成部
149 領域決定部
150 ボディマウント
200 交換レンズユニット
240 レンズコントローラー
240a CPU
240b ROM
240c RAM
241 DRAM
242 フラッシュメモリ(補正情報記憶部の一例)
243 状態情報生成部
244 レンズ側判定部
OL 左眼用光学系
OR 右眼用光学系
QL1 左眼用光学像
QR1 右眼用光学像
F1 レンズ識別情報
F2 レンズ特性情報
F3 レンズ状態情報
300 交換レンズユニット
400 アダプタ
500 コリメータレンズ
510 測定用カメラ本体
520 測定用交換レンズユニット
550 チャート
600 交換レンズユニット
Claims (20)
- 交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
前記交換レンズユニットを装着可能に設けられたボディマウントと、
前記光学像を画像信号に変換する撮像素子と、
輻輳点距離が無限遠の場合に対応する基準抽出位置から前記交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を、前記ボディマウントに装着されている前記交換レンズユニットから取得可能な補正情報取得部と、
を備えたカメラ本体。 - 前記抽出位置補正量に基づいて、画像データを抽出する際に用いられる使用抽出領域を、前記基準抽出位置から前記推奨抽出位置に補正する抽出位置補正部をさらに備えた、
請求項1に記載のカメラ本体。 - 前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、前記ボディマウントに装着されている前記交換レンズユニットから取得可能な識別情報取得部と、
前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するカメラ側判定部と、をさらに備え、
前記補正情報取得部は、前記交換レンズユニットが3次元撮影に対応していると前記カメラ側判定部により判定された場合に、前記抽出位置補正量を前記交換レンズユニットから取得する、
請求項1または2に記載のカメラ本体。 - 前記撮像素子で生成される画像信号をデジタル化して前記撮像素子上に結像する光学像の基本画像データを生成する信号処理部と、
前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定する領域決定部と、をさらに備えた、
請求項1から3のいずれかに記載のカメラ本体。 - 前記領域決定部は、前記推奨抽出位置に基づいて前記第1および第2抽出領域を決定する、
請求項4に記載のカメラ本体。 - 撮像素子を有するカメラ本体に装着可能な交換レンズユニットであって、
被写体の立体視用光学像を形成する3次元光学系と、
輻輳点距離が無限遠の場合に対応する基準抽出位置から前記交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を記憶する補正情報記憶部と、
を備えた交換レンズユニット。 - 前記補正情報記憶部は、前記推奨輻輳点距離を記憶する、
請求項6に記載のレンズユニット。 - 請求項1から5のいずれかに記載のカメラ本体と、
請求項6または7に記載の交換レンズユニットと、
を備えた撮像装置。 - 交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、
輻輳点距離が無限遠の場合に対応する基準抽出位置から前記交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を、ボディマウントに装着されている前記交換レンズユニットから取得するステップ、
を備えた制御方法。 - 前記抽出位置補正量に基づいて、前記基準抽出位置を前記推奨抽出位置に補正するステップをさらに備えた、
請求項9に記載の制御方法。 - 前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、前記ボディマウントに装着されている前記交換レンズユニットから取得するステップと、
前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するステップと、をさらに備え、
前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するステップにおいて、前記交換レンズユニットが3次元撮影に対応していると前記カメラ側判定部により判定された場合に、前記抽出位置補正量を前記交換レンズユニットから取得する、
請求項9または10に記載の制御方法。 - 前記撮像素子で生成される画像信号をデジタル化して前記撮像素子上に結像する光学像の基本画像データを生成するステップと、
前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定するステップと、をさらに備えた、
請求項9から11のいずれかに記載の制御方法。 - 輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を、前記交換レンズユニットから取得する補正情報取得機能
をコンピュータに実現させるプログラム。 - 前記抽出位置補正量に基づいて、前記基準抽出位置を前記推奨抽出位置に補正する抽出位置補正機能をコンピュータに実現させる、
請求項13に記載のプログラム。 - 前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、前記ボディマウントに装着されている前記交換レンズユニットから取得可能な識別情報取得機能と、
前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するカメラ側判定機能と、をコンピュータに実現させ、
前記補正情報取得部は、前記交換レンズユニットが3次元撮影に対応していると前記カメラ側判定部により判定された場合に、前記抽出位置補正量を前記交換レンズユニットから取得する、
請求項13または14に記載のプログラム。 - 前記撮像素子で生成される画像信号をデジタル化して前記撮像素子上に結像する光学像の基本画像データを生成する信号処理機能と、
前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定する領域決定機能と、をコンピュータに実現させる、
請求項13から15のいずれかに記載のプログラム。 - 輻輳点距離が無限遠の場合に対応する基準抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨抽出位置までの前記撮像素子上の距離を示す抽出位置補正量を、前記交換レンズユニットから取得する補正情報取得機能を、コンピュータに実現させるプログラムを記録した、
コンピュータにより読み取り可能な記録媒体。 - 前記抽出位置補正量に基づいて、前記基準抽出位置を前記推奨抽出位置に補正する抽出位置補正機能を、コンピュータに実現させるプログラムを記録した、
請求項17に記載の記録媒体。 - 前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、前記ボディマウントに装着されている前記交換レンズユニットから取得可能な識別情報取得機能と、
前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するカメラ側判定機能と、をコンピュータに実現させるプログラムを記録し、
前記補正情報取得機能は、前記交換レンズユニットが3次元撮影に対応していると前記カメラ側判定部により判定された場合に、前記抽出位置補正量を前記交換レンズユニットから取得可能とする、
請求項17または18に記載の記録媒体。 - 前記撮像素子で生成される画像信号をデジタル化して前記撮像素子上に結像する光学像の基本画像データを生成する信号処理機能と、
前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定する領域決定機能と、をコンピュータに実現させるプログラムを記録した、
請求項17から19のいずれかに記載の記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010168352 | 2010-07-27 | ||
JP2010168352 | 2010-07-27 | ||
PCT/JP2011/000693 WO2012014347A1 (ja) | 2010-07-27 | 2011-02-08 | カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2012014347A1 true JPWO2012014347A1 (ja) | 2013-09-09 |
Family
ID=45529585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012526272A Pending JPWO2012014347A1 (ja) | 2010-07-27 | 2011-02-08 | 交換レンズユニット、カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130088580A1 (ja) |
JP (1) | JPWO2012014347A1 (ja) |
WO (1) | WO2012014347A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014107669A (ja) * | 2012-11-27 | 2014-06-09 | Canon Inc | 立体撮影レンズシステムおよびそれを有する撮影システム |
JP2018036415A (ja) * | 2016-08-30 | 2018-03-08 | オリンパス株式会社 | カメラシステム、交換レンズ、カメラシステムの制御方法、及びカメラシステムの制御プログラム |
JP1613801S (ja) * | 2017-12-27 | 2018-09-18 | ||
CN112188187B (zh) * | 2019-07-01 | 2024-01-02 | 北京小米移动软件有限公司 | 一种图像采集组件的位置检测方法、装置及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0795623A (ja) * | 1993-06-25 | 1995-04-07 | Sanyo Electric Co Ltd | 立体撮像装置 |
JPH0884353A (ja) * | 1994-09-12 | 1996-03-26 | Victor Co Of Japan Ltd | 立体画像撮像装置 |
JPH08149515A (ja) * | 1994-11-18 | 1996-06-07 | Sanyo Electric Co Ltd | 立体撮像装置 |
JPH08205200A (ja) * | 1995-01-27 | 1996-08-09 | Olympus Optical Co Ltd | 立体撮像装置 |
JP2002077945A (ja) * | 2000-06-07 | 2002-03-15 | Canon Inc | 録画装置、撮像装置、撮像システム、信号処理方法、記録制御方法及び記憶媒体 |
JP3939127B2 (ja) * | 2001-10-25 | 2007-07-04 | オリンパス株式会社 | 撮像装置 |
JP2004153808A (ja) * | 2002-10-10 | 2004-05-27 | Fuji Photo Optical Co Ltd | 立体電子映像装置 |
JP4398197B2 (ja) * | 2003-08-20 | 2010-01-13 | オリンパス株式会社 | カメラ |
-
2011
- 2011-02-08 WO PCT/JP2011/000693 patent/WO2012014347A1/ja active Application Filing
- 2011-02-08 JP JP2012526272A patent/JPWO2012014347A1/ja active Pending
- 2011-02-08 US US13/702,621 patent/US20130088580A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2012014347A1 (ja) | 2012-02-02 |
US20130088580A1 (en) | 2013-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011142086A1 (ja) | カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体 | |
JP5789793B2 (ja) | 3次元撮像装置、レンズ制御装置、およびプログラム | |
JP2012075078A (ja) | カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 | |
JP2012085258A (ja) | カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 | |
JP5938659B2 (ja) | 撮像装置およびプログラム | |
JP2011259168A (ja) | 立体パノラマ画像撮影装置 | |
JP2012186612A (ja) | 撮像装置 | |
JP2012239135A (ja) | 電子機器 | |
WO2012014347A1 (ja) | カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体 | |
JP2012249168A (ja) | 立体画像を表示可能なカメラ | |
JP2012085252A (ja) | 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体 | |
JP2015019118A (ja) | 撮像装置、撮像システムおよび撮像装置の制御プログラム | |
CN104041026B (zh) | 图像输出装置、方法以及程序及其记录介质 | |
JP2013141052A (ja) | カメラシステム、カメラ本体ユニット、3d撮影用レンズユニット | |
US20130076867A1 (en) | Imaging apparatus | |
JP2012237937A (ja) | 電子機器 | |
WO2011086898A1 (ja) | 3d画像撮影装置及びその制御方法 | |
JP2012239134A (ja) | 電子機器 | |
JP2012004949A (ja) | カメラ本体、交換レンズユニットおよび撮像装置 | |
JP6376753B2 (ja) | 撮像装置、表示制御装置の制御方法、記録装置の制御方法 | |
JP2013113877A (ja) | 立体撮影装置およびそれを用いた携帯端末装置 | |
JP2011091750A (ja) | 立体画像撮像装置及びその制御方法 | |
JP2014155126A (ja) | 表示装置、表示方法およびプログラム | |
JP2011135374A (ja) | 3次元デジタルカメラ | |
JP2013115467A (ja) | 立体撮影装置およびそれを用いた携帯端末装置 |