JP2012085252A - 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体 - Google Patents

画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2012085252A
JP2012085252A JP2011010807A JP2011010807A JP2012085252A JP 2012085252 A JP2012085252 A JP 2012085252A JP 2011010807 A JP2011010807 A JP 2011010807A JP 2011010807 A JP2011010807 A JP 2011010807A JP 2012085252 A JP2012085252 A JP 2012085252A
Authority
JP
Japan
Prior art keywords
image data
unit
eye
image
evaluation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011010807A
Other languages
English (en)
Inventor
Hirotaka Ueda
裕貴 上田
Mitsuyoshi Okamoto
充義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011010807A priority Critical patent/JP2012085252A/ja
Priority to US13/079,017 priority patent/US20120069148A1/en
Publication of JP2012085252A publication Critical patent/JP2012085252A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0015Movement of one or more optical elements for control of motion blur by displacing one or more optical elements normal to the optical axis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/18Signals indicating condition of a camera member or suitability of light

Abstract

【課題】より快適な立体視を実現できる画像生成装置および画像生成方法を提供する。
【解決手段】カメラ本体100は、ズレ量算出部155と、評価情報生成部156と、メタデータ生成部147と、を備えている。ズレ量算出部155は、入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出する。評価情報生成部156は、相対ズレ量を算出する際にズレ量算出部155が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する。
【選択図】図6

Description

ここに開示される技術は、画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体に関する。
画像生成装置として、例えば、デジタルカメラなどの撮像装置が知られている。デジタルカメラは、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子を有している。撮像素子は光学系で形成された光学像を画像信号に変換する。こうして、被写体の画像データを取得することができる。
特開平7−274214号公報
ところで、近年、いわゆる3次元表示用のディスプレイの開発が進められている。それに伴い、いわゆるステレオ画像データ(左眼用画像および右眼用画像を含む3次元表示用の画像データ)を生成するデジタルカメラの開発も進められている。
しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系(以下、3次元光学系とも言う)を用いる必要がある。
そこで、3次元撮影用のアダプタの着脱に基づいて2次元撮影モードと3次元撮影モードとを自動的に切り替えるビデオカメラが提案されている(例えば、特許文献1を参照)。
一方、3次元光学系には左眼用および右眼用光学系が搭載されているが、左眼用および右眼用光学系の個体差により、撮像素子上に形成される左眼用および右眼用光学像の相対ズレが生じ得る。左眼用および右眼用光学像が大きくずれると、ステレオ画像上の左眼用および右眼用画像も大きくずれることになり、その結果、3次元表示を行う際に適正な立体視が妨げられる可能性がある。
ここに開示される技術は、より快適な立体視を実現できる画像生成装置および画像生成方法を提供することを目的とする。
ここに開示される画像生成装置は、ズレ量算出部と、評価情報生成部と、を備えている。ズレ量算出部は、入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出する。評価情報生成部は、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する。
ここで、3次元表示の適性とは、3次元表示の際に快適な立体視が可能であるか否かを示している。3次元表示の適性は、例えば、入力画像データ上での左眼用画像データおよび右眼用画像データの相対ズレ量(垂直方向および水平方向のうち少なくとも一方の相対ズレ量)により決まる。
また、画像生成装置は、画像を撮影する撮像装置の他に、すでに取得されている画像データを読み込んで上書き保存あるいは新たに別の画像データを生成できる装置も含まれる。
この画像生成装置では、左眼用画像データおよび右眼用画像データの相対ズレ量がズレ量算出部により算出される。さらに、評価情報生成部により、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報が生成される。このため、評価情報を用いて入力画像データが3次元表示に適しているか否かを表示前に判定することができ、3次元表示に適さない画像で立体視を行うのを抑制できる。
ここに開示される画像生成方法は、入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するステップと、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成するステップと、を備えている。
この画像生成方法では、左眼用画像データおよび右眼用画像データの相対ズレ量が算出される。さらに、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報が生成される。このため、評価情報を用いて入力画像データが3次元表示に適しているか否かを表示前に判定することができ、3次元表示に適さない画像で立体視を行うのを抑制できる。
ここに開示されるプログラムは、入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するズレ量算出機能と、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する評価情報生成機能と、をコンピュータに実現させる。
このプログラムでは、ズレ量算出機能および評価情報生成機能をコンピュータに実現させることができる。したがって、評価情報を用いて入力画像データが3次元表示に適しているか否かを表示前に判定することができ、3次元表示に適さない画像で立体視を行うのを抑制できる。
ここに開示される記録媒体は、コンピュータにより読み取り可能であり、入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するズレ量算出機能と、相対ズレ量を算出する際にズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する評価情報生成機能と、をコンピュータに実現させるプログラムを記録している。
この記録媒体に記録されているプログラムがコンピュータに読み込まれると、ズレ量算出機能および評価情報生成機能をコンピュータに実現させることができる。したがって、評価情報を用いて入力画像データが3次元表示に適しているか否かを表示前に判定することができ、3次元表示に適さない画像で立体視を行うのを抑制できる。
したがって、ここに開示される技術であれば、より快適な立体視を実現できる画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体を提供することができる。
デジタルカメラ1の斜視図 カメラ本体100の斜視図 カメラ本体100の背面図 デジタルカメラ1の概略ブロック図 交換レンズユニット200の概略ブロック図 カメラ本体100の概略ブロック図 (A)レンズ識別情報F1の構成例、(B)レンズ特性情報F2の構成例、(C)レンズ状態情報F3の構成例 (A)カメラ本体および交換レンズユニットの間のタイムチャート(カメラ本体が3次元撮影に対応していない場合)、(B)カメラ本体および交換レンズユニットの間のタイムチャート(カメラ本体および交換レンズユニットが3次元撮影に対応している場合) 各パラメータの説明図 各パラメータの説明図 パターンマッチング処理の説明図 電源ON時のフローチャート 電源ON時のフローチャート 撮影時のフローチャート(第1実施形態) 撮影時のフローチャート(第1実施形態) 3次元表示時の評価フラグ判定処理のフローチャート(第1実施形態) 警告表示の一例 評価フラグ生成処理のフローチャート(第2実施形態) 評価フラグ生成処理のフローチャート(第2実施形態) パターンマッチング処理の説明図(第2実施形態)
《第1実施形態》
〔デジタルカメラの構成〕
デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1〜図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
なお、説明の便宜のため、デジタルカメラ1の被写体側を前、被写体と反対側を後ろまたは背、デジタルカメラ1の通常姿勢(以下、横撮り姿勢ともいう)における鉛直上側を上、鉛直下側を下ともいう。
<1:交換レンズユニットの構成>
交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
図1〜図4に示すように、交換レンズユニット200は、3次元光学系Gと、第1駆動ユニット271、第2駆動ユニット272、振れ量検出センサー275およびレンズコントローラー240を有している。さらに、交換レンズユニット200は、レンズマウント250、レンズ筒290、ズームリング213およびフォーカスリング234を有している。交換レンズユニット200をカメラ本体100に装着する際、レンズマウント250がカメラ本体100のボディマウント150(後述)に取り付けられる。図1に示すように、レンズ筒290の外部にはズームリング213とフォーカスリング234とが回転可能に設けられている。
(1)3次元光学系G
図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
左眼用光学系OLは、被写体に向かって左側の視点から被写体を撮影するための光学系であり、ズームレンズ210L、OISレンズ220L、絞りユニット260Lおよびフォーカスレンズ230Lを含んでいる。左眼用光学系OLは、第1光軸AX1を有しており、右眼用光学系ORと左右に並んだ状態でレンズ筒290の内部に収容されている。
ズームレンズ210Lは、左眼用光学系OLの焦点距離を変化させるためのレンズであり、第1光軸AX1と平行な方向に移動可能に配置されている。ズームレンズ210Lは1枚または複数枚のレンズで構成されている。ズームレンズ210Lは第1駆動ユニット271のズームモータ214L(後述)により駆動される。ズームレンズ210Lを第1光軸AX1と平行な方向に駆動することにより、左眼用光学系OLの焦点距離を調整することができる。
OISレンズ220Lは、左眼用光学系OLで形成される光学像のCMOSイメージセンサー110(後述)に対する変位を抑制するためのレンズである。OISレンズ220Lは1枚または複数枚のレンズで構成される。OISモータ221Lは、OIS用IC223Lから送信される制御信号に基づいて、第1光軸AX1に垂直な面内で移動するようにOISレンズ220Lを駆動する。OISモータ221Lは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Lの位置は第1駆動ユニット271の位置検出センサー222L(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第1光軸AX1と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
フォーカスレンズ230Lは、左眼用光学系OLの被写体距離(物点距離ともいう)を調整するためのレンズであり、第1光軸AX1に平行な方向に移動可能に配置されている。フォーカスレンズ230Lは第1駆動ユニット271のフォーカスモータ233L(後述)により駆動される。フォーカスレンズ230Lは1枚または複数枚のレンズで構成されている。
右眼用光学系ORは、被写体に向かって右側の視点から被写体を撮影するための光学系であり、ズームレンズ210R、OISレンズ220R、絞りユニット260Rおよびフォーカスレンズ230Rを含んでいる。右眼用光学系ORは、第2光軸AX2を有しており、左眼用光学系OLと左右に並んだ状態でレンズ筒290の内部に収容されている。右眼用光学系ORの仕様は左眼用光学系OLの仕様と同じである。なお、第1光軸AX1と第2光軸AX2とのなす角度(輻輳角)とは、図10に示す角度θ1をいう。
ズームレンズ210Rは、右眼用光学系ORの焦点距離を変化させるためのレンズであり、第2光軸AX2と平行な方向に移動可能に配置されている。ズームレンズ210Rは1枚または複数枚のレンズで構成されている。ズームレンズ210Rは第2駆動ユニット272のズームモータ214R(後述)により駆動される。ズームレンズ210Rを第2光軸AX2と平行な方向に駆動することにより、右眼用光学系ORの焦点距離を調整することができる。ズームレンズ210Rの駆動はズームレンズ210Lの駆動と同期がとられている。したがって、右眼用光学系ORの焦点距離は左眼用光学系OLの焦点距離と同じである。
OISレンズ220Rは、右眼用光学系ORで形成される光学像のCMOSイメージセンサー110に対する変位を抑制するためのレンズである。OISレンズ220Rは1枚または複数枚のレンズで構成される。OISモータ221Rは、OIS用IC223Rから送信される制御信号に基づいて、第2光軸AX2に垂直な面内で移動するようにOISレンズ220Rを駆動する。OISモータ221Rは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Rの位置は第2駆動ユニット272の位置検出センサー222R(後述)により検出される。
なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110(後述)で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第2光軸AX2と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
絞りユニット260Rは右眼用光学系ORを透過する光の量を調整する。絞りユニット260Rは複数の絞り羽根(図示せず)を有している。絞り羽根は第2駆動ユニット272の絞りモータ235R(後述)により駆動される。カメラコントローラー140は絞りモータ235Rを制御する。絞りユニット260Rの駆動は絞りユニット260Lの駆動と同期がとられる。したがって、右眼用光学系ORの絞り値は左眼用光学系OLの絞り値と同じである。
フォーカスレンズ230Rは、右眼用光学系ORの被写体距離(物点距離ともいう)を調整するためのレンズであり、第2光軸AX2に平行な方向に移動可能に配置されている。フォーカスレンズ230Rは第2駆動ユニット272のフォーカスモータ233R(後述)により駆動される。フォーカスレンズ230Rは1枚または複数枚のレンズで構成されている。
(2)第1駆動ユニット271
第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
ズームモータ214Lはズームレンズ210Lを駆動する。ズームモータ214Lはレンズコントローラー240により制御される。
OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
絞りモータ235Lは絞りユニット260Lを駆動する。絞りモータ235Lはレンズコントローラー240により制御される。
フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(3)第2駆動ユニット272
第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
ズームモータ214Rはズームレンズ210Rを駆動する。ズームモータ214Rはレンズコントローラー240により制御される。
OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
絞りモータ235Rは絞りユニット260Rを駆動する。絞りモータ235Rはレンズコントローラー240により制御される。
フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
(4)レンズコントローラー240
レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
レンズコントローラー240は、CPU(Central Processing Unit)240a、ROM(Read Only Memory)240bおよびRAM(Random Access Memory)240cを有しており、ROM240bに格納されたプログラムがCPU240aに読み込まれることで様々な機能を実現し得る。
また、フラッシュメモリ242(補正情報記憶部の一例、識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
ここで、レンズ識別情報F1、レンズ特性情報F2およびレンズ状態情報F3について説明する。
(レンズ識別情報F1)
レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
3次元撮影判定フラグが立っている場合は、その交換レンズユニットが3次元撮影に対応しており、3次元撮影判定フラグが立っていない場合は、その交換レンズユニットは3次元撮影に対応していない。3次元撮影判定フラグのアドレスは、3次元撮影に対応していない通常の交換レンズユニットで使用されていない領域が用いられる。これにより、3次元撮影に対応していない交換レンズユニットでは、3次元撮影判定フラグの設定を行わなくても、3次元撮影判定フラグが立っていない状態となり得る。
(レンズ特性情報F2)
レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
(A)基線長
立体光学系(G)の基線長L1
(B)光軸位置
撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
(C)輻輳角
第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
(D)左眼ズレ量
左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
(E)右眼ズレ量
右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
(F)撮像有効エリア
左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図8参照)
(G)推奨輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に推奨される、被写体(輻輳点P0)からCMOSイメージセンサー110の受光面110aまでの距離L10(図10参照)
(H)抽出位置補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が推奨輻輳点距離L10に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P21およびP22)までの距離L11(図10参照)(「輻輳点距離が無限遠の場合に対応する基準画像抽出位置から交換レンズユニットの推奨輻輳点距離に対応する推奨画像抽出位置までの撮像素子上の距離」ともいう)
(I)限界輻輳点距離
交換レンズユニット200を用いて3次元撮影を行う際に、左眼用光学像QL1および右眼用光学像QR1の抽出領域がともに撮像有効エリア内に収まる場合の、被写体から受光面110aまでの限界距離L12(図10参照)
(J)抽出位置限界補正量
輻輳角θ1がゼロの場合に第1光軸AX1および第2光軸AX2が受光面110aに到達する点(P11およびP12)から、輻輳角θ1が限界輻輳点距離L12に対応する大きさの場合における第1光軸AX1および第2光軸AX2が受光面110a上に到達する点(P31およびP32)までの距離L13(図10参照)
上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。
ここで、図9〜図10を用いて、上記のパラメータについて説明をする。図9はCMOSイメージセンサー110を被写体側から見た図である。CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図9および図10参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、受光面110aは、第1領域110Lと、第1領域110Lに隣接して配置された第2領域110Rと、を有している。第1領域110Lの面積は第2領域110Rの面積と同じである。図9に示すように、カメラ本体100の背面側から見た場合(透視した場合)、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。図9に示すように、交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像QL1が形成され、第2領域110Rには右眼用光学像QR1が形成される。
図9に示すように、設計上の左眼用光学系OLのイメージサークルILおよび右眼用光学系ORのイメージサークルIRをCMOSイメージセンサー110上に定義する。イメージサークルILの中心ICL(基準画像抽出位置の一例)は左眼用光学系OLの第1光軸AX10の設計上の位置と一致しており、イメージサークルIRの中心ICR(基準画像抽出位置の一例)は右眼用光学系ORの第2光軸AX20の設計上の位置と一致している。ここで、設計上の位置とは、第1光軸AX10および第2光軸AX20は、輻輳点が無限遠にある場合に対応している。したがって、設計上の基線長はCMOSイメージセンサー110上での第1光軸AX10および第2光軸AX20の間の設計上の距離L1となる。また、光軸位置は受光面110aの中心C0および第1光軸AX10の間の設計上の距離L2(あるいは中心C0および第2光軸AX20の間の設計上の距離L2)となる。
また図9に示すように、中心ICLに基づいて抽出可能範囲AL1および横長撮影用抽出可能範囲AL11が設定され、中心ICRに基づいて抽出可能範囲AR1および横長撮影用抽出可能範囲AR11が設定されている。中心ICLが受光面110aの第1領域110Lのほぼ中央位置に設定されているので、イメージサークルIL内の抽出可能範囲AL1およびAL11を広く確保できる。また、中心ICRが第2領域110Rのほぼ中央位置に設定されているので、イメージサークルIR内の抽出可能範囲AR1およびAR11を広く確保できる。
図9に示す抽出領域AL0およびAR0は、左眼用画像データおよび右眼用画像データを抽出する際の基準となる領域である。左眼用画像データの設計上の抽出領域AL0は、イメージサークルILの中心ICL(あるいは第1光軸AX10)を基準に設定されており、抽出可能範囲AL1の中央に位置している。また、右眼用画像データの設計上の抽出領域AR0は、イメージサークルIRの中心ICR(あるいは第2光軸AX20)を基準に設定されており、抽出可能範囲AR1の中央に位置している。
ところが、光軸中心ICLおよびICRは輻輳点が無限遠に存在する場合に対応しているので、抽出領域AL0およびAR0を基準に左眼用画像データおよび右眼用画像データを抽出すると、立体視の際に被写体が再現される位置は無限位置となる。したがって、このような設定で近接撮影(例えば、撮影位置から主被写体までの距離が1m程度の場合)用の交換レンズユニット200を用いると、立体視の際に3次元画像内で被写体がスクリーンから飛び出し過ぎるという問題が発生する。
そこで、立体視の際のユーザーからスクリーンまでの距離を交換レンズユニット200の推奨輻輳点距離L10とするために、このカメラ本体100では、抽出領域AR0を推奨抽出領域AR3へ、抽出領域AL0を推奨抽出領域AR3へ、それぞれ距離L11だけずらしている。抽出位置補正量L11を用いた抽出領域の補正処理については後述する。
<2:カメラ本体の構成>
図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
(1)CMOSイメージセンサー110
CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
ここで、スルー画像とは、動画データのうちメモリーカード171に記録されない画像である。スルー画像は、主に動画であり、動画または静止画の構図を決めるためにカメラモニタ120または電子ビューファインダー(以下、EVFとも言う)180に表示される。
前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
なお、CMOSイメージセンサー110は被写体の光学像を電気的な画像信号に変換する撮像素子の一例である。撮像素子は、CMOSイメージセンサー110やCCDイメージセンサー等の光電変換素子を含む概念である。
(2)カメラモニタ120
カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。さらに、カメラモニタ120はステレオ画像を3次元表示することもできる。具体的には、表示制御部125がステレオ画像をカメラモニタ120に3次元表示させる。カメラモニタ120に3次元表示された画像は、例えば専用メガネを用いることで立体視することができる。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
なお、カメラモニタ120はカメラ本体100に設けられた表示部の一例である。表示部としては、他にも、有機EL、無機EL、プラズマディスプレイパネル等、画像を表示できる装置を用いることができる。
(3)電子ビューファインダー180
電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
(4)表示制御部125
表示制御部125(表示判定部の一例)は、カメラモニタ120および電子ビューファインダー180の表示状態を制御する。具体的には、表示制御部125は、カメラモニタ120および電子ビューファインダー180に通常の画像を2次元表示したり、あるいは、カメラモニタ120にステレオ画像を3次元表示したりできる。
また、表示制御部125は、評価情報判定部158(後述)の検出結果に基づいてステレオ画像を3次元表示するか否かを判定する。例えば、評価フラグ(後述)が「低」を示す場合は、例えば、表示制御部125は警告メッセージをカメラモニタ120に表示する。
(5)操作部130
図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
(6)カードスロット170
カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
メモリーカード171は、カメラコントローラー140が画像処理により生成した画像データを格納可能である。例えば、メモリーカード171は、非圧縮のRAW画像ファイルや圧縮されたJPEG画像ファイル等を格納できる。さらに、メモリーカード171はマルチピクチャーフォーマット(MPF)形式のステレオ画像ファイルを格納することもできる。
また、カードスロット170を介して、予め内部に格納された画像データをメモリーカード171から出力できる。メモリーカード171から出力された画像データまたは画像ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した画像データまたは画像ファイルを伸張などして表示用画像データを生成する。
メモリーカード171は、さらに、カメラコントローラー140が画像処理により生成した動画データを格納可能である。例えば、メモリーカード171は、動画圧縮規格であるH.264/AVCに従って圧縮された動画ファイルを格納できる。また、ステレオ動画ファイルを格納することもできる。また、カードスロット170を介して、予め内部に格納された動画データまたは動画ファイルをメモリーカード171から出力できる。メモリーカード171から出力された動画データまたは動画ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した動画データまたは動画ファイルに伸張処理を施し、表示用動画データを生成する。
(7)シャッターユニット190
シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
(8)ボディマウント150
ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
(9)カメラコントローラー140
カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
また、カメラコントローラー140は、交換レンズユニット200を制御するための信号を、ボディマウント150およびレンズマウント250を介してレンズコントローラー240に送信し、交換レンズユニット200の各部を間接的に制御する。また、カメラコントローラー140は、ボディマウント150およびレンズマウント250を介して、レンズコントローラー240から各種信号を受信する。
カメラコントローラー140は、CPU(Central Processing Unit)140a、ROM(Read Only Memory)140bおよびRAM(Random Access Memory)140cを有しており、ROM140b(コンピュータにより読み取り可能な記録媒体の一例)に格納されたプログラムがCPU140aに読み込まれることで様々な機能を実現し得る。
(カメラコントローラー140の詳細)
ここで、カメラコントローラー140の機能の詳細について説明する。
まず、カメラコントローラー140は、交換レンズユニット200がカメラ本体100(より詳細には、ボディマウント150)に装着されているか否かを検知する。具体的には図6に示すように、カメラコントローラー140はレンズ検知部146を有している。交換レンズユニット200がカメラ本体100に装着されると、カメラコントローラー140とレンズコントローラー240との間で信号の送受信が行われる。レンズ検知部146は、信号の送受信に基づいて交換レンズユニット200が装着されているか否かを判定する。
また、カメラコントローラー140は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを判定する機能、および交換レンズユニットから3次元撮影に関係する情報を取得する機能など、様々な機能を有している。具体的には、カメラコントローラー140は、識別情報取得部142、特性情報取得部143、カメラ側判定部144、状態情報取得部145、抽出位置補正部139、領域決定部149、メタデータ生成部147、画像ファイル生成部148、ズレ量算出部155、評価情報生成部156および評価情報判定部158を有している。これらの機能は、ROM140bに記録されたプログラムがCPU140a(コンピュータの一例)に読み込まれることで実現される。
識別情報取得部142は、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1を、ボディマウント150に装着されている交換レンズユニット200から取得する。図7(A)に示すように、レンズ識別情報F1は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばレンズコントローラー240のフラッシュメモリ242に格納されている。レンズ識別情報F1はフラッシュメモリ242の所定のアドレスに格納された3次元撮影判定フラグである。識別情報取得部142は取得したレンズ識別情報F1を例えばDRAM141に一時的に格納する。
カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1に基づいて、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かを判定する。ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードの実行を許容する。一方、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応していないとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードを実行しない。この場合、カメラコントローラー140は2次元撮影モードの実行を許容する。
特性情報取得部143(補正情報取得部の一例)は、交換レンズユニット200に搭載されている光学系の特性を示すレンズ特性情報F2を交換レンズユニット200から取得する。具体的には、特性情報取得部143は、交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合に、前述のレンズ特性情報F2を交換レンズユニット200から取得する。特性情報取得部143は、取得したレンズ特性情報F2を例えばDRAM141に一時的に格納する。
状態情報取得部145は状態情報生成部243により生成されたレンズ状態情報F3(撮影可否フラグ)を取得する。このレンズ状態情報F3は交換レンズユニット200が撮影可能な状態か否かを判定するのに用いられる。状態情報取得部145は取得したレンズ状態情報F3を例えばDRAM141に一時的に格納する。
抽出位置補正部139は、抽出位置補正量L11に基づいて抽出領域AL0およびAR0の中心位置を補正する。初期状態では、抽出領域AL0の中心はイメージサークルILの中心ICLに設定されており、抽出領域AR0の中心はイメージサークルIRの中心ICRに設定されている。抽出位置補正部139は、中心ICLおよびICRから抽出位置補正量L11だけ抽出中心を水平方向に移動させて、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2(推奨画像抽出位置の一例)を設定する。抽出中心ACL2およびACR2を基準とした抽出領域は、図9に示す抽出領域AL2およびAR2となる。このように、抽出位置補正量L11を用いて抽出中心の位置を補正することで、交換レンズユニットの特性に応じて抽出領域を設定することができ、より適正なステレオ画像を得ることができる。
ここで、本実施形態では、交換レンズユニット200がズーム機能を有しているので、ズーム操作により焦点距離が変わると、推奨輻輳点距離L10が変化し、それに伴い抽出位置補正量L11も変化する。したがって、ズームポジションに応じて抽出位置補正量L11を演算により再計算してもよい。
具体的には、レンズコントローラー240はズーム位置センサ(図示せず)の検出結果に基づいてズームポジションを把握できる。レンズコントローラー240はズームポジション情報をカメラコントローラー140に所定の周期で送信する。ズームポジション情報はDRAM141に一時的に格納される。
一方、抽出位置補正部139は、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11に基づいて焦点距離に適した抽出位置補正量を算出する。このとき、例えば、ズームポジション情報、推奨輻輳点距離L10および抽出位置補正量L11の関係を示す情報(例えば、演算式やデータテーブルなど)がカメラ本体10に格納されていてもよいし、交換レンズユニット200のフラッシュメモリ242に格納されていてもよい。抽出位置補正量の更新は所定の周期で行われる。更新された抽出位置補正量はDRAM141の所定のアドレスに格納される。この場合、抽出位置補正部139は、抽出位置補正量L11の場合と同様に、新たに算出された抽出位置補正量に基づいて抽出領域AL0およびAR0の中心位置を補正する。
領域決定部149は、画像抽出部16で左眼用画像データおよび右眼用画像データを抽出する際に用いられる抽出領域AL3およびAR3のサイズおよび位置を決定する。具体的には、領域決定部149は、抽出位置補正部139により算出された抽出中心ACL2およびACR2、イメージサークルILおよびIRの半径r、レンズ特性情報F2に含まれる左眼ズレ量DLおよび右眼ズレ量DRに基づいて、左眼用画像データおよび右眼用画像データの抽出領域AL3およびAR3のサイズおよび位置を決定する。このとき、領域決定部149は、抽出中心ACL2およびACR2、左眼ズレ量DL(DLx、DLy)および右眼ズレ量DR(DRx、DRy)を用いて、抽出中心ACL3およびACR3を求め、抽出中心ACL3およびACR3をRAM140cに一時的に格納する。
なお、領域決定部149が、左眼用光学像および右眼用光学像が回転しているか否かを示す180度回転フラグ、左眼用光学像および右眼用光学像の左右の配置を示す配置変更フラグおよび左眼用光学像および右眼用光学像がそれぞれミラー反転しているか否かを示すミラー反転フラグに基づいて、左眼用画像データおよび右眼用画像データを正しく抽出できるように、画像データ上における抽出処理の始点を決定してもよい。
また、本実施形態では、抽出領域AL3およびAR3はパターンマッチング処理の検出領域に過ぎず、最終的に左眼用および右眼用画像データを切り出す際に用いられる抽出領域AL4およびAR4(図11参照)は、パターンマッチング処理を用いて算出された垂直相対ズレ量DVに基づいて決定される。抽出領域AL4およびAR4の決定方法については、後述する。
ズレ量算出部155(ズレ量算出部の一例)は、左眼用画像データおよび右眼用画像データの相対ズレ量を算出する。具体的には、ズレ量算出部155は、左眼用および右眼用画像データの垂直方向(上下方向)の相対ズレ量(垂直相対ズレ量DV)を、パターンマッチング処理を用いて算出する。
ここでの「垂直相対ズレ量DV」とは、交換レンズユニット200の個体差等(例えば、交換レンズユニットの個体差や交換レンズユニットをカメラ本体に装着する際の取付誤差)により生じる上下方向の左眼用および右眼用画像データのズレ量である。したがって、ズレ量算出部155により算出された垂直相対ズレ量DVは、垂直方向の左眼ズレ量DLyおよび右眼ズレ量DRyを含んでいる。
ズレ量算出部155は、パターンマッチング処理を用いて左眼用画像データの一部に相当する第1画像データと右眼用画像データの一部に相当する第2画像データとの一致度(参考情報の一例)を算出する。ここで、入力画像データとしては、左眼用画像データおよび右眼用画像データを含む基本画像データが挙げられる。
例えば、ズレ量算出部155は信号処理部15(後述)により生成された基本画像データに対してパターンマッチング処理を行う。この場合、図11に示すように、ズレ量算出部155は、抽出領域AL3内の第1画像データPLに基づいて、第1画像データPLとの一致度が最も高い第2画像データPRを抽出領域AR3から探し出す。第1画像データPLの大きさは予め決定されているが、第1画像データPLの位置は、第1画像データPLの中心が、領域決定部149により決定された抽出中心ACL3と一致するようにズレ量算出部155により決定されている。パターンマッチング処理で第2画像データPRを見つけ出す際に、ズレ量算出部155は、第1画像データと同じサイズの複数の領域に対して、それぞれ第1画像データPLに対する一致度を算出する。さらに、ズレ量算出部155は、一致度が最も高い領域の画像データを第2画像データPRとし、その最も高い一致度を基準一致度Cに設定する。
ここで、「一致度」とは、2枚の画像データが視覚的にどれくらい一致しているのかを示す数値であり、パターンマッチング処理時に算出することができる。一致度を示す数値は、例えば2枚の画像データにおける対応する画素の輝度値の差の2乗を全画素で合計した値の逆数、あるいは、2枚の画像データにおける対応する画素の輝度値の差の絶対値を全画素で合計した値の逆数、が用いられる。この数値が大きいほど2枚の画像が一致していることを意味している。なお、一致度を示す数値は、逆数をとらなくてもよく、例えば2枚の画像データにおける対応する画素の輝度値の差の2乗を全画素で合計した値、あるいは、2枚の画像データにおける対応する画素の輝度値の差の絶対値を全画素で合計した値であってもよい。
「一致度」は「相違度」と表裏一体をなす概念であり、「相違度」を算出していれば、それは「一致度」を算出していることになる。したがって、本実施形態では、ズレ量算出部155が一致度を算出する構成を説明しているが、一致度ではなく相違度をズレ量算出部155が算出する構成も考えられる。「相違度」とは、2枚の画像がどれくらい相違しているのか(より詳細には、2枚の画像の一部分がどれくらい相違しているのか)を示す数値である。ズレ量算出部155により算出された基準一致度Cは、DRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。
ズレ量算出部155により算出された垂直相対ズレ量DVは、例えばDRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。垂直相対ズレ量DVは抽出領域の位置の補正に用いられる。具体的には図11に示すように、領域決定部149は、抽出中心ACL3の垂直方向の座標および垂直相対ズレ量DVに基づいて、右眼用画像データの抽出領域AR4の中心ACR4を算出し、中心ACR4を中心として抽出領域AR4を決定する。抽出領域AR4のサイズは抽出領域AR3と同じである。一方、左眼用画像データの抽出領域AL4は抽出領域AR3がそのまま用いられる。
このように、ズレ量算出部155により算出された垂直相対ズレ量DVに基づいて最終的な抽出領域AL4およびAR4が決定されるので、ズレ量算出部155により算出された基準一致度Cは、抽出領域AL4およびAR4に基づいて切り出された左眼用および右眼用画像データの一致度に相当すると言える。
評価情報生成部156(評価情報生成部の一例)は、ズレ量算出部155により算出された一致度に基づいて、3次元表示の適性に関する評価情報を生成する。具体的には、評価情報生成部156は、一致度を予め設定された基準値と比較する比較部156a(比較部の一例)と、比較部156aの比較結果に基づいて評価情報を生成する生成部156b(生成部の一例)と、を有している。本実施形態では、評価情報として3種類の評価フラグ(「高」、「中」および「低」)が予め定められており、それに伴い、2種類の基準値が予め定められている。評価フラグの「高」とは、評価対象である左眼用および右眼用画像データから生成されたステレオ画像では、最終的に決定された抽出領域AL4およびAR4から切り出された左眼用および右眼用画像データの一致度が高く、このステレオ画像を用いれば非常に快適な立体視が期待できることを示している。評価フラグの「中」とは、評価対象である左眼用および右眼用画像データから生成されたステレオ画像では、最終的に決定された抽出領域AL4およびAR4から切り出された左眼用および右眼用画像データの一致度が許容範囲内であり、このステレオ画像を用いて立体視することに特に問題ないことを示している。さらに、評価フラグの「低」とは、評価対象である左眼用および右眼用画像データから生成されたステレオ画像では、最終的に決定された抽出領域AL4およびAR4から切り出された左眼用および右眼用画像データの一致度が低く、その結果、このステレオ画像を用いて立体視するのはあまり好ましくないことを示している。
一方、このような3段階評価を行うために、基準値として、評価フラグ「高」と「中」との間の第1基準値V1と、評価フラグ「中」と「低」との間の第2基準値V2と、が設けられている。第1基準値V1および第2基準値V2は、例えばROM140bに予め格納されている。一致度をCとすると、以下のような条件式(1)〜(3)により一致度の評価判定が行われる。
評価フラグ「高」:V1≦C ・・・・・(1)
評価フラグ「中」:V2≦C<V1 ・・(2)
評価フラグ「低」: C<V2 ・・(3)
より詳細には、比較部156aは基準一致度Cを第1基準値V1および第2基準値V2と比較し、基準一致度Cがいずれの条件式を満たしているかを判定する。なお、一致度を示す数値が逆数でない場合は、上記の条件式(1)〜(3)において基準一致度C、第1基準値V1および第2基準値V2の大小関係は逆になる。
また、生成部156bは、比較部156aの比較結果に基づいて、「高」、「中」および「低」のいずれかの評価フラグを選択する。選択された評価フラグはDRAM141あるいはRAM140cに一時的に格納される。
メタデータ生成部147(情報付加部の一例)は基線長および輻輳角を設定したメタデータを生成する。このとき、メタデータ生成部147は、評価情報生成部156により生成された評価フラグをメタデータ内の所定の領域に入れ込む。基線長および輻輳角はステレオ画像を表示する際に用いられる。また、評価フラグはステレオ画像を3次元表示する際に用いられる。
画像ファイル生成部148(情報付加部の一例)は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。画像ファイル生成部148が評価フラグを含むメタデータを左眼用および右眼用画像データに対して付加するので、画像ファイル生成部148が評価フラグを左眼用および右眼用画像データに対して付加する、と言うこともできる。
評価情報判定部158(評価情報判定部の一例)は、入力されるステレオ画像から評価フラグを検出する。具体的には、評価情報判定部158は、ステレオ画像に評価フラグが付加されているか否かを判定する。また、ステレオ画像に評価フラグが付加されている場合は、評価情報判定部158は評価フラグの内容を判定する。例えば、評価情報判定部158は評価フラグが「高」、「中」および「低」のいずれを示しているかを判定することができる。
なお、本実施形態では、評価フラグがメタデータ内の所定の領域に入れ込まれているが、評価フラグが、他の領域に入れ込まれていてもよいし、ステレオ画像と関連付けられた別ファイルであってもよい。評価フラグがステレオ画像と関連付けられた別ファイルの場合であっても、ステレオ画像に評価フラグが付加されている、と言える。
(10)画像処理部10
画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
画像抽出部16は信号処理部15で生成された基本画像データから左眼用画像データおよび右眼用画像データを抽出する。左眼用画像データは左眼用光学系OLにより形成される左眼用光学像QL1の一部に対応している。右眼用画像データは右眼用光学系ORにより形成される右眼用光学像QR1の一部に対応している。領域決定部149により決定された抽出領域AL3およびAR3に基づいて、DRAM141に格納された基本画像データから画像抽出部16は左眼用画像データおよび右眼用画像データを抽出する。画像抽出部16により抽出された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
補正処理部18は、抽出した左眼用画像データおよび右眼用画像データのそれぞれに対して歪曲収差補正およびシェーディング補正などの補正処理を行う。補正処理後、左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
画像圧縮部17はカメラコントローラー140の命令に基づいてDRAM141に記憶された補正後の左眼用および右眼用画像データに圧縮処理を施す。この圧縮処理により、画像データのデータサイズは元のデータサイズよりも小さくなる。画像データの圧縮方法として、例えば1フレームの画像データ毎に圧縮するJPEG(Joint Photographic Experts Group)方式が考えられる。圧縮された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
〔デジタルカメラの動作〕
(1)電源ON時
交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図12および図13のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。
電源がONになると、表示制御部125の制御によりカメラモニタ120に黒画面が表示され、カメラモニタ120のブラックアウトの状態が保持される(ステップS1)。次に、カメラコントローラー140の識別情報取得部142により交換レンズユニット200からレンズ識別情報F1が取得される(ステップS2)。具体的には図8(A)および図8(B)に示すように、カメラコントローラー140のレンズ検知部146により交換レンズユニット200の装着が検知されると、カメラコントローラー140はレンズコントローラー240に種別確認コマンドを送信する。この種別確認コマンドは、レンズ識別情報F1の3次元撮影判定フラグのステータスを送信するようレンズコントローラー240に要求するコマンドである。図8(B)に示すように、交換レンズユニット200が3次元撮影に対応しているので、種別確認コマンドを受信するとレンズコントローラー240がレンズ識別情報F1(3次元撮影判定フラグ)をカメラ本体100に送信する。識別情報取得部142はこの3次元撮影判定フラグのステータスをDRAM141に一時的に格納する。
次に、通常初期通信がカメラ本体100および交換レンズユニット200の間で実行される(ステップS3)。通常初期通信とは、3次元撮影に対応していない交換レンズユニットおよびカメラ本体の間でも行われる通信であり、例えば交換レンズユニット200の仕様に関する情報(焦点距離、F値等)が交換レンズユニット200からカメラ本体100に送信される。
通常初期通信の後、カメラ側判定部144により、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される(ステップS4)。具体的には、カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1(3次元撮影判定フラグ)に基づいて、装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される。
装着されている交換レンズユニットが3次元撮影に対応していない場合、2次元撮影に対応している通常のシーケンスが実行され、ステップS14に処理が移行する(ステップS8)。交換レンズユニット200のように3次元撮影に対応している交換レンズユニットが装着されている場合は、特性情報取得部143によりレンズ特性情報F2が交換レンズユニット200から取得される(ステップS5)。具体的には図8(B)に示すように、特性情報取得部143からレンズコントローラー240に特性情報送信コマンドが送信される。この特性情報送信コマンドはレンズ特性情報F2の送信を要求するコマンドである。カメラコントローラー140はこのコマンドを受信すると、レンズ特性情報F2をカメラコントローラー140に送信する。特性情報取得部143はレンズ特性情報F2を例えばDRAM141に格納する。
レンズ特性情報F2の取得後、レンズ特性情報F2に基づいて、抽出位置補正部139により抽出領域AL0およびAR0の抽出中心の位置が補正される(ステップS6)。具体的には、抽出位置補正部139により、抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)に基づいて、抽出領域AL0およびAR0の中心位置を補正する。中心ICLおよびICRから抽出位置補正量L11(あるいは抽出位置補正量L11から新たに算出された抽出位置補正量)だけ抽出中心を水平方向に移動させることで、抽出位置補正部139により、左眼用画像データおよび右眼用画像データを抽出する基準として新たに抽出中心ACL2およびACR2が設定される。
さらに、レンズ特性情報F2に基づいて領域決定部149により抽出領域AL3およびAR3のサイズおよび抽出方法が決定される(ステップS7)。例えば、前述のように、光軸位置、撮像有効エリア(半径r)、抽出中心ACL2およびACR2、左眼ズレ量DL、右眼ズレ量DRおよびCMOSイメージセンサー110のサイズに基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。例えば、抽出領域AL3およびAR3が横長撮影用抽出可能範囲AL11およびAR11内に収まるように、上記の情報に基づいて、抽出領域AL3およびAR3のサイズが領域決定部149により決定される。前述のように、本実施形態では、抽出領域AL3およびAR3はパターンマッチング処理の検出領域に過ぎず、最終的に左眼用および右眼用画像データを切り出す際に用いられる抽出領域の位置は、パターンマッチング処理を用いて算出された垂直相対ズレ量DVに基づいて決定される。
なお、領域決定部149が抽出領域AL3およびAR3のサイズを決定する際に、限界輻輳点距離L12および抽出位置限界補正量L13が用いられてもよい。
また、抽出領域AL3およびAR3のいずれを右眼用とするか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定されてもよい。
さらに、ライブビュー表示用の画像が左眼用および右眼用画像データから選択される(ステップS10)。例えば、左眼用および右眼用画像データからユーザーに選択させるようにしてもよいし、また、カメラコントローラー140において予め決定されている方を表示用として設定してもよい。選択された方の画像データが表示用画像として設定され、画像抽出部16により抽出される(ステップS11Aまたは11B)。
続いて、抽出された画像データに対して、歪曲収差補正やシェーディング補正などの補正処理が補正処理部18により施される(ステップS12)。さらに、表示制御部125により補正後の画像データにサイズ調整処理が施され、表示用の画像データが生成される(ステップS13)。この補正用画像データはDRAM141に一時的に格納される。
その後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS14)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
さらに、状態情報生成部243は、レンズ側判定部244の判定結果に基づいて、3次元光学系Gの撮影状態が整っているか否かを示す撮影可否フラグ(待機情報の一例)のステータスを設定する。状態情報生成部243は、レンズ側判定部244によりカメラ本体が3次元撮影に対応していると判定された場合には(図8(B))、各部の初期化完了後、撮影可否フラグのステータスを「可」に設定する。一方、レンズ側判定部244によりカメラ本体が3次元撮影に対応していないと判定された場合には(図8(A)参照)、状態情報生成部243は、各部の初期化が完了しているか否かに関わらず、撮影可否フラグのステータスを「不可」に設定する。ステップS14において、状態情報取得部145からレンズコントローラー240へ撮影可否フラグのステータス情報の送信を要求するコマンドが送信されると、状態情報生成部243は撮影可否フラグのステータス情報をカメラコントローラー140に送信する。撮影可否フラグのステータス情報をカメラコントローラー140に送信する。カメラ本体100では、レンズコントローラー240から送信された撮影可否フラグのステータス情報を状態情報取得部145がDRAM141の所定のアドレスに一時的に格納する。
さらに、格納された撮影可否フラグに基づいて状態情報取得部145により交換レンズユニット200が撮影可能状態か否かが判定される(ステップS15)。交換レンズユニット200が撮影可能状態になっていない場合は、ステップS14およびステップS15の処理が所定の周期で繰り返される。一方、交換レンズユニット200が撮影可能状態になっている場合は、ステップS13で生成された表示用画像データをカメラモニタ120に可視画像として表示させる(ステップS16)。ステップS16以降は、例えばカメラモニタ120に左眼用画像、右眼用画像、左眼用画像と右眼用画像を組み合わせた画像、または、左眼用画像と右眼用画像とを用いた3次元画像がライブビュー表示される。
(2)3次元静止画撮影
次に、図14および図15を用いて3次元静止画撮影時の動作について説明する。
ユーザーがレリーズ釦131を押すと、オートフォーカス(AF)および自動露出(AE)が実行され、続いて露光が開始される(ステップS21およびS22)。CMOSイメージセンサー110から画像信号(全画素のデータ)が信号処理部15に取り込まれ、信号処理部15においてAD変換などの信号処理が画像信号に施される(ステップS23およびS24)。信号処理部15により生成された基本画像データはDRAM141に一時的に格納される。
次に、ズレ量算出部155により基本画像データの抽出領域AL3およびAR3に対してパターンマッチング処理が行われる(ステップS27)。さらに、パターンマッチング処理中、あるいは、パターンマッチング処理後において、ズレ量算出部155により両抽出領域の画像がどれくらい一致しているかを示す基準一致度Cが算出される(ステップS28)。より詳細には、信号処理部15により生成された基本画像データから、抽出領域AL3内の所定の基準領域の画像(図11に示す第1画像データPL)に基づいて、抽出領域AR3内に基準領域の画像と最も一致するマッチング領域(図11に示す第2画像データPR)がズレ量算出部155により探し出される。パターンマッチング処理で第2画像データPRを見つけ出す際に、第1画像データと同じサイズの複数の領域に対して、それぞれ第1画像データPLに対する一致度が、ズレ量算出部155により算出される。さらに、一致度が最も高い領域の画像データがズレ量算出部155により第2画像データPRに設定され、その最も高い一致度がズレ量算出部155により基準一致度Cに設定される。ズレ量算出部155により算出された基準一致度Cは、DRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。
さらに、左眼用および右眼用画像データの垂直相対ズレ量DV(図11参照)が、パターンマッチング処理の際、あるいはパターンマッチング処理後にズレ量算出部155により算出される(ステップS29)。ズレ量算出部155により算出された垂直相対ズレ量DVは、例えばDRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。
パターンマッチング処理後、ズレ量算出部155により算出された基準一致度Cに基づいて評価情報生成部156により評価情報が生成される。具体的には、予め設定された第1基準値V1および第2基準値V2と基準一致度Cが比較部156aにより比較される。さらに、比較部156aの比較結果に基づいて生成部156bにより評価情報「高」、「中」および「低」のうち1つの評価情報が選択される。具体的には、比較部156aにより基準一致度Cが第1基準値V1と比較され、基準一致度Cが条件式(1)を満たしていれば(ステップS30AのYes)、生成部156bにより評価情報として「高」が選択される(ステップS30B)。一方、基準一致度Cが条件式(1)を満たしていなければ(ステップS30AのNo)、比較部156aにより基準一致度Cが第2基準値V2と比較される(ステップS30C)。基準一致度Cが条件式(3)を満たしていれば(ステップS30CのYes)、生成部156bにより評価情報として「低」が選択される(ステップS30D)。一方、基準一致度Cが条件式(3)を満たしていなければ(ステップS30CのNo)、基準一致度Cが条件式(2)を満たしていることになるので、生成部156bにより評価情報として「中」が選択される(ステップS30E)。生成部156bにより選択された評価情報はDRAM141あるいはRAM140cに一時的に格納される。
次に、ステップS29で算出された垂直相対ズレ量DVに基づいて、領域決定部149により抽出領域の位置が決定される(ステップS31)。具体的には図11に示すように、領域決定部149により、抽出中心ACL3の垂直方向の座標および垂直相対ズレ量DVに基づいて、右眼用画像データの抽出領域AR4の中心ACR4が算出され、中心ACR4を中心として抽出領域AR4が決定される。パターンマッチング処理の基準として抽出中心ACL3を用いているので、左眼用画像データの抽出領域は抽出領域AR3がそのまま用いられる。これにより、ステレオ画像における左眼用および右眼用画像データの垂直相対ズレ量をさらに低減することができる。
また、このように、ズレ量算出部155により算出された垂直相対ズレ量DVに基づいて最終的な抽出領域AL4およびAR4が決定されるので、ズレ量算出部155により算出された基準一致度Cは、抽出領域AL4およびAR4に基づいて切り出された左眼用および右眼用画像データの一致度に相当すると言える。
さらに、ステップS31で決定された抽出領域AL4およびAR4に基づいて、画像抽出部16により、左眼用画像データおよび右眼用画像データが基本画像データから抽出される(ステップS32)。抽出された左眼用画像データおよび右眼用画像データに補正処理部18により補正処理が施される(ステップS33)。
画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS34)。
圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS35)。このとき、評価情報生成部156により生成された評価情報がメタデータ生成部147によりフラグとしてメタデータ内の所定の領域に入れ込まれる。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS36)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される(ステップS37)。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
(3)3次元表示
図16を用いて、3次元表示時の評価フラグ判定処理について説明する。
図16に示すように、デジタルカメラ1は3次元表示モードを有している。3次元表示モードでは、ステレオ画像がカメラモニタ120に3次元表示される。3次元表示されたステレオ画像は専用メガネなどを用いて立体視することができる。
3次元表示モードでは、メモリーカード171に記憶されているステレオ画像がカメラモニタ120にサムネイル表示される。このとき、例えば、左眼用および右眼用画像データのうち予め定められた方が代表画像としてカメラモニタ120にサムネイル表示される。ユーザーが操作部130を使って3次元表示を行いたいステレオ画像を選択すると、選択されたステレオ画像データがDRAM141に読み込まれる(ステップS51)。
ステレオ画像データの所定の領域に評価情報がフラグとして付加されているか否かが評価情報判定部158により確認される(ステップS52)。評価フラグが所定の領域に存在していなければ、選択されたステレオ画像がそのまま3次元表示される(ステップS55)。
一方、評価フラグが所定の領域に存在している場合は、評価情報判定部158により評価フラグの内容が判定される(ステップS53)。具体的には、評価フラグが「低」を示しているか否かが評価情報判定部158により判定される。評価フラグが「低」を示していなければ、選択されたステレオ画像がそのまま3次元表示されても問題ないので、選択されたステレオ画像がカメラモニタ120に3次元表示される(ステップS55)。
一方、評価フラグが「低」を示している場合は、選択されたステレオ画像は垂直相対ズレ量が大きく快適な立体視が困難な可能性があるので、表示制御部125によりカメラモニタ120に警告メッセージが表示される(ステップS54)。具体的には図17に示すように、カメラモニタ120には「この画像は3次元表示に適さない可能性があります。3次元表示しますか?」といった警告メッセージが表示される。ユーザーは操作部130を用いて、カメラモニタ120に表示されている「はい」または「いいえ」を選択する。ユーザーが「はい」を選択した場合(ステップS56のYes)、選択されたステレオ画像がカメラモニタ120に3次元表示される(ステップS55)。一方、ユーザーが「いいえ」を選択した場合(ステップS56のNo)、選択されたステレオ画像がカメラモニタ120に3次元表示されずに、例えばサムネイル表示に戻る。ユーザーがステレオ画像を選択するたびに上記のステップS51〜S56の処理が実行される。
このように、3次元表示に適さないステレオ画像が表示されるのを抑制できるので、より快適な立体視を実現できる。
〔カメラ本体の特徴〕
以上に説明したカメラ本体100の特徴を以下にまとめる。
(1)このカメラ本体100では、入力画像データ(左眼用画像データおよび右眼用画像データ)に対してズレ量算出部155により3次元表示の適性が評価され、ズレ量算出部155の評価結果に基づいて3次元表示の適性に関する評価情報が評価情報生成部156により生成される。さらに、メタデータ生成部147により評価情報(評価フラグ)が入力画像データ(左眼用画像データおよび右眼用画像データ)に付加される。この結果、入力画像データに付加されている評価情報を利用すれば、入力画像データが3次元表示に適しているか否かを表示前に判定することができ、3次元表示に適さない画像で立体視を行うのを抑制できる。これにより、このカメラ本体100では、より快適な立体視を実現できる。
(2)入力画像データに含まれる左眼用画像データおよび右眼用画像データに対してパターンマッチング処理を行うことで3次元表示の適性がズレ量算出部155により評価される。具体的には、ズレ量算出部155は、パターンマッチング処理を用いて左眼用画像データの一部に相当する第1画像データPLと右眼用画像データの一部に相当する第2画像データPRとの基準一致度Cを算出する。さらに、評価情報生成部156は、基準一致度Cに基づいて評価情報(評価フラグ「高」、「中」および「低」)を生成する。このように、基準一致度Cを用いて3次元表示の適性が評価されるので、3次元表示の適性を容易に評価することができる。
(3)このカメラ本体100では、ズレ量算出部155により左眼用および右眼用画像データの垂直相対ズレ量DVが算出されるので、垂直相対ズレ量DVに基づいて最終的な抽出領域AL4およびAR4を決定することができ、左眼用および右眼用画像データの垂直相対ズレを低減できる。さらに、パターンマッチング処理で算出された垂直相対ズレ量DVに基づいて最終的な抽出領域AL4およびAR4を決定しているので、基準一致度Cが、最終的に切り出された左眼用および右眼用画像データの一致度に相当することになる。したがって、基準一致度Cに基づく評価の精度をさらに高めることができる。つまり、垂直相対ズレを効果的に低減しつつ、3次元表示の適性の評価を高精度で行うことができる。
(4)入力されるステレオ画像から評価情報判定部158により評価情報が検出され、評価情報判定部158の検出結果に基づいて、ステレオ画像を3次元表示するか否かが表示制御部125により判定される。したがって、評価情報を利用して、入力画像データが3次元表示に適しているか否かを表示前に自動的にあるいはユーザーにより判定することができる。
《第2実施形態》
前述の第1実施形態では、ステレオ画像データを取得する一連の処理の中で基準一致度Cの算出および評価情報の生成を行っているが、すでに取得されたステレオ画像データに対して基準一致度Cの算出および評価情報の生成を行う場合も考えられる。ここでは、前述の第1実施形態の構成と実質的に同じ機能を有する構成については、同じ符号を付し、その詳細な説明は省略する。
図18に示すように、デジタルカメラ1は評価フラグ生成モードを有している。評価フラグ生成モードでは、メモリーカード171に記憶されているステレオ画像がカメラモニタ120にサムネイル表示される。このとき、例えば、左眼用および右眼用画像データのうち予め定められた方が代表画像としてカメラモニタ120にサムネイル表示される。ユーザーが操作部130を使って評価フラグ生成処理を行いたいステレオ画像を選択すると、選択されたステレオ画像データがDRAM141に読み込まれる(ステップS41)。
ステレオ画像データの所定の領域に評価情報がフラグとして付加されているか否かが評価情報判定部158により確認される(ステップS42)。評価フラグが所定の領域に存在すれば、評価フラグ生成処理を行う必要がないので、例えば、すでに評価フラグが付加されている旨がカメラモニタ120に表示される(ステップS43)。
一方、評価フラグが所定の領域に存在していなければ、前述のステップS27と同様に、ステレオ画像データに対してパターンマッチング処理がズレ量算出部155により行われる(ステップS44)。さらに、前述のステップS28と同様に、パターンマッチング処理中、あるいは、パターンマッチング処理後において、ズレ量算出部155により左眼用および右眼用画像データの所定の領域の画像がどれくらい一致しているかを示す基準一致度Cが算出される(ステップS45)。より詳細には、ステレオ画像データ上の左眼用画像データTLおよび右眼用画像データTRの一部の領域に対してズレ量算出部155によりパターンマッチング処理が施され、当該領域の基準一致度Cがズレ量算出部155により算出される。具体的には図20に示すように、ズレ量算出部155により、左眼用画像データTLの予め定められた領域の画像(第1画像データPL1)と右眼用画像データTRの予め定められた領域の画像(第2画像データPR1)の基準一致度Cがズレ量算出部155により算出される。ここでは、前述の第1実施形態とは異なり、第1画像データPL1および第2画像データPR1の位置は予め定められているが、第1実施形態と同様に、第1画像データPL1と最も一致度が高い画像を右眼用画像データTRから探し出してもよい。本実施形態では、ズレ量算出部155により算出された基準一致度Cは、DRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。また、左眼用および右眼用画像データの垂直相対ズレ量DVが、パターンマッチング処理の際、あるいはパターンマッチング処理後にズレ量算出部155により算出される(ステップS45A)。ズレ量算出部155により算出された垂直相対ズレ量DVは、例えばDRAM141あるいはカメラコントローラー140のRAM140cに一時的に格納される。
前述のステップS30A〜S30Eと同様に、パターンマッチング処理後、ズレ量算出部155により算出された基準一致度Cに基づいて評価情報生成部156により評価情報が生成される。具体的には、予め設定された第1基準値V1および第2基準値V2と基準一致度Cが比較部156aにより比較される。さらに、比較部156aの比較結果に基づいて生成部156bにより評価情報「高」、「中」および「低」のうち1つの評価情報が選択される。比較部156aにより基準一致度Cが第1基準値V1と比較され、基準一致度Cが条件式(1)を満たしていれば(ステップS46AのYes)、生成部156bにより評価情報として「高」が選択される(ステップS46B)。
一方、基準一致度Cが条件式(1)を満たしていなければ(ステップS46AのNo)、比較部156aにより基準一致度Cが第2基準値V2と比較される(ステップS46C)。基準一致度Cが条件式(3)を満たしていれば(ステップS46CのYes)、生成部156bにより評価情報として「低」が選択される(ステップS46D)。一方、基準一致度Cが条件式(3)を満たしていなければ(ステップS46CのNo)、基準一致度Cが条件式(2)を満たしていることになるので、生成部156bにより評価情報として「中」が選択される(ステップS46E)。生成部156bにより選択された評価情報はDRAM141あるいはRAM140cに一時的に格納される。
図19に示すように、評価情報の生成後、前述のステップS31〜S37と基本的に同じ処理が実行される。具体的には、ステップS45Aで算出された垂直相対ズレ量DVに基づいて、領域決定部149により抽出領域の位置が決定される(ステップS31)。このとき、例えば、もとのステレオ画像データよりも小さい領域に抽出領域が設定される。また、新たに決定された抽出領域がもとのステレオ画像からはみ出ないように抽出領域の形状が変更されてもよい。この場合、抽出領域が小さくなることでデータが存在しなくなった領域には、黒帯を入れるようにしてもよい。
さらに、ステップS31で決定された抽出領域AL4およびAR4に基づいて、画像抽出部16により、左眼用画像データおよび右眼用画像データが基本画像データから抽出される(ステップS32)。抽出された左眼用画像データおよび右眼用画像データに補正処理部18により補正処理が施される(ステップS33)。
画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS34)。
圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS35)。より詳細には、読み込まれているステレオ画像のメタデータが、メタデータ生成部147により流用される。このとき、カメラコントローラー140のメタデータ生成部147により、メタデータの所定の領域に評価フラグが付加される(ステップS47)。
メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS36)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される(ステップS48)。
このように、すでに記録されているステレオ画像データに対してパターンマッチング処理を行い、一致度の算出、評価情報の生成および評価情報の付加を行ってもよい。
なお、ステップS36で生成された画像ファイルは、保存されずに表示にのみ用いられてもよい。
《他の実施形態》
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
(A)ミラーボックスを有していないデジタルカメラ1を例に、画像生成装置について説明しているが、画像生成装置はミラーボックスを有するデジタル一眼レフカメラであってもよい。画像生成装置は、第3実施形態で説明しているように、画像を撮影する撮像装置の他に、すでに取得されている画像を読み込んで上書き保存あるいは新たに別画像を生成できる装置であってもよく、光学系や撮像素子が搭載されていなくてもよい。なお、撮像装置は静止画だけでなく動画撮影が可能な装置であってもよい。
(B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
(C)前述の実施形態では、通常の並置撮影方式を例に記載しているが、水平方向に左眼用および右眼用画像が圧縮される水平圧縮並置撮影方式、あるいは、左眼用および右眼用画像を90度回転させた回転並置撮影方式が採用されていてもよい。
(D)図9では画像サイズの変更を行っているが、撮像素子が小さい場合は撮影禁止にしてもよい。例えば、領域決定部149で抽出領域AL3およびAR3のサイズを決定するが、その際に、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合は、カメラモニタ120にその旨を警告表示させてもよい。また、抽出領域AL3およびAR3のサイズが所定のサイズを下回るような場合でも、抽出領域AL3およびAR3のアスペクト比を変更(例えば、アスペクト比を1:1にする等)することで抽出領域のサイズを比較的大きくできるのであれば、アスペクト比を変更するようにしてもよい。
(E)前述の交換レンズユニット200は、単焦点レンズであってもよい。この場合、前述の抽出位置補正量L11を用いることで、抽出中心ACL2およびACR2を求めることができる。なお、交換レンズユニット200が単焦点レンズの場合は、例えば、ズームレンズ210Lおよび210Rが固定されており、それに伴い、ズームリング213、ズームモータ214Lおよび214Rが搭載されていなくてもよい。
(F)前述のパターンマッチング処理では、抽出領域AL3内の所定の基準領域の画像に基づいて、抽出領域AR3内に基準領域の画像と最も一致するマッチング領域がズレ量算出部155により探し出されるが、パターンマッチング処理の方法は他の方法であってもよい。
(G)前述の実施形態では、基準一致度Cを基準として評価情報の生成を行っているが、相違度という概念を用いて評価情報の生成を行ってもよい。基準相違度Dを用いて評価情報の生成を行う場合、条件式(1)〜(3)は例えば以下のような条件式(11)〜(13)になる。
評価情報「高」:V11≧D ・・・・・・(11)
評価情報「中」:V12≧D>V11 ・・(12)
評価情報「低」: D>V12 ・・(13)
なお、一致度を示す数値が逆数でない場合は、その数値は相違度と同等となり、条件式(11)〜(12)を用いることになる。また、評価情報の種類や基準値の数量は前述の実施形態に限定されない。例えば、評価情報の種類が2種類であってもよいし、4種類以上であってもよい。また、基準値が1つであってもよいし、3つ以上であってもよい。
(H)前述の実施形態では、メタデータ生成部147によりメタデータ内の所定の領域に評価フラグが付加され、画像ファイル生成部148によりメタデータが左眼用および右眼用画像データに対して付加される。しかし、評価フラグの付加方法はこの方法に限定されない。
(I)前述の第1実施形態では、特性情報取得部143により交換レンズユニットから取得された左眼ズレ量DLおよび右眼ズレ量DRに基づいてパターンマッチング処理で用いる検出領域が決定されているが、ズレ量算出部155により算出された垂直相対ズレ量DVのみで抽出領域の位置を決定してもよい。
(J)3次元表示の適性とは、3次元表示の際に快適な立体視が可能であるか否かを示している。したがって、3次元表示の適性は、例えば、入力画像データ上での左眼用画像データおよび右眼用画像データの相対ズレ量(垂直方向および水平方向のうち少なくとも一方の相対ズレ量)により決まるものである。水平方向の相対ズレ量には視差も含まれ得るが、水平方向の相対ズレ量が大きいと快適な立体視が妨げられる可能性があるので、垂直方向だけでなく水平方向の相対ズレ量も3次元表示の適性に影響を与え得る。
(K)前述の実施形態では、並置撮影方式の撮像装置を用いてステレオ画像を取得している。具体的には、左眼用光学系OLにより形成された左眼用光学像QL1に基づいて左眼用画像データを取得し、右眼用光学系ORにより形成された右眼用光学像QR1に基づいて右眼用画像データを取得している。
しかし、1つの光学系を有する撮像装置を左右にパーンさせながら連写することで、左眼用画像データおよび右眼用画像データを取得する場合であっても、前述の技術を適用することができる。
本発明は、ステレオ画像を生成できる画像生成装置に適用できる。
1 デジタルカメラ(画像生成装置の一例)
15 信号処理部
16 画像抽出部
17 画像圧縮部
18 補正処理部
100カメラ本体
110 CMOSイメージセンサー(撮像素子の一例)
139 抽出位置補正部
140 カメラコントローラー
140a CPU
140b ROM
140c RAM
141 DRAM
142 識別情報取得部
143 特性情報取得部(補正情報取得部の一例)
144 カメラ側判定部
145 状態情報取得部
146 レンズ検知部
147 メタデータ生成部(情報付加部の一例)
148 画像ファイル生成部(情報付加部の一例)
149 領域決定部
150 ボディマウント
155 ズレ量算出部(ズレ量算出部の一例)
156 評価情報生成部(評価情報生成部の一例)
156a 比較部(比較部の一例)
156b 生成部(生成部の一例)
200 交換レンズユニット
240 レンズコントローラー
240a CPU
240b ROM
240c RAM
241 DRAM
242 フラッシュメモリ(補正情報記憶部の一例)
243 状態情報生成部
244 レンズ側判定部
OL 左眼用光学系
OR 右眼用光学系
QL1 左眼用光学像
QR1 右眼用光学像
F1 レンズ識別情報
F2 レンズ特性情報
F3 レンズ状態情報

Claims (10)

  1. 入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するズレ量算出部と、
    前記相対ズレ量を算出する際に前記ズレ量算出部が生成した参考情報に基づいて3次元表示の適性に関する評価情報を生成する評価情報生成部と、
    を備えた画像生成装置。
  2. 前記評価情報を前記入力画像データに付加する情報付加部をさらに備えた、
    請求項1に記載の画像生成装置。
  3. 前記ズレ量算出部は、前記左眼用画像データおよび右眼用画像データに対してパターンマッチング処理を行うことで前記参考情報を生成する、
    請求項1または2に記載の画像生成装置。
  4. 前記ズレ量算出部は、前記パターンマッチング処理を用いて前記左眼用画像データの少なくとも一部に相当する第1画像データと前記右眼用画像データの少なくとも一部に相当する第2画像データとの一致度を前記参考情報として算出し、
    前記評価情報生成部は、前記一致度に基づいて前記評価情報を生成する、
    請求項1から3のいずれかに記載の画像生成装置。
  5. 入力されるステレオ画像データから前記評価情報を検出する評価情報判定部をさらに備えた、
    請求項2から4のいずれかに記載の画像生成装置。
  6. 前記評価情報判定部の検出結果に基づいて前記ステレオ画像データを3次元表示するか否かを判定する表示判定部をさらに備えた、
    請求項5に記載の画像生成装置。
  7. 前記評価情報生成部は、前記一致度を予め設定された基準値と比較する比較部と、前記比較部の比較結果に基づいて前記評価情報を生成する生成部と、を有している、
    請求項1から6のいずれかに記載の画像生成装置。
  8. 入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するステップと、
    前記相対ズレ量を算出する際に前記ズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成するステップと、
    を備えた画像生成方法。
  9. 入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するズレ量算出機能と、
    前記相対ズレ量を算出する際に前記ズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する評価情報生成機能と、
    をコンピュータに実現させるプログラム。
  10. 入力画像データに含まれる左眼用画像データおよび右眼用画像データの相対ズレ量を算出するズレ量算出機能と、
    前記相対ズレ量を算出する際に前記ズレ量算出部が生成した参考情報に基づいて、3次元表示の適性に関する評価情報を生成する評価情報生成機能と、
    をコンピュータに実現させるプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
JP2011010807A 2010-09-17 2011-01-21 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体 Pending JP2012085252A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011010807A JP2012085252A (ja) 2010-09-17 2011-01-21 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体
US13/079,017 US20120069148A1 (en) 2010-09-17 2011-04-04 Image production device, image production method, program, and storage medium storing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010210213 2010-09-17
JP2010210213 2010-09-17
JP2011010807A JP2012085252A (ja) 2010-09-17 2011-01-21 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2012085252A true JP2012085252A (ja) 2012-04-26

Family

ID=45817403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011010807A Pending JP2012085252A (ja) 2010-09-17 2011-01-21 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体

Country Status (2)

Country Link
US (1) US20120069148A1 (ja)
JP (1) JP2012085252A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116259A (ja) * 2016-11-22 2018-07-26 サクラ ファインテック ユー.エス.エー., インコーポレイテッド スライド管理システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142086A1 (ja) * 2010-05-14 2011-11-17 パナソニック株式会社 カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体
KR101804205B1 (ko) * 2012-03-15 2017-12-04 삼성전자주식회사 영상 처리 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
US5877840A (en) * 1996-09-20 1999-03-02 Sanyo Electric Co., Ltd. Binocular view function inspecting apparatus and inspecting method
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP3280001B2 (ja) * 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US7376250B2 (en) * 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116259A (ja) * 2016-11-22 2018-07-26 サクラ ファインテック ユー.エス.エー., インコーポレイテッド スライド管理システム
US11280803B2 (en) 2016-11-22 2022-03-22 Sakura Finetek U.S.A., Inc. Slide management system

Also Published As

Publication number Publication date
US20120069148A1 (en) 2012-03-22

Similar Documents

Publication Publication Date Title
WO2011142086A1 (ja) カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体
CN102318331B (zh) 立体图像拾取装置
CN103003750B (zh) 具有预设模式的立体相机
JP2012075078A (ja) カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
JP2012085258A (ja) カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
CN102860019A (zh) 立体图像再生装置及方法、立体摄像装置、立体显示器装置
JP4763827B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2012093779A (ja) 立体撮像装置及び画像補正方法
JP2011259168A (ja) 立体パノラマ画像撮影装置
CN102959467A (zh) 单眼立体成像装置
JP5449535B2 (ja) 立体撮像装置及びその制御方法
WO2012014347A1 (ja) カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
JP2012085252A (ja) 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体
JPWO2012101916A1 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP5891645B2 (ja) 撮像装置およびプログラム
CN104041026B (zh) 图像输出装置、方法以及程序及其记录介质
JP5001960B2 (ja) 3次元画像表示装置及び方法
WO2011086898A1 (ja) 3d画像撮影装置及びその制御方法
JP2013085239A (ja) 撮像装置
CN104054333A (zh) 图像处理装置、方法以及程序及其记录介质
JP2011091750A (ja) 立体画像撮像装置及びその制御方法
JP2012004949A (ja) カメラ本体、交換レンズユニットおよび撮像装置
JP2012220603A (ja) 3d映像信号撮影装置
TWI382267B (zh) 自動景深捕捉系統及自動景深捕捉方法
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104