JPWO2012017585A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JPWO2012017585A1
JPWO2012017585A1 JP2012527567A JP2012527567A JPWO2012017585A1 JP WO2012017585 A1 JPWO2012017585 A1 JP WO2012017585A1 JP 2012527567 A JP2012527567 A JP 2012527567A JP 2012527567 A JP2012527567 A JP 2012527567A JP WO2012017585 A1 JPWO2012017585 A1 JP WO2012017585A1
Authority
JP
Japan
Prior art keywords
image
evaluation value
eye
lens
focus lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012527567A
Other languages
English (en)
Inventor
邦嘉 小林
邦嘉 小林
正洋 村上
正洋 村上
修史 守屋
修史 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2012017585A1 publication Critical patent/JPWO2012017585A1/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/565Optical accessories, e.g. converters for close-up photography, tele-convertors, wide-angle convertors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

サイドバイサイド形式の3D画像を撮像する際に、左目用の画像と右目用の画像とに対する合焦ずれを小さくできる撮像装置を提供することを目的とする。本発明にかかる撮像装置は、光学系と、撮像手段と、制御手段とを、備える。光学系は、フォーカスレンズを含んでいる。撮像手段は、光学系を介して、左目用の像と右目用の像とを撮像する。制御手段は、第1AF評価値と第2AF評価値とに基づいて、第3AF評価値を生成する。そして、制御手段は、第3AF評価値に基づいて、フォーカスレンズの駆動を制御する。第1AF評価値は、左目用の像に基づいて生成された画像に対する評価値である。左目用の像は、撮像手段により撮像された画像に含まれている。第2AF評価値は、右目用の像に基づいて生成された画像に対する評価値である。右目用の像は、撮像手段により撮像された画像に含まれている。

Description

本発明は、撮像装置に関し、特に、3Dコンバージョンレンズを取り付けることができる撮像装置に関する。
特許文献1は、立体撮像装置を開示する。この立体撮像装置は、2つのラインセンサを有する。この立体撮像装置は、2つのラインセンサにより撮像された画像の合焦状態を比較し、それぞれの合焦状態を調整する。これにより、この立体撮像装置は、立体映像の映像効果を向上できる。
特開平3−63638号公報
しかしながら、上記特許文献1は、サイドバイサイド形式の3D画像を撮像する際の左目用の画像と右目用の画像とに対する合焦ずれの程度を適切に評価する装置については、開示していない。
本発明は、サイドバイサイド形式の3D画像を撮像する際に、左目用の画像と右目用の画像に対する合焦ずれを小さくできる撮像装置を提供することを、目的とする。
上記課題を解決するために、本発明にかかる撮像装置は、光学系と、撮像手段と、制御手段とを、備える。光学系は、フォーカスレンズを含んでいる。撮像手段は、光学系を介して、左目用の像と右目用の像とを撮像する。制御手段は、第1AF評価値と第2AF評価値とに基づいて第3AF評価値を生成し、この第3AF評価値に基づいてフォーカスレンズの駆動を制御する。第1AF評価値は、左目用の像に基づいて生成された画像に対する評価値である。左目用の像は、撮像手段により撮像された画像に含まれている。第2AF評価値は、右目用の像に基づいて生成された画像に対する評価値である。右目用の像は、撮像手段により撮像された画像に含まれている。
本発明によれば、サイドバイサイド形式の3D画像を撮像する際に、左目用の画像と右目用の画像とに対する合焦ずれを小さくできる撮像装置を、提供できる。
デジタルビデオカメラ100に3Dコンバージョンレンズ500を取り付けた状態を示す斜視図 3Dコンバージョンレンズ500を取り付けた状態のデジタルビデオカメラ100が撮像する画像データを説明するための模式図 デジタルビデオカメラ100の構成を示すブロック図 2DモードにおけるコントラストAFを説明するための模式図 3DモードにおけるコントラストAFを説明するための模式図 3DモードにおけるコントラストAF制御を説明するためのフローチャート 撮像画像のAF評価値について説明するための模式図
本発明をデジタルビデオカメラに適用した実施の形態1について図面を用いて説明する。
〔1.実施の形態1〕
〔1−1.概要〕
本実施の形態1にかかるデジタルビデオカメラ100の概要について図1、図2を用いて説明する。図1は、デジタルビデオカメラ100に3Dコンバージョンレンズ500を取り付けた状態を示す斜視図である。図2は、3Dコンバージョンレンズ500を取り付けた状態のデジタルビデオカメラ100が撮像する画像データを説明するための模式図である。
3Dコンバージョンレンズ500は、デジタルビデオカメラ100が有する取付部(図示せず)に対して、着脱可能である。デジタルビデオカメラ100は、3Dコンバージョンレンズ500の取り付けを、検出スイッチ(図示せず)により磁気的に検出する。
3Dコンバージョンレンズ500は、3D(three dimensions)画像における左目用の像を形成するための光と右目用の像を形成するための光とを出力する像出力手段である。具体的には、3Dコンバージョンレンズ500は、右目用レンズ510と、左目用レンズ520とを、有する。右目用レンズ510は、3D画像における右目用の像を形成するための光を、デジタルビデオカメラ100の光学系に導くためのものである。左目用レンズ520は、3D画像における左目用の像を形成するための光を、光学系に導くためのものである。
3Dコンバージョンレンズ500を介して入射した光は、デジタルビデオカメラ100のCCDイメージセンサー180上に、図2に示すようなサイドバイサイド形式の3D画像として、結像される。つまり、デジタルビデオカメラ100では、3Dコンバージョンレンズ500を取り付けた状態で(3Dモードで)、サイドバイサイド形式の3D画像が撮像される。また、デジタルビデオカメラ100では、3Dコンバージョンレンズ500を取り外した状態で(2Dモードで)、2D画像が撮像される。
本実施の形態1にかかるデジタルビデオカメラ100は、このようなサイドバイサイド形式の3D画像において、左目用の画像と右目用の画像とに対する合焦ずれを、小さくすることができる。
〔1−2.構成〕
本実施の形態1にかかるデジタルビデオカメラ100の電気的構成について、図3を用いて説明する。図3は、デジタルビデオカメラ100の構成を示すブロック図である。デジタルビデオカメラ100は、ズームレンズ110等からなる光学系により形成された被写体像をCCDイメージセンサー180で撮像する。CCDイメージセンサー180で生成された映像データは、画像処理部190で各種処理が施され、メモリカード240に格納される。また、メモリカード240に格納された映像データは、液晶モニタ270で表示可能である。以下、デジタルビデオカメラ100の構成を詳細に説明する。
デジタルビデオカメラ100の光学系は、ズームレンズ110、OIS140(Optical Image Stabilizer)、フォーカスレンズ170を含む。ズームレンズ110は、光学系の光軸に沿って移動することにより、被写体像を拡大又は縮小可能である。また、フォーカスレンズ170は、光学系の光軸に沿って移動することにより、被写体像のピントを調整する。フォーカスモータ290は、フォーカスレンズ170を駆動する。
OIS140は、内部に光軸に垂直な面内で移動可能な補正レンズを有する。OIS140は、デジタルビデオカメラ100の振れを相殺する方向に補正レンズを駆動することにより、被写体像の振れを低減する。
ズームモータ130は、ズームレンズ110を駆動する。ズームモータ130は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。ズームモータ130は、カム機構やボールネジなどの機構を介してズームレンズ110を駆動するようにしてもよい。検出器120は、ズームレンズ110が光軸上でどの位置に存在するのかを検出する。検出器120は、ズームレンズ110の光軸方向への移動に応じて、ブラシ等のスイッチによりズームレンズの位置に関する信号を出力する。
OISアクチュエータ150は、OIS140内の補正レンズを光軸と垂直な面内で駆動する。OISアクチュエータ150は、平面コイルや超音波モータなどで実現できる。また、検出器160は、OIS140内における補正レンズの移動量を検出する。
CCDイメージセンサー180は、ズームレンズ110等からなる光学系で形成された被写体像を撮像して、映像データを生成する。CCDイメージセンサー180は、露光、転送、電子シャッタなどの各種動作を行う。
画像処理部190は、CCDイメージセンサー180で生成された映像データに対して各種の処理を施す。画像処理部190は、CCDイメージセンサー180で生成された映像データに対して処理を施すことによって、液晶モニタ270に表示するための映像データを生成したり、メモリカード240に格納するための映像データを生成したりする。例えば、画像処理部190は、CCDイメージセンサー180で生成された映像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部190は、CCDイメージセンサー180で生成された映像データに対して、H.264規格やMPEG2規格に準拠した圧縮形式等により映像データを圧縮する。画像処理部190は、DSP(Digital Signal Processor)やマイコンなどで実現可能である。
コントローラー210は、全体を制御する制御手段である。コントローラー210は、半導体素子などで実現可能である。コントローラー210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラー210は、マイコンなどで実現できる。
メモリ200は、画像処理部190及びコントローラー210のワークメモリとして機能する。メモリ200は、例えば、DRAM、強誘電体メモリなどで実現できる。
液晶モニタ270は、CCDイメージセンサー180で生成した映像データが示す画像や、メモリカード240から読み出した映像データが示す画像を表示可能である。
ジャイロセンサー220は、圧電素子等の振動材等で構成される。ジャイロセンサー220は、圧電素子等の振動材を一定周波数で振動させることによって、コリオリ力による力を電圧に変換して角速度情報を得る。ジャイロセンサー220からの角速度情報が示す揺れを相殺する方向に、OIS140内の補正レンズを駆動させることにより、デジタルビデオカメラ100は手振れを補正する。
カードスロット230は、メモリカード240を着脱可能である。カードスロット230は、機械的及び電気的にメモリカード240と接続可能である。メモリカード240は、フラッシュメモリや強誘電体メモリなどを内部に含み、データを格納可能である。
内部メモリ280は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ280は、デジタルビデオカメラ100全体を制御するための制御プログラム等を格納する。
操作部材250は、使用者から操作を受け付ける部材である。ズームレバー260は、使用者からズーム倍率の変更指示を受け付ける部材である。
なお、本実施形態では、光学系110,140,170、光学系110,140,170を駆動及び制御するための各種装置120,130,150,160,290、CCDイメージセンサー180、画像処理部190、及びメモリ200を、撮像系300と定義する。
〔1−3.コントラストAF(オートフォーカス)〕
コントラストAFについて図4、図5を用いて説明する。図4は、2DモードにおけるコントラストAFを説明するための模式図である。図5は、3DモードにおけるコントラストAFを説明するための模式図である。
まず、2DモードにおけるコントラストAFについて説明する。デジタルビデオカメラ100は、撮像画像のうち予め定められた領域(検波エリア)の画像を用いて、コントラストAFを行う。つまり、デジタルビデオカメラ100は、予め検波エリアを設定する範囲を決めている。デジタルビデオカメラ100は、2Dモードにおいて、撮像画像の中央部分を検波エリアとして設定している。デジタルビデオカメラ100は、検波エリア内の画像の輝度値に基づいて、AF評価値(コントラスト値)を算出する。デジタルビデオカメラ100は、このAF評価値が最大となるように、フォーカスレンズ170を制御する。これが2DモードにおけるコントラストAFである。
次に、3DモードにおけるコントラストAFについて説明する。デジタルビデオカメラ100は、3Dモードにおいて、図5に示すように、左目用画像の中央部分、及び右目用画像の中央部分を検波エリアとして設定している。デジタルビデオカメラ100は、各検波エリアの輝度値に基づいて、左目用画像のAF評価値(第1AF評価値)と右目用画像のAF評価値(第2AF評価値)とを算出し、各AF評価値(第1AF評価値、第2AF評価値)に基づいて、3D画像用のAF評価値(第3AF評価値)を算出する。デジタルビデオカメラ100は、3D画像用のAF評価値に基づいて、コントラストAFを行う。3D画像用のAF評価値の算出方法については後述する。なお、左目用画像のAF評価値と右目用画像のAF評価値とは、2DモードにおけるAF評価値の算出方法と同一の方法で算出される。
〔1−4.3DモードにおけるコントラストAF制御〕
3DモードにおけるコントラストAF制御について図6、7を用いて説明する。図6は、3DモードにおけるコントラストAF制御を説明するためのフローチャートである。図7は、撮像画像のAF評価値について説明するための模式図である。
使用者は操作部材250を操作することにより、デジタルビデオカメラ100は、撮影モードに設定できる(S100)。デジタルビデオカメラ100が撮影モードに設定されると、コントローラー210は、撮像画像(左目用画像及び右目用画像)に基づいて、左目用画像のAF評価値と右目用画像のAF評価値とを算出する(S110)。
ここで、コントローラー210が左目用画像のAF評価値と右目用画像のAF評価値とを算出すると、コントローラー210は、左目用画像のAF評価値と右目用画像のAF評価値との積を、算出する(S120)。そして、コントローラー210が左目用画像のAF評価値と右目用画像のAF評価値との積を算出すると、コントローラー210は、積の平方根を算出する(S120)。そして、コントローラー210は、左目用画像のAF評価値と右目用画像のAF評価値との積の平方根の値を、3D画像用のAF評価値として、認識する。このようにして、デジタルビデオカメラ100における3D画像用のAF評価値が、算出される。
続いて、コントローラー210が3D画像用のAF評価値を算出すると、コントローラー210は、3D画像用のAF評価値が信頼性のあるデータであるか否かを、判断する(S125)。ここでは、フォーカスレンズ170の位置の変化に対する3D画像用のAF評価値の変化量が、大きい場合が、3D画像用のAF評価値が信頼性のあるデータであると判断される。一方で、フォーカスレンズ170の位置の変化に対する3D画像用のAF評価値の変化量が、小さい場合は、3D画像用のAF評価値が信頼性のあるデータではないと判断される。
具体的には、S125では、コントローラー210は、3D画像用のAF評価値が所定の閾値(基準値cr)以上であるか否かを、判断する。基準値crは、3D画像用のAF評価値が信頼性のあるデータであるか否かを判断するための指標である。図7に示すように、3D画像用のAF評価値が基準値cr以上である範囲では、上記の3D画像用のAF評価値の変化量が所定値以上になるので、コントローラー210は、3D画像用のAF評価値が信頼性のあるデータであると判断する。一方で、3D画像用のAF評価値が基準値cr未満である範囲では、上記の3D画像用のAF評価値の変化量が所定値未満になるので、コントローラー210は、3D画像用のAF評価値が信頼性のないデータであると判断する。
続いて、3D画像用のAF評価値が信頼性のあるデータであった場合、例えば3D画像用のAF評価値が基準値cr以上であった場合(S125でYes)、コントローラー210は、3D画像用のAF評価値の変化が時間的に安定しているか否かを、判断する(S130)。具体的には、コントローラー210は、3D画像用のAF評価値の時間変化が所定の範囲内であるか否かを、判断する。より具体的には、コントローラー210は、1フィールド前の3D画像用のAF評価値に対する、現在のフィールドの3D画像用のAF評価値が、所定値未満であるか否かを、判断する。
ここで、3D画像用のAF評価値の変化が時間的に安定していた場合、例えば3D画像用のAF評価値の時間変化が、所定値未満であった場合(S130でYes)、コントローラー210は、S110以降の処理を再び実行する。ここで、3D画像用のAF評価値の変化が時間的に安定している場合は、3D画像用のAF評価値がピーク値近傍の値である場合に、対応する。すなわち、この場合は、フォーカスレンズ170は、3D画像用のAF評価値のピークに対するレンズ位置の近傍、すなわち後述する目標レンズ位置psの近傍に、位置している。
なお、被写体の時間的な変化に応じて、撮像画像は時間的に変化する。このため、S130の処理の後にS110以降の処理が実行される場合、撮像画像の時間的な変化に応じて、S110において生成される左目用画像のAF評価値及び右目用画像のAF評価値は、変化する。すなわち、S130の処理の後にS110以降の処理が繰り返し実行される場合、S120において繰り返し生成される3D画像用のAF評価値も、変化する。
一方で、3D画像用のAF評価値が信頼性のないデータである場合(S125でNo)、又は3D画像用のAF評価値の変化が時間的に安定していない場合(S130でNo)、コントローラー210は、3D画像用のAF評価値が時間的に増加しているか否かを、判断する(S135)。具体的には、コントローラー210は、現在のフィールドの3D画像用のAF評価値が、1フィールド前の3D画像用のAF評価値より大きいか否かを、判断する。
ここで、3D画像用のAF評価値が信頼性のないデータである場合(S125でNo)、フォーカスレンズ170の位置の変化に対する3D画像用のAF評価値の変化が、小さいので、コントローラー210は、フォーカスレンズ170の駆動方向を決定することができない場合がある。この場合、コントローラー210は、フォーカスレンズ170の駆動方向を決定することができるようになるまで、フォーカスレンズ170を現在の進行方向に移動する。そして、フォーカスレンズ170の位置の変化に対する3D画像用のAF評価値の変化量が、フォーカスレンズ170の駆動方向を決定することができる値になったときに、コントローラー210は、フォーカスレンズ170の駆動を停止する。そして、コントローラー210は、上述したように、3D画像用のAF評価値が時間的に増加しているか否かを、判断する(S135)。
続いて、3D画像用のAF評価値が時間的に増加していると、コントローラー210が判断した場合(S135でYes)、コントローラー210は、フォーカスレンズ170を、現在の進行方向に、所定量だけ駆動する(S136)。一方で、3D画像用のAF評価値が時間的に増加しているとコントローラー210が判断しなかった場合(S135でNo)、コントローラー210は、フォーカスレンズ170を、現在の進行方向とは反対の方向に、所定量だけ駆動する(S137)。そして、フォーカスレンズ170の駆動が終了すると、コントローラー210は、S110以降の処理を再び実行する。
これら一連の処理(S110〜S137の処理)は、撮影が停止されるまで、コントローラー210により繰り返し実行される。
このように、本実施の形態1にかかるデジタルビデオカメラ100は、3D画像用のAF評価値を、左目用画像のAF評価値と右目用画像のAF評価値とに基づいて、算出することとした。このように構成した理由を、以下に説明する。
3Dコンバージョンレンズ500の左目用レンズ520と右目用レンズ510とが撮像面に対して傾くことなく取り付いている場合、フォーカスレンズ170は特定の位置にセットされる。これにより、左目用画像と右目用画像とを同時に合焦させることができる。詳細には、フォーカスレンズ170が特定の位置にある場合に、左目用画像のAF評価値と右目用画像のAF評価値とは一致する。つまり、この場合には、左目用画像の合焦位置と右目用画像の合焦位置とは一致する。しかしながら、実際には、3Dコンバージョンレンズ500の左目用レンズ520と右目用レンズ510とは、それぞれ撮像面に対して微小範囲内で傾いてしまうおそれがある。また、デジタルビデオカメラ100内の光学系が撮像面に対して微小範囲内で傾いてしまうおそれもある。このように、撮像面に対して、3Dコンバージョンレンズ500の左目用レンズ520及び右目用レンズ510や、デジタルビデオカメラ100内の光学系が、傾いてしまうと、フォーカスレンズ170が特定の位置にあったとしても、左目用画像のAF評価値と右目用画像のAF評価値とが、図7に示すように、異なってしまうおそれがある。つまり、左目用画像の合焦位置と右目用画像の合焦位置とが、異なってしまう。
このため、この状態において、左目用画像のAF評価値及び右目用画像のAF評価値のいずれか一方のAF評価値に基づいてコントラストAFが実行されると、左目用画像と右目用画像とに対する合焦ずれが、大きくなってしまうおそれがある。その結果、これら左目用画像と右目用画像とに基づいて3D画像を表示した場合、3D画像が使用者にとって見づらいものとなってしまう。
そこで、本実施の形態1にかかるデジタルビデオカメラ100では、3D画像を適切に表示可能な3D画像用のAF評価値を、左目用画像のAF評価値と右目用画像のAF評価値とに基づいて、算出することとした。この3D画像用のAF評価値を用いることによって、左目用画像と右目用画像とに対する合焦ずれは小さくなるので、左目用画像と右目用画像とに基づいて3D画像を表示した場合、3D画像が使用者にとって見やすいものとなる。
以下では、図7を参照して、3D画像用のAF評価値の評価方法について、詳細に説明する。図7の横軸は、フォーカスレンズ170が移動する光学系の光軸に、対応している。図7では、フォーカスレンズ170の初期位置を、記号p1で記し、フォーカスレンズ170が初期位置p1から最も離れた位置(最大離反位置)を、記号p4で記している。また、左目用画像のAF評価値のピークに対するフォーカスレンズ170のレンズ位置を、第1レンズ位置p2と呼び、右目用画像のAF評価値のピークに対するフォーカスレンズ170のレンズ位置を、第2レンズ位置p3と呼ぶ。さらに、第1レンズ位置p2と第2レンズ位置p3との中点は、左目用画像と右目用画像とに対する合焦ずれが最も小さくなるレンズ位置であり、このレンズ位置を、最適レンズ位置pmと呼ぶ。
上述したように、左目用レンズ520と右目用レンズ510とが撮像面に対して傾いてしまうと、左目用画像のAF評価値のピークに対する第1レンズ位置p2と、右目用画像のAF評価値のピークに対する第2レンズ位置p3とが一致しなくなってしまう。この状態で、左目用画像のAF評価値と右目用画像のAF評価値とが算出されると、図7に示すように、左目用画像のAF評価値のピーク値と右目用画像のAF評価値のピーク値との差の絶対値が大きくなることが多い。
この場合において、左目用画像のAF評価値と右目用画像のAF評価値との和の1/2によって、3D画像用のAF評価値が評価されると、この3D画像用のAF評価値(以下、3D画像用のAF評価値(相加平均)と呼ぶ)が、高い方のAF評価値(左目用画像のAF評価値又は右目用画像のAF評価値)の影響、例えば図7では左目用画像のAF評価値の影響を、強く受けてしまう。これにより、図7に示すように、3D画像用のAF評価値(相加平均)のピークに対するレンズ位置pwが、第1レンズ位置p2に近づいてしまう。すなわち、フォーカスレンズ170のレンズ位置pwが、最適レンズ位置pmから離れてしまう。このため、3D画像用のAF評価値(相加平均)に基づいて、フォーカスレンズ170をレンズ位置pwに向けて移動した場合、左目用画像と右目用画像とに対する合焦ずれが、大きくなってしまうおそれがある。なお、図7では、フォーカスレンズ170のレンズ位置pwと最適レンズ位置pmとの距離を、記号dwで記している。
これに対して、左目用画像のAF評価値と右目用画像のAF評価値との積の平方根によって、3D画像用のAF評価値を評価した場合、左目用画像のAF評価値のピーク値と右目用画像のAF評価値のピーク値との差の絶対値が大きくなったとしても、この3D画像用のAF評価値(以下、3D画像用のAF評価値(相乗平均)と呼ぶ)は、高い方のAF評価値(左目用画像のAF評価値又は右目用画像のAF評価値)の影響、例えば図7では左目用画像のAF評価値の影響を、強く受けにくい。
このため、3D画像用のAF評価値(相乗平均)を用いた場合は、3D画像用のAF評価値(相加平均)を用いた場合と比較して、3D画像用のAF評価値(相乗平均)のピークに対するレンズ位置ps(以下、目標レンズ位置と呼ぶ)は、最適レンズ位置pmに近づく。具体的には、図7に示すように、目標レンズ位置psと最適レンズ位置pmとの距離dsが、レンズ位置pwと最適レンズ位置pmとの距離dwより小さくなる。このため、3D画像用のAF評価値(相乗平均)に基づいて、フォーカスレンズ170のレンズ位置を目標レンズ位置psに向けて移動する場合、左目用画像と右目用画像とに対する合焦ずれを、小さくすることができる。このような理由から、本実施の形態1では、3D画像用のAF評価値(相乗平均)に基づいて、フォーカスレンズ170のレンズ位置を設定している。
最後に、3D動画の生成時の制御、及び3D静止画の生成時の制御について、説明を行う。また、上述した実施の形態1は、3D静止画の生成時の制御及び3D動画の生成時の制御の両方に適用することができる。しかしながら、実施の形態1を3D静止画に適用する場合より、実施の形態1を3D動画に適用する場合の方が、フォーカスレンズ170の駆動を、より効果的に制御することができる。以下では、この点を踏まえて、図7を参照しながら、フォーカスレンズ170の制御について、説明する。
上述したように、左目用レンズ520と右目用レンズ510とが撮像面に対して傾いてしまうと、第1レンズ位置p2と第2レンズ位置p3とが一致しなくなってしまう。ここで、フォーカスレンズ170を、第1レンズ位置p2及び第2レンズ位置p3のいずれか一方に設定すると、右目用画像と左目用画像との間に大きな合焦ずれが発生してしまう。すなわち、3D画像として非常に見づらい映像になってしまう。この問題を解決するためには、右目用画像と左目用画像とに対する合焦ずれを極力小さくすることが重要となる。
例えば、3D静止画の場合、撮影ボタンが押されるまで、3D静止画用の画像は記録されることはない。このため、撮影ボタンが押されるまでは、コントローラー210は、フォーカスレンズ170を光学系の光軸に沿って任意に移動して、右目用画像のAF評価値の分布と、左目用画像のAF評価値の分布とを、求めることができる。例えば、図7を3D静止画のAF評価値の図であると解釈した場合、コントローラー210は、フォーカスレンズ170を、図7の横軸の全範囲において移動することによって、左目用画像のAF評価値の分布、及び右目用画像のAF評価値の分布を、生成する。
すると、これら左目用画像のAF評価値の分布及び右目用画像のAF評価値の分布に基づいて、コントローラー210は、第1レンズ位置p2と第2レンズ位置p3とを検出する。そして、コントローラー210は、第1レンズ位置p2と第2レンズ位置p3との中点の位置、すなわち最適レンズ位置pmに、フォーカスレンズ170を設定する。このようにして、3D静止画の場合は、右目用画像と左目用画像とに対する合焦ずれの程度を、小さくすることができる。
一方で、3D動画の場合、3D動画用の画像が、時系列データとしてリアルタイムに記録される。このため、3D動画の場合は、3D静止画の場合のように、フォーカスレンズ170を光学系の光軸に沿って任意に移動させて、左目用画像のAF評価値の分布及び右目用画像のAF評価値の分布が、求められることはない。この理由は、例えば、左目用画像のAF評価値の分布、及び右目用画像のAF評価値の分布を生成するために、フォーカスレンズ170を、光学系の光軸の全範囲(図7の横軸の全範囲)において移動した場合、フォーカスレンズ170が移動している間の画像が、時系列データとして記録されてしまい、不自然な3D動画が生成されてしまうからである。
このことから、3D動画の場合は、左目用画像のAF評価値の分布、及び右目用画像のAF評価値の分布に基づいて、第1レンズ位置p2と第2レンズ位置p3とが検出されることはなく、フォーカスレンズ170が最適レンズ位置pmに設定されることもない。すなわち、3D動画の場合は、3D静止画の場合と同様の形態で、フォーカスレンズ170の駆動を制御することができない。
そこで、ここでは、従来の動画で用いられた方法によって、3D動画に対するフォーカスレンズ170の駆動を制御することを、考える。例えば、図7において、フォーカスレンズ170が、初期位置p1と第1レンズ位置p2との間に位置した状態で、横軸上を左から右へと移動した場合、左目用画像のAF評価値と右目用画像のAF評価値とは互いに増加する。この場合、コントローラー210は、フォーカスレンズ170が2つのAF評価値のピークに向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向(図7の右方向)に移動する。また、この状態で、フォーカスレンズ170が横軸上を右から左へと移動した場合、左目用画像のAF評価値と右目用画像のAF評価値とは互いに減少する。この場合、コントローラー210は、フォーカスレンズ170が2つのAF評価値のピークから離れる方向に向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向とは反対の方向(図7の右方向)に移動する。
また、フォーカスレンズ170が、第2レンズ位置p3と最大離反位置p4との間に位置した状態で、横軸上を左から右へと移動した場合、左目用画像のAF評価値と右目用画像のAF評価値とは互いに減少する。この場合、コントローラー210は、フォーカスレンズ170が2つのAF評価値のピークから離れる方向に向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向とは反対の方向(図7の左方向)に移動する。また、この状態で、フォーカスレンズ170が横軸上を右から左へと移動した場合、左目用画像のAF評価値と右目用画像のAF評価値とは互いに増加する。この場合、コントローラー210は、フォーカスレンズ170が2つのAF評価値のピークに向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向(図7の左方向)に移動する。
一方で、図7において、フォーカスレンズ170が第1レンズ位置p2と第2レンズ位置p3との間に位置する場合、第1レンズ位置p2から第2レンズ位置p3に向けて、左目用画像のAF評価値は減少し、右目用画像のAF評価値は増加する。この場合、コントローラー210は、フォーカスレンズ170を、現在の進行方向に移動すべきなのか、現在の進行方向とは反対の方向に移動すべきなのかを、判断することができない。すなわち、この場合、コントローラー210は、フォーカスレンズ170のレンズ位置を決定することができなくなってしまう。このため、従来の動画で用いられた方法では、3D動画に対するフォーカスレンズ170の駆動を制御することができない。
そこで、本実施の形態1では、この問題を解決することができるように、フォーカスレンズ170がコントローラー210によって制御される。例えば、まず、左目用画像のAF評価値及び右目用画像のAF評価値に基づいて、新たな評価値すなわち3D画像用のAF評価値が生成される。具体的には、上述したように、左目用画像のAF評価値と右目用画像のAF評価値との積の平方根を計算することによって、3D画像用のAF評価値(相乗平均)が生成される。
次に、コントローラー210は、3D画像用のAF評価値に基づいて、フォーカスレンズ170の駆動を制御する。この場合、図7の横軸上のある1つのレンズ位置に対する、3D画像用のAF評価値(ある時刻のAF評価値)は、1つしか存在しないので、コントローラー210は、3D画像用のAF評価値の増減に応じて、フォーカスレンズ170を移動し、フォーカスレンズ170のレンズ位置を決定することができる。
例えば、フォーカスレンズ170が、初期位置p1と目標レンズ位置psとの間に位置した状態で、横軸上を左から右へと移動した場合、3D画像用のAF評価値は増加する。この場合、コントローラー210は、フォーカスレンズ170が3D画像用のAF評価値のピークに向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向(図7の右方向)に移動する。また、この状態で、フォーカスレンズ170が横軸上を右から左へと移動した場合、3D画像用のAF評価値は減少する。この場合、コントローラー210は、フォーカスレンズ170が3D画像用のAF評価値のピークから離れる方向に向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向とは反対の方向(図7の右方向)に移動する。
また、フォーカスレンズ170が、目標レンズ位置psと最大離反位置p4との間に位置した状態で、フォーカスレンズ170が左から右へと移動した場合、3D画像用のAF評価値は減少するので、コントローラー210は、フォーカスレンズ170が3D画像用のAF評価値のピークから離れる方向に向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向とは反対の方向(図7の左方向)に移動する。また、この状態で、フォーカスレンズ170が右から左へと移動した場合、3D画像用のAF評価値は増加するので、コントローラー210は、フォーカスレンズ170が3D画像用のAF評価値のピークに向けて移動しているものと判断し、フォーカスレンズ170を、現在の進行方向(図7の左方向)に移動する。
このように、本実施の形態1では、新たな評価値すなわち3D画像用のAF評価値を用いることによって、光学系の光軸に沿った全範囲(図7の初期位置p1から最大離反位置p4までの全範囲)において、フォーカスレンズ170のレンズ位置を、確実に設定することができる。また、コントローラー210は、フォーカスレンズ170を常に目標レンズ位置psに向けて移動することができるので、右目用画像と左目用画像とに対する合焦ずれを小さくすることができる。
〔2.他の実施の形態〕
以上により、本発明の実施の形態として、実施の形態1を説明した。しかし、本発明は、これらには限定されない。そこで、本発明の他の実施の形態を、以下にまとめて説明する。
本実施の形態にかかるデジタルビデオカメラ100の光学系及び駆動系は、図3に示すものに限定されない。例えば、図3では3群構成の光学系110,140,170を例示しているが、他の群構成のレンズ構成としてもよい。また、図3に示した光学系の各レンズ110,140,170は、1つのレンズで構成してもよく、複数のレンズから構成されるレンズ群として構成してもよい。
また、実施の形態1では、3Dコンバージョンレンズ500を、デジタルビデオカメラ100に取り付けた状態で、3D画像が撮像される場合の例を示したが、本発明はこれに限定されない。例えば、右眼用レンズ510と左眼用レンズ520とを、デジタルビデオカメラ100に内蔵する構成にしてもよい。この場合、デジタルビデオカメラ100には、図3に示した撮像系300が、各レンズ510,520に対して用意される。すなわち、デジタルビデオカメラ100には、2系統の撮像系300が用意される。この場合、各撮像系300によって、2つの画像、すなわち左目用画像と右目用画像とが、生成される。そして、左目用画像及び右目用画像それぞれに対して、S110からS140までの処理が、実行される。このように、右眼用レンズ510と左眼用レンズ520とを、デジタルビデオカメラ100に内蔵した場合においても、実施の形態1と同様に、本発明を実現することができる。
また、実施の形態1では、撮像手段として、CCDイメージセンサー180を例示したが、本発明はこれに限定されない。例えば、CMOSイメージセンサーで構成してもよく、NMOSイメージセンサーで構成してもよい。
また、実施の形態1では、3DモードにおけるコントラストAFの際に、左目用画像のAF評価値と右目用画像のAF評価値との積を算出し、平方根を求め3D画像用のAF評価値とすることとした。しかしながら、必ずしもこのような構成に限定されない。例えば、左目用画像のAF評価値のピーク値と右目用画像のAF評価値のピーク値との差の絶対値が小さい場合は、左目用画像のAF評価値と右目用画像のAF評価値との平均値を算出し、3D画像用のAF評価値とするような構成であってもよい。要するに、左目用画像のAF評価値と右目用画像のAF評価値とに基づいて3D画像用のAF評価値を算出すればよい。
また、実施の形態1では、図5に示すように、検波エリアが、左目用画像の中央部分、及び右目用画像の中央部分に設定されている場合の例を示したが、本発明はこれに限定されない。言い換えると、左目用画像及び右目用画像において、検波エリアが、どの範囲に設定されたとしても、本発明は適用することができる。
本発明は、デジタルビデオカメラやデジタルスチルカメラ等の撮像装置に適用できる。
100 デジタルビデオカメラ
110 ズームレンズ
120 検出器
130 ズームモータ
140 OIS
150 OISアクチュエータ
160 検出器
170 フォーカスレンズ
180 CCDイメージセンサー
190 画像処理部
200 メモリ
210 コントローラー
220 ジャイロセンサー
230 カードスロット
240 メモリカード
250 操作部材
260 ズームレバー
270 液晶モニタ
280 内部メモリ

Claims (7)

  1. フォーカスレンズを含む光学系と、
    左目用の像と右目用の像とを前記光学系を介して撮像する撮像手段と、
    前記撮像手段により撮像された画像に含まれる前記左目用の像に基づいて生成された画像に対する第1AF評価値と、前記撮像手段により撮像された画像に含まれる前記右目用の像に基づいて生成された画像に対する第2AF評価値とに基づいて、第3AF評価値を生成し、前記第3AF評価値に基づいて前記フォーカスレンズの駆動を制御する制御手段と、
    を備える撮像装置。
  2. 前記制御手段は、前記第1AF評価値と前記第2AF評価値との積に基づいて生成された前記第3AF評価値に基づいて、前記フォーカスレンズの駆動を制御する、
    請求項1に記載の撮像装置。
  3. 前記制御手段は、前記積の平方根に対応する前記第3AF評価値に基づいて、前記フォーカスレンズの駆動を制御する、
    請求項2に記載の撮像装置。
  4. 前記制御手段は、前記フォーカスレンズを、前記第3AF評価値が増える方向に駆動する、
    請求項3に記載の撮像装置。
  5. 前記撮像手段により撮像された前記画像を、格納する記録部、
    をさらに備え、
    前記制御手段は、ある時刻における前記第3AF評価値に基づいて、次の時刻のフォーカスレンズの位置を設定し、
    前記記録部は、前記フォーカスレンズを前記位置に設定した状態で撮像された前記画像を格納する、
    請求項1から3のいずれかに記載の撮像装置。
  6. 前記左目用の像に対応する光と前記右目用の像に対応する光とを出力する像出力手段と、撮像装置本体とを、有する撮像装置であって、
    前記撮像装置本体は、前記左目用の像に対応する光と前記右目用の像に対応する光とが入力される前記光学系と、前記撮像手段と、前記制御手段とを、備える、
    請求項1から5のいずれかに記載の撮像装置。
  7. 前記左目用の像に対応する光と前記右目用の像に対応する光とを出力する像出力手段、
    をさらに備え、
    前記撮像手段は、前記左目用の像に対応する前記光と前記右目用の像に対応する前記光とが入力される前記光学系を介して、前記左目用の像と前記右目用の像とを撮像する、
    請求項1から5のいずれかに記載の撮像装置。
JP2012527567A 2010-08-06 2011-05-26 撮像装置 Withdrawn JPWO2012017585A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010178139 2010-08-06
JP2010178139 2010-08-06
PCT/JP2011/002941 WO2012017585A1 (ja) 2010-08-06 2011-05-26 撮像装置

Publications (1)

Publication Number Publication Date
JPWO2012017585A1 true JPWO2012017585A1 (ja) 2013-09-19

Family

ID=45559111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012527567A Withdrawn JPWO2012017585A1 (ja) 2010-08-06 2011-05-26 撮像装置

Country Status (4)

Country Link
US (1) US20130147920A1 (ja)
JP (1) JPWO2012017585A1 (ja)
CN (1) CN103069324A (ja)
WO (1) WO2012017585A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103636191B (zh) * 2011-08-23 2016-11-02 松下电器产业株式会社 三维摄像装置、透镜控制装置
CN104322061B (zh) * 2012-06-22 2017-01-18 株式会社尼康 图像处理装置、摄像装置及图像处理方法
CN105629442B (zh) * 2016-03-29 2018-08-17 镇江磐禾商贸有限公司 摄像光学镜头组

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62169131A (ja) * 1986-01-21 1987-07-25 Sony Corp カメラ
JPH07104400A (ja) * 1993-10-07 1995-04-21 Asahi Optical Co Ltd ステレオ写真撮影装置
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP4398197B2 (ja) * 2003-08-20 2010-01-13 オリンパス株式会社 カメラ
JP2005173270A (ja) * 2003-12-11 2005-06-30 Canon Inc 立体撮影用光学装置、撮影装置、立体撮影システム及び立体撮影装置
EP1821128B1 (en) * 2004-11-16 2011-03-16 Citizen Holdings Co., Ltd. Automatic focusing apparatus
JP2008009342A (ja) * 2006-06-30 2008-01-17 Sony Corp オートフォーカス装置、撮像装置及びオートフォーカス方法
JP2012027263A (ja) * 2010-07-23 2012-02-09 Sony Corp 撮像装置、その制御方法およびプログラム

Also Published As

Publication number Publication date
WO2012017585A1 (ja) 2012-02-09
CN103069324A (zh) 2013-04-24
US20130147920A1 (en) 2013-06-13

Similar Documents

Publication Publication Date Title
US9491439B2 (en) Three-dimensional image capture device, lens control device and program
JP5938659B2 (ja) 撮像装置およびプログラム
JP5597525B2 (ja) 立体映像撮像装置および立体映像撮像方法
JP6659100B2 (ja) 撮像装置
JP2007264396A (ja) カメラシステム
WO2012014355A1 (ja) 撮像装置
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
KR20140109868A (ko) 화상 처리 장치, 화상 처리 방법, 및 비일시적 컴퓨터 판독가능 기억 매체
US20130050536A1 (en) Compound-eye imaging device
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
US20150271475A1 (en) Imaging device
JP2012063751A (ja) 撮像装置
WO2012017585A1 (ja) 撮像装置
JP2013046292A (ja) 複眼撮像装置
JP2012090259A (ja) 撮像装置
JP2012042912A (ja) 立体画像撮像装置および立体画像撮像装置におけるレンズ駆動方法
US20130076867A1 (en) Imaging apparatus
WO2011086898A1 (ja) 3d画像撮影装置及びその制御方法
US20120033050A1 (en) Imaging apparatus
JP2011030123A (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP2011243025A (ja) 対象画像の追尾装置およびその動作制御方法
JP2012220603A (ja) 3d映像信号撮影装置
KR20130047343A (ko) 카메라 모듈 및 그의 3차원 사진 획득 방법
JP5221827B1 (ja) 立体映像撮影装置及びズーム動作の制御方法
WO2012017596A1 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140411

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140910