JP5866493B2 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP5866493B2
JP5866493B2 JP2014217960A JP2014217960A JP5866493B2 JP 5866493 B2 JP5866493 B2 JP 5866493B2 JP 2014217960 A JP2014217960 A JP 2014217960A JP 2014217960 A JP2014217960 A JP 2014217960A JP 5866493 B2 JP5866493 B2 JP 5866493B2
Authority
JP
Japan
Prior art keywords
image
focus lens
subject distance
focus
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014217960A
Other languages
English (en)
Other versions
JP2015121774A (ja
Inventor
基範 小倉
基範 小倉
充義 岡本
充義 岡本
成功 八釣
成功 八釣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014217960A priority Critical patent/JP5866493B2/ja
Priority to US14/540,267 priority patent/US9571719B2/en
Publication of JP2015121774A publication Critical patent/JP2015121774A/ja
Application granted granted Critical
Publication of JP5866493B2 publication Critical patent/JP5866493B2/ja
Priority to US15/049,806 priority patent/US9832362B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Description

本開示は撮像装置に関する。
特許文献1は、DFD(Depth From Defocus)方式のシステムを採用した撮像装置を開示している。この撮像装置は、複数種類のボケが得られるようにフォーカス制御を実施し、撮像素子によりボケの大きさが異なる複数の画像を取得する。次に、撮像装置は、ボケの大きさが異なる複数の画像に基づいて、被写体距離を算出する。そして、撮像装置は、算出した被写体距離に基づいて、フォーカス制御を実施する。
特開2011−15163号公報
DFD方式のシステムを採用することにより、被写体への合焦動作の高速化が期待される。一方、DFD方式のシステムを採用するため、より高い合焦精度の改善が求められている。
本開示は、より精度高い合焦動作を実現する撮像装置を提供する。
本開示の撮像装置は、フォーカスレンズと、フォーカスレンズを介して形成された被写体像を撮像し、画像データを生成する撮像部と、フォーカスレンズが第1の位置にあるときに撮像部によって生成された第1の画像データと、フォーカスレンズが第1の位置から第1の移動量を移動した第2の位置にあるときに撮像部によって生成された第2の画像データとに基づいて、フォーカスレンズの第1の移動量の大きさに応じて被写体距離の分解能を設定した状態で合焦位置に関する値を算出する画像処理部と、合焦位置に関する値の算出結果に基づいて、次回のフォーカスレンズの移動量を第1の移動量から変化させる制御部と、を備える。
本発明によれば、より精度高い合焦動作を実現する撮像装置を提供できる。
実施の形態におけるデジタルビデオカメラの電気的構成を示すブロック図 実施の形態におけるデジタルビデオカメラの動作のブロック図 実施の形態におけるデジタルビデオカメラの動作のイメージ図 実施の形態におけるデジタルビデオカメラのDFD演算のイメージ図 実施の形態のデジタルビデオカメラにおけるオートフォーカス動作のフローチャート 実施の形態のデジタルビデオカメラにおけるオートフォーカス動作を説明するイメージ図 実施の形態におけるデジタルビデオカメラの複数の被写体距離に対するズームトラッキングテーブルを示す図 実施の形態のデジタルビデオカメラにおけるDFD演算の精度を説明するためのイメージ図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
撮像装置から被写体までの距離である被写体距離を計測する数ある方法の1つに、撮影された画像に生じるボケ量(Defocus)の相関値を利用するDFD(Depth from Defocus)と呼ばれる手法がある。一般に、撮影画像に生じるボケ量は、撮影時のフォーカス位置と被写体距離との関係に応じて撮像装置毎に一意に決まる。DFD演算ではこの特性を利用し、フォーカス位置を変動させることでボケ量の異なる2枚の画像を意図的に作り出し、ボケ量の違いと点拡がり関数(Point spread function、PSF)とから被写体距離を計測する。実施の形態にかかる撮像装置は、DFD演算を用いて被写体距離を計測することによりオートフォーカス制御を行う。
以下、実施の形態における撮像装置の構成および動作について説明する。
〔1.撮像装置の電気的構成〕
図1は、実施の形態における撮像装置であるデジタルビデオカメラ100の電気的構成を示すブロック図である。デジタルビデオカメラ100は、1以上のレンズからなる光学系110を備える。光学系110は被写体からの光により被写体像をCMOSイメージセンサ140上に形成する。形成された被写体像を撮像センサであるCMOSイメージセンサ140で撮像する。CMOSイメージセンサ140は撮像した被写体像に基づいて画像データを生成する。CMOSイメージセンサ140で生成された画像データは、A/Dコンバータ(ADC)150でデジタル信号に変換された後、画像処理部160で各種処理が施され、メモリカード200に格納される。以下、デジタルビデオカメラ100の構成を詳細に説明する。
実施の形態における光学系110は、ズームレンズ111、手振れ補正レンズ112、フォーカスレンズ113、絞り114により構成される。ズームレンズ111を光軸110Xに沿って移動させることにより、被写体像の拡大、縮小をすることができる。また、フォーカスレンズ113を光軸110Xに沿って移動させることにより被写体像のフォーカスを調整することができる。また、手振れ補正レンズ112は、光学系110の光軸110Xに垂直な面内で移動可能である。デジタルビデオカメラ100のブレを打ち消す方向に手振れ補正レンズ112を移動することで、デジタルビデオカメラ100のブレが撮像画像に与える影響を低減できる。また、絞り114は光軸110X上に位置する開口部114Aを有し、使用者の設定に応じて若しくは自動で開口部114Aの大きさを調整し、透過する光の量を調整する。
レンズ駆動部120は、ズームレンズ111を駆動するズームアクチュエータや、手振れ補正レンズ112を駆動する手振れ補正アクチュエータや、フォーカスレンズ113を駆動するフォーカスアクチュエータや、絞り114を駆動する絞りアクチュエータを含む。そして、レンズ駆動部120は、上記のズームアクチュエータや、フォーカスアクチュエータや、手振れ補正アクチュエータや、絞りアクチュエータを制御する。
CMOSイメージセンサ140は、光学系110で形成された被写体像を撮像してアナログ信号であるアナログ画像データを生成する。CMOSイメージセンサ140は、露光、転送、電子シャッタなどの各種動作を行う。
A/Dコンバータ150は、CMOSイメージセンサ140で生成されたアナログ画像データをデジタル信号であるデジタル画像データに変換する。
画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して各種処理を施し、表示モニタ220に表示するための画像データを生成したり、メモリカード200に格納するための画像データを生成したりする。例えば、画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部160は、CMOSイメージセンサ140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。画像処理部160は、DSPやマイコンなどで実現可能である。
制御部180は、デジタルビデオカメラ100全体を制御する。制御部180は半導体素子などで実現できる。制御部180はハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。制御部180は、マイコンなどで実現できる。
バッファ170は、画像処理部160及び制御部180のワークメモリとして機能する。バッファ170は、例えば、DRAM、強誘電体メモリなどで実現できる。
カードスロット190はメモリカード200を着脱可能に保持する。カードスロット190は機械的及び電気的にメモリカード200と接続可能である。メモリカード200はフラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部160で生成された画像ファイル等のデータを格納できる。
内部メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ240は、デジタルビデオカメラ100全体を制御するための制御プログラム等を記憶する。また、内部メモリ240は点拡がり関数を格納している。
操作部材210は使用者からの操作を受け付けるユーザーインターフェースの総称である。操作部材210は、例えば、使用者からの操作を受け付ける十字キーや決定釦等を含む。
表示モニタ220は、CMOSイメージセンサ140で生成された画像データが示す画像や、メモリカード200から読み出された画像データが示す画像を表示できる画面220Aを有する。また、表示モニタ220は、デジタルビデオカメラ100の各種設定を行うための各種メニュー画面等も画面220Aに表示できる。表示モニタ220の画面220A上にはタッチパネル220Bが配置されている。タッチパネル220Bはユーザによりタッチされて各種タッチ操作を受け付けることができる。タッチパネル220Bに対するタッチ操作が示す指示は制御部180に通知され各種処理が行われる。
角速度センサ250は、手振れ等に起因してデジタルビデオカメラ100に発生した角速度を検出する。角速度センサ250が検出した角速度は制御部180に通知される。制御部180は、角速度センサ250から通知された角速度により、デジタルビデオカメラ100に発生した角速度に基づく画像のブレを解消するよう手振れ補正レンズ112を駆動させることができる。
〔2.デジタルビデオカメラ100の動作〕
デジタルビデオカメラ100は、DFD演算の結果を用いてオートフォーカス動作を行う。図2は、実施の形態におけるデジタルビデオカメラ100のDFD演算の結果を用いたフォーカスレンズ制御を説明するためのブロック図である。
DFD演算回路161は、画像処理部160内に構成された演算回路であり、DFD演算を実施してDepthマップを作成する。具体的には、DFD演算回路161は、フォーカス位置を変動させることで、意図的に作り出したボケ量の異なる2枚の画像である観測画像PA、参照画像PBと点拡がり関数とから観測画像PA(参照画像PB)の各画素での被写体距離を示すDepthマップを作成する。
次に、DFD演算回路161は、作成したDepthマップを制御部180に通知する。制御部180は、通知されたDepthマップに基づいてフォーカスレンズ113を駆動するようレンズ駆動部120を制御する。
以下、図2に示したDFD演算回路161によるDFD演算の詳細と、制御部180による被写体距離の決定の詳細について説明する。
まず、DFD演算回路161によるDFD演算の詳細について説明する。図3は、実施の形態におけるデジタルビデオカメラ100のDFD演算におけるフォーカスレンズ113の移動を説明するためのイメージ図である。DFD演算において、制御部180はフォーカス位置を変動させることで、意図的にボケ量の異なる2枚の画像を作り出す。具体的には、図3に示すように、制御部180はレンズ駆動部120を制御して、時刻t1におけるフォーカスレンズ113の位置をフォーカス位置L1に設定する。同様に、時刻t2におけるフォーカスレンズ113の位置を、フォーカス位置L1と異なるフォーカス位置L2に設定する。CMOSイメージセンサ140は、フォーカスレンズ113がフォーカス位置L1にあるときに被写体を撮像して、観測画像PAを作成する。同様に、CMOSイメージセンサ140は、フォーカスレンズ113がフォーカス位置L2にあるときにその被写体を撮像して参照画像PBを作成する。観測画像PAと参照画像PBとは、撮像されたときのフォーカスレンズ113の位置が異なるので、同一被写体を撮像した画像ではあるが互いにボケ量が異なる。
図4は、実施の形態におけるデジタルビデオカメラ100のDFD演算による被写体距離の算出を説明するイメージ図である。DFD演算回路161は、観測画像PAを構成する各観測画素SA、参照画像PBを構成する各参照画素SBに対してDFD演算を行い、各画素SA(SB)での被写体距離を算出する。DFD演算回路161は、観測画素SAに複数の点拡がり関数を畳み込んで得られた結果である複数の観測画素CAを、観測画素CAと画像上の同じ座標の参照画素SBと照合する。その動作を以下に説明する。
点拡がり関数は、光学系の点光源に対する応答を示す関数であり、ボケ量の変化を示す。点拡がり関数を、点光源の集合に対応する画像に畳み込む(Convolution)ことで、人為的にボケ画像を生成することができる。本実施の形態では、多数の被写体距離に対応して予め多数の点拡がり関数が内部メモリ240内に用意している。制御部180は、至近側から遠側までを16段階の被写体距離に分解し、それらの被写体距離にそれぞれ対応する16個の点拡がり関数PSF1〜PSF16を内部メモリ240に用意された多数の点拡がり関数から選択する。このとき、フォーカスレンズ113の移動量に応じて、至近側から遠側までの16段階の被写体距離の分解能を変化させる。すなわち、制御部180は、フォーカスレンズ113の移動量が減少するにつれて、至近側から遠側までを16段階に分解する被写体距離の間隔を狭くする。一方、制御部180は、フォーカスレンズ113の移動量が増加するにつれて、至近側から遠側までを16段階に分解する被写体距離の間隔を広くする。そして、制御部180は、選択した16個の点拡がり関数PSF1〜PSF16をDFD演算回路161に通知する。
DFD演算回路161は、各観測画素SAでの被写体までの距離に対応した16個の点拡がり関数PSF1〜PSF16を各観測画素SAに畳み込みすることで、各観測画素SAでの被写体までの距離に対応した16個の観測画素CA1〜CA16を生成する。16個の観測画素CA1〜CA16は、畳み込まれている点拡がり関数がそれぞれ異なるので、それぞれ異なるボケ画像を形成する。
続いて、DFD演算回路161は、観測画素CA1〜CA16を参照画素SBと照合し、観測画素CA1〜CA16のうち参照画素SBとの差分値が最小となる観測画素CAnを判定する。そして、観測画素CAnに畳み込まれている点拡がり関数に対応する被写体距離を観測画素SAの被写体距離であると決定する。例えば、観測画素CA3と参照画素SBとの差分値が、他の観測画素CA1〜2、CA4〜16のそれぞれと参照画素SBとの差分値と比較して最小となる場合、DFD演算回路161は、観測画素CA3を作成する際に観測画素SAに畳み込んだ点拡がり関数PSF3に対応する被写体距離を観測画素SAでの被写体距離であると決定する。
以上の動作を、観測画像PA及び参照画像PBの各画素について実施することにより、DFD演算回路161は各画素についての被写体距離の分布であるDepthマップを完成させる。実施の形態では各被写体までの距離に対応した16個の点拡がり関数を用いたので、Depthマップは16階調の被写体距離を示す。
続いて、図5及び図6を用いて、DFD演算結果を用いたオートフォーカス動作について説明する。図5は、デジタルビデオカメラ100におけるオートフォーカス動作のフローチャートである。図6は、デジタルビデオカメラ100におけるオートフォーカス動作を説明するイメージ図である。図6は、フォーカスレンズ113の各位置P1〜P4における被写体距離に対するコントラスト値のイメージを示している。図6において、位置P1〜P4は、フォーカスレンズ113の位置を示す。移動量D1〜D3は、フォーカスレンズ113の移動量を示す。また、被写体距離S1〜S5は、被写体までの距離を示す。また、コントラストカーブCC1〜CC4は、それぞれ被写体距離S1〜S4においてフォーカスレンズ113が位置P1〜P4にあるときに、コントラスト値がピークとなるコントラストカーブである。被写体距離S5は、合焦動作の目的としている被写体が存在する被写体距離を示す。
図5に示すように、デジタルビデオカメラ100は、撮影モードにおいて、オートフォーカス動作を実施する。まず、画像処理部160は、現在のフォーカスレンズ113の位置P1において、CMOSイメージセンサ140が撮像した画像を取得する(ステップS300)。続いて、制御部180は、レンズ駆動部120を制御して、フォーカスレンズ113を、位置P1から第1の移動量D1だけシフトした位置P2へと移動させる(ステップS301)。画像処理部160は、フォーカスレンズ113が位置P2に移動すると、CMOSイメージセンサ140が撮像した画像を取得する(ステップS302)。
ここで、画像処理部160は、ステップS300にて取得した画像を観測画像PAとし、ステップS302にて取得した画像を参照画像PBとして、上述したDFD演算を実施する(ステップS303)。画像処理部160は、DFD演算により被写体距離(合焦位置を示す情報)を算出する。
次に、制御部180は、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内であるか否かを判定する(ステップS304)。このとき、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、16個の点拡がり関数PSF1〜PSF16のいずれに対応する被写体距離であるかを判定する。上述したように、点拡がり関数PSF1〜PSF16は、至近側から遠側までを16段階に分解された被写体距離に対応している。このとき、点拡がり関数PSF1は、点拡がり関数PSF1〜PSF16のうち、最も至近側の被写体距離に対応している。一方、点拡がり関数PSF16は、点拡がり関数PSF1〜PSF16のうち、最も遠側の被写体距離に対応している。よって、具体的には、制御部180は、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、点拡がり関数PSF1又は点拡がり関数PSF16に対応するか(所定の範囲外であるか)、点拡がり関数PSF2〜PSF15に対応するか(所定の範囲内であるか)を判定する。
ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内にない(点拡がり関数PSF1又は点拡がり関数PSF16に対応する)と判定されたとき(ステップS304の「No」)、制御部180は、DFD演算におけるフォーカスレンズ113の移動量として、第1の移動量D1よりも移動量を増加させた第2の移動量D2を設定する(ステップS305)。そして、制御部180は、レンズ駆動部120を制御して、フォーカスレンズ113を位置P2から第2の移動量D2だけシフトした位置P3へと移動させる(2巡目のステップS301)。画像処理部160は、フォーカスレンズ113が位置P3に移動すると、CMOSイメージセンサ140が撮像した画像を取得する(2巡目のステップS302)。
ここで、画像処理部160は、1巡目のステップS302にて取得した画像を観測画像PAとし、2巡目のステップS302にて取得した画像を参照画像PBとして、DFD演算を再度実施する(2巡目のステップS303)。そして、画像処理部160は、DFD演算により被写体距離(合焦位置を示す情報)を算出する。再び、制御部180は、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内であるか否かを判定する(2巡目のステップS304)。制御部180は、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内になる(点拡がり関数PSF2〜PSF15に対応する)まで、ステップS301からステップS305の動作を繰り返す。ステップS303のDFD演算により算出された被写体距離が、所定の範囲内にない場合に、フォーカスレンズ113の移動量を増加させる技術的意義については後述する。
ステップS304において、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内であると判定されると(ステップS304の「Yes」)、制御部180は、DFD演算におけるフォーカスレンズ113の移動量として、前回の移動量(第1の移動量D1又は第2の移動量D2)よりも移動量を減少させた第3の移動量D3を設定する(ステップS306)。続いて、制御部180は、レンズ駆動部120を制御して、フォーカスレンズ113を、位置P3から第3の移動量D3だけシフトした位置P4へと移動させる(ステップS307)。画像処理部160は、フォーカスレンズ113が位置P4に移動すると、CMOSイメージセンサ140が撮像した画像を取得する(ステップS308)。
ここで、画像処理部160は、前回のステップS302にて取得した画像を観測画像PAとし、ステップS308にて取得した画像を参照画像PBとして、DFD演算を実施する(ステップS309)。画像処理部160は、DFD演算により被写体距離(合焦位置を示す情報)を算出する。
次に、制御部180は、DFD演算により算出された被写体距離(合焦位置を示す情報)が所定の分解能を満たすか否かを判定する(ステップS310)。本実施の形態では、画像上でボケを感じさせない分解能を所定の分解能とする。
DFD演算により算出された被写体距離(合焦位置を示す情報)が所定の分解能を満たさない場合(ステップS310の「No」)、制御部180は、DFD演算を画像処理部160に再度実施させる。このとき、制御部180は、DFD演算におけるフォーカスレンズ113の移動量として、第3の移動量D3よりも移動量を更に減少させた移動量を設定する(2巡目のステップS306)。そして、制御部180は、ステップS309におけるDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の分解能を満たすまで、ステップS306からステップS310の処理を繰り返す(ステップS310の「No」)。ステップS309のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の分解能以下である場合に、フォーカスレンズ113の移動量を減少させる技術的意義については後述する。
ステップS310において、ステップS309のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の分解能を満たすと判定された場合(ステップS310の「Yes」)、制御部180は、オートフォーカス動作において、DFD演算により決定された被写体距離に基づいて、フォーカスレンズ113を最終的に移動させるべき合焦位置を決定する(ステップS311)。具体的には、制御部180は、トラッキングテーブルを参照して、求めた被写体距離と現在のズームレンズ111の位置とに基づいて合焦位置を算出する。図7は、実施の形態におけるデジタルビデオカメラ100の複数の被写体距離に対するズームトラッキングテーブルを示す。図7に示すように、ズームトラッキングテーブルは、代表的ないくつかの被写体距離DL(図7では1m、2m、3m、無限遠(INF))に対応してズームレンズ111の位置に対する合焦位置を示すカーブDM1〜DM4を含む。制御部180は、ズームトラッキングテーブルに記載のカーブを被写体距離について補間することで、代表的な被写体距離DL以外の被写体距離についてもフォーカスレンズ113を移動させるべき位置である合焦位置を算出することができる。
そして、制御部180は、レンズ駆動部120を制御することにより、フォーカスレンズ113を合焦位置へと移動させる(ステップS312)。
以上説明したオートフォーカス動作により、デジタルビデオカメラ100は、合焦精度を確保することができる。
続いて、ステップS303のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の範囲内にない(点拡がり関数PSF1又は点拡がり関数PSF16に対応する)場合に、フォーカスレンズ113の移動量を増加させる技術的意義について説明する。
図6は、フォーカスレンズ113が位置P1〜P4に位置するときの、被写体距離に対するコントラスト値の関係を示している。DFD演算においては、互いに異なるフォーカスレンズ位置において取得した少なくとも2枚の画像から、被写体距離を算出する。具体的には、前述したとおり、画像処理部160は、観測画像PAの観測画素SAに対して点拡がり関数を畳み込んだ結果である観測画素CAと、参照画像PBの参照画素SBとを照合して、被写体距離を算出する。この照合において、有意な被写体距離を算出するためには、参照画像PBは、目的の被写体距離において、所定値以上のコントラスト値を有している必要がある。目的の被写体距離において、所定値以上のコントラスト値を有していない場合とは、参照画像PBにて、目的の被写体距離に位置する被写体像のコントラスト値を有意に検出できていないことを意味する。そのため、目的の被写体距離に位置する被写体像のコントラスト値を有意に検出できる位置に、フォーカスレンズ113を更に移動させる必要がある。図6に示す例では、被写体距離S5に目的の被写体が存在する。このとき、被写体距離S2にピークをもつコントラストカーブCC2の被写体距離S5におけるコントラスト値はたいへん小さいため、コントラストカーブCC2からは、被写体距離S5において有意なコントラスト値を検出することができない。すなわち、フォーカスレンズ113が位置P2に位置しているときは、被写体距離S5にある被写体に対しては有意なコントラスト値を検出することができない。このとき、図5のステップS305において移動量を増加させることなく、前回(ステップS301)と同じ第1の移動量D1にてフォーカスレンズ113を移動させても可能である。しかし、第1の移動量D1よりも大きい第2の移動量D2によりフォーカスレンズ113を移動させることで、目的の被写体距離に位置する被写体像のコントラスト値を有意に検出できる可能性を高めることができる。図6に示すように、フォーカスレンズ113を第1の移動量D1よりも大きい第2の移動量D2の移動量で移動させて位置P3に位置させることにより、被写体距離S5において有意なコントラスト値C1を検出することができる。すなわち、被写体距離S3にピークをもつコントラストカーブCC3は、被写体距離S5において有意なコントラスト値C1を有する。
続いて、ステップS309のDFD演算により算出された被写体距離(合焦位置を示す情報)が、所定の分解能より低い場合に、フォーカスレンズ113の移動量を減少させる技術的意義について説明する。
フォーカスレンズ113の移動量を減少させることは、参照画像PBを観測画像PAにより近づけることを意味する。DFD演算においては、観測画像PAが示すコントラスト値と、参照画像PBが示すコントラスト値とが重畳する範囲が少しでもあれば、何かしらの照合結果を得ることができる。観測画像PAと参照画像PBとの照合における精度について図8を用いて説明する。図8は、DFD演算の精度を説明するためのイメージ図である。図8のコントラストカーブCC3及びCC4に示すように、裾野付近からピーク位置付近に近づくにつれて傾きが急峻になるが、裾野付近では傾きがなだらかである。そのため、観測画像PAが示すコントラスト値と、参照画像PBが示すコントラスト値とが重畳する範囲があったとしても、その重畳する範囲が裾野付近である場合は、コントラスト値の所定の差分ΔCに対する被写体距離の差分(例えば、コントラストカーブCC3の被写体距離S5におけるコントラスト値の所定の差分ΔCに対する被写体距離の差分ΔS3)が大きくなってしまい、十分な被写体距離の検出精度を確保することができない。一方、その重畳する範囲が裾野側からよりピーク位置側に近付いた場合は、コントラスト値の所定の差分ΔCに対する被写体距離の差分(例えば、コントラストカーブCC4の被写体距離S5におけるコントラスト値の所定の差分ΔCに対する被写体距離の差分ΔS4)を小さくすることができ、十分な被写体距離の検出精度を確保することができる。
図5に示すステップS306においてフォーカスレンズ113の移動量を減少させる段階では、すでにステップS304において、DFD演算により算出された被写体距離(合焦位置を示す情報)が所定の範囲内であること(点拡がり関数PSF2〜PSF15に対応すること)を満たしている。これは、図6に示すコントラストカーブCC3の被写体距離S5におけるコントラスト値C1が示すように、ステップS302で取得する参照画像PB(ステップS309におけるDFD演算では観測画像PA)における、目的の被写体に対するコントラスト値が、裾野付近よりは比較的ピーク位置側にあることを示している。したがって、図5及び図6に示すコントラストカーブCC4のように、ステップS308で取得する参照画像PBにおける、目的の被写体に対するコントラスト値を、よりピーク位置側に近づけることで、ステップS309のDFD演算のときに被写体距離の検出精度を高めることができる。このように、ステップS309のDFD演算のときの観測画像PAは、すでに裾野付近よりピーク位置側にあるため、フォーカスレンズ113の移動量を減少させることで、参照画像PBにおける、目的の被写体のコントラスト値を、更にピーク位置側に漸近させることができる。図6に示す例では、フォーカスレンズ113をより小さい第3の移動量D3で位置P4に移動させることにより、被写体距離S5においてより有意なコントラスト値C2を検出することができる。これにより、DFD演算結果に基づく合焦動作の精度を向上させることができる。
〔3.効果等〕
上記のように、デジタルビデオカメラ100は、フォーカスレンズ113と、フォーカスレンズ113を介して形成された被写体像を撮像し、画像データを生成するCMOSイメージセンサ140と、フォーカスレンズ113が第1の位置にあるときにCMOSイメージセンサ140によって生成された第1の画像データ(観測画像PA)と、フォーカスレンズ113が第1の位置から第1の移動量を移動した第2の位置にあるときにCMOSイメージセンサ140によって生成された第2の画像データ(参照画像PB)とに基づいて、フォーカスレンズ113の第1の移動量の大きさに応じて被写体距離の分解能を設定した状態で合焦位置に関する値を算出する画像処理部160と、合焦位置に関する値の算出結果に基づいて、次回のフォーカスレンズ113の移動量を第1の移動量から変化させる制御部180と、を備える。これにより、すでに算出した合焦位置に関する値の精度を更に高めることができる。
一般に、コントラストオートフォーカス方式と呼ばれているオートフォーカス方式では、あるフォーカスレンズ位置における撮像画像の高周波成分を抽出しているのみであり、それだけでは合焦位置はわからない。一方、DFD演算を用いたオートフォーカス方式では、被写体距離に対応して合焦位置の結果はすでに算出されている。本開示のデジタルビデオカメラ100では、DFD演算を用いてすでに合焦位置が算出されているが、フォーカスレンズ113の移動量を変化させることにより、合焦位置の算出結果の精度を更に高めることができる。
また、制御部180は、合焦位置に関する値が、所定の範囲内にあるか否かを判定する。そして、制御部180は、合焦位置に関する値が、所定の範囲内にないと判定したときは、次回のフォーカスレンズ113の移動量を第1の移動量から増加させた第2の移動量へと変化させ、再度合焦位置に関する値を算出する。これにより、合焦位置に関する値が、所定の範囲内に収まるように、より確実に合焦動作を行うことができる。
一方、制御部180は、合焦位置に関する値が、所定の範囲内にあると判定したときは、次回のフォーカスレンズ113の移動量を第1の移動量から減少させた第3の移動量へと変化させ、再度合焦位置に関する値を算出する。これにより、すでに所定の範囲内に収まっている合焦位置に関する値の精度を、より高めることができる。
そして、制御部180は、再度算出した合焦位置に関する値が、第2の所定の範囲にある(所定の分解能を満たす)と判定したときに、当該算出した合焦位置へとフォーカスレンズ113を移動させる。これにより、精度の高い合焦動作を実現することができる。
〔4.他の実施の形態〕
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
上記の実施の形態において、点拡がり関数は内部メモリ240に用意されている。本発明はこれに限定されず、点拡がり関数は、例えば画像処理部160内のメモリに用意されていてもよい。また、実施の形態におけるデジタルビデオカメラ100では、16個の点拡がり関数が選択されるが、Depthマップの階調の数に応じて、選択される点拡がり関数の数は16個以上であっても16個未満であってもよい。
実施の形態における撮像装置であるデジタルビデオカメラは非レンズ交換式のデジタルビデオカメラであるが、これに限定されず、レンズ交換式のデジタルビデオカメラであってもよい。
上記実施の形態では、観測画素SAに、点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBと照合するようにしたが、本開示はこれに限定されない。観測画素SAと参照画素SBとから、奥行が幅広く焦点が合った全焦点画像を一旦生成し、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBと照合するようにしてもよい。全焦点画像によれば、奥行が幅広く焦点が合っているため、奥行に幅広くコントラスト情報を有することになり、DFD演算のS/Nを向上させることができる。そのため、合焦位置の算出精度をより向上させることができる。更には、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBでなく、観測画素SAと照合するようにしてもよい。観測画素SAと、参照画素SBとでは、画像を撮像したときのフォーカスレンズの位置が互いに異なるため、被写体に対して異なるコントラスト情報を有する。そのため、観測画素SAでは、コントラスト情報を有する被写体であっても、参照画素SBでは、コントラスト情報を有しない被写体が発生し得る。このような場合に、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、観測画素SAと照合することで、DFD演算によって合焦位置を判定可能なダイナミックレンジを拡げることができる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示における撮像装置は、デジタルビデオカメラや、デジタルスチルカメラや、カメラ機能付携帯電話や、カメラ機能付スマートフォン等に適用できる。
100 デジタルビデオカメラ(撮像装置)
110 光学系
111 ズームレンズ
112 手振れ補正レンズ
113 フォーカスレンズ
114 絞り
120 レンズ駆動部
140 CMOSイメージセンサ(撮像センサ)
150 A/Dコンバータ
160 画像処理部
170 バッファ
180 制御部
190 カードスロット
200 メモリカード
210 操作部材
220 表示モニタ
240 内部メモリ
250 角速度センサ

Claims (1)

  1. フォーカスレンズと、
    前記フォーカスレンズを介して形成された被写体像を撮像し、画像データを生成する撮像部と、
    前記フォーカスレンズが第1の位置にあるときに前記撮像部によって生成された第1の画像データと、前記フォーカスレンズが前記第1の位置から第1の移動量を移動した第2の位置にあるときに前記撮像部によって生成された第2の画像データとに基づいて、前記フォーカスレンズの前記第1の移動量の大きさに応じて被写体距離の分解能を設定した状態で合焦位置に関する値を算出する画像処理部と
    前記合焦位置に関する値の算出結果に基づいて、次回の前記フォーカスレンズの移動量を前記第1の移動量から変化させる制御部と、を備えた撮像装置。
JP2014217960A 2013-11-19 2014-10-27 撮像装置 Active JP5866493B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014217960A JP5866493B2 (ja) 2013-11-19 2014-10-27 撮像装置
US14/540,267 US9571719B2 (en) 2013-11-19 2014-11-13 Image-capturing apparatus
US15/049,806 US9832362B2 (en) 2013-11-19 2016-02-22 Image-capturing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013238475 2013-11-19
JP2013238475 2013-11-19
JP2014217960A JP5866493B2 (ja) 2013-11-19 2014-10-27 撮像装置

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2015127157A Division JP5866570B2 (ja) 2013-11-19 2015-06-25 撮像装置
JP2015127155A Division JP5866569B2 (ja) 2013-11-19 2015-06-25 撮像装置
JP2015127156A Division JP5866537B2 (ja) 2013-11-19 2015-06-25 撮像装置

Publications (2)

Publication Number Publication Date
JP2015121774A JP2015121774A (ja) 2015-07-02
JP5866493B2 true JP5866493B2 (ja) 2016-02-17

Family

ID=53172944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014217960A Active JP5866493B2 (ja) 2013-11-19 2014-10-27 撮像装置

Country Status (2)

Country Link
US (2) US9571719B2 (ja)
JP (1) JP5866493B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6157249B2 (ja) * 2012-07-31 2017-07-05 キヤノン株式会社 撮像装置、距離情報取得方法およびプログラム
US9288379B2 (en) * 2014-03-12 2016-03-15 Omnivision Technologies, Inc. System and method for continuous auto focus within camera module
JP5895270B2 (ja) * 2014-03-28 2016-03-30 パナソニックIpマネジメント株式会社 撮像装置
TWI554098B (zh) * 2014-10-07 2016-10-11 緯創資通股份有限公司 錄影裝置與錄影方法
CN107850753B (zh) * 2015-08-31 2021-10-29 索尼公司 检测设备、检测方法、检测程序和成像设备
US9762790B2 (en) * 2016-02-09 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus using edge detection and distance for focus assist
CN106878616B (zh) * 2017-02-23 2020-06-09 惠州Tcl移动通信有限公司 一种基于移动终端自动确定动态照片焦点的方法及系统
CN107147848B (zh) * 2017-05-23 2023-08-25 杭州度康科技有限公司 自动对焦方法及采用该方法的实时视频采集系统
KR102382865B1 (ko) 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
JP2019015575A (ja) * 2017-07-05 2019-01-31 株式会社東芝 画像処理装置、測距装置および処理システム
KR102593303B1 (ko) * 2018-01-16 2023-10-25 삼성전자 주식회사 전자 장치 및 전자 장치의 카메라 자동 초점 제어 방법
KR102646750B1 (ko) 2018-03-21 2024-03-13 삼성전자주식회사 표시 객체의 확산 정도에 기반하여 초점을 조절하는 방법 및 이를 구현한 전자 장치
JP7002050B2 (ja) * 2018-07-11 2022-02-10 パナソニックIpマネジメント株式会社 撮像装置
JP2021108431A (ja) * 2019-12-27 2021-07-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、制御方法、及びプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2780172B2 (ja) 1987-05-19 1998-07-30 ミノルタ株式会社 交換レンズ群
US4908505A (en) 1987-05-15 1990-03-13 Minolta Camera Kabushiki Kaisha System for detecting the focus condition of a cata-dioptric lens and interchangeable lens for use therewith
US4965840A (en) * 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
JPH06181532A (ja) * 1992-12-14 1994-06-28 Konica Corp 電子カメラの合焦位置検出装置
JP3361619B2 (ja) * 1994-06-16 2003-01-07 コニカ株式会社 電子カメラの合焦位置検出装置
JP3372714B2 (ja) * 1995-06-15 2003-02-04 キヤノン株式会社 撮像装置
JP2000152064A (ja) * 1998-11-16 2000-05-30 Ricoh Co Ltd 自動焦点制御装置
US7079187B1 (en) * 1998-11-19 2006-07-18 Canon Kabushiki Kaisha Focus adjusting apparatus and focus adjusting method
JP3732665B2 (ja) * 1998-12-22 2006-01-05 株式会社リコー 自動焦点制御装置及びその合焦動作決定方法
JP2004070038A (ja) * 2002-08-07 2004-03-04 Matsushita Electric Ind Co Ltd 自動焦点調節装置
WO2004015476A1 (ja) 2002-08-07 2004-02-19 Matsushita Electric Industrial Co., Ltd. 合焦装置
JP2006323172A (ja) * 2005-05-19 2006-11-30 Olympus Corp 合焦情報取得装置
JP2007139893A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
JP4819550B2 (ja) 2006-03-31 2011-11-24 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、及び、プログラム
KR101415872B1 (ko) 2007-09-14 2014-07-11 삼성전기주식회사 영상 획득 장치의 자동초점조절 방법 및 장치
US8218061B2 (en) * 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8629933B2 (en) * 2008-10-30 2014-01-14 Panasonic Corporation Camera system
JP5281972B2 (ja) 2009-07-01 2013-09-04 オリンパス株式会社 撮像装置
US8027582B2 (en) 2009-12-21 2011-09-27 Sony Corporation Autofocus with confidence measure
JP5379739B2 (ja) * 2010-04-30 2013-12-25 キヤノン株式会社 レンズ装置
JP5635844B2 (ja) * 2010-09-06 2014-12-03 キヤノン株式会社 焦点調整装置および撮像装置
JP6011862B2 (ja) 2011-01-27 2016-10-19 パナソニックIpマネジメント株式会社 3次元画像撮影装置及び3次元画像撮影方法
JP2013044844A (ja) * 2011-08-23 2013-03-04 Panasonic Corp 画像処理装置および画像処理方法
JP2013130762A (ja) * 2011-12-22 2013-07-04 Sony Corp 撮像装置、その制御方法およびプログラム
JP5917207B2 (ja) * 2012-03-14 2016-05-11 キヤノン株式会社 焦点調節装置
JP6157249B2 (ja) * 2012-07-31 2017-07-05 キヤノン株式会社 撮像装置、距離情報取得方法およびプログラム

Also Published As

Publication number Publication date
US20160173762A1 (en) 2016-06-16
US9571719B2 (en) 2017-02-14
US20150138429A1 (en) 2015-05-21
US9832362B2 (en) 2017-11-28
JP2015121774A (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
JP5866493B2 (ja) 撮像装置
JP5895270B2 (ja) 撮像装置
JP6405531B2 (ja) 撮像装置
JP5967432B2 (ja) 処理装置、処理方法、及び、プログラム
KR20190021138A (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
JP6357646B2 (ja) 撮像装置
JP5900257B2 (ja) 処理装置、処理方法、及び、プログラム
JP6326631B2 (ja) 撮像装置
JP6564284B2 (ja) 画像処理装置および画像処理方法
TWI693828B (zh) 顯示擷取裝置與其操作方法
JP5866569B2 (ja) 撮像装置
JP7002050B2 (ja) 撮像装置
JP6089232B2 (ja) 撮像装置
JP2011071712A (ja) 立体撮像装置及び立体撮像方法
JPWO2016181626A1 (ja) 撮像装置
KR101700360B1 (ko) 공통화각 표시 기능을 갖는 디지털 촬영 장치, 이의 제어 방법 및 상기 방법을 기록한 기록 매체
WO2021065065A1 (ja) 撮像装置
US10681274B2 (en) Imaging apparatus and control method thereof
JP2008026801A (ja) 光学装置及びその制御方法
JP6724395B2 (ja) 画像表示制御装置、画像表示制御方法及び画像表示制御プログラム
JP2015007686A (ja) 電子カメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R151 Written notification of patent or utility model registration

Ref document number: 5866493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151