JP6405531B2 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP6405531B2
JP6405531B2 JP2014217959A JP2014217959A JP6405531B2 JP 6405531 B2 JP6405531 B2 JP 6405531B2 JP 2014217959 A JP2014217959 A JP 2014217959A JP 2014217959 A JP2014217959 A JP 2014217959A JP 6405531 B2 JP6405531 B2 JP 6405531B2
Authority
JP
Japan
Prior art keywords
image
optical system
focus lens
subject
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014217959A
Other languages
English (en)
Other versions
JP2015121773A (ja
Inventor
基範 小倉
基範 小倉
充義 岡本
充義 岡本
成功 八釣
成功 八釣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014217959A priority Critical patent/JP6405531B2/ja
Priority to US14/540,297 priority patent/US9667853B2/en
Publication of JP2015121773A publication Critical patent/JP2015121773A/ja
Application granted granted Critical
Publication of JP6405531B2 publication Critical patent/JP6405531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本開示は撮像装置に関する。
特許文献1は、DFD(Depth From Defocus)方式のシステムを採用した撮像装置を開示している。この撮像装置は、複数種類のボケが得られるようにフォーカス制御を実施し、撮像素子によりボケの大きさが異なる複数の画像を取得する。次に、撮像装置は、ボケの大きさが異なる複数の画像に基づいて、被写体距離を算出する。そして、撮像装置は、算出した被写体距離に基づいて、フォーカス制御を実施する。
特開2011−15163号公報
DFD方式のシステムを採用することにより、被写体への合焦動作の高速化が期待される。一方、DFD方式のシステムを採用するため、より高い精度改善が求められている。
本開示は、より精度高く被写体距離を決定する撮像装置を提供する。
本開示の撮像装置は、フォーカスレンズを含み、被写体の被写体像を形成する光学系と、光学系を介して形成される被写体像を撮像し、画像データを生成する撮像部と、フォーカスレンズが第1フォーカスレンズ位置にあるときに生成された第1画像データと、フォーカスレンズが第2フォーカスレンズ位置にあるときに生成された第2画像データとに基づき、光学系の状態を示す情報によって得られる解像度の変化度合いを示す情報に応じて、被写体距離を決定する制御部とを備える。
本開示によれば、より精度高く被写体距離を決定する撮像装置を提供できる。
実施の形態におけるデジタルビデオカメラの電気的構成を示すブロック図 実施の形態におけるデジタルビデオカメラの動作のブロック図 実施の形態におけるデジタルビデオカメラの動作のイメージ図 実施の形態におけるデジタルビデオカメラのDFD演算のイメージ図 (A)実施の形態のデジタルビデオカメラにおけるDFD演算結果の信頼できる領域を示すイメージ図(B)実施の形態のデジタルビデオカメラにおけるDFD演算結果の信頼できる領域を示すイメージ図(C)実施の形態のデジタルビデオカメラにおけるDFD演算結果の信頼できる領域を示すイメージ図 実施の形態におけるデジタルビデオカメラの複数の被写体距離に対するズームトラッキングテーブルを示す図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
撮像装置から被写体までの距離である被写体距離を計測する数ある方法の1つに、撮影された画像に生じるボケ量(Defocus)の相関値を利用するDFD(Depth from Defocus)と呼ばれる手法がある。一般に、撮影画像に生じるボケ量は、撮影時のフォーカス位置と被写体距離との関係に応じて撮像装置毎に一意に決まる。DFD演算ではこの特性を利用し、フォーカス位置を変動させることでボケ量の異なる2枚の画像を意図的に作り出し、ボケ量の違いと点拡がり関数(Point spread function、PSF)とから被写体距離を計測する。実施の形態にかかる撮像装置は、DFD演算を用いて被写体距離を計測することによりオートフォーカス制御を行う。
以下、実施の形態における撮像装置の構成および動作について説明する。
〔1.撮像装置の電気的構成〕
図1は、実施の形態における撮像装置であるデジタルビデオカメラ100の電気的構成を示すブロック図である。デジタルビデオカメラ100は、1以上のレンズからなる光学系110を備える。光学系110は被写体からの光により被写体像をCMOSイメージセンサ140上に形成する。形成された被写体像を撮像センサであるCMOSイメージセンサ140で撮像する。CMOSイメージセンサ140は撮像した被写体像に基づいて画像データを生成する。CMOSイメージセンサ140で生成された画像データは、A/Dコンバータ(ADC)150でデジタル信号に変換された後、画像処理部160で各種処理が施され、メモリカード200に格納される。以下、デジタルビデオカメラ100の構成を詳細に説明する。
実施の形態における光学系110は、ズームレンズ111、手振れ補正レンズ112、フォーカスレンズ113、絞り114により構成される。ズームレンズ111を光軸110Xに沿って移動させることにより、被写体像の拡大、縮小をすることができる。また、フォーカスレンズ113を光軸110Xに沿って移動させることにより被写体像のフォーカスを調整することができる。また、手振れ補正レンズ112は、光学系110の光軸110Xに垂直な面内で移動可能である。デジタルビデオカメラ100のブレを打ち消す方向に手振れ補正レンズ112を移動することで、デジタルビデオカメラ100のブレが撮像画像に与える影響を低減できる。また、絞り114は光軸110X上に位置する開口部114Aを有し、使用者の設定に応じて若しくは自動で開口部114Aの大きさを調整し、透過する光の量を調整する。
レンズ駆動部120は、ズームレンズ111を駆動するズームアクチュエータや、手振れ補正レンズ112を駆動する手振れ補正アクチュエータや、フォーカスレンズ113を駆動するフォーカスアクチュエータや、絞り114を駆動する絞りアクチュエータを含む。そして、レンズ駆動部120は、上記のズームアクチュエータや、フォーカスアクチュエータや、手振れ補正アクチュエータや、絞りアクチュエータを制御する。
CMOSイメージセンサ140は、光学系110で形成された被写体像を撮像してアナログ信号であるアナログ画像データを生成する。CMOSイメージセンサ140は、露光、転送、電子シャッタなどの各種動作を行う。
A/Dコンバータ150は、CMOSイメージセンサ140で生成されたアナログ画像データをデジタル信号であるデジタル画像データに変換する。
画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して各種処理を施し、表示モニタ220に表示するための画像データを生成したり、メモリカード200に格納するための画像データを生成したりする。例えば、画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部160は、CMOSイメージセンサ140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。画像処理部160は、DSPやマイコンなどで実現可能である。
制御部180は、デジタルビデオカメラ100全体を制御する。制御部180は半導体素子などで実現できる。制御部180はハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。制御部180は、マイコンなどで実現できる。
バッファ170は、画像処理部160及び制御部180のワークメモリとして機能する。バッファ170は、例えば、DRAM、強誘電体メモリなどで実現できる。
カードスロット190はメモリカード200を着脱可能に保持する。カードスロット190は機械的及び電気的にメモリカード200と接続可能である。メモリカード200はフラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部160で生成された画像ファイル等のデータを格納できる。
内部メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ240は、デジタルビデオカメラ100全体を制御するための制御プログラム等を記憶する。また、内部メモリ240は点拡がり関数を格納している。
操作部材210は使用者からの操作を受け付けるユーザーインターフェースの総称である。操作部材210は、例えば、使用者からの操作を受け付ける十字キーや決定釦等を含む。
表示モニタ220は、CMOSイメージセンサ140で生成された画像データが示す画像や、メモリカード200から読み出された画像データが示す画像を表示できる画面220Aを有する。また、表示モニタ220は、デジタルビデオカメラ100の各種設定を行うための各種メニュー画面等も画面220Aに表示できる。表示モニタ220の画面220A上にはタッチパネル220Bが配置されている。タッチパネル220Bはユーザによりタッチされて各種タッチ操作を受け付けることができる。タッチパネル220Bに対するタッチ操作が示す指示は制御部180に通知され各種処理が行われる。
角速度センサ250は、手振れ等に起因してデジタルビデオカメラ100に発生した角速度を検出する。角速度センサ250が検出した角速度は制御部180に通知される。制御部180は、角速度センサ250から通知された角速度により、デジタルビデオカメラ100に発生した角速度に基づく画像のブレを解消するよう手振れ補正レンズ112を駆動させることができる。
〔2.デジタルビデオカメラ100の動作〕
デジタルビデオカメラ100は、DFD演算の結果を用いてオートフォーカス動作を行う。図2は、実施の形態におけるデジタルビデオカメラ100のDFD演算の結果を用いたフォーカスレンズ制御を説明するためのブロック図である。
DFD演算回路161は、画像処理部160内に構成された演算回路であり、DFD演算を実施してDepthマップを作成する。具体的には、DFD演算回路161は、フォーカス位置を変動させることで、意図的に作り出したボケ量の異なる2枚の画像である観測画像PA、参照画像PBと点拡がり関数とから観測画像PA(参照画像PB)の各画素での被写体距離を示すDepthマップを作成する。
次に、DFD演算回路161は、作成したDepthマップを制御部180に通知する。制御部180は、通知されたDepthマップに基づいてフォーカスレンズ113を駆動するようレンズ駆動部120を制御する。
以下、図2に示したDFD演算回路161によるDFD演算の詳細と、制御部180による被写体距離の決定の詳細について説明する。
まず、DFD演算回路161によるDFD演算の詳細について説明する。図3は、実施の形態におけるデジタルビデオカメラ100のDFD演算におけるフォーカスレンズ113の移動を説明するためのイメージ図である。DFD演算において、制御部180はフォーカス位置を変動させることで、意図的にボケ量の異なる2枚の画像を作り出す。具体的には、図3に示すように、制御部180はレンズ駆動部120を制御して、時刻t1におけるフォーカスレンズ113の位置をフォーカス位置L1に設定する。同様に、時刻t2におけるフォーカスレンズ113の位置を、フォーカス位置L1と異なるフォーカス位置L2に設定する。CMOSイメージセンサ140は、フォーカスレンズ113がフォーカス位置L1にあるときに被写体を撮像して、観測画像PAを作成する。同様に、CMOSイメージセンサ140は、フォーカスレンズ113がフォーカス位置L2にあるときにその被写体を撮像して参照画像PBを作成する。観測画像PAと参照画像PBとは、撮像されたときのフォーカスレンズ113の位置が異なるので、同一被写体を撮像した画像ではあるが互いにボケ量が異なる。
図4は、実施の形態におけるデジタルビデオカメラ100のDFD演算による被写体距離の算出を説明するイメージ図である。DFD演算回路161は、観測画像PAを構成する各観測画素SA、参照画像PBを構成する各参照画素SBに対してDFD演算を行い、各画素SA(SB)での被写体距離を算出する。DFD演算回路161は、観測画素SAに複数の点拡がり関数を畳み込んで得られた結果である複数の観測画素CAを、観測画素CAと画像上の同じ座標の参照画素SBと照合する。その動作を以下に説明する。
点拡がり関数は、光学系の点光源に対する応答を示す関数であり、ボケ量の変化を示す。点拡がり関数を、点光源の集合に対応する画像に畳み込む(Convolution)ことで、人為的にボケ画像を生成することができる。本実施の形態では、多数の被写体距離に対応して予め多数の点拡がり関数が内部メモリ240内に用意している。制御部180は、至近側から遠側までを16段階の被写体距離に分解し、それらの被写体距離にそれぞれ対応する16個の点拡がり関数PSF1〜PSF16を内部メモリ240に用意された多数の点拡がり関数から選択する。そして、制御部180は、選択した16個の点拡がり関数PSF1〜PSF16をDFD演算回路161に通知する。
DFD演算回路161は、各観測画素SAでの被写体までの距離に対応した16個の点拡がり関数PSF1〜PSF16を各観測画素SAに畳み込みすることで、各観測画素SAでの被写体までの距離に対応した16個の観測画素CA1〜CA16を生成する。16個の観測画素CA1〜CA16は、畳み込まれている点拡がり関数がそれぞれ異なるので、それぞれ異なるボケ画像を形成する。
続いて、DFD演算回路161は、観測画素CA1〜CA16を参照画素SBと照合し、観測画素CA1〜CA16のうち参照画素SBとの差分値が最小となる観測画素CAnを判定する。そして、観測画素CAnに畳み込まれている点拡がり関数に対応する被写体距離を観測画素SAの被写体距離であると決定する。例えば、観測画素CA3と参照画素SBとの差分値が、他の観測画素CA1〜2、CA4〜16のそれぞれと参照画素SBとの差分値と比較して最小となる場合、DFD演算回路161は、観測画素CA3を作成する際に観測画素SAに畳み込んだ点拡がり関数PSF3に対応する被写体距離を観測画素SAでの被写体距離であると決定する。
以上の動作を、観測画像PA及び参照画像PBの各画素について実施することにより、DFD演算回路161は各画素についての被写体距離の分布であるDepthマップを完成させる。実施の形態では各被写体までの距離に対応した16個の点拡がり関数を用いたので、Depthマップは16階調の被写体距離を示す。
続いて、制御部180による被写体までの距離の決定の詳細について説明する。制御部180は、被写体距離の決定にあたって、光学系110の状態に応じて、Depthマップが示す被写体距離の分布のうち、信頼できる領域Rを判定する。
DFD演算回路161により完成したDepthマップが示す被写体までの距離の値がすべて信頼できるわけではない。光学系110の状態によって、同じ被写体までの距離であるのに、DFD演算の結果、違う距離であると判定しまう事象が発生する。これは、光学系110の状態に応じて、被写体距離以外の要因によって、ボケ量が変わってしまうからである。
この理由について、図5(A)から図5(C)を用いて説明する。図5(A)から図5(C)は、光学系の状態によるDFD演算結果の信頼できる領域Rの変化を示すイメージ図である。ここで、図5(A)から図5(C)のハッチングで示す範囲が、信頼できる領域Rである。
1つ目のケースは、デジタルビデオカメラ100に備わる光学系110自体の解像度に起因するケースである。光学系110を構成するレンズ群の組み合わせが異なれば、光学系110の解像度が異なる。図5(A)の上段に示す例は、解像度の高いレンズ群で構成される高解像度光学系110Aの場合であり、図5(A)の下段に示す例は、解像度の低いレンズ群で構成される低解像度光学系110Bの場合である。また、一般に、撮影画像の中心付近は解像度が高く、撮影画像の周辺に近づくにつれて解像度が低くなる。そのため、撮影画像の中心付近のボケ量は相対的に信頼性が高いが、撮影画像の周辺は正味のボケ量に加えて解像度の低下によるボケ量が重畳されるため相対的に信頼性が低くなる。図5(A)に示すように、高解像度光学系110Aにおける信頼できる領域Rは、低解像度光学系110Bにおける信頼できる領域Rに比べて、大きい傾向にある。光学系110が同一であれば、基本的に解像度等が同じであるので、図5(A)に示すように、観測画像PAと参照画像PBとで、信頼できる領域Rの位置に大きな差は発生しない。しかし、フォーカスレンズ位置が相違すると、解像度の微差が発生し得る。そのため、制御部180は、Depthマップを完成するにあたって使用した観測画像PA及び参照画像PBをともに、解像度等の光学特性を含む光学系110の状態を示す情報に応じて定められた領域を、被写体距離の検出精度として所定の基準を満たす領域として、信頼できる領域Rであると判定する。
2つ目のケースは、DFD演算のためにフォーカスレンズ113を移動させている間に、絞り114、ズームレンズ111の位置が変化した場合である。図5(B)に示すように、DFD演算のためにフォーカスレンズ113を移動させている間に、絞り114やズームレンズ111の位置が変化すると、観測画像PAと参照画像PBとで、解像度が変化し、信頼できる領域Rが変化する。すなわち、観測画像PAに点拡がり関数を畳み込んだ結果以上に、解像度が変化する。一般に、この解像度の変化量は、撮影画像の中心から周辺に近づくにつれて大きくなる。そのため、撮影画像の中心付近のボケ量は相対的に信頼性が高いが、撮影画像の周辺は正味のボケ量に加えて解像度の低下によるボケ量が重畳されるため相対的に信頼性が低くなる。DFD演算のためにフォーカスレンズ113を移動させている間に、絞り114やズームレンズ111の位置が変化した場合、観測画像PAと参照画像PBとで、信頼できる領域Rの位置に大きな差が発生する。そのため、制御部180は、Depthマップを完成するにあたって使用した観測画像PA及び参照画像PBをともに、絞り114やズームレンズ111の位置を含む光学系110の状態を示す情報に応じて定められた領域を、被写体距離の検出精度として所定の基準を満たす領域として、信頼できる領域Rであると判定する。
3つ目のケースは、DFD演算のためにフォーカスレンズ113を移動させている間に、手振れ補正レンズ112の位置が変化した場合である。手振れ補正レンズ112は、光学系110の光軸110Xに対して垂直な方向に移動することで、撮影画像に対するブレを相殺する。このとき、光学系110の光軸110Xに沿って入射する光は、手振れ補正レンズ112の移動に伴って、手振れ補正レンズ112に対して入射する位置が変化する。一般に、レンズは、レンズ中心部から入射した光に対しては比較的高い解像度で結像させることができ、レンズ周辺部から入射した光に対しては比較的低い解像度で結像させる。そのため、DFD演算のためにフォーカスレンズ113を移動させている間に、例えば、図5(C)に示すように、手振れ補正レンズ112が位置Aから位置Bに変位すると、観測画像PAと参照画像PBとで、高い解像度を示す領域が変化し、信頼できる領域Rが変化する。すなわち、DFD演算のためにフォーカスレンズ113を移動させている間に、手振れ補正レンズ112の位置が変化した場合、観測画像PAと参照画像PBとで、信頼できる画像領域の位置に大きな差が発生する。そのため、制御部180は、Depthマップを完成するにあたって使用した観測画像PA及び参照画像PBをともに、手振れ補正レンズ112の位置を含む光学系110の状態を示す情報に応じて定められた領域を、被写体距離の検出精度として所定の基準を満たす領域として、信頼のおける領域であると判定する。
内部メモリ240は、光学系110の状態に対応して、被写体距離の検出精度として所定の基準を満たす領域を示す情報を格納している。すなわち、光学系110自体の解像度に対応して、被写体距離の検出精度として所定の基準を満たす領域を示す情報を格納している。同様に、ズームレンズ111の位置、絞り114の絞り値、手振れ補正レンズ112の位置に対応して、被写体距離の検出精度として所定の基準を満たす領域を示す情報を格納している。制御部180は、光学系110の状態に応じて、内部メモリ240からこれら情報を読み出すことで、信頼できる領域を判定することができる。このとき、制御部180は、観測画像PAにおいて信頼できる領域Rと、参照画像PBにおいて信頼できる領域Rとを比較し、観測画像PA及び参照画像PBともに信頼性のある領域(重複する領域)を判定する。そして、制御部180は、観測画像PA及び参照画像PBともに信頼性のある領域に基づいて算出された被写体距離を採用する。これにより、DFD演算の過程において、光学系110の状態が変化したとしても、適切なDFD演算結果を出すことができる。
次に、制御部180はDFD演算により決定された被写体距離に基づいて、フォーカスレンズ113を移動させるべき位置である合焦位置を算出する。具体的には、制御部180は、トラッキングテーブルを参照して、求めた被写体距離と現在のズームレンズ111の位置とに基づいて合焦位置を算出する。図6は、実施の形態におけるデジタルビデオカメラ100の複数の被写体距離に対するズームトラッキングテーブルを示す。図6に示すように、ズームトラッキングテーブルは、代表的ないくつかの被写体距離DL(図6では1m、2m、3m、無限遠(INF))に対応してズームレンズ111の位置に対する合焦位置を示すカーブDM1〜DM4を含む。制御部180は、ズームトラッキングテーブルに記載のカーブを被写体距離について補間することで、代表的な被写体距離DL以外の被写体距離についてもフォーカスレンズ113を移動させるべき位置である合焦位置を算出することができる。
制御部180は、算出された被写体距離とズームトラッキングテーブルとに基づいて合焦位置を決定する。そして、制御部180は、レンズ駆動部120を制御することによりフォーカスレンズ113を合焦位置へと移動させ、フォーカスレンズ113を被写体に対して合焦させることができる。これにより、精度高く合焦動作を実施できる。
〔3.効果等〕
上記のように、実施の形態に係るデジタルビデオカメラ100は、フォーカスレンズ113を含み、被写体の被写体像を形成する光学系110と、光学系110を介して形成される被写体像を撮像し、画像データを生成するCMOSイメージセンサ140と、制御部180と、を備える。制御部180は、フォーカスレンズ113が第1フォーカスレンズ位置にあるときに生成された第1画像データ(観測画像PA)と、フォーカスレンズ113が第2フォーカスレンズ位置にあるときに生成された第2画像データ(参照画像PB)とに基づき、光学系110の状態を示す情報に応じて、被写体距離を決定する。これにより、デジタルビデオカメラ100は、光学系110の状態を示す情報に応じて、より精度の高く被写体距離を決定することができる。
また、デジタルビデオカメラ100において、制御部180は、フォーカスレンズ113が第1フォーカスレンズ位置にあるときの光学系110の状態を示す情報に基づいて、フォーカスレンズ113が第1フォーカスレンズ位置にあるときに生成された第1画像データ(観測画像PA)から第1画像領域を定める。同様に、制御部180は、フォーカスレンズ113が第2フォーカスレンズ位置にあるときの光学系110の状態を示す情報に基づいて、フォーカスレンズ113が第2フォーカスレンズ位置にあるときに生成された第2画像データ(参照画像PB)から第2画像領域を定める。そして、制御部180は、第1画像領域と、第2画像領域とで重複する画像領域における第1画像データ(観測画像PA)及び第2画像データ(参照画像PB)を使用して、被写体距離を決定する。これにより、DFD演算のため、フォーカス位置を変動させることで、ボケ量の異なる2枚の画像を意図的に作り出した場合であっても、その2枚の画像のともに信頼できる領域を用いてDepthマップを作成し合焦位置を決定することができる。そのため、より精度の高く被写体距離を決定することができる。
なお、デジタルビデオカメラ100は、光学系110の状態を示す情報として、光学系110自体の光学特性を示す情報、ズームレンズ111の位置に関する情報、絞り114の絞り値に関する情報、手振れ補正レンズ112の位置に関する情報を取り扱う。これにより、光学系110の光学特性、ズームレンズ111の位置、絞り値、手振れ補正レンズ112の位置に応じて、より精度の高い被写体距離を決定することができる。
〔4.他の実施の形態〕
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
上記の実施の形態において、光学系110の状態として、光学系110自体の解像度、ズームレンズ111の位置、絞り114の絞り値、手振れ補正レンズ112の位置を例示したが、本開示はこれらに限定されない。例示したこれらの一部が欠けてもよいし、他の光学系110の状態を示す要素が追加されてもよい。
上記の実施の形態において、点拡がり関数は内部メモリ240に用意されている。本発明はこれに限定されず、点拡がり関数は、例えば画像処理部160内のメモリに用意されていてもよい。また、実施の形態におけるデジタルビデオカメラ100では、16個の点拡がり関数が選択されるが、Depthマップの階調の数に応じて、選択される点拡がり関数の数は16個以上であっても16個未満であってもよい。
上記実施の形態において、DFD演算結果に基づいて、オートフォーカス動作を実施する例を説明したが、本開示はこれに限定されない。例えば、DFD演算結果に基づいて、被写体距離のマップを表示部に表示するようなアプリケーションソフトにも適用可能である。このとき、観測画像PA及び参照画像PBともに信頼性のある領域に基づいて算出された被写体距離に基づいて、マップ表示を行う。これにより、より精度の高い被写体距離のマップを表示することができる。
実施の形態における撮像装置であるデジタルビデオカメラは非レンズ交換式のデジタルビデオカメラであるが、これに限定されず、レンズ交換式のデジタルビデオカメラであってもよい。このとき、デジタルビデオカメラに装着されるレンズの解像度によって、撮影画像のうちDFD演算結果を信頼できる領域が変化することは言うまでもない。
上記実施の形態では、Depthマップを作成した後に、光学系110の状態に応じて、作成したDepthマップのうち使用する領域を判断する例を記載したが、これに限定されない。すなわち、Depthマップを作成する段階で、光学系110の状態に応じて、Depthマップを作成する領域を判断するようにしてもよい。
上記実施の形態では、観測画素SAに、点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBと照合するようにしたが、本開示はこれに限定されない。観測画素SAと参照画素SBとから、奥行が幅広く焦点が合った全焦点画像を一旦生成し、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBと照合するようにしてもよい。全焦点画像によれば、奥行が幅広く焦点が合っているため、奥行に幅広くコントラスト情報を有することになり、DFD演算のS/Nを向上させることができる。そのため、合焦位置の算出精度をより向上させることができる。更には、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、参照画素SBでなく、観測画素SAと照合するようにしてもよい。観測画素SAと、参照画素SBとでは、画像を撮像したときのフォーカスレンズの位置が互いに異なるため、被写体に対して異なるコントラスト情報を有する。そのため、観測画素SAでは、コントラスト情報を有する被写体であっても、参照画素SBでは、コントラスト情報を有しない被写体が発生し得る。このような場合に、この全焦点画像に点拡がり関数PSF1〜PSF16を畳み込んだ結果を、観測画素SAと照合することで、DFD演算によって合焦位置を判定可能なダイナミックレンジを拡げることができる。
上記実施の形態では、制御部180は、Depthマップを完成するにあたって使用した観測画像PA及び参照画像PBがともに所定の基準を満たす領域を信頼のおける領域として、被写体距離を決定する場合を例示したが、これに限定されない。すなわち、信頼のおける領域であると判定しなかった領域に対しても、予め記憶しておいた補正値を利用することにより、有意な被写体距離を示す領域として利用してもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示における撮像装置は、デジタルビデオカメラや、デジタルスチルカメラや、カメラ機能付携帯電話や、カメラ機能付スマートフォン等に適用できる。
100 デジタルビデオカメラ(撮像装置)
110 光学系
111 ズームレンズ
112 手振れ補正レンズ
113 フォーカスレンズ
114 絞り
120 レンズ駆動部
140 CMOSイメージセンサ(撮像センサ)
150 A/Dコンバータ
160 画像処理部
170 バッファ
180 制御部
190 カードスロット
200 メモリカード
210 操作部材
220 表示モニタ
240 内部メモリ
250 角速度センサ

Claims (6)

  1. フォーカスレンズを含み、被写体の被写体像を形成する光学系と、
    前記光学系を介して形成される被写体像を撮像し、画像データを生成する撮像部と、
    前記フォーカスレンズが第1フォーカスレンズ位置にあるときに生成された第1画像データと、前記フォーカスレンズが第2フォーカスレンズ位置にあるときに生成された第2画像データとに基づき、前記光学系の状態を示す情報によって得られる解像度の変化度合いを示す情報に応じて、被写体距離を決定する制御部と、
    を備えた撮像装置。
  2. 前記制御部は、
    前記フォーカスレンズが前記第1フォーカスレンズ位置にあるときの前記光学系の状態を示す情報によって得られる解像度の変化度合いを示す情報に基づいて、前記第1画像データから第1画像領域を定め、
    前記フォーカスレンズが前記第2フォーカスレンズ位置にあるときの前記光学系の状態を示す情報によって得られる解像度の変化度合いを示す情報に基づいて、前記第2画像データから第2画像領域を定め、
    前記第1画像領域と前記第2画像領域との重複する画像領域における前記第1画像データ及び前記第2画像データを使用して、前記被写体距離を決定する、
    請求項1に記載の撮像装置。
  3. 前記光学系の状態を示す情報は、前記光学系の光学特性を示す情報を含む、
    請求項1又は2に記載の撮像装置。
  4. 前記光学系は、ズームレンズを含み、
    前記光学系の状態を示す情報は、前記ズームレンズの位置に関する情報を含む、
    請求項1から3のいずれかに記載の撮像装置。
  5. 前記光学系は、絞りを含み、
    前記光学系の状態を示す情報は、前記絞りの絞り値に関する情報を含む、
    請求項1から4のいずれかに記載の撮像装置。
  6. 前記光学系は、手振れ補正レンズを含み、
    前記光学系の状態を示す情報は、前記光学系の光軸に対する垂直方向の前記手振れ補正レンズの移動量に関する情報を含む、
    請求項1から5のいずれかに記載の撮像装置。
JP2014217959A 2013-11-19 2014-10-27 撮像装置 Active JP6405531B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014217959A JP6405531B2 (ja) 2013-11-19 2014-10-27 撮像装置
US14/540,297 US9667853B2 (en) 2013-11-19 2014-11-13 Image-capturing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013238474 2013-11-19
JP2013238474 2013-11-19
JP2014217959A JP6405531B2 (ja) 2013-11-19 2014-10-27 撮像装置

Publications (2)

Publication Number Publication Date
JP2015121773A JP2015121773A (ja) 2015-07-02
JP6405531B2 true JP6405531B2 (ja) 2018-10-17

Family

ID=53172945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014217959A Active JP6405531B2 (ja) 2013-11-19 2014-10-27 撮像装置

Country Status (2)

Country Link
US (1) US9667853B2 (ja)
JP (1) JP6405531B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6140935B2 (ja) 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US10362303B2 (en) * 2013-12-03 2019-07-23 Apple Inc. Sensor-assisted autofocus calibration
JP5895270B2 (ja) * 2014-03-28 2016-03-30 パナソニックIpマネジメント株式会社 撮像装置
KR102382871B1 (ko) * 2017-07-18 2022-04-05 삼성전자주식회사 렌즈의 포커스를 제어하기 위한 전자 장치 및 전자 장치 제어 방법
KR102593303B1 (ko) * 2018-01-16 2023-10-25 삼성전자 주식회사 전자 장치 및 전자 장치의 카메라 자동 초점 제어 방법
JP7002050B2 (ja) 2018-07-11 2022-02-10 パナソニックIpマネジメント株式会社 撮像装置
CN109714536B (zh) * 2019-01-23 2021-02-23 Oppo广东移动通信有限公司 图像校正方法、装置、电子设备及计算机可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4908505A (en) 1987-05-15 1990-03-13 Minolta Camera Kabushiki Kaisha System for detecting the focus condition of a cata-dioptric lens and interchangeable lens for use therewith
JP2780172B2 (ja) 1987-05-19 1998-07-30 ミノルタ株式会社 交換レンズ群
US4965840A (en) * 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
JP4819550B2 (ja) 2006-03-31 2011-11-24 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、及び、プログラム
JP4990234B2 (ja) * 2008-07-07 2012-08-01 オリンパス株式会社 測距装置、測距方法、測距プログラム又は撮像装置
JP5281972B2 (ja) 2009-07-01 2013-09-04 オリンパス株式会社 撮像装置
JP5293463B2 (ja) * 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN103181173B (zh) * 2010-10-27 2016-04-27 松下知识产权经营株式会社 三维图像处理装置、三维摄像装置以及三维图像处理方法

Also Published As

Publication number Publication date
JP2015121773A (ja) 2015-07-02
US20150138430A1 (en) 2015-05-21
US9667853B2 (en) 2017-05-30

Similar Documents

Publication Publication Date Title
JP5866493B2 (ja) 撮像装置
JP5895270B2 (ja) 撮像装置
JP6405531B2 (ja) 撮像装置
JP2014145725A (ja) 画像処理装置、撮像装置
JP6357646B2 (ja) 撮像装置
JPWO2014171304A1 (ja) 撮像装置、撮像装置駆動方法、撮像装置制御プログラム
JP2016167801A (ja) 撮像装置、撮像方法及び撮像プログラム
JP6326631B2 (ja) 撮像装置
JP6564284B2 (ja) 画像処理装置および画像処理方法
TWI693828B (zh) 顯示擷取裝置與其操作方法
JP5866537B2 (ja) 撮像装置
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2020008785A (ja) 撮像装置
JP6089232B2 (ja) 撮像装置
WO2021065065A1 (ja) 撮像装置
JP6573382B2 (ja) 撮像装置及び測光方法
US10681274B2 (en) Imaging apparatus and control method thereof
JP2005134617A (ja) 焦点検出装置
US10951829B2 (en) Image capturing apparatus and method for controlling display
JP2008122981A (ja) カメラの焦点検出装置
JP2015201812A (ja) 画像処理方法、プログラムおよび撮像装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6405531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151