JP7303668B2 - 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体 - Google Patents

撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体 Download PDF

Info

Publication number
JP7303668B2
JP7303668B2 JP2019105608A JP2019105608A JP7303668B2 JP 7303668 B2 JP7303668 B2 JP 7303668B2 JP 2019105608 A JP2019105608 A JP 2019105608A JP 2019105608 A JP2019105608 A JP 2019105608A JP 7303668 B2 JP7303668 B2 JP 7303668B2
Authority
JP
Japan
Prior art keywords
focus
optical system
information
lens
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019105608A
Other languages
English (en)
Other versions
JP2020197686A (ja
Inventor
友美 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019105608A priority Critical patent/JP7303668B2/ja
Priority to US16/886,956 priority patent/US11082604B2/en
Publication of JP2020197686A publication Critical patent/JP2020197686A/ja
Application granted granted Critical
Publication of JP7303668B2 publication Critical patent/JP7303668B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/0804Catadioptric systems using two curved mirrors
    • G02B17/0808Catadioptric systems using two curved mirrors on-axis systems with at least one of the mirrors having a central aperture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • G02B17/0856Catadioptric systems comprising a refractive element with a reflective surface, the reflection taking place inside the element, e.g. Mangin mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Description

本発明は、撮像装置における焦点調節技術に関するものである。
近年、小型で長焦点距離を実現する撮影レンズとして、同一の光軸上に反射ミラーを配置した光学システムが提案されている(特許文献1参照)。特許文献1に開示されている撮影光学系では、反射ミラーを用いて光を内面反射させることにより、外形が小型でありながら、長焦点距離を可能とし、高倍率の撮像を行うことができる撮影レンズを実現している。
また、撮像装置の焦点調節方法の一般的な方式として、コントラストAF(コントラストオートフォーカス)方式と位相差AF(位相差オートフォーカス)方式とが知られている。コントラストAF方式も位相差AF方式もビデオカメラやデジタルスチルカメラで多く用いられるAF方式であり、撮像素子が焦点検出用センサとして用いられるものも存在する。この種の焦点調節方法は、光学系の諸収差により、焦点検出結果に誤差を含む場合があり、その誤差を低減するための方法が、種々提案されている。たとえば、特許文献2では、撮影画像の焦点状態と焦点検出結果の差分を補正する補正値を算出する方法が提案されている。
特開2004-85725号公報 特許第6478457号公報
しかしながら、上記の特許文献に記載されている従来の撮像装置においては、下記のような問題点があった。
特許文献1のような撮影光学系においては、内面反射される反射光学系が存在することにより、撮影レンズの解像力を示す光学伝達関数OTF(Optical Transfer Function)の絶対値であるMTF(Modulation Transfer Function)の焦点位置に応じた変化が通常の撮影レンズの変化とは異なる。そのため、通常の撮影レンズと同じ焦点検出制御では焦点検出精度が低下する。
また、特許文献2での補正値算出においても、反射光学系のMTFを考慮して補正値を算出しないと焦点検出補正の精度が低下する。
本発明は上述した課題に鑑みてなされたものであり、その目的は、反射光学系を有する撮影レンズを用いた撮像装置において、焦点調節の精度を向上させることである。
本発明に係わる撮像装置は、被写体像を撮像する撮像素子と、
撮影光学系に含まれるフォーカスレンズを前記撮影光学系の光軸に沿って移動させるスキャン動作を行いながら、前記被写体像を前記撮像素子により光電変換して得られた画像信号に基づいて、被写体の合焦度を示す焦点評価値を算出し、該焦点評価値が最大になるフォーカスレンズの位置を検出する焦点検出手段と、前記撮影光学系が、光束の一部が遮光される反射光学系を含む場合に、前記反射光学系に関する情報と、異なる複数の空間周波数ごとの前記撮影光学系の結像位置に関する情報とに基づいて、前記焦点検出手段の焦点検出結果を補正する補正値を算出する算出手段と、を備え、前記撮影光学系は、ドーナツ状の瞳関数を有し、前記焦点検出手段は、前記スキャン動作において、前記画像信号に前記ドーナツ状の内外径差に対応する開口に応じた周波数帯域のローパスフィルタを適用して、前記焦点評価値を算出することを特徴とする。
本発明によれば、反射光学系を有する撮影レンズを用いた撮像装置において、焦点調節の精度を向上させることが可能となる。
本発明の撮像装置の一実施形態であるレンズ交換式のデジタルカメラシステムの構成を示す図。 反射光学系の構成図。 瞳関数を説明する図。 MTFを説明する図。 反射光学系の径とF値の対応を説明する図。 焦点検出動を説明するフローチャート。 焦点検出領域を説明する図。 焦点検出評価値を説明する図。 焦点検出帯域による焦点検出評価値の変化を説明する図。 デジタルフィルタの周波数帯域を説明する図。 MTFとデジタルフィルタの対応を説明する図。 種々のMTFと焦点検出帯域での焦点検出評価値を説明する図。 焦点検出周波数の設定を説明する図。 MTFとデジタルフィルタの帯域の関係を説明する図。 焦点検出領域の画素信号を説明する図。 BP補正情報と重み付け係数について説明した図。 BP補正情報と重み付け係数について説明した図。 BP補正情報と重み付け係数について説明した図。 BP補正情報と重み付け係数について説明した図。 重み付け係数の計算方法について説明した図。 重み付け係数の計算方法について説明した図。 重み付け係数の計算方法について説明した図。 重み付け係数の計算方法について説明した図。 重み付け係数の計算方法について説明した図。 重み付け係数の計算方法について説明した図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(撮像装置の構成)
図1は、本発明の撮像装置の一実施形態であるレンズ交換式のデジタルカメラシステム200の構成を示す図である。デジタルカメラシステム200は、カメラ本体100と、カメラ本体100に交換可能(着脱自在)に装着される、例えば撮影レンズ500、撮影レンズ600を有して構成される。図1(a)は、カメラ本体100に反射光学系を有する撮影レンズ600が装着された状態を示し、図1(b)は、カメラ本体100に通常の(反射光学系を有さない)撮影レンズ500が装着された状態を示している。
撮影レンズ500、撮影レンズ600は、レンズの種別が異なり、カメラ本体100に対して交換可能に装着される。撮影レンズ500(または600)内の各レンズ群を透過した光束は、被写体像を受光して光電変換する撮像素子101へと導かれる。撮像素子101は、被写体像を電気信号に変換するマトリクス状に配置された画素部を備えて構成される。撮像素子101で被写体像を電気信号に変換して得られた画素信号には、カメラCPU104において、画像信号や焦点検出信号を得るための各種補正処理や、ライブビュー画像や記録画像やEVF画像へ変換するための処理等が施される。なお、本実施形態においては、これらの処理等をカメラCPU104で行っているが、これらの処理等は専用の回路を設けてその回路で行ってもよい。
操作部材105は、カメラの撮影モードや撮影条件(F値、ISO感度、露光時間など)を設定するための各種部材である。記憶媒体106は、フラッシュメモリであり、撮影した静止画や動画を記録するための媒体である。ファインダ内表示器107は、有機ELディスプレイや液晶ディスプレイ等の小型で高精細なディスプレイ109と、接眼レンズ108とを備えて構成される。外部表示器110は、裸眼視に適した画面サイズの有機ELディスプレイや液晶ディスプレイからなる。カメラ本体100の設定状態、ライブビュー画像、撮影済み画像等の各種情報は、ファインダ内表示器107や外部表示器110に表示される。
フォーカルプレンシャッタ111は撮像素子101の前面に配置されている。シャッタ駆動部112は例えばモーターであり、シャッタの羽根を駆動制御することにより、静止画を撮像する際の露光時間を制御する。カメラ側通信端子113は、撮影レンズ500(または600)を装着するためのカメラマウント部に設けられている。カメラ側通信端子113とレンズマウント部に設けられたレンズ側通信端子508とが接続されることにより、カメラCPU104と後述のレンズCPU507との間の通信が可能となる。
カメラCPU104には、ROMなどからなる不揮発性メモリ115と、RAMなどからなる揮発性メモリ116が接続されている。カメラCPU104は、不揮発性メモリ115に格納されたプログラムを揮発性メモリ116に展開して実行することにより、デジタルカメラシステム200全体を制御する。なお、カメラ本体内の記憶部である不揮発性メモリ115には、プログラム以外の動作用の各種情報や、複数種類の撮影レンズの特性についての情報なども記憶されている。
撮影レンズ500(または600)は、カメラ本体100に対して着脱可能であり、図1(a)では反射光学系を有する撮影レンズ600が示され、図1(b)では焦点距離が可変なズームレンズである撮影レンズ500が示されている。カメラ本体100に装着されるレンズの種類は問わない。
被写体からの光束は、第1レンズ群501または601、第2レンズ群502(図1(b)のみ)、第3レンズ群503を透過し、カメラ本体100内の撮像素子101の撮像面に被写体像として結像される。第1レンズ群601は、本実施形態の特徴である反射光学系を有するレンズ群である。詳細な構成については後述する。
第2レンズ群502は、光軸方向に進退して変倍を行なうバリエータ(変倍レンズ)として機能する。第3レンズ群503は光軸方向に進退して焦点調節を行なうフォーカスレンズとして機能する。第3レンズ群503は、ステッピングモーターなどを用いたフォーカス駆動部504によって駆動される。
図1(b)のみに存在している絞り505は、撮影レンズに入射する光量を調節するための複数の絞り羽根で構成されている。絞り駆動部506は絞り羽根を所定の撮影F値になるまで絞り込み駆動する。図1(a)の反射光学系においては、絞りと絞り駆動部とからなる絞り機構を設置することが困難であるため、存在しておらず、基本的には開放F値でのみ使用される。レンズCPU507は、レンズ側通信端子508及びカメラ側通信端子113を介してカメラCPU104と通信し、各種情報を送受信するとともに、カメラCPU104からの指令に基づいてフォーカス駆動部504や絞り駆動部506を駆動制御する。
レンズCPU507には、ROMなどからなる不揮発性メモリ510と、RAMなどからなる揮発性メモリ511が接続されている。レンズCPU507は、不揮発性メモリ510に格納されたプログラムを揮発性メモリ511に展開して実行することにより、撮影レンズ500(または600)全体を制御する。なお、不揮発性メモリ510には、プログラム以外の撮影レンズ固有の識別番号や光学情報なども記憶されている。
撮影レンズ500のズームレンジや開放F値は撮影意図に応じて設計されるが、反射光学系を有する撮影レンズ600は、基本的にはズームレンズや撮影絞りの制御機構は有さない。
次に、図2を用いて、図1(a)で示した第1レンズ群601内の反射光学系について説明する。図2において、左の実線は被写体604を示しており、点線は被写体604の一点から出射された光線を示す。被写体604から出射された光はレンズ601Aを通って集光され、レンズ601Bで反射される。さらに、レンズ601Cで反射、屈折された光はレンズ601Bを通り、レンズ601Eを通過し、前述のフォーカスレンズ503を通過した後、撮像素子101の撮像面に結像される。レンズ601Bは、図2中の光路内で光を逆行させ反射させるような反射レンズである。また、レンズ601Cには、光路とは反対面(被写体側の面)に遮光部601Dが取り付けられる。このように、レンズ中で光路を折り返すことにより外形が小型でありながら、長焦点距離のレンズを実現することができる。
図3は、本実施形態における撮影光学系のレンズ性能を示す瞳関数を説明する図である。瞳関数とは、レンズの射出瞳距離での開口面における光強度分布である。図の黒塗りの部分は開口率0%の遮光されている状態を示し、図の白色の部分は開口率100%の開口状態を示す。撮影レンズに収差が存在せず、絞り形状も理想的な円形である理想状態であったとすると、図3(a)のように開口瞳形状(図3(a)の白色の部分)は完全な円形となる。
撮影F値との対応を考えると、F値が小さい(開放F値に近い)状態では、図3(a)のように瞳関数の開口部径D1が大きく、F値が大きい(絞り込み状態)では、図3(b)のように瞳関数の開口部径D2が小さくなる。射出瞳距離zはレンズ固有の値であり、撮影F値が決まれば、射出瞳面上の開口部の直径Dの大きさは一意に決定される。本実施形態における撮影レンズ600の瞳関数の開口形状は、遮光部601Dで光線が遮断されることから、収差のない状態であっても図3(c)のように、ドーナツ形状となる。図3(c)の瞳関数のドーナツ形状の開口部における外側直径を外径DG、内側直径を内径DNと示す。外径DG、内径DNの大きさも、撮影レンズの射出瞳距離、撮影F値、遮光部601Dの径が決定されれば、一意に決まる値である。
また、この場合、撮影レンズの解像力を示すMTFは、瞳関数の自己相関であるOTFの絶対値で表される。図3(a)~図3(c)の瞳関数のそれぞれに対応するMTF特性図を図4(a)~図4(c)に示す。一般的な円形の瞳関数で示される図3(a)、図3(b)のような開口形状では、開口部直径Dが大きいほど、図4の縦軸であるMTFの値が高くなる。縦軸の値が大きいことは、レンズの解像力が高いことと同義である。横軸は周波数であるので、図4(a)と図4(b)では、高周波数帯域の解像力でより顕著な差が生じる。また、MTFが0に落ちる周波数(レンズの解像力限界)をカットオフ周波数と呼び、図4(a)、図4(b)ではCOfq1、COfq2で示されている。カットオフ周波数も開口部の大きさDによって異なり、COfq=D/2λf(λ:光の波長、f:撮影光学系の焦点距離)で求められる。
瞳関数が理想の円形形状である場合は、カットオフ周波数は、上記式で求められるが、実際の撮影光学系では、撮影絞りは円形形状とは異なる場合も多く、撮影条件(収差、撮像面上の座標x,y等)によっても異なり、MTFは複雑に変化する。また、図3(c)のような本実施形態における反射光学系を有するレンズのドーナツ型の瞳関数では、図4(c)のようなMTF特性図MTF3を示す。図4(c)におけるカットオフ周波数COfq3は、外径DG=D1である場合には、COfq1と等しい。言い換えると、カットオフ周波数は、外径DGの大きさによって決まる値である。低周波領域では、瞳関数とMTFの自己相関の関係からもわかるように、外径と内径の差分の開口部(以下、内外径差)のMTFと近くなる。つまり、図3(c)において、DG-DN=D2である場合には、低周波領域(<COfq2)では、図4(c)で示したMTF3は、図4(b)で示したMTF2に近い値を示す。このように、本実施形態の光学系では、瞳関数が特殊な形状となるが、射出瞳面上での外径、内径の大きさDG、DNは、図2で示した遮光部601Dの直径や開放F値から設計的に決まる値であるので、レンズ性能であるMTFも図4(c)のように予測可能である。
撮影レンズ600、カメラ本体100が一体型のカメラであれば、予め計算したMTFを保持しておけばよい。一方、交換レンズ系においては、撮影レンズ600は、内径の大きさDN、外径の大きさDG、瞳関数P、レンズ射出瞳距離LPO、レンズMTF等から適宜選択されたパラメータの値を不揮発性メモリ510内に保有する。そして、レンズ側通信端子508及びカメラ側通信端子113を介してカメラ本体100にレンズの反射光学系の形状に関する情報を通信する。また、内径の大きさDN、外径の大きさDGに代わる値として、図5に示すように、径に対応するF値の情報(F値情報)を通信してもよい。たとえば、外径の大きさDG=F2、内外径差=F4として情報を通信してもよい。また、交換レンズ系における一部の情報をカメラ側の不揮発性メモリ115に保有し、レンズからは一部の情報のみ通信するようにしてもよい。
次に、本実施形態における焦点検出動作について図6を用いて説明する。本実施形態では、一般的にコントラストAF(オートフォーカス)と呼ばれる手法で焦点検出動作を行う。
まず、図6のステップS1では、焦点検出領域の設定を行う。例として、カメラCPU104で図7のような撮影画像が得られている場合には、主被写体として画面中央部付近にある顔が検出され、焦点検出領域10が設定される。焦点検出領域10の大きさ、位置座標(x,y)については、撮影者が任意に設定してもよいし、図7のように撮影画像に顔が含まれている場合には、顔検出機能等により自動設定されてもよい。
次に、ステップS2ではAFスキャン動作を行う。AFスキャン動作では、フォーカスレンズ503を光軸に沿って移動させながら、ステップS11で設定されるレンズ駆動回数n、ステップ間隔iで、合焦度を示す焦点検出評価値を計算する。ここで、ステップS2で行われるAFスキャン動作について、図6(b)のフローチャートを用いて詳細に説明する。
まず、AFスキャン動作が開始されると、ステップS11においてレンズ駆動回数n、ステップ間隔iを設定する。コントラストAFでは、フォーカスレンズを光軸方向に移動させながら焦点評価値を取得し、焦点評価値が極大(被写体のコントラストが最大)になったところでフォーカスレンズ503を停止させることにより、ピントの合った画像を取得する。よって、フォーカスレンズの駆動回数n、ステップ間隔iはコントラストの極大値が取得できる範囲で設定されるべきである。
たとえば、今、図8の横軸のようにフォーカスレンズ位置zを変化させた時、コントラストカーブCcurvが図8上のCcurvのように取得され、各フォーカスレンズ位置での焦点評価値Eval(n)が得られるとする。この場合、ステップS11で設定されるレンズ駆動回数、ステップ間隔は、レンズ駆動回数n=10、ステップ間隔=iで設定されてもよいし、レンズ駆動回数n=7では極大値は検出できているので、n=7で検出を停止してもよい。また、次のような方法もよく知られた手法である。まず、図9のように、最初にレンズ駆動回数n=4、ステップ間隔3iで粗くキャンをすることによりだいたいの焦点評価値の極大位置を見つける(図9中Ccurv1上のEval1(4)とEval1(7)の間)。そして、より高精度に焦点位置を検出するために、極大値付近をステップ間隔iで細かくスキャン(図9中Ccurv3上のEval3(4)からEval3(7))することにより図8と同等の焦点位置を得る。この動作を以下、粗スキャン(粗スキャン動作)、密スキャン(密スキャン動作)と呼ぶ。この場合は、図9では粗スキャンのレンズ駆動回数=4、ステップ間隔=3iとなり、密スキャンのレンズ駆動回数=4、ステップ間隔=iとなる。それぞれの焦点評価値の計算方法、適切なコントラストカーブの設定方法は後述する。
次に、ステップS12では、撮影条件(ズーム、フォーカス、F値、像高)に応じた反射光学系の形状に関する情報を、カメラCPU104が、撮影レンズ600の不揮発性メモリ510またはカメラ本体100の不揮発性メモリ115から取得する。情報の内容は、前述したように、内径の大きさDN、外径の大きさDG、瞳関数P、レンズ射出瞳距離LPO、レンズMTF、径に対応するF値の情報などから適宜選択される。カメラCPU104は、これらの情報を、前述の不揮発性メモリ510または115から、撮影レンズ600との通信により、またはカメラ本体100内との通信により取得する。
次に、ステップS13では、焦点検出周波数を設定する。ここでは、デジタルフィルタの焦点検出周波数帯域の設定を行う。図10は、デジタルフィルタの周波数帯域の例を示す図である。ここで示すナイキスト周波数は、撮像素子101の画素ピッチから決まる値であり、例えば、撮像素子101の画素ピッチが4ミクロンであったとすると、ナイキスト周波数=1/(0.004×2)=125(lp/mm:ラインペア/ミリメートル))と求めることができる。これは、撮像素子101上で125(lp/mm)より細かい被写体像は解像できないことを示す。
図10の横軸は周波数、縦軸はゲインを示しており、実線で示したFilter1は中心周波数fq1を持つ。Filter2、Filter3はFilter1よりも高域の周波数帯域を持ち、中心周波数はそれぞれ、fq2、fq3である。一般的に、周波数帯域が高いほど、コントラスト評価値は急峻な変化を示す。よって、Filter1のような周波数特性を持つフィルタ処理を施した際に得られる焦点評価値が図9のコントラストカーブCcurv1だったとすると、Filter3のような周波数特性を持つフィルタ処理を施した際に得られる焦点評価値は、コントラストカーブCcurv1よりも急峻なコントラストカーブCcurv3のようになる。これは、同じボケ量(フォーカスレンズ駆動量)でも、低周波成分よりも高周波成分のレンズMTFの方が相対的に失われる量が多いことによる。
コントラストAFによる焦点検出では、一般的に焦点評価値Evalが極大となったところにフォーカスレンズを駆動させるため、コントラストカーブCcurvの形状も焦点検出精度に大きく影響を与える。たとえば、図9では、粗スキャン中の焦点評価値が極大のフォーカスレンズ位置はz=7であるが、密スキャン中の焦点評価値が極大のフォーカスレンズ位置はz=6である。粗スキャン中は、ステップ間隔が広いため、コントラストカーブCcurv1はなだらかな変化を示すことが望ましい。これは、粗スキャン時に、急峻なコントラストカーブCurv3で焦点検出を行うとステップ間隔が広いことにより極大値を逃す恐れがあるからである。そのため、粗スキャンの場合は、ステップS13で設定される焦点検出周波数は低域であることが望ましい。逆に、密スキャンの時は、ステップ間隔が狭いため、コントラストカーブCcurv3のように急峻なカーブを用いた方が、焦点検出評価値Evalの高精度な極大値検出が可能となる。そのため、ステップS13で設定される焦点検出周波数は高域であることが望ましい。
さらに、コントラストカーブCcurvは、焦点検出周波数とレンズのMTFの掛け合わせで決まる値である。図4で示したレンズのMTFと図10で示した焦点検出周波数を重ねて考える。今、ナイキスト周波数とレンズのカットオフ周波数が同じであったとすると、図11のように横軸周波数/縦軸ゲインのグラフに重ねて考えることができる。図11では、Filter1、Fileter2、Filter3の周波数を一点鎖線、MTF1、MTF2を点線、MTF3を実線で示している。ここで示しているMTFは焦点評価値が極大(合焦状態)のフォーカスレンズ位置(たとえばフォーカスレンズ位置z=6)のMTFであり、デフォーカス(合焦していない)状態では、それぞれのMTF特性は異なる。しかし、合焦時のMTFよりもデフォーカス状態でのMTFゲインは低く、デフォーカスが大きくなるごとに一般的には相対的にMTFの値は低くなる。この時、コントラスト評価値Eval(z=6)は、MTFのゲインとFilterのゲインの乗算値に比例した値に近い。
つまり、図12に示すように、デジタルフィルタFilter1をかけて得られる焦点評価値Evalは、MTF2、MTF3ではほとんど変わらず、Ccurv1である。そして、MTF1では、MTF2、MTF3よりも出力が高いため、Ccurv1-1のように焦点評価値も大きな出力になる。同様に、デジタルフィルタFilter2をかけて得られる焦点評価値Evalは、MTF1では、Ccurv2-1、MTF2ではCcurv2、MTF3ではCcurv2-2となり、それぞれ異なる。デジタルフィルタFilter3をかけて得られる焦点評価値Evalは、MTF1、MTF3ではほとんど変わらず、Ccurv3であり、MTF2では、MTFのゲインが0のため、焦点評価値が得られない(不図示)。
MTFは撮影光学系の構成によって既知の値であるので、コントラストAFを行う際には、予めデジタルフィルタの焦点評価帯域を適切に設定することにより所望のコントラストカーブCcurvを得ることができる。その際に、本実施形態に示した反射光学系を有するレンズのような特殊な撮影光学系の場合には、MTFがMTF3の形状のような変化を示すことを加味して焦点検出周波数を設定する必要がある。
交換レンズ系において、一般的な撮影レンズ500で粗スキャン、密スキャン時に選択されるデジタルフィルタが図13の左欄のように設定されている場合、本実施形態の反射光学系を有する撮影レンズ600の内径、内外径差に相当する撮影F値等が通信された場合には、図13の太枠で示されたテーブルを参照する。つまり、粗スキャン時は内外径差F4に対応するF4.0と同様のFilter1を選択し、密スキャン時は外径F2に対応するF2.0と同様のFilter3を選択すればよい。このように、ステップS13では、撮影レンズ600の反射光学系の形状に関する情報に合わせて焦点評価値を得る際の信号処理方法の切り替えを行う。ここでは、デジタルフィルタの切り替え方法について説明したが、撮影レンズ600の反射光学系の形状に関する情報に合わせてステップ間隔iを設定してもよい。また、撮影レンズ600のMTF3に対し、図14に示したようなローパスFilter4を施すと、MTF2の特性と同じとなるため、通常レンズのF4.0と同じ特性として扱うこともできる。
次に、ステップS14では、フォーカスレンズ503を、光軸に沿ってAFスキャンの1ステップの移動間隔分駆動する。そして、ステップS15では、フォーカスレンズ503を駆動した回数を示す変数kを1に設定する。
次に、ステップS16では、焦点評価値Evalを計算する。ここでは、ステップS1で設定された焦点検出領域に対して、ステップS13で示されたデジタルフィルタを畳み込み演算等することにより、各フォーカスレンズ位置zでの焦点評価値Evalを得る。たとえば、ステップS13で設定されたFilter1が(TAP1,TAP2,TAP3)というフィルタタップを有し、焦点検出領域での画素値gaso(x,y)が図15に示す配列であったとすると、デジタルフィルタ演算後の画素配列値f(x,y)は、
f(x,y)=TAP1×gaso(x,y)+TAP2×gaso(x+1,y+ 1)+TAP3×gaso(x+2,y+2)
で求めることができる。(TAP1,TAP2,TAP3)のタップ数(ここでは3)は、ステップS13で前述した焦点検出周波数に応じて設定されればよい。フィルタ演算後のf(x,y)の画素値の中で、絶対値として最も大きい値を算出すれば、例えば、焦点検出評価値Evalが求められる。
ここで説明した焦点評価値の算出方法は一例であり、デジタルフィルタは二次元であってもよいし、1ライン毎の焦点評価値を求めてもよい。また、画像信号のフーリエ変換等を行ってから図10のデジタルフィルタゲインをかけて焦点評価値Evalを求めてもよく、画像中のコントラストを示す焦点評価値Evalを示すことができれば方法は問わない。また、画像信号の加算状態(静止画用、ライブビュー表示用、動画用等)によって、記録周波数が変化するのに伴い、デジタルフィルタの帯域設定を行ってもよい。
次に、ステップS17では、変数kがステップS11で設定されたレンズ駆動回数nに達しているか否かを判定する。変数kがレンズ駆動回数nに達していれば、ステップS20に進んで、AFスキャン動作を終了し、達していなければ、ステップS18に進み、フォーカスレンズ503をAFスキャンの1ステップ分駆動する。
ステップS19では、変数kをインクリメントし、ステップS15に戻る。そして、ステップS15~S18の動作を、ステップS11で設定されたレンズ駆動回数nだけ繰り返す。
なお、前述したように、AFスキャンを粗スキャン、密スキャンに分けて行う場合には、粗スキャン用と、密スキャン用に、ステップS13~S19の動作を2回繰り返して行う。
図6(a)の説明に戻り、ステップS3では、ステップS16で得られた焦点評価値Evalからピーク位置演算を行う。図8のような焦点評価値Evalが得られていた場合、極大値であるEval(6)を焦点評価値ピークとして、フォーカスレンズ位置z=6を焦点評価値ピーク位置(合焦位置)としてもよい。しかし、より高精度には、焦点評価値の極大値付近の焦点評価値Evalと、ステップ間隔、フォーカスレンズ位置zを使って内挿計算する等して焦点評価値ピーク位置であるフォーカスレンズ位置Pを求める。内挿計算の方法は線形補間でも構わないし、得られた離散的な焦点評価値Evalから高次近似で極大値を求めても構わない。
図8の例では、極大値付近の3点を使って線形補間で補間演算を行い、フォーカスレンズ位置z=5とz=6の間に極大値があると算出され、フォーカスレンズ位置Pはz=5.7付近となる。ここでは、コントラストAFを用いた焦点検出方法について説明したが、焦点検出方法はこの手法に限らず、位相差検出方式を用いてもよい。
次に、ステップSS1では、カメラCPU104は各種の補正値を算出し、ステップS3で得られた焦点検出結果(フォーカスレンズ位置P)を補正する。この補正を行うための補正値を、以下では、ベストピント補正値(以下では簡略化してBP補正値)と呼ぶこととする。以下、AF補正処理(ベストピント補正処理)の詳細を、図6(c)に示すフローチャートを用いて説明する。
まず、ステップSS11では、BP補正値の算出に必要なパラメータ(算出条件)を取得する。BP補正値は、フォーカスレンズ503の位置の変化、焦点検出領域の位置座標(x1,y1)の変化などの、撮影光学系の変化や焦点検出光学系の変化に伴い変化する。そのため、カメラCPU104は、ステップSS11で例えばフォーカスレンズ503の位置、および、焦点検出領域の位置座標(x1,y1)などの情報を取得する。
次に、ステップSS12では、カメラCPU104は、BP補正情報を取得する。ここでのBP補正情報は、光学系の収差情報に対応し、例えば、被写体の色、方向、空間周波数ごとの撮影光学系の結像位置に関する情報である。
図16A~16Dを用いて撮影レンズ600内の不揮発性メモリ510に格納されている収差情報の例について説明する。図16Aは、撮影光学系のデフォーカスMTFを示している。横軸は、フォーカスレンズの位置を示しており、縦軸はMTFの強度を示している。図16Aに描かれている4種の曲線は、空間周波数ごとのMTF曲線で、defMTF1、defMTF2、defMTF3、defMTF4の順に、空間周波数が低い方から高い方に変化した場合を示している。空間周波数F1(lp/mm:ラインペア/ミリメートル)のMTF曲線がdefMTF1と対応し、同様に、空間周波数F2、F3、F4(lp/mm)とdefMTF2、defMTF3、defMTF4が対応する。また、LP4、LP5、LP6、LP7は、各デフォーカスMTF曲線の極大値に対応するフォーカスレンズ位置を示している。
図16Bは、本実施形態におけるBP(ベストピント)補正情報(収差情報)の例を示す。図16Bは、図16AのデフォーカスMTFの極大値を示すフォーカスレンズ503の位置の情報MTF_P_RHの値を示している。ここでのBP補正情報は、例えば、色(赤、緑、青)と方向(水平、垂直)との6通りの組み合わせの各々について、空間周波数fと撮像素子101上の焦点検出領域の位置座標(x,y)を変数とした以下の式で表現される。
MTF_P_RH(f,x,y)=(rh(0)×x+rh(1)×y+rh(2))×f2+(rh(3)×x+rh(4)×y+rh(5))×f+(rh(6)×x+rh(7)×y+rh(8)) …(1)
なお、式(1)は、赤(R)色の信号について水平(H)方向に対応した空間周波数ごとのデフォーカスMTFの極大値を示すフォーカスレンズ位置の情報MTF_P_RHの式を示しているが、他の組み合わせについても同様の式で表される。また、本実施形態において、各項の係数rh(n)(0≦n≦8)は、撮影レンズ600内の不揮発性メモリ510にあらかじめ記憶されており、カメラCPU104は、レンズCPU507に要求してrh(n)(0≦n≦8)を取得するものとする。しかし、rh(n)(0≦n≦8)はカメラ本体100内の不揮発性メモリ115に記憶されていてもよい。
赤と垂直(MTF_P_RV)、緑と水平(MTF_P_GH)、緑と垂直(MTF_P_GV)、青と水平(MTF_P_BH)、青と垂直(MTF_P_BV)の各組み合わせにおける係数(rv,gh,gv,bh,bv)も同様に記憶されている。そして、カメラCPU104は、その値を撮影レンズ600から取得することができる。このようにBP補正情報を関数化し、各項の係数をBP補正情報として記憶することにより、不揮発性メモリ510,115のデータ量を削減しつつ、撮影光学系の変化や焦点検出光学系の変化に対応したBP補正情報(収差情報)の取得が可能となる。
次に、SS13では、重み付け係数の設定を行う。図16Dに、重み付け係数の例を示す。この重み付け係数は、焦点状態を評価するコントラストの方向(水平、垂直)と色(赤、緑、青)、空間周波数の各組み合わせに対する、重み付けの大きさを示す情報である。設定情報は、焦点検出用と撮影画像用とで、異なる情報を有する。例えば、撮像素子101上で水平方向に緑色の信号のみを用いたコントラストAFの結果を補正する場合、図16B上で考えると、MTF_P_GHのみが焦点検出時に用いられることになる。そのため、重み付け係数を、
K_AF_H=1
K_AF_V=0
K_AF_R=0
K_AF_G=1
K_AF_B=0
と定めればよい。このような重み付け係数の設定により、焦点検出用の信号のデフォーカスMTFのピーク情報(収差情報)は、水平方向で緑色の信号の特性と同じであることを示すことができる。
一方、撮像画像用の設定情報は、例えば、
K_IMG_H=1
K_IMG_V=1
K_IMG_R=0.3
K_IMG_G=0.6
K_IMG_B=0.1
と定めればよい。この値は、一例であるが、RGBの信号をY信号相当に変換するための重み付け係数であり、撮像画像はY信号で評価し、水平、垂直方向のいずれのコントラストも同等に評価することを想定して設定された値である。ただし、設定値や設定値の種類などは、これに限らない。
次に、ステップSS13では、カメラCPU104は、焦点検出結果を取得するために用いられる信号の評価周波数に関する情報である空間周波数の重み付け係数K_AF_fq(n)、撮影画像に用いられる信号の評価周波数に関する情報であるK_IMG_fq(n)を計算する。ここでの、nは多いほど精度は良いが、任意の数に設定することができる。
図17A~17Fを用いて、AF評価帯域K_AF_fq(n)、撮影画像評価帯域K_IMG_fq(n)の算出方法について説明する。図17A~17Fは、いずれも空間周波数毎の光の強度を示しており、横軸に空間周波数、縦軸に光の強度を示している。
まず、図17Aは、被写体の空間周波数特性Iの例を示している。横軸上のfq1、fq2、fq3、fq4は、図16Dで設定されている空間周波数である。また、Nqは、撮像素子101の画素ピッチによりきまるナイキスト周波数を示している。fq1からfq4、Nqについては、以後説明する図17Bから図17Fにも同様に示している。
図17Aに示した被写体の空間周波数特性Iは、焦点検出を行う被写体に応じてその特性を検出するようにしてもよい。図6(a)のステップS1で設定された焦点検出領域において、撮影した画像信号に対してFFT処理などを行うことにより、図17Aのような被写体の空間周波数情報を得ることができる。このような処理により、演算処理内容が増えるが、焦点検出を行う被写体に応じた補正値を算出できるため、高精度な焦点調節を行うことができる。また、より簡易的に、被写体のコントラスト情報の大小によって、予め記憶された数種の空間周波数特性を使い分けてもよい。
図17Bは、撮影光学系の空間周波数特性Oを示している。この光学情報は、レンズCPU507を通じて不揮発性メモリ510から取得してもよいし、カメラ本体100内の不揮発性メモリ115に記憶しておいてもよい。その際に記憶する情報は、デフォーカス状態毎の空間周波数特性でもよいし、合焦時の空間周波数特性のみでもよい。一般的にBP補正値は、合焦近傍で算出するため、合焦時の空間周波数特性を用いれば、高精度に補正を行うことができる。但し、演算負荷は増えるものの、デフォーカス状態毎の空間周波数特性を用いると、より高精度に焦点調節を行うことができる。
図17Bでは、撮影光学系の空間周波数特性Oは、曲線で描かれているが、離散的な空間周波数fq1、fq2、fq3、fq4に対応した値を、O(n)(1≦n≦4)と表す。ここでの撮像光学系の空間周波数特性Oは、本実施形態の反射光学系を有する撮影レンズ600においては、図4(c)で示したMTF3のような空間周波数特性となる。一般的な反射光学系を持たないレンズにおいては、図4(a)、図4(b)、図17(b)の点線で示すような空間周波数特性になる。しかし、本実施形態では、前述したように、反射光学系を有することで特殊なMTF形状となるので、それに応じた撮影光学系の空間周波数特性Oの設定を行う。反射光学系の空間周波数特性Oは、レンズCPU507から不揮発性メモリ510に記憶されている値を通信で取得してもよい。あるいは、レンズCPU507からは反射光学系であることの通知のみを受け取り、カメラ本体100内の不揮発性メモリ115に記憶された空間周波数特性Oを用いてもよい。また、図6(b)のステップS12で取得した内径の大きさDN、外径の大きさDG、瞳関数P、レンズ射出瞳距離LPOから、撮影光学系の空間周波数特性(O)を計算で求めるなどしてもよい。
図17Cは、撮像素子101の前方に配置された光学ローパスフィルタの空間周波数特性Lを示している。この情報は、カメラ本体101内の不揮発性メモリ115に記憶されている。図17Cでは、光学ローパスフィルタの空間周波数特性Lは、曲線で描かれているが、離散的な空間周波数fq1、fq2、fq3、fq4に対応した値を、L(n)(1≦n≦4)と表す。
図17Dは、信号生成による焦点検出用と撮像画像用の2種類の空間周波数特性(M1,M2)を示している。撮像画像用の信号は、撮像素子の全画素の信号を読み出し、高解像度の画像を取得することが一般的である。一方、焦点検出用の信号は、焦点検出動作の処理負荷を軽減するため、間引き読み出し(撮像素子信号のダウンサンプリング取得)を行うことが一般的である。
ここで取得される撮像画像用の第1の読み出しモード、すなわち全画素読み出しモードでは、信号生成時に空間周波数特性が変わることはない。図17DのM1は、第1の読み出しモードの際の空間周波数特性を示している。一方で、焦点検出用の第2の読み出しモード、すなわち間引き読み出しモードの際には、信号生成時に空間周波数特性が変わる。具体的には、撮像素子信号の間引きの際に信号の加算を行い、S/Nの改善を図るため、加算によるローパス効果が発生する。図17DのM2は、第2の読み出しモードでの信号生成時の空間周波数特性を示している。ここでは、図17Eで加味する間引きの影響は考えず、加算によるローパス効果のみを示している。図17Dでは、信号生成による空間周波数特性(M1,M2)は、曲線で描かれているが、離散的な空間周波数fq1、fq2、fq3、fq4に対応した値を、M1(n)、M2(n)(1≦n≦4)と表す。
図17Eは、撮影画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性D1とAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性D2を示している。撮影画像を鑑賞する際の空間周波数毎の感度は、鑑賞者の個人差、画像サイズや鑑賞距離、明るさなどの鑑賞環境により影響を受ける。本実施形態では、代表的な値として、鑑賞時の空間周波数毎の感度を設定し、記憶している。
一方で、第2の読み出しモードの際には、間引きの影響で、信号の周波数成分の折り返しノイズが発生する。その影響を加味して、デジタルフィルタの空間周波数特性を示したものがD2である。
図17Eでは、鑑賞時の空間周波数特性D1とデジタルフィルタの空間周波数特性D2は、曲線で描かれているが、離散的な空間周波数fq1、fq2、fq3、fq4に対応した値を、D1(n)、D2(n)(1≦n≦4)と表す。
以上のように、種々の情報を、カメラ本体101の不揮発性メモリ115、撮影レンズ600の不揮発性メモリ510のいずれかに記憶しておき、カメラCPU104がその情報を通信により取得する。カメラCPU104は、取得した値を用いて、撮影画像の評価帯域K_IMG_fqやAF評価帯域K_AF_fqを下記の式を用いて算出する。
K_IMG_fq(n)=I(n)×O(n)×L(n)×M1(n)×D1(n)
(1≦n≦4) …(2)
K_AF_fq(n)=I(n)×O(n)×L(n)×M2(n)×D2(n)
(1≦n≦4) …(3)
図17Fは、撮影画像の評価帯域K_IMG_fqとAF評価帯域K_AF_fqを示している。式(2)や式(3)のような計算を行うことにより、撮影画像の合焦状態を決定する因子に対して、空間周波数毎に、どの程度の影響度合いを有するかを定量化することができる。同様に、焦点検出結果が有する誤差が、空間周波数毎に、どの程度の影響度合いを有するかを定量化することができる。
また、これら全ての計算を焦点検出時に毎回行う必要はない。例えば、被写体の空間周波数特性Iは焦点検出時毎に異なるので、毎回更新を行うが、光学LPFの空間周波数特性Lや信号生成方法M、空間周波数特性Dはあらかじめ計算され、乗算された値として記憶されていてもよい。また、本実施形態で特徴的な撮影光学系の空間周波数特性Oはレンズ装着時に取得し、更新するなどしてもよい。
図17A~17Fでは、説明を分かりやすくするために、4つ空間周波数(fq1~fq4)を用いて説明した。しかし、データを有する空間周波数の数は、多いほど、撮影画像やAFの評価帯域の空間周波数特性を分解能良く再現することができ、精度のよい補正値の算出を行うことができる。一方で、重み付けを行う空間周波数を少なくすることにより、演算量の低減を行うことができる。撮影画像の評価帯域とAF評価帯域の空間周波数特性を代表する空間周波数を各々1つずつ持ち、以後の演算を行ってもよい。
次に、SS14では、SS13で設定された重み付けの係数と、SS12で取得されたBP補正情報から、BP補正値を算出する。
具体的には、まず、式(1)のx,yに焦点検出領域の位置情報(x1,y1)を代入する。この計算により式(1)は、以下の式(4)のような形式で表される。
MTF_P_RH(f)=Arh×f2+Brh×f+Crh …(4)
カメラCPU104は、MTF_P_RV(f)、MTF_P_GH(f)、MTF_P_GV(f)、MTF_P_BH(f)、MTF_P_BV(f)についても同様に計算を行う。
図16Bは、図6(a)のステップS1で焦点検出領域の位置情報を代入した後のBP補正情報の例を示し、横軸は空間周波数を、縦軸はデフォーカスMTFの極大値を示すフォーカスレンズ503の位置(ピーク位置)を示す。図16Bに示すように、色収差が大きい場合には、色ごとの曲線が乖離し、非点収差(縦横差)が大きい場合には、図中の水平方向と垂直方向の曲線が乖離する。このように、本実施形態では、色(R、G、B)と評価方向(HとV)との組み合わせごとに、空間周波数に対応したデフォーカスMTF情報を有する。
次に、SS13で取得している焦点検出情報を構成する係数(図16D)で、BP補正情報を重み付けする。これにより、収差情報が、焦点検出、撮像で評価する色、方向に関して重み付けされる。具体的には、焦点検出用の空間周波数特性MTF_P_AF(f)と撮影画像用の空間周波数特性MTF_P_IMG(f)を、式(5)および式(6)を用いて算出する。
MTF_P_AF(f)=K_AF_R×K_AF_H×MTF_P_RH(f)+K_AF_R×K_AF_V×MTF_P_RV(f)+K_AF_G×K_AF_H×MTF_P_GH(f)+K_AF_G×K_AF_V×MTF_P_GV(f)+K_AF_B×K_AF_H×MTF_P_BH(f)+K_AF_B×K_AF_V×MTF_P_BV(f) …(5)
MTF_P_IMG(f)=K_IMG_R×K_IMG_H×MTF_P_RH(f)+K_IMG_R×K_IMG_V×MTF_P_RV(f)+K_IMG_G×K_IMG_H×MTF_P_GH(f)+K_IMG_G×K_IMG_V×MTF_P_GV(f)+K_IMG_B×K_IMG_H×MTF_P_BH(f)+K_IMG_B×K_IMG_V×MTF_P_BV(f) …(6)
図16Cには、離散的な空間周波数F1からF4について、式(5)、式(6)に代入して得られるデフォーカスMTFがピーク(極大値)となるフォーカスレンズ位置(ピーク位置)LP4_AF、LP5_AF、LP6_AF、LP7_AFが縦軸に示されている。
次に、撮影画像の合焦位置(P_img)とAF動作により検出される合焦位置(P_AF)を、以下の式(7)および式(8)に従って算出する。算出には、デフォーカスMTF情報MTF_P(n)と、SS13で得た評価帯域K_IMG_fq、K_AF_fqを用いる。
P_img=MTF_P_IMG(1)×K_IMG_FQ(1)+MTF_P_IMG(2)×K_IMG_FQ(2)+MTF_P_IMG(3)×K_IMG_FQ(3)+MTF_P_IMG(4)×K_IMG_FQ(4) …(7)
P_AF=MTF_P_AF(1)×K_AF_FQ(1)+MTF_P_AF(2)×K_AF_FQ(2)+MTF_P_AF(3)×K_AF_FQ(3)+MTF_P_AF(4)×K_AF_FQ(4) …(8)
つまり、カメラCPU104は、図16Cで示した空間周波数ごとのデフォーカスMTFの極大値情報K_IMG_fq,K_AF_fqを、SS13で算出した撮影画像やAFの評価帯域K_IMG_FQ,K_AF_FQで重み付け加算する。それにより、撮影画像の合焦位置(P_img)とAFが検出する合焦位置(P_AF)を算出している。
次にカメラCPU104は、BP補正値(BP)を、以下の式(9)により算出する。
BP=P_AF-P_img …(9)
ステップSS15では、以上により、撮影光学系の収差に因るBP補正値の算出を終了する。
次に、ステップS4では、各焦点検出領域のピーク位置の合焦判定(合焦状態判定)を行い、ステップS5へ進む。ここでは、フォーカスレンズ位置に対するAF評価値の極大値の有無を判定し、極大値が存在する場合のフォーカスレンズ位置を算出する。更に、極大値近傍のAF評価値の変化曲線の信頼性を評価する。この信頼性評価では、求められたAF評価値が、被写体の光学像が撮像素子101上に結像したために極大値をとったのか、その他の外乱により極大値をとったのかを判定する。
合焦判定の詳細な方法としては、例えば、特開2010-078810号公報の図10から図13で説明されているような方法を用いればよい。つまり、合焦状態を示すAF評価値が山状になっているか否かを、焦点評価値の最大値と最小値の差、一定値(SlopeThr)以上の傾きで傾斜している部分の長さ、および傾斜している部分の勾配から判断する。これにより、合焦判定を行うことができる。合焦判定でNGとなった場合には、ステップS6の合焦表示で非合焦の表示を行うか、ステップS2のAFスキャン動作をやり直す。
次に、ステップS5では、ステップS3で求めたフォーカスレンズ位置PにステップSS1で求めたBP補正値を加算した位置へフォーカスレンズ503を光軸方向に駆動させる。
最後に、ステップS6では、合焦表示を行う。ステップS4で合焦判定OKとなった場合には、図7の焦点検出領域に合焦表示(たとえば、枠を緑色に表示)を行うことによりユーザーに焦点検出動作の終了を知らせる。ステップS4で合焦判定がNGとなった場合には、図7の焦点検出領域に非合焦表示(たとえば、枠を赤色に表示)を行うことによりユーザーに焦点検出動作の終了を知らせる。以上の動作を行い、焦点調節動作を完了する。
以上説明したように、本実施形態によれば、反射光学系を含むレンズを有する撮像装置においても、高精度に焦点調節を行うことが可能となる。
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:カメラ本体、101:撮像素子、104:カメラCPU、106:記憶媒体、111:フォーカルプレンシャッタ、113:カメラ側通信端子、500,600:撮影レンズ、507:レンズCPU、508:レンズ側通信端子、

Claims (12)

  1. 被写体像を撮像する撮像素子と、
    撮影光学系に含まれるフォーカスレンズを前記撮影光学系の光軸に沿って移動させるスキャン動作を行いながら、前記被写体像を前記撮像素子により光電変換して得られた画像信号に基づいて、被写体の合焦度を示す焦点評価値を算出し、該焦点評価値が最大になるフォーカスレンズの位置を検出する焦点検出手段と、
    前記撮影光学系が、光束の一部が遮光される反射光学系を含む場合に、前記反射光学系に関する情報と、異なる複数の空間周波数ごとの前記撮影光学系の結像位置に関する情報とに基づいて、前記焦点検出手段の焦点検出結果を補正する補正値を算出する算出手段と、
    を備え
    前記撮影光学系は、ドーナツ状の瞳関数を有し、前記焦点検出手段は、前記スキャン動作において、前記画像信号に前記ドーナツ状の内外径差に対応する開口に応じた周波数帯域のローパスフィルタを適用して、前記焦点評価値を算出することを特徴とする撮像装置。
  2. 前記算出手段は、前記焦点検出手段による焦点検出結果を取得するために用いられる信号の評価周波数に関する情報と、撮影画像に用いられる信号の評価周波数に関する情報とにさらに基づいて、前記補正値を算出することを特徴とする請求項1に記載の撮像装置。
  3. 前記反射光学系に関する情報は、前記撮影光学系が前記反射光学系を有するレンズであることを示す情報であることを特徴とする請求項1または2に記載の撮像装置。
  4. 前記算出手段は、前記撮像装置の本体内の記憶部に記憶されている前記反射光学系に対応する情報に基づいて、前記焦点検出手段の焦点検出結果を補正する補正値を算出することを特徴とする請求項3に記載の撮像装置。
  5. 前記反射光学系に関する情報は、前記反射光学系の瞳関数に関する情報であることを特徴とする請求項1または2に記載の撮像装置。
  6. 前記反射光学系に関する情報は、前記反射光学系の射出瞳面上において前記瞳関数に対応する内径と外径に関する情報であることを特徴とする請求項5に記載の撮像装置。
  7. 前記反射光学系に関する情報は、前記内径と外径に対応するF値情報であることを特徴とする請求項6に記載の撮像装置。
  8. 前記反射光学系に関する情報は、前記反射光学系のMTFに関する情報であることを特徴とする請求項1または2に記載の撮像装置。
  9. カメラ本体に撮影レンズが着脱自在に構成されたカメラシステムであって、
    前記撮影レンズは、光束の一部が遮光される反射光学系を含み、前記反射光学系に関する情報と、異なる複数の空間周波数ごとの前記撮影レンズの結像位置に関する情報とを記憶した記憶手段を有し、
    前記カメラ本体は、被写体像を撮像する撮像素子と、前記撮影レンズに含まれるフォーカスレンズを前記撮影レンズの光軸に沿って移動させるスキャン動作を行いながら、前記被写体像を前記撮像素子により光電変換して得られた画像信号に基づいて、被写体の合焦度を示す焦点評価値を算出し、該焦点評価値が最大になるフォーカスレンズの位置を検出する焦点検出手段と、前記反射光学系に関する情報と、前記異なる複数の空間周波数ごとの前記撮影レンズの結像位置に関する情報とに基づいて、前記焦点検出手段の焦点検出結果を補正する補正値を算出する算出手段と、を有し、
    前記撮影レンズは、ドーナツ状の瞳関数を有し、前記焦点検出手段は、前記スキャン動作において、前記画像信号に前記ドーナツ状の内外径差に対応する開口に応じた周波数帯域のローパスフィルタを適用して、前記焦点評価値を算出することを特徴とするカメラシステム。
  10. 被写体像を撮像する撮像素子を備える撮像装置を制御する方法であって、
    撮影光学系に含まれるフォーカスレンズを前記撮影光学系の光軸に沿って移動させるスキャン動作を行いながら、前記被写体像を前記撮像素子により光電変換して得られた画像信号に基づいて、被写体の合焦度を示す焦点評価値を算出し、該焦点評価値が最大になるフォーカスレンズの位置を検出する焦点検出工程と、
    前記撮影光学系が、光束の一部が遮光される反射光学系を含む場合に、前記反射光学系に関する情報と、異なる複数の空間周波数ごとの前記撮影光学系の結像位置に関する情報とに基づいて、前記焦点検出工程による焦点検出結果を補正する補正値を算出する算出工程と、
    を有し、
    前記撮影光学系は、ドーナツ状の瞳関数を有し、前記焦点検出工程では、前記スキャン動作において、前記画像信号に前記ドーナツ状の内外径差に対応する開口に応じた周波数帯域のローパスフィルタを適用して、前記焦点評価値を算出することを特徴とする撮像装置の制御方法。
  11. 請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。
  12. 請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2019105608A 2019-06-05 2019-06-05 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体 Active JP7303668B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019105608A JP7303668B2 (ja) 2019-06-05 2019-06-05 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体
US16/886,956 US11082604B2 (en) 2019-06-05 2020-05-29 Image capturing apparatus, method of controlling the same, camera system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019105608A JP7303668B2 (ja) 2019-06-05 2019-06-05 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2020197686A JP2020197686A (ja) 2020-12-10
JP7303668B2 true JP7303668B2 (ja) 2023-07-05

Family

ID=73649185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019105608A Active JP7303668B2 (ja) 2019-06-05 2019-06-05 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US11082604B2 (ja)
JP (1) JP7303668B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6313685B2 (ja) * 2014-05-01 2018-04-18 キヤノン株式会社 撮像装置およびその制御方法
JP7240261B2 (ja) * 2019-06-05 2023-03-15 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
TWI717942B (zh) * 2019-12-19 2021-02-01 宏碁股份有限公司 鏡頭匹配裝置及鏡頭匹配方法
CN113556470B (zh) * 2021-09-18 2021-12-31 浙江宇视科技有限公司 一种镜头的调焦方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248782A (ja) 2006-03-15 2007-09-27 Olympus Imaging Corp 焦点調節装置およびカメラ
WO2009028181A1 (ja) 2007-08-29 2009-03-05 Panasonic Corporation オートフォーカス機能を有する交換レンズカメラシステム
JP2013029656A (ja) 2011-07-28 2013-02-07 Sanyo Electric Co Ltd 撮像装置
JP2019078965A (ja) 2017-10-27 2019-05-23 キヤノン株式会社 撮像装置および焦点検出方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085725A (ja) 2002-08-23 2004-03-18 Sony Corp 撮像レンズ、集光光学素子及び撮像装置
WO2006090320A1 (en) * 2005-02-23 2006-08-31 Lyncee Tec S.A. Wave front sensing method and apparatus
JP5153542B2 (ja) 2008-09-25 2013-02-27 キヤノン株式会社 自動焦点調節装置および焦点調節方法
JP5705096B2 (ja) * 2011-12-02 2015-04-22 キヤノン株式会社 画像処理装置及び画像処理方法
JP6087674B2 (ja) * 2013-02-27 2017-03-01 キヤノン株式会社 撮像装置
JP5903529B2 (ja) * 2013-08-01 2016-04-13 富士フイルム株式会社 撮像装置、撮像方法及び画像処理装置
JP6478457B2 (ja) 2014-01-23 2019-03-06 キヤノン株式会社 焦点調節装置及び焦点調節方法
JP6027287B2 (ja) * 2014-03-28 2016-11-16 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6486288B2 (ja) 2016-02-09 2019-03-20 キヤノン株式会社 撮像装置、制御方法、プログラム、記憶媒体
JP6464118B2 (ja) 2016-06-27 2019-02-06 キヤノン株式会社 焦点検出装置および方法、撮像装置、およびレンズユニット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248782A (ja) 2006-03-15 2007-09-27 Olympus Imaging Corp 焦点調節装置およびカメラ
WO2009028181A1 (ja) 2007-08-29 2009-03-05 Panasonic Corporation オートフォーカス機能を有する交換レンズカメラシステム
JP2013029656A (ja) 2011-07-28 2013-02-07 Sanyo Electric Co Ltd 撮像装置
JP2019078965A (ja) 2017-10-27 2019-05-23 キヤノン株式会社 撮像装置および焦点検出方法

Also Published As

Publication number Publication date
US20200389598A1 (en) 2020-12-10
JP2020197686A (ja) 2020-12-10
US11082604B2 (en) 2021-08-03

Similar Documents

Publication Publication Date Title
US11822211B2 (en) Imaging optical system storing information on its aberration, imaging apparatus, and control method thereof
US10212334B2 (en) Focusing adjustment apparatus and focusing adjustment method
JP7303668B2 (ja) 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体
US10313578B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6429546B2 (ja) 撮像装置、制御方法、プログラム、および、記憶媒体
CN109981945B (zh) 摄像光学系统
US10326924B2 (en) Focus detection apparatus and method, image capturing apparatus, and lens unit
JP2008017157A (ja) 撮像装置、並びにその製造装置および製造方法
JP6298362B2 (ja) 撮像装置及びその制御方法、及び撮像システム
JP6890937B2 (ja) 焦点検出装置、撮像装置、および焦点検出方法
JP6854619B2 (ja) 焦点検出装置及び方法、撮像装置、レンズユニット及び撮像システム
JP7240261B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6744933B2 (ja) レンズ部およびその制御方法
JP6686191B2 (ja) 焦点検出装置、撮像装置、及び焦点検出方法
JP6548626B2 (ja) 撮像装置、撮像装置の制御方法およびフォーカス制御プログラム
JP2020003686A (ja) 焦点検出装置、撮像装置および交換レンズ装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R151 Written notification of patent or utility model registration

Ref document number: 7303668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151