JP2024042614A - フォーカス制御装置、撮像装置およびフォーカス制御方法 - Google Patents

フォーカス制御装置、撮像装置およびフォーカス制御方法 Download PDF

Info

Publication number
JP2024042614A
JP2024042614A JP2022147457A JP2022147457A JP2024042614A JP 2024042614 A JP2024042614 A JP 2024042614A JP 2022147457 A JP2022147457 A JP 2022147457A JP 2022147457 A JP2022147457 A JP 2022147457A JP 2024042614 A JP2024042614 A JP 2024042614A
Authority
JP
Japan
Prior art keywords
focus
subject
information regarding
defocus amount
focus control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022147457A
Other languages
English (en)
Inventor
遥平 松井
秀樹 小椋
浩 八島
邦明 杉谷
暁彦 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022147457A priority Critical patent/JP2024042614A/ja
Priority to US18/466,329 priority patent/US20240098366A1/en
Publication of JP2024042614A publication Critical patent/JP2024042614A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】適切なピント追従判定が行うフォーカス制御装置を提供する。【解決手段】フォーカス制御装置は、撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行う。フォーカス制御装置は、デフォーカス量に関する情報を用いてピント追従を行うか否かを判定するピント追従判定を行う判定手段2121と、撮像により生成された画像データから被写体に対する遮蔽物に関する情報を取得する取得手段2125とを有する。判定手段は、検出領域において取得された遮蔽物に関する情報を用いてピント追従判定を行う。【選択図】図1

Description

本発明は、デジタルカメラ等の撮像装置において用いられる焦点検出技術に関する。
被写体に対する撮像光学系のデフォーカス量の検出結果に基づいて撮像光学系に対して行われるフォーカス制御には、移動被写体に対するフォーカシングに適したサーボモードがある。サーボモードでは、特許文献1にて開示されているように、過去の複数の時刻での像面位置の変化に対応する関数を求め、該関数から次の時刻での予測像面位置を求める動体予測を行って移動被写体に対するピント追従を行う。
特許文献2には、予測像面位置に対する許容デフォーカス量を設定し、検出デフォーカス量が許容デフォーカス量以下か否かにより検出デフォーカス量に基づくピント追従を行うか行わないかの判定(ピント追従判定)を行うフォーカス制御が開示されている。
特開2001-021794号公報 特開2019―020716号公報
ピント追従判定は、カメラのユーザが撮像対象としてフレーミングしている主被写体の手前を障害物が通過したり主被写体に対するフレーミングを失敗したりした場合でも不用意なピント移動を生じさせないために行われる。しかしながら、ピント追従判定においてユーザの意思に反したピント追従を行うか否かの判定がなされる場合がある。例えば、主被写体に近い手前位置を通過した障害物に対する検出デフォーカス量が許容デフォーカス量以下であれば障害物に対してピント追従が行われる。また、ユーザが意図してデフォーカス差が大きい別の主被写体に対してフレーミングした場合に、その新たな主被写体にピント追従が行われない。このように、検出デフォーカス量だけで正しいピント追従判定を行うのが困難な場合がある。
本発明は、適切なピント追従判定が行えるようにしたフォーカス制御装置およびフォーカス制御方法を提供する。
本発明の一側面としてのフォーカス制御装置は、撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行う。該フォーカス制御装置は、デフォーカス量に関する情報を用いてピント追従を行うか否かを判定するピント追従判定を行う判定手段と、撮像により生成された画像データから被写体に対する遮蔽物に関する情報を取得する取得手段とを有する。判定手段は、検出領域において取得された遮蔽物に関する情報を用いてピント追従判定を行うことを特徴とする。なお、上記フォーカス制御装置を有する光学機器も、本発明の他の一側面を構成する。
また本発明の他の一側面としてのフォーカス制御方法は、撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行う。該フォーカス制御方法は、デフォーカス量に関する情報を用いてピント追従を行うか否かを判定するピント追従判定を行うステップと、撮像により生成された画像データから被写体に対する遮蔽物に関する情報を取得するステップとを有する。ピント追従判定を行うステップにおいて、検出領域において取得された遮蔽物に関する情報を用いてピント追従判定を行うことを特徴とする。なお、コンピュータに上記フォーカス制御方法に従う処理を実行させるプログラムも、本発明の他の一側面を構成する。
本発明によれば、適切なピント追従判定を行うことができる。
実施例1のレンズ交換式カメラシステムの構成を示すブロック図。 実施例1における遮蔽情報を説明する図。 実施例1におけるサーボモード処理を示すフローチャート。 実施例1における焦点検出処理を示すフローチャート。 実施例1における被写体像面位置の変化を示す図。 実施例1における被写体に対するフレーミングの変化を示す図。 図6における遮蔽情報を示す図。 遮蔽情報のみを用いたピント追従判定を示すフローチャート。 実施例1におけるピント追従判定を示すフローチャート。 実施例2におけるピント追従判定を示すフローチャート。 実施例2において遮蔽領域が検出被写体である場合と検出被写体でない場合の遮蔽情報を示す図。 実施例2における被写体A、B、Cの時系列変化と遮蔽情報を示す図。 実施例2において時刻tnにて被写体Aが検出されなくなった場合の遮蔽情報を示す図。 図13における像面位置を示す図。 実施例2において遮蔽領域のデフォーカス量を探索する範囲を説明する図。 実施例2において時刻tnでの遮蔽領域の像面位置Pnの予測を説明する図。
以下、本発明の実施例について図面を参照しながら説明する。
図1は、本発明の実施例1のレンズ交換式カメラシステムの構成を示している。カメラシステムは、撮像装置(光学機器)としてのカメラ本体20と、該カメラ本体20に対して着脱が可能なレンズユニット10とにより構成されている。レンズユニット10内に設けられたレンズ制御部106とカメラ本体20内に設けられたカメラ制御部212は、カメラ本体20に設けられた不図示のマウントに設けられた通信端子を通じて相互に通信可能である。
レンズユニット10は、物体側から像側へ順に配置された固定レンズ101、絞り102およびフォーカスレンズ103を含む撮像光学系を有する。絞り102は、絞り駆動部104によって駆動され、後述する撮像素子201への入射光量を制御する。フォーカスレンズ103は、フォーカスレンズ駆動部105によって駆動されてフォーカシングを行う。絞り駆動部104とフォーカスレンズ駆動部105はそれぞれ、カメラ制御部212からの制御信号を受けたレンズ制御部106によって制御されて絞り102の開口径やフォーカスレンズ103の位置を変更する。
レンズ操作部107は、AF(オートフォーカス)とMF(マニュアルフォーカス)の切り替え、MFでのフォーカスレンズの位置調整、フォーカスレンズの動作範囲の設定および手振れ補正モードの設定等、ユーザが設定を行うための入力デバイス群である。
レンズ操作部107はユーザにより操作され、該ユーザ操作に応じた操作信号をレンズ制御部106に送信する。レンズ制御部106は、カメラ制御部212から受信した制御命令や制御情報に応じて絞り駆動部104やフォーカスレンズ駆動部105を制御する。また、レンズ制御部106は、カメラ制御部212からの要求に応じて、レンズ制御情報をカメラ制御部212に送信する。
カメラ本体20は、レンズユニット10の撮像光学系により形成される被写体像(撮像画角内の被写体)を撮像する撮像素子201を有する。撮像素子201は、CCDセンサやCMOSセンサ等の光電変換素子により構成される。撮像素子201の撮像面には、2次元配列された複数の画素が設けられ、各画素は入射光量に応じた電荷を蓄積する。複数の画素に蓄積された電荷は、カメラ制御部212の指令に応じてタイミングジェネレータ214から出力される駆動パルス信号のタイミングで電圧信号として順次読み出される。
撮像素子201の各画素は、2つ(一対)のフォトダイオードA、Bとこれら一対のフォトダイオードA、Bに対して設けられた1つのマイクロレンズとにより構成されている。各画素は、入射する光をマイクロレンズで分割して一対のフォトダイオードA、B上に一対の光学像を形成し、該一対のフォトダイオードA、Bから後述するAF用信号(焦点検出用信号)として用いられる一対の位相差像信号(A信号およびB信号)を出力する。また、一対のフォトダイオードA、Bの出力を加算することで、撮像用信号(A+B信号)を得ることができる。
複数の画素から出力された複数のA信号と複数のB信号がそれぞれ合成されることで、撮像面位相差検出方式によるAF(以下、撮像面位相差AFという)に用いられるAF用信号としての一対の位相差像信号が得られる。
CDS/AGC/ADコンバータ202は、撮像素子201から読み出されたAF用信号および撮像用信号に対して、リセットノイズを除去するための相関二重サンプリング、ゲイン調節およびAD変換を行う。コンバータ202は、これらの処理を行った撮像用信号を画像入力コントローラ203に、AF用信号をAF信号処理部204にそれぞれ出力する。
画像入力コントローラ203は、コンバータ202から出力された撮像用信号をバス21を介してSDRAM209に画像信号として格納する。SDRAM209に格納された画像信号は、バス21を介して表示制御部205によって読み出され、表示部206に表示される。また、画像信号の記録を行う録画モードでは、SDRAM209に格納された画像信号は記録媒体制御部207によって半導体メモリ等の記録媒体208に記録される。
ROM210には、カメラ制御部212が各種処理を実行するためのプログラムや該処理に必要な各種データ等が格納されている。フラッシュROM211には、ユーザにより設定されたカメラ本体20の動作に関する各種設定情報等が格納されている。
AF信号処理部(検出手段)204は、コンバータ202から出力されたAF用信号である一対の位相差像信号に対して相関演算を行って該一対の位相差像信号のずれ量である位相差(以下、像ずれ量という)を算出する。さらにAF信号処理部204は、像ずれ量から撮像光学系のデフォーカス量(およびデフォーカス方向)を算出する。またAF信号処理部204は、一対の位相差像信号の信頼性も算出する。信頼性は、二像一致度と相関変化量の急峻度を用いて算出される。またAF信号処理部204は、撮像画面(撮像画角)内で焦点検出を含むAFを行う検出領域であるAF枠の位置および大きさを設定する。AF信号処理部204は、AF枠内で算出したデフォーカス量および信頼性の情報をカメラ制御部212に出力する。
カメラ制御部212内のAF制御部(制御手段)2121は、AF信号処理部204からのデフォーカス量に基づいてフォーカスレンズ103を移動させるようにレンズ制御部106に指示する。カメラ制御部212内の動き判定部(動体判定手段)2122は、記憶部2123がメモリ回路215に記憶させた複数の時刻でのデフォーカス量から算出した像面位置(被写体像が結像する位置)から動き判定を行う。そしてAF制御部2121は、予測部2124に将来の像面位置を予測させ、該予測像面位置を撮像面に一致させるために必要なフォーカスレンズ103の駆動量を算出し、該駆動量でフォーカスレンズ103を駆動するようにレンズ制御部106に指示する。これにより、AF枠内に捉えられる被写体の像面位置に焦点位置(ピント面)を追従させるピント追従が行われる。
さらにAF制御部(判定手段)2121は、予測部2124の予測結果を基準として許容できるデフォーカス状態の像面位置の範囲(所定範囲:以下、ピント追従範囲という)を設定する。そして、検出されたデフォーカス量(以下、検出デフォーカス量という)に対応する像面位置がピント追従範囲内か否かでピント追従を行うか否かの判定(以下、ピント追従判定という)を行う。
被写体認識部(取得手段)2125は、撮像素子201の撮像によって得られた画像データに基づいて被写体検出を行う。本実施例では、被写体検出として、目的とする被写体(主被写体)が画像データのどの位置に存在するかを推定するとともに、主被写体の手前に存在して主被写体を遮蔽する遮蔽物(障害物や他の被写体等)の領域である遮蔽領域を推定する。そして被写体認識部2125は、遮蔽領域の推定結果から遮蔽物に関する情報(以下、遮蔽情報という)を生成する。遮蔽情報は、遮蔽領域の存在、遮蔽領域の位置やサイズ、さらには遮蔽領域が人物等の特定被写体か否かを示す情報である。
主被写体位置および遮蔽領域の推定は、CNN(コンボリューショナル・ニューラル・ネットワーク)によって実現される。
CNNは、一般に多段階の演算からなる。CNNの各段階では、畳み込み演算を行って画像データの局所の特徴を空間的に統合し、次の段階の中間層のニューロンへ入力する。さらにプーリングやサブサンプリングと呼ばれる特徴量を空間方向へ圧縮する操作を行う。CNNは、このような多段階の特徴変換を通じて複雑な特徴表現を獲得することができる。そのため同特徴量に基づいて、画像データ中の被写体のカテゴリ認識、被写体検出および後述する領域分割を高精度に行うことができる。
CNNの機械学習は、任意の手法で行われればよい。例えば、サーバ等のコンピュータがCNNの機械学習を行い、カメラ本体20が該コンピュータから学習されたCNNを取得してもよい。この際、コンピュータは、学習用の画像データを入力とし、学習用の画像データに対応する被写体の位置等を教師データとした教師あり学習を行うことでCNNの機械学習が行われる。AF制御部2121は、CNNにより得られた遮蔽領域の情報に基づいてピント追従判定の判定結果を変更する。
なお、被写体認識部2125は、異なる複数の被写体を検出した際に積極的に新しく検出した被写体に主被写体を切り替えるか全く切り替えないかを、被写体の乗り移り特性としてカメラ操作部213を通じてユーザに設定させることも可能である。
AF信号処理部204およびカメラ制御部212によりフォーカス制御装置が構成される。なお、本実施例では、カメラ本体20にフォーカス制御装置が搭載されているが、レンズユニット(光学機器)10にフォーカス制御装置を搭載してもよい。
次に、被写体認識部2125による主被写体位置および遮蔽領域の推定についてより詳しく説明する。主被写体位置の推定では、画像データから特定被写体(ここでは人物の顔とする)を検出する。画像データ内から特定被写体を検出する技術は、以下の参考文献1に記載されている。なお、本実施例では人物の顔を特定被写体として検出するが、人物の全身、動物、乗り物等、様々な被写体を特定被写体とすることができる。また遮蔽領域の推定では、検出された特定被写体の領域に対して領域分割を行う。領域分割の技術は、以下の参考文献2に記載されている。
(参考文献1)
“Liu,SSD:Single Shot Multibox Detector. In: ECCV2016”
(参考文献2)
“Chen et.al, DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs, arXiv, 2016”
領域分割では、被写体領域に対する遮蔽領域を正事例、それ以外を負事例として学習させた機械学習に基づくCNNによって推論され、各分割領域において遮蔽らしさを示す尤度を出力する。図2(a)は、領域分割の入力された画像データ(入力画像)を示す。被写体検出によって特定被写体としての人物の顔が検出された領域が領域1201であり、被写体検出の検出対象である顔の領域が顔領域1202である。顔領域1202に対して、深度差のない遮蔽領域1203、深度差のある遮蔽領域1204を示している。遮蔽領域としては様々な定義が考えられるが、ここではその例を示す。
図2(b)では、遮蔽領域の3つの定義例を示している。図中の白部分が遮蔽領域、黒部分が遮蔽領域以外の領域を示している。1つ目(図には丸囲み1で示し、以下同様である)は、領域1201内において顔領域1202とは異なる領域を正、それ以外を負とする定義を示す。2つ目は、顔に対して前景となる(手前に位置する)遮蔽物による遮蔽領域1203、1204を正、それ以外を負とする定義を示している。3つ目は、顔に対して遠近競合を招く遮蔽領域1204を正、それ以外を負とする定義を示している。
1つ目の定義は、言い換えると、人物の顔とそれ以外を分類することとなる。人物の顔は、見えのパターンが特徴的でパターンの分散が小さいため、高精度な領域分割が実現しやすい。なお、遮蔽領域の定義は、上述した3つの定義に限らず、遮蔽領域を表現するものであればどのようなものでもよい。
図2(c)は、遮蔽領域の学習方法を示している。参考文献2で示されるニューラルネット1211は、入力画像に対して遮蔽領域の尤度スコアマップ1212を出力する。尤度スコアマップ1212の例を出力結果1213として示す。参考文献2では特定カテゴリ物体の前景領域を推定する手法が用いられるが、ここでは遮蔽情報の教師値1214を与えて、教師値1214と同じようなマップが推定によって得られるようにニューラルネット1211の学習を行う。具体的には、出力結果1213としてのマップと教師値1214とを比較して、交差エントロピーや二乗誤差等の公知の方法で損失値1215の計算を行う。そして、損失値1215が漸減するように誤差逆伝搬法等でニューラルネット1211の重みパラメータを調整する(この処理の詳細は参考文献2に記載されている)。入力画像と教師値は十分な量を与える必要がある。重なった物体の領域の教師値を作成するのにはコストがかかるため、CG(コンピュータグラフィクス)の利用や物体画像を切り出して重畳する画像合成方法を用いて学習データを作成してもよい。
カメラ制御部212は、カメラ本体20内の各部と情報をやり取りしながらこれらを制御する。またカメラ制御部212は、ユーザ操作に基づくカメラ操作部213からの入力に応じて、電源のON/OFF、各種設定の変更、撮像処理、AF処理、記録用画像データの再生処理等、ユーザ操作に対応する様々な処理を実行する。またカメラ制御部212は、レンズユニット10(レンズ制御部106)に対する制御命令やカメラ本体20の情報をレンズ制御部106に送信したり、レンズユニット10の情報をレンズ制御部106から取得したりする。カメラ制御部212は、マイクロコンピュータにより構成され、ROM210に記憶されたコンピュータプログラムを実行することで、交換レンズ10を含むカメラシステム全体の制御を司る。さらにカメラ制御部212は、前述したようにAF信号処理部204にて算出されたデフォーカス量に基づいてレンズ制御部106を通じてフォーカスレンズ103の駆動を制御する。
図3のフローチャートは、コンピュータとしてのカメラ制御部212(AF制御部2121、動き判定部2122、予測部2124および被写体認識部2125)がコンピュータプログラムに従って実行するサーボモード処理を示している。Sはステップを意味する。
カメラ制御部212は、S301においてカメラ操作部213に設けられた撮像開始スイッチSW1がONか否か判定する。ONであればS302に進み、OFFであれば本処理を終了する。
S302では、カメラ制御部212は、AF信号処理部204に焦点検出処理を行わせる。焦点検出処理の詳細については後述する。
次にS303では、カメラ制御部212(AF制御部2121)は、AF枠選択処理を行う。ここでのAF枠選択処理では、撮像画面内に設定された複数のAF枠のうちユーザがカメラ操作部213を通じて選択した1つのAF枠を主AF枠として設定する。ただし、AF枠選択処理において、カメラ制御部212が複数のAF枠のうち画面中央等の所定のAF枠や被写体認識部2125により特定被写体が検出された座標を含むAF枠等を主AF枠として選択してもよい。
次にS304では、カメラ制御部212(AF制御部2121)は、ピント追従判定の処理を行う。カメラ制御部212は、基本的には、主AF枠で取得された検出デフォーカス量に対応する像面位置がピント追従範囲内である場合はピント追従を行うと判定し、ピント追従範囲外である場合はピント追従を行わないと判定する。ピント追従を行わないと判定したカメラ制御部212は、後述するS307での予測演算処理に当該判定に係るデフォーカス量を使用しなかったりS310でフォーカスレンズ103を駆動しなかったりというように、ピント追従を行う場合とは処理を切り替える。ピント追従判定の詳細については後述する。
次にS305では、カメラ制御部212(動き判定部2122)は、動体判定の処理を行う。具体的には、カメラ制御部212は、主AF枠において今回と過去を含む複数の時刻で得られてメモリ回路215に記憶された検出デフォーカス量のそれぞれから算出される像面位置が連続的に所定量以上変化しているか否かを判定する。像面位置が連続的に所定量以上変化している場合は主AF枠内の被写体は動体と判定し、像面位置がそのように変化していない場合は主AF枠内の被写体は非動体と判定する。ただし、動体判定処理の方向は、他の方法でもよい。
次のS306において、カメラ制御部212は、S305での動体判定処理の結果が動体である場合はS307へ進み、非動体である場合はS308へ進む。
S307では、カメラ制御部212(予測部2124)は、記憶部2123によってメモリ回路215に記憶された複数時刻での検出デフォーカス量から算出した像面位置を用いて予測演算処理を行い、将来の予測像面位置(言い換えれば予測デフォーカス量)を算出する。予測像面位置は、複数の検出デフォーカス量のそれぞれに対応する像面位置と時刻の座標を近似する2次曲線を予測関数として用いて算出してもよいし、最新の2つの検出デフォーカス量のそれぞれに対応する像面位置と時刻の座標を通る1次曲線を予測関数として用いて算出してもよい。また、最小二乗法によって式(1)に示すような予測式f(t)を統計演算によって求め、これを用いて予測像面位置を算出してもよい。
f(t)=α+βt+γt 式(1)
一方、S308では、カメラ制御部212(AF制御部2121)は、今回の検出デフォーカス量が合焦範囲内にある合焦状態か否かを判定し、合焦状態である場合はS301へ進み、合焦状態でない場合S309へ進む。
S309では、カメラ制御部212(AF制御部2121)は、焦点検出処理が終了したか否かを判定し、終了の場合は本処理を終了し、終了でない場合はS310へ進む。焦点検出処理を終了したと判定される場合とは、フォーカスレンズ103が駆動可能な範囲の全域を移動(スキャン)した等、これ以上フォーカスレンズ103を駆動しても合焦状態とならないと判断された場合である。
S310では、カメラ制御部212(AF制御部2121)は、S305で被写体が動体と判定された場合はS307で算出された予測像面位置を撮像面に一致させるために必要なフォーカスレンズ103の駆動量を算出する。また、非動体と判定された場合は、S302で検出されてS303で選択された主AF枠の検出デフォーカス量からフォーカスレンズ103の駆動量を算出する。ただし、S304でのピント追従判定の結果に応じてフォーカスレンズ103を駆動するか否かは切り替わる。
図4のフローチャートは、図3のS302でAF信号処理部204により実行される焦点検出処理を示している。AF信号処理部204も、コンピュータであり、コンピュータプログラムに従って本処理を実行する。
S401では、AF信号処理部204は、撮像素子201における複数のAF枠のそれぞれに対応する画素領域に含まれる複数の画素からAF用信号を取得する。
次にS402では、AF信号処理部204は、S401で取得したAF用信号のピークやボトムの情報等を用いてコントラストを検出する。ここでは、検出したコントラストが所定値以上であれば各AF枠内の被写体等が高コントラスト、所定値未満であれば低コントラストとして取り扱う。
次にS403では、AF信号処理部204は、AF枠ごとのAF用信号としての一対の位相差像信号を1画素(1ビット)ずつ相対的にシフトさせながらこれら一対の位相差像信号の相関量を算出する。
続いてS404では、AF信号処理部204は、S403で算出した相関量からAF枠ごとの相関変化量を算出する。
次にS405では、AF信号処理部204は、S404で算出した相関変化量を用いてAF枠ごとの像ずれ量を算出する。
さらにS406では、AF信号処理部204は、S405で算出されたAF枠ごとの像ずれ量を用いてAF枠ごとの検出デフォーカス量を算出する。
そしてS407では、AF信号処理部204は、S406で算出された検出デフォーカス量(言い換えれば一対の位相差像信号)の信頼性を算出して本処理を終了する。信頼性は、デフォーカス量および方向がともに信頼できる(合焦状態を得るのに十分な)「フォーカスOK」、デフォーカス量のみ信頼できる「デフォーカスOK」、デフォーカス方向のみ信頼できる「方向OK」およびいずれも信頼できない「NG」の4つに分けられる。
図5を用いてAF制御部2121が行うピント追従判定について説明する。図5の上図は、ある時刻tにおいてカメラシステムに近づいてくる被写体Aを主AF枠で捉えた状態を示している。図5の下図は、被写体Aの予測像面位置とこれを基準としたピント追従判定の遠側と近側の閾値(像面位置)の時系列変化を示している。近側の閾値から遠側の閾値までの範囲がピント追従範囲である。
なお、図5では、遠側の閾値と予測像面位置との差および近側の閾値と予測像面位置との差が同じで時刻による変化もない場合を例として示している。ただし、遠側の閾値と予測像面位置との差および近側の閾値と予測像面位置との差は、焦点検出を行う時刻の間隔や被写体の移動速度等の様々な条件に応じて変化させてもよい。
主AF枠内で得られた検出デフォーカス量から算出される像面位置が遠側の閾値以下、かつ近側の閾値以上である場合は、AF制御部2121はピント追従を行うと判定する。この場合、該判定に用いられた検出デフォーカス量を使用して図3のS307での予測演算処理を行い、またこの検出デフォーカス量に基づくS310でのフォーカスレンズ103の駆動を行う。一方、主AF枠内で得られた検出デフォーカス量から算出される像面位置が遠側の閾値よりも遠側または近側の閾値よりも近側である場合は、AF制御部2121はピント追従を行わないと判定する。この場合、該判定に用いられた検出デフォーカス量を使用することなく図3のS307での予測演算処理を行い、またこの検出デフォーカス量に基づくS310でのフォーカスレンズ103の駆動を行わない。このようにピント追従を行うか否かの判定結果に応じて処理を切り替える。
図6(a)~(d)を用いて、ピント追従判定の課題について説明する。図6(a)、(c)は、図5の被写体Aと、被写体Aよりもカメラシステムに近い位置に被写体Bが存在する場合を示している。図5(a)では、時刻tn-iから時刻tn+iにかけて被写体Aの手前を被写体Bが通過する。この際、時刻tにおいて被写体Bが完全に被写体Aを隠す。その後の時刻tn+iでは被写体Bが被写体Aを追い抜いて、被写体Aが再び現れる。
図6(b)は、図6(a)の場合における時刻tn-iから時刻tn+iにかけての主AF枠内での検出デフォーカス位置から算出される像面位置(以下、検出像面位置という)の変化を示している。時刻tn-iにおいては、主AF枠で被写体Aを捉え続けているため、主AF枠における検出像面位置も被写体Aの予測像面位置(図5)に沿うように算出され、ピント追従範囲内に収まっている。
次の、時刻tにおいては、主AF枠は被写体Aより近い位置に存在する被写体Bを捉えるため、図6(b)に示すように予測像面位置よりも近側の検出像面位置が算出される。この際、検出像面位置が近側の閾値よりも近側にある(ピント追従範囲から外れる)ことで、AF制御部2121はこれ以上、主AF枠においてピント追従を行わないと判定し、フォーカスレンズ103を駆動しないことで被写体Bにもピントを合わせない。
その後の時刻tn+iにて被写体Bが被写体Aを追い抜くと、主AF枠での検出像面位置は再び予測像面位置に沿うように検出され、被写体Aに対するピント追従が再開される。以上が、基本的なピント追従判定である。
図6(c)では、被写体Aよりもカメラシステムに近い位置に被写体Bが存在するという点は図6(a)と同じであるが、時刻tにおいてユーザが意図的に主被写体を被写体Aから被写体Bに切り替える場合を示している。この場合の主AF枠における検出像面位置の変化を図6(d)に示している。
図6(d)において、時刻tn-iまでは図6(b)と同じように検出像面位置が変化する。しかし、主被写体を切り替えた時刻t以降は被写体Bの検出像面位置が取得されることになり、その検出像面位置が近側の閾値よりも近側にあることで、AF制御部2121がこれ以上、主AF枠においてピント追従を行わないと判定する。この結果、ユーザは主被写体を被写体Bに切り替えたつもりであるにもかかわらず、いつまでも被写体Bにピントが合わないことになる。また、図6(a)のような場合に時刻tで取得される検出像面位置がピント追従範囲内であった場合には、主被写体は被写体Aのままであるのにピントが合う対象が被写体Bに切り替わる。このように、検出像面位置がピント追従範囲内か否かだけでは、正しいピント追従判定が困難となる場合がある。このような場合に対して、本実施例では、被写体認識部2125で取得される遮蔽情報を用いる。
図7(a)、(b)はそれぞれ、図6(a)、(b)の場合に取得される遮蔽情報を示している。黒塗りの領域が遮蔽領域であり、それ以外の領域は遮蔽領域ではないことを示している。図7(a)では、時刻tn-iから時刻tn+iにかけて被写体Bは遮蔽領域として検出される。一方、図7(b)では、時刻tn-iでは被写体Bは遮蔽領域として検出されるが、時刻tでユーザのフレーミングの変更によって主被写体が被写体Aから被写体Bに切り替わるため、時刻t以降は被写体Bは遮蔽領域としては検出されない。
図8のフローチャートは、本実施例の比較例として、遮蔽情報のみを用いたピント追従判定の処理を示している。S801では、AF制御部2121は、被写体認識部2125から、S303で選択された主AF枠における遮蔽情報を取得する。
次にS802では、AF制御部2121は、S801で取得した遮蔽情報から、主AF枠が捉えている領域が遮蔽領域であるか否かを判定する。図7(a)の時刻tn-i、tn+iおよび図7(b)の時刻tn-i、t、tn+iでは、AF制御部2121は主AF枠が捉えている領域は遮蔽領域ではないと判定して本処理を終了する。一方、図7(a)の時刻tでは主AF枠が捉えている領域が遮蔽領域であると判定し、S803に進んでピント追従を行わないと判定する。
ただし、遮蔽領域は基本的に主被写体よりもカメラシステムに近い位置にのみ存在する。このため、このような遮蔽情報のみを用いたピント追従判定では、検出像面位置が遠側の閾値を超えてピント追従範囲外となる場合はすべてピント追従を行うと判定される。そこで本実施例では、図3のS304において、図9のフローチャートに示すピント追従判定の処理を行う。
S901では、AF制御部2121は、予測部2124から予測像面位置を取得する。
次にS902では、AF制御部2121は、ピント追従範囲の遠側と近側の閾値を取得する。
次にS903では、AF制御部2121は、S303で選択された主AF枠における検出デフォーカス量を取得する。
次にS904では、AF制御部2121は、S903で取得した検出デフォーカス量から検出像面位置を算出する。
次にS905では、AF制御部2121は、S904で算出した検出像面位置がS901で取得した予測像面位置よりも近側か(検出像面位置が主被写体よりも近側の像面位置を示すか)否かを判定し、近側であればS906へ進み、遠側であればS909へ進む。
S906では、AF制御部2121は、被写体認識部2125から主AF枠における遮蔽情報を取得する。
S907では、AF制御部2121は、S906で取得した遮蔽情報から、主AF枠が捉えている領域が遮蔽領域である(主AF枠が遮蔽物を捉えているか)か否かを判定する。このとき、先に示した図7(a)における時刻tでは被写体Bが遮蔽領域として検出されるため、主AF枠が捉えている領域が遮蔽領域と判定される。一方、図7(b)での時刻tでは被写体Bは遮蔽領域として検出されないため、主AF枠が捉えている領域が遮蔽領域とは判定されない。主AF枠が捉えている領域が遮蔽領域である場合はS908へ進んでピント追従を行わないと判定して本処理を終了し、図3のS305に進む。一方、遮蔽領域ではない(遮蔽情報が取得されない)場合はピント追従を行うと判定して本処理を終了し、S305に進む。
S909では、AF制御部2121は、S904で算出した検出像面位置がS902で取得した遠側の閾値よりも遠側か否かを判定する。遠側の閾値よりも遠側(ピント追従範囲外)であると判定した場合はS908へ進んでピント追従を行わないと判定して本処理を終了し、図3のS305に進む。一方、ピント追従範囲内であればピント追従を行うと判定して本処理を終了し、S305に進む。
本実施例によれば、遮蔽領域の存在や主被写体の切り替えがあった場合でも、適切なピント追従判定を行うことができる。
なお、本実施例では、像面位置を用いてピント判定処理や動体判定処理を行う場合について説明したが、デフォーカス量を用いてそれらの処理を行ってもよい。像面位置は、デフォーカス量に対応するものであるため、デフォーカス量に関する情報である。すなわち、ピント判定処理や動体判定処理は、デフォーカス量に関する情報を用いて行えばよい。
次に本発明の実施例2について説明する。実施例2では、検出される被写体が特定被写体か否かを示す被写体情報に応じてピント追従判定を行う。
図11(a)は、時刻tn-iにおいて主被写体であった被写体Aに対する遮蔽領域が時刻tにおいて特定被写体(人物)としての被写体Bとして検出される場合を示している。図11(b)は、被写体Aに対する遮蔽領域が時刻tにおいて特定被写体ではない被写体(樹木)Cである場合を示している。被写体B、Cに対応する検出像面位置はともにピント追従範囲の近側の閾値よりも近側に位置しており、ピント追従を行わないと判定される被写体である。ただし、後述する図10に示す処理において、図11(a)は被写体Bが遮蔽領域であるが特定被写体であるためにピント追従を行うと判定される例を示し、図11(b)は被写体Cが遮蔽領域であり、かつ特定被写体ではないためピント追従を行わないと判定される例を示している。
また、図12は、カメラシステムから距離が遠い方から近い方に順に、被写体A、CおよびBが存在し、時刻tn-iでは被写体Bが主被写体であり、時刻tでは主被写体が被写体Aに切り替えられるようにユーザがフレーミングを変更した場合を示している。
図10のフローチャートは、本実施例におけるピント追従判定の処理を示している。S1001~S1007は、図9のS901~S907と同じであるため説明は省略する。
S1007で主AF枠が捉えている領域が遮蔽領域であると判定したAF制御部2121は、S1008において、遮蔽領域で特定被写体が検出されているか否かを判定する。図11(a)の場合では、遮蔽領域で特定被写体である被写体Bが検出されるため、AF制御部2121はS1009へ進む。一方、図11(b)の場合では、遮蔽領域で特定被写体が検出されないため、AF制御部2121はS1010へ進んで、ピント追従を行わないと判定して本処理を終了して図3のS305に進む。
S1009は、被写体認識部2125が複数の被写体を検出した場合に、主被写体を積極的に新しく検出した特定被写体に切り替えるか全く切り替えないかを被写体乗り移り特性としてカメラ操作部213を通じてユーザに設定させることが可能な場合に設けられる。被写体乗り移りを許容する設定がなされていれば、AF制御部2121は、ピント追従を行わないと判定することなく(ピント追従を行うと判定して)本処理を終了し、図3のS305に進む。
一方、被写体乗り移りを許容しない設定がなされていれば、AF制御部2121はS1010へ進んでピント追従を行わないと判定する。被写体乗り移りの特性を設定できないカメラシステムにおいてS1009が設けられない場合は、AF制御部2121はS1008にて遮蔽領域で特定被写体が検出されれば、ピント追従を行うと判定して本処理を終了し、図3のS305に進む。
S1011では、AF制御部2121は、図9のS909と同様に、S1004で算出した検出像面位置がS1002で取得した遠側の閾値よりも遠側か否かを判定する。遠側の閾値よりも遠側(ピント追従範囲外)であると判定した場合はS1008へ進み、そうでなければ(ピント追従範囲内であれば)ピント追従を行うと判定して本処理を終了し、図3のS305に進む。
図12に示した時刻tでは、主AF枠内の検出像面位置は遠側であるため、AF制御部2121はS1011において検出像面位置がピント追従範囲よりも遠側か否かを判定し、ピント追従範囲より遠側であればS1008に進む。ただし、時刻tでの被写体Aは特定被写体であるため、AF制御部2121はS1009へ進み、被写体乗り移り特性の設定に応じてピント追従を行うか否かを判定する。図12において被写体乗り移りを許容する設定がなされている場合には、時刻tではピント追従を行わないとは判定されず、遠い被写体Aに対するピント追従が行われる。このピント追従を行うことで主被写体が被写体Bから被写体Aに切り替わるため、時刻tn+iでは被写体Cが被写体Aに対する遮蔽領域と判定されるようになる。
以上が、本実施例における遮蔽情報と被写体情報を利用したピント追従判定の説明である。本実施例によれば、遮蔽領域が特定被写体か否かに応じて適切なピント追従判定を行うことができる。
ところで、遮蔽情報は主被写体に対して生成されるため、図11(a)の時刻tでは主被写体である被写体Aが遮蔽領域の後に完全に隠れて検出されなくなる。この結果、被写体認識部2125から遮蔽領域を示す遮蔽情報も出力されなくなる可能性がある。このように被写体認識部2125から遮蔽領域を示す遮蔽情報が出力されないような状況においても、遮蔽領域を示す遮蔽情報が生成されるようにする方法について以下に説明する。
1つ目の方法は、映像を構成する複数のフレームのうち遮蔽領域を示す遮蔽情報が出力されなくなったフレームに対して、直前のフレームにおける遮蔽領域に対する像面位置を記憶し、その記憶像面位置に対する差分が所定値以下の像面位置が検出される領域を遮蔽領域とする。
図13(a)は時刻tn-1、tのフレームを、図13(b)は時刻tn-1の遮蔽領域を示している。図14は、時刻tn-1、tにおける像面位置を示している。
時刻tn-1のフレームでは主AF枠において被写体Aが検出されているため、被写体Aの手前に存在する被写体Bを遮蔽領域として検出できている。このため、図14に示すように、被写体Aの像面位置Paと遮蔽領域(被写体B)の像面位置Pbが検出される。
時刻tでは、遮蔽領域によって被写体Aが隠れる(被写体Aが存在しなくなる)ために、被写体Bを遮蔽領域として検出できなくなくなる。このとき、図14に示す時刻tn-1での遮蔽領域(被写体B)の像面位置Pbが記憶される。そして、この記憶像面位置Pbに対して差分が所定値以下となる像面位置を時刻tで探索し、該当する像面位置が検出される領域を遮蔽領域とする。
記憶像面位置Pbに対して差分が所定値以下となる像面位置の範囲は、撮像光学系の絞り値や、AFを行う際の撮像素子201のゲイン等に応じて変更することも可能である。また、記憶像面位置に対して差分が所定値以下となる像面位置を探索する領域は該当フレームの画像データ全体でもよいし、図15に示すように前フレーム(時刻t)において遮蔽領域が存在していた座標(x,y)を中心とする所定範囲(幅W、高さHの範囲)としてもよい。ただし、この場合は、遮蔽領域が動かない被写体である必要がある。
2つ目の方法は、図16に示すように過去の複数の時刻tn-1~tn-4における遮蔽領域の像面位置の変化から、時刻tでの遮蔽領域の像面位置Pを予測し、該予想像面位置Pに対して差分が所定値以下の像面位置が検出される領域を遮蔽領域とする方法である。予想像面位置の予測は、予測部2124が行うように2次曲線を予測関数として用いて行ってもよいし、最新の2点から得られる1次曲線を予測関数として用いて行ってもよい。さらに最小二乗法によって式(1)に示したような予測式f(t)を統計演算によって求め、これを用いて予想像面位置を予測してもよい。
このように、主被写体が遮蔽領域により完全に隠れる撮像シーンにおいても適切な遮蔽情報を取得することができる。なお、像面位置に関する情報
以上の実施の形態には、以下の構成が含まれる。
(構成1)
撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行うフォーカス制御装置であって、
前記デフォーカス量に関する情報を用いて前記ピント追従を行うか否かを判定するピント追従判定を行う判定手段と、
撮像により生成された画像データから前記被写体に対する遮蔽物に関する情報を取得する取得手段とを有し、
前記判定手段は、前記検出領域において取得された前記遮蔽物に関する情報を用いて前記ピント追従判定を行うことを特徴とするフォーカス制御装置。
(構成2)
前記判定手段は、前記検出領域で前記遮蔽物に関する情報が取得されない場合は前記ピント追従を行うと判定し、前記検出領域で前記遮蔽物に関する情報が取得された場合は前記ピント追従を行わないと判定することを特徴とする構成1に記載のフォーカス制御装置。
(構成3)
前記判定手段は、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が特定被写体であることを示す場合は前記特定被写体に対する前記ピント追従を行うと判定し、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が前記特定被写体ではないことを示す場合は前記ピント追従を行わないと判定することを特徴とする構成1または2に記載のフォーカス制御装置。
(構成4)
前記判定手段は、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が特定被写体であることを示し、かつ前記ピント追従を行う被写体の切り替えが許容されている場合に前記特定被写体に対する前記ピント追従を行うと判定することを特徴とする構成3に記載のフォーカス制御装置。
(構成5)
前記判定手段は、前記検出領域で取得された前記デフォーカス量に関する情報が前記被写体よりも近側を示す場合に、前記遮蔽物に関する情報を取得することを特徴とする構成1から4のいずれか1つに記載のフォーカス制御装置。
(構成6)
前記フォーカス制御装置は、前記デフォーカス量に関する情報が所定範囲内である場合に前記ピント追従を行い、
前記判定手段は、前記検出領域で取得された前記デフォーカス量に関する情報が前記所定範囲よりも遠側を示す場合は、前記遮蔽物に関する情報を用いずに前記ピント追従判定を行うことを特徴とする構成1から5のいずれか1つに記載のフォーカス制御装置。
(構成7)
前記取得手段は、
前記画像データのフレームごとに前記遮蔽物に関する情報を取得することが可能であり、
前記遮蔽物に関する情報が取得されたフレームにおける前記デフォーカス量に関する情報を記憶し、
前記遮蔽物に関する情報が取得されないフレームにおいて、前記記憶されたデフォーカス量に関する情報を用いて前記遮蔽物に関する情報を取得することを特徴とする構成1から6のいずれか1つに記載のフォーカス制御装置。
(構成8)
前記取得手段は、前記遮蔽物に関する情報が取得されないフレームにおいて、前記記憶されたデフォーカス量に関する情報との差分または前記記憶されたデフォーカス量に関する情報を用いて予測したデフォーカス量に関する情報との差分が所定値以下となる前記デフォーカス量に関する情報に基づいて前記遮蔽物に関する情報を取得することを特徴とする構成7に記載のフォーカス制御装置。
(構成9)
前記取得手段は、コンボリューショナル・ニューラル・ネットワークを用いて前記遮蔽物に関する情報を取得することを特徴とする請求項1から8のいずれか1つに記載のフォーカス制御装置。
(構成10)
前記検出領域内の被写体が動体か非動体かを判定する動体判定手段と、
フォーカス制御を行う制御手段とを有し、
前記制御手段は、
前記ピント追従を行うと判定された場合において、前記検出領域内の被写体が非動体であると判定されたときは該非動体に対して検出されたデフォーカス量に基づいて前記フォーカス制御を行い、動体であると判定されたときは該動体に対して検出されたデフォーカス量を用いて予測したデフォーカス量に基づいて前記フォーカス制御を行い、
前記ピント追従を行わないと判定された場合において、前記検出領域内の被写体が非動体であると判定されたときは前記フォーカス制御を行わず、動体であると判定されたときは前記ピント追従を行わないと判定された際の前記デフォーカス量を用いずに予測したデフォーカス量を用いて前記フォーカス制御を行うことを特徴とする構成1から8のいずれか1つに記載のフォーカス制御装置。
(構成11)
構成1から10のいずれか一項に記載のフォーカス制御装置を有することを特徴とする光学機器。
(構成12)
構成1から10のいずれか一項に記載のフォーカス制御装置と、
前記撮像画角内の被写体を撮像する撮像素子とを有することを特徴とする撮像装置。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
10 レンズユニット
103 フォーカスレンズ
105 フォーカスレンズ駆動部
106 レンズ制御部
20 カメラ本体
201 撮像素子
204 AF信号処理部
212 カメラ制御部
2121 AF制御部
2122 動き判定部
2124 予測部
2125 被写体認識部

Claims (14)

  1. 撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行うフォーカス制御装置であって、
    前記デフォーカス量に関する情報を用いて前記ピント追従を行うか否かを判定するピント追従判定を行う判定手段と、
    撮像により生成された画像データから前記被写体に対する遮蔽物に関する情報を取得する取得手段とを有し、
    前記判定手段は、前記検出領域において取得された前記遮蔽物に関する情報を用いて前記ピント追従判定を行うことを特徴とするフォーカス制御装置。
  2. 前記判定手段は、前記検出領域で前記遮蔽物に関する情報が取得されない場合は前記ピント追従を行うと判定し、前記検出領域で前記遮蔽物に関する情報が取得された場合は前記ピント追従を行わないと判定することを特徴とする請求項1に記載のフォーカス制御装置。
  3. 前記判定手段は、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が特定被写体であることを示す場合は前記特定被写体に対する前記ピント追従を行うと判定し、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が前記特定被写体ではないことを示す場合は前記ピント追従を行わないと判定することを特徴とする請求項1に記載のフォーカス制御装置。
  4. 前記判定手段は、前記検出領域で取得された前記遮蔽物に関する情報が前記遮蔽物が特定被写体であることを示し、かつ前記ピント追従を行う被写体の切り替えが許容されている場合に前記特定被写体に対する前記ピント追従を行うと判定することを特徴とする請求項3に記載のフォーカス制御装置。
  5. 前記判定手段は、前記検出領域で取得された前記デフォーカス量に関する情報が前記被写体よりも近側を示す場合に、前記遮蔽物に関する情報を取得することを特徴とする請求項1に記載のフォーカス制御装置。
  6. 前記フォーカス制御装置は、前記デフォーカス量に関する情報が所定範囲内である場合に前記ピント追従を行い、
    前記判定手段は、前記検出領域で取得された前記デフォーカス量に関する情報が前記所定範囲よりも遠側を示す場合は、前記遮蔽物に関する情報を用いずに前記ピント追従判定を行うことを特徴とする請求項1に記載のフォーカス制御装置。
  7. 前記取得手段は、
    前記画像データのフレームごとに前記遮蔽物に関する情報を取得することが可能であり、
    前記遮蔽物に関する情報が取得されたフレームにおける前記デフォーカス量に関する情報を記憶し、
    前記遮蔽物に関する情報が取得されないフレームにおいて、前記記憶されたデフォーカス量に関する情報を用いて前記遮蔽物に関する情報を取得することを特徴とする請求項1に記載のフォーカス制御装置。
  8. 前記取得手段は、前記遮蔽物に関する情報が取得されないフレームにおいて、前記記憶されたデフォーカス量に関する情報との差分または前記記憶されたデフォーカス量に関する情報を用いて予測したデフォーカス量に関する情報との差分が所定値以下となる前記デフォーカス量に関する情報に基づいて前記遮蔽物に関する情報を取得することを特徴とする請求項7に記載のフォーカス制御装置。
  9. 前記取得手段は、コンボリューショナル・ニューラル・ネットワークを用いて前記遮蔽物に関する情報を取得することを特徴とする請求項1に記載のフォーカス制御装置。
  10. 前記検出領域内の被写体が動体か非動体かを判定する動体判定手段と、
    フォーカス制御を行う制御手段とを有し、
    前記制御手段は、
    前記ピント追従を行うと判定された場合において、前記検出領域内の被写体が非動体であると判定されたときは該非動体に対して検出されたデフォーカス量に基づいて前記フォーカス制御を行い、動体であると判定されたときは該動体に対して検出されたデフォーカス量を用いて予測したデフォーカス量に基づいて前記フォーカス制御を行い、
    前記ピント追従を行わないと判定された場合において、前記検出領域内の被写体が非動体であると判定されたときは前記フォーカス制御を行わず、動体であると判定されたときは前記ピント追従を行わないと判定された際の前記デフォーカス量を用いずに予測したデフォーカス量を用いて前記フォーカス制御を行うことを特徴とする請求項1に記載のフォーカス制御装置。
  11. 請求項1から10のいずれか一項に記載のフォーカス制御装置を有することを特徴とする光学機器。
  12. 請求項1から10のいずれか一項に記載のフォーカス制御装置と、
    前記撮像画角内の被写体を撮像する撮像素子とを有することを特徴とする撮像装置。
  13. 撮像画角内においてデフォーカス量を検出する検出領域内の被写体に対するピント追従を行うフォーカス制御方法であって、
    前記デフォーカス量に関する情報を用いて前記ピント追従を行うか否かを判定するピント追従判定を行うステップと、
    撮像により生成された画像データから前記被写体に対する遮蔽物に関する情報を取得するステップとを有し、
    前記ピント追従判定を行うステップにおいて、前記検出領域において取得された前記遮蔽物に関する情報を用いて前記ピント追従判定を行うことを特徴とするフォーカス制御方法。
  14. コンピュータに、請求項13に記載のフォーカス制御方法に従う処理を実行することを特徴とするプログラム。
JP2022147457A 2022-09-15 2022-09-15 フォーカス制御装置、撮像装置およびフォーカス制御方法 Pending JP2024042614A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022147457A JP2024042614A (ja) 2022-09-15 2022-09-15 フォーカス制御装置、撮像装置およびフォーカス制御方法
US18/466,329 US20240098366A1 (en) 2022-09-15 2023-09-13 Focus control apparatus, image pickup apparatus, and focus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022147457A JP2024042614A (ja) 2022-09-15 2022-09-15 フォーカス制御装置、撮像装置およびフォーカス制御方法

Publications (1)

Publication Number Publication Date
JP2024042614A true JP2024042614A (ja) 2024-03-28

Family

ID=90243493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022147457A Pending JP2024042614A (ja) 2022-09-15 2022-09-15 フォーカス制御装置、撮像装置およびフォーカス制御方法

Country Status (2)

Country Link
US (1) US20240098366A1 (ja)
JP (1) JP2024042614A (ja)

Also Published As

Publication number Publication date
US20240098366A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
US7826735B2 (en) Auto focus unit and digital camera
CN100578339C (zh) 光学设备
KR100965320B1 (ko) 연속 오토포커스 자동 제어장치 및 자동 제어방법
US20200228719A1 (en) Focus control apparatus, imaging apparatus, focus control method, and storage medium
JP4352334B2 (ja) 撮像装置および方法、並びにプログラム
JP2020060602A (ja) 焦点調整装置およびその制御方法ならびにプログラム
JP6139960B2 (ja) 撮像装置およびその制御方法
JP4428234B2 (ja) 撮像装置および方法、並びにプログラム
US8023744B2 (en) Pattern matching system and targeted object pursuit system using light quantities in designated areas of images to be compared
JP2009265239A (ja) 焦点検出装置、焦点検出方法およびカメラ
JP7066388B2 (ja) 焦点調節装置、その制御方法、およびプログラム、記憶媒体、並びに撮像装置
US11838628B2 (en) Image capturing apparatus, control method therefor, and storage medium
JP2024042614A (ja) フォーカス制御装置、撮像装置およびフォーカス制御方法
JP2019168661A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP6071173B2 (ja) 撮像装置、その制御方法及びプログラム
JPH0815315B2 (ja) 自動焦点調節装置
JP6818449B2 (ja) 焦点検出装置
JP2024033688A (ja) 焦点調節装置、撮像装置、焦点調節方法、およびプログラム
JP5932340B2 (ja) 焦点調節装置
US11012609B2 (en) Image pickup apparatus and its control method, and storage medium
JP2005227447A (ja) オートフォーカスカメラ
JP7353826B2 (ja) 制御装置及びその制御方法
JP2022170555A (ja) 撮像装置およびその制御方法
JP2022170554A (ja) 撮像装置およびその制御方法
JP2024045467A (ja) 撮像装置およびその制御方法