JP3840725B2 - Autofocus device for video camera - Google Patents

Autofocus device for video camera Download PDF

Info

Publication number
JP3840725B2
JP3840725B2 JP01706197A JP1706197A JP3840725B2 JP 3840725 B2 JP3840725 B2 JP 3840725B2 JP 01706197 A JP01706197 A JP 01706197A JP 1706197 A JP1706197 A JP 1706197A JP 3840725 B2 JP3840725 B2 JP 3840725B2
Authority
JP
Japan
Prior art keywords
evaluation value
determination
value
evaluation
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01706197A
Other languages
Japanese (ja)
Other versions
JPH10213736A (en
Inventor
雄二郎 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP01706197A priority Critical patent/JP3840725B2/en
Publication of JPH10213736A publication Critical patent/JPH10213736A/en
Application granted granted Critical
Publication of JP3840725B2 publication Critical patent/JP3840725B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、報道用又は業務用ビデオカメラの自動焦点調節(オートフォーカス。以下、「AF」と略す。)に関する。焦点調節とは、いわゆるジャストピント状態(以下、「JP」と略す。)を決定することである。更に具体的には、本発明は、放送局や業務用に使用されるビデオカメラ等(テレビカメラ,スタジオカメラ,ENGカメラ等を含む。)によって撮影される被写体の位置を自動的に認識する被写体認識装置、及び、その被写体認識装置を利用して被写体に対してフォーカスを合わせる撮像装置に関する。
【0002】
【従来の技術】
従来、ビデオカメラにおける被写体に対してフォーカスを自動的に合わせるAF機構に関しては、既に民生用ビデオカメラの分野で実現されている。
【0003】
このとき、フォーカスがあっているか否かを検出するためには、撮像信号のコントラストが高いか低いかを判断すればよいことは良く知られている。即ち、コントラストが高いとフォーカスが合っており、コントラストが低いとフォーカスがずれていることになる。撮像信号の高周波成分を取り出して、画面内の所定の設定エリア内に存在するこの高周波成分を積分したデータを生成し、この積分したデータを利用することによって、コントラストの高低が判断できる。この積分されたデータは、その設定エリア内にどれだけ高周波成分が存在するかを示すデータであって、一般に、このデータを評価値と呼んでいる。従って、評価値が最大となるように、即ち、コントラストが最大になるようにフォーカスレンズを駆動することにより、AFが実現できる。
【0004】
【発明が解決しようとする課題】
民生用ビデオカメラは、その性質上、それほど精密なAF機構は要求されていない。現状の民生用ビデオカメラに備えられたAF機構は、被写体が急激に変化・変動した時、それに追従する時間は比較的短いものの、その後、被写体を探るような状態が継続し、映像を精細に観察すればピントが合った状態(JP)とずれた状態(ボケ状態)が継続的に繰り返されている。
【0005】
この原因は、現在のAF機構が、目標被写体のフォーカス状態の変化だけでなく、映像の背景,明るさ等の種々の要因の変化に対しても評価値が変化していることにある。これらの要因を評価値の値から区別することは出来ず、このような方法で抽出された評価値は、決して被写体のフォーカス状態を表す正確な評価値ではない。簡易なAF機構でこの問題を解決することは非常に難しい。
【0006】
また、民生用機器は価格が安いことが大きなセールスポイントであり、民生用ビデオカメラに関して一層精密ではあるが高価なものとなるようなAF機構を要望する声は聞かれない。
【0007】
しかし、放送局等で使用される業務用又はプロ用機器は、その性質上、非常に高い精度・精細さが要求される。例えば、放送局や業務用に使用されるビデオカメラにおいては、撮影された映像をライブ中継(生放送)で家庭に伝送することがある。もし、このようなライブ中継をおこなっている時に、迅速に且つ精度の良い評価値を得ることが出来ないならば、AF操作に時間がかかってしまい、また、ピントのぼやけた撮像信号を家庭に伝送してしまうことになる。
【0008】
従って、放送局や業務用に使用されるビデオカメラは、民生用ビデオカメラに採用されているような簡易型や廉価な小型のAF装置とは全く異なるものであり、現状の民生用ビデオカメラのAF機構をそのまま導入することは出来ない。
【0009】
更に、民生用ビデオカメラでは、それほど鮮明な画像は必要ないのでレンズが小さく被写界深度が非常に深い状態で使用されており、その分フォーカス調節が容易である。即ち、被写体の距離が10数mを越す場合レンズから被写体までの距離がJPの前後1m強変化しても、画面上では「ボケ」とは判定されない。
【0010】
これに対して、放送局のカメラは、非常に鮮明な画像を必要としているためレンズが大きく被写界深度が非常に浅い状態で使用されいる。即ち、レンズから被写体までの距離が前後にほんの僅かに変化しても、「ボケ」と判定されてしまう。従って、被写体深度が浅い分だけ一層精度良くフォーカスを調節しなければならない。
【0011】
ここで、「被写界深度」及び後で出てくる「焦点深度」について簡単に説明する。被写界深度(「被写体深度」ともいう。)とは、カメラレンズを或るレンズセット位置に固定したとき、ボケがなく、鮮明であると受け入れられるようなカメラから最も近い点と最も遠い点との距離をいう。即ち、レンズを或る特定の距離に対して焦点を合わせた時、満足すべき鮮明度が得られる全体の距離をいう。民生用ビデオカメラに対して、業務用ビデオカメラは一層深い被写界深度の撮影条件がとり得る。一般に、カメラの焦点調節特性は、被写界深度で表される。AF機能付きカメラでは、測距誤差が撮影に用いたビデオカメラの被写界深度内に収まっていれば(|被写界深度|>|測距誤差|)、ピントがあったと思える良い映像が撮れる。
【0012】
これに対して、焦点深度とは、被写界深度によって包括される物体距離の前後範囲に対応した像距離の範囲をいう。言い換えれば、焦点を合わせた被写体の像が、受け入れ可能な鮮鋭さの範囲で許されるレンズと撮像面(CCD電荷結合装置)との距離をいう。
【0013】
図39Aに示すように、物点(被写体)PがP0の位置でCCD面に焦点が合っている時、このレンズ及びCCDを固定した状態で、鮮明であると受け入れられるようなレンズ(カメラ)から最も遠い点P1と最も近い点P2との距離をいう。一方、図39Bに示すように、被写界深度によって包括される物体距離の前後範囲P1〜P2に対応した像距離の範囲P1′〜P2′を、焦点深度という。
【0014】
なお、「ボケがなく、鮮明であると受け入れられるような状態」とは、実際に肉眼で見る判断と、許容錯乱円を使って定義する場合がある。前者は、いわゆる人間の眼による官能検査である。後者は、図40Aに示すように、本来一点に収束直径dの円形のボケを生じたとする。このとき、ピント外れ量δは、小円錐abcの高さとなる。最大許容量のボケが生じたときの円錐底面を許容錯乱円と呼ぶ。放送業務用の2/3インチのCCDを用いた場合には、この小円錐ABCの底面の直径dが22〔μm〕以下である時、ボケがなく、鮮明であると受け入れられるような状態とする。従って、d=22〔μm〕の時の小円錐ABCの底面を許容錯乱円といい、このときのピント外れ量δは焦点深度となる。
【0015】
許容錯乱円の直径d≦22〔μm〕とする根拠は、図40Bに示すように、放送局用ビデオカメラで使用されている2/3インチCCDの正格子状に並ぶ画素(ピクセル)間の距離(画素ピッチ)に相当する。即ち、これ以下であれば、像が結像位置にある画素に隣接する画像まで拡がって、隣接画素に悪影響を及ぼさないからである。
【0016】
一般に、民生用ビデオカメラでは官能検査で判断する場合が多く、業務用ビデオカメラでは許容錯乱円で判断する場合が多い。
【0017】
従来より業務用又はプロ用ビデオカメラに適する非常に高精度のAF機構の開発が望まれている。現在まで、業務用又はプロ用ビデオカメラに適する高精度AF機構の開発が試みられたが、放送局のカメラマンの高い要求を満足することが出来ず、いずれも失敗に終わっている。従って、いまなおカメラマンの職人的技能に頼ったマニュアル焦点調節が行われているのが実状である。
【0018】
本出願では、発明の詳細な説明の欄に記載するように、業務用又はプロ用ビデオカメラに適するAF機構を開発している。この画像処理方式のAFでは、評価値がピークを通過して初めてJPを検出できる。このため、AFのフローの最終段階においてピークを検出する山下り判定を採用している。
【0019】
しかし、山下り判定には、次のような問題点がある。即ち、現在フィールドの評価値と所定フィールド前の評価値を用いて、両者の差を監視し、それが或る閾値を越えたら、評価値ピークを検出したとする方法が考えられる。この両評価値の差を用いる方法は、コントラストの低い、従ってJPにおいても評価値が低い被写体では評価値自体の値が低いためその差の変化も小さく、JP検出が出来ないという問題を有する。これに対して、両者の比を用いて判定する方法も検討した。この比を用いる方法では、コントラストの高い被写体、即ち、JPにおいて評価値が高い被写体ではピーク検出が遅れ、その結果評価値ピークを越えてオーバランスするという問題点を有することが判明した。
【0020】
従って、本発明は、上述した問題点に鑑み、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF機構を提供することを目的とする。
更に本発明は、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF機構を備えたビデオカメラを提供することを目的とする。
更に本発明は、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF方法を提供することを目的とする。
【0021】
更に本発明は、業務用又はプロ用ビデオカメラに適するAF機構において、コントラストの高低に関係なく、確実に評価値ピークを検出出来るようにすることを目的にする。
更に本発明は、業務用又はプロ用ビデオカメラに適するAF機構において、現在フィールドの評価値と所定フィールド前の評価値を用いて評価値ピークを検出する段階において、コントラストの高い被写体に対して行き過ぎの増加なしに、コントラストの低い被写体に対してピーク検出の感度を上げることを目的にする。
【0022】
【課題を解決するための手段】
本発明に係るビデオカメラのオートフォーカス装置は、ビデオカメラの画像信号を入力する入力手段と、上記画像信号の特定領域の高周波成分を抽出して評価値を生成する評価値生成手段と、上記評価値に応じて上記ビデオカメラのフォーカスレンズを駆動する指令値を算出する信号処理手段と、上記指令値を上記ビデオカメラのフォーカスレンズ駆動部に送出する出力手段と、現フィールドの評価値と所定フィールド前の評価値との差に基づいて評価値のピークを検出したかを判定する第1のピーク検出判定手段と、j(jは2以上の整数)フィールド前の評価値を現フィールドの評価値で除算した値および、jフィールド前の評価値を2jフィールド前の評価値で除算した値とが共に所定のしきい値以上の場合にはピーク検出したと判定する判定処理を、上記jの値を第1の整数から第1の整数より大きい値の第2の整数まで順次増加させて行う第2のピーク検出判定手段と、を備え、上記信号処理手段は、上記第1のピーク検出判定手段による上記判定を最初に行ない、上記第1のピーク検出判定手段による判定でピーク検出できない場合に、上記第2のピーク検出判定手段による上記判定を行ない、上記第1または第2のピーク検出判定手段によるピーク検出が得られた場合には、上記ピーク位置にフォーカスが移動するよう上記指令値を算出するものである。
【0023】
更に本発明に係るビデオカメラのオートフォーカス方法は、ビデオカメラの画像信号より該画像信号の特定領域の高周波成分を抽出して評価値を生成するステップと、現フィールドの評価値と所定フィールド前の評価値との差に基づいて評価値のピークを検出したかを判定する第1のピーク検出判定結果を生成するステップと、j(jは2以上の整数)フィールド前の評価値を現フィールドでの評価値で除算した値と、jフィールド前の評価値を2jフィールド前の評価値で除算した値が共に所定のしきい値以上の場合にはピーク検出したと判定する判定処理を、上記jの値を第1の整数から第2の整数まで順次増加させて行う第2のピーク検出判定結果を生成するステップと、上記第1のピーク検出判定手段による上記判定を最初に行わせ、ピーク検出できない場合には上記第2のピーク検出判定手段による上記判定を行ない、上記第1または第2のピーク検出判定手段によるピーク検出が得られた場合には、上記ピーク位置にフォーカスを移動させるステップと、を備えたものである。
【0024】
【発明の実施の形態】
以下、本発明に係る実施例について添付の図面を参照しながら詳細に説明する。本実施例では、今回開発を行なった放送局又は業務用ビデオカメラのAFのハード構成及び動作アルゴリズムの説明を行なう。更に、AFの各評価値を作成するハード構成、評価値の種類、性質等の説明も併せて行なう。
【0025】
なお、実施例の記載が長くわたるので、最初に目次を記し、その後、この目次の順番にしたがって説明する。また、図面に使用される符号は原則として4桁での数字で表記し、上位2桁は図面番号に対応し、下2桁は各要素に対して順に付与されている。但し、図番番号1〜9に関しては千の位のゼロは省略する。また、フローチャートの各ステップに関しては、更に最上位に「S」を付して識別出来るようにしている。
【0026】
目次
1. ハード構成
2. 評価値
3. AFアルゴリズム
3.1 全体フローチャート
3.2 揺れ判定(レンズ静止時)
3.3 ウォブリング
3.4 山登りパラメータの初期化
3.5 最大、最小値更新
3.6 レンズ速度設定
3.7 飽和輝度判定
3.8 偽山判定
3.9 揺れ判定(レンズ動作時)
3.10 方向判定(山登り)
3.11 逆送判定
3.12 逆送反転処理
3.13 端到達判定
3.14 端反転処理
3.15 途中判断方法
3.16 ピーク選定
3.17 山下り判定
3.18 ピーク位置算出(重心処理)
3.19 ピーク位置へ移動
3.20 ロングフィルタ
【0027】
1.ハード構成
図1は、本発明のビデオカメラの全体の構成を示す。ビデオカメラは、入射光を光学的に撮像素子の全面に集光するためのレンズブロックと、レンズブロックからの入射光をR,G,B(赤,緑,青)の電気的な撮像信号に変換する撮像ブロックと、撮像信号に対して所定の信号処理を行う信号処理ブロックとに別れ、、制御手段として、レンズブロックを制御するレンズブロック制御用CPU114と、撮像ブロック及び信号処理ブロックからなるビデオカメラ本体を制御するメインCPU141と、撮像信号RGBからAFのために使用するパラメータである評価値を生成する、AF専用CPU138をもつAFブロック137とを備えている。
【0028】
このレンズブロックは、光学的要素として、光軸方向に移動させることにより、目標被写体(ターゲット)に対してフォーカスをJPに追い込むためのフォーカスレンズ111と、AFスタート時にフォーカスレンズの進むべき方向を探るため後で説明するウォブリング動作に使用されるウォブリングレンズ112と、開口量を調節するアイリス機構113とを有している。
【0029】
レンズブロックは、更に、フォーカスレンズ111に関して、フォーカスレンズの光軸方向のレンズ位置を検出するフォーカスレンズ位置検出センサ111aと、フォーカスレンズを光軸方向に移動させるためのフォーカスレンズ駆動モータ111bと、フォーカスレンズ駆動モータに駆動制御信号を与えるためのフォーカスレンズ(F. L. )駆動回路111cとをもっている。同様に、ウォブリングレンズ112に関しても、ウォブリングレンズの光軸方向のレンズ位置を検出するウォブリングレンズ位置検出センサ112aと、ウォブリングレンズを光軸方向に移動させるためのウォブリングレンズ駆動モータ112bと、ウォブリングレンズ駆動モータに駆動制御信号を与えるためのウォブリングレンズ(WOB)駆動回路112cとをもっている。同様に、アイリス機構113に関しても、開口位置を検出するアイリス位置検出センサ113aと、アイリス機構を開閉させるためのアイリス機構駆動モータ113bと、アイリス駆動モータに駆動信号を与えるためのアイリス駆動回路113cとをもっている。
【0030】
なお、レンズブロック用CPU114は、フォーカスレンズ駆動回路111c,ウォブリングレンズ駆動回路112c及びアイリス駆動回路113cに対して夫々電気的に接続され、制御信号が供給される。また、フォーカスレンズ位置検出センサ111a,ウォブリングレンズ位置検出センサ112a及びアイリスレンズ位置検出センサ113aからの各検出信号は、常時、レンズブロック用CPU114に送られている。また、レンズブロック用CPU114は、フォーカスレンズ111及びウォブリングレンズ112の焦点距離データ,口径比データ、レンズブロックの製造メーカ名及び製造番号等を記録したROM(又はEEPROM)をもっており、これらのデータはレンズブロック用CPU114からの読み出しコマンドに基づいて読み出される。更にこのレンズブロック用CPU114には、AFの起動を指示するためのAFスイッチ115が取付けられていて、レンズブロック側CPU114はスイッチ情報をカメラ本体側のメインCPU141及びAFブロック137に対して送信する。
【0031】
撮像ブロックは、更に、レンズブロックからの入射光をR,G,Bの3原色に色分解するための色分解プリズム121と、この色分解プリズムで分離されたR成分,G成分,B成分の光が撮像面上に結像され、結像された各色成分の撮像光を電気的な撮像信号R,G及びBに夫々変換して出力する撮像素子122R,122G,122Bとを有している。例えば、この撮像素子122R,122G,122Bは、CCD(電荷結合素子)からなる。
【0032】
撮像ブロックは、撮像素子から夫々出力された撮像信号R,G,Bのレベルを増幅すると共に、リセット雑音を除去するための相関二重サンプリングを行うためのプリアンプ123R,123G,123Bを有している。
【0033】
更に、撮像ブロックは、内部に設けられた基準クロック発生回路からの基準クロックに基づいて、ビデオカメラ内の各階路が動作する際の基本クロックとなるVD信号,HD信号及びCLK信号を発生するためのタイミング信号発生回路125と、タイミング発生回路から供給されたVD信号,HD信号及びCLK信号に基づいて、撮像素子122R,撮像素子122G及び撮像素子122Bに対して駆動クロックを与えるためのCCD駆動回路124とを有している。なお、VD信号は、1垂直期間を表すクロック信号であり、HD信号は、1水平期間を表すクロック信号であり、CLK信号は、1画素クロックを表すクロック信号であり、これらVD信号,HD信号及びCLK信号かなるタイミングクロックは、図示してないが、メインCPU141を介してビデオカメラの各回路に供給される。
【0034】
信号処理ブロックは、撮像ブロックから供給される撮像信号R,G,Bに対して所定の信号処理を施すためのブロックである。信号処理ブロックは、撮像信号R,G,Bをアナログ形式からディジタル形式に夫々変換するA/D変換回路131R,131G,131Bと、メインCPU141からのゲイン制御信号に基づいて、ディジタルビデオ信号R,G,Bのゲインを夫々制御するためのゲイン制御回路132R,132G,132Bと、ディジタルビデオ信号R,G,Bに対して所定の信号処理を行う信号処理回路133R,133G,133Bとを有している。これらの信号処理回路は、例えば、ビデオ信号の或るレベル以上を圧縮するニー回路と、ビデオ信号のレベルを設定されたγカーブにしたがって補正するγ補正回路と、所定の黒レベル及び予定レベル以上の白レベルをクリップするB/Wクリップ回路とを夫々もっている。なお、この信号処理回路133R,133G,133Bは、ニー回路,γ補正回路,B/Wクリップ回路の他に、公知のブラックγ補正回路,輪郭強調回路,リニアマトリクス回路等をもっていてもよい。
【0035】
信号処理ブロックは、更に、信号処理回路133R,133G,133Bから夫々出力されたビデオ信号を受け取り、ビデオ信号R,G,Bから輝度信号Yと色差信号(R−Y),(B−Y)を生成するためのエンコーダ134を有している。
【0036】
信号処理ブロックは、更に、ゲイン制御回路132R,132G,132Bから出力されたビデオ信号R,G,Bを夫々受け取り、これらビデオ信号132R,132G,132Bに基づいて、AFを行うAFブロック137と、信号処理回路133R,133G,133Bから出力されたビデオ信号R,G,Bを夫々受け取り、その信号レベルに基づいて撮像素子に入射する光量が適切な光量となるようにアイリスを制御するアイリス制御回路135と、信号処理回路133R,133G,133Bから夫々出力されたビデオ信号を受け取り、その信号レベルに基づいてホワイトバランス制御を行うためのホワイトバランス制御回路136とを有している。
【0037】
AFブロック137は、新規開発のオートフォーカス集積回路(AF−IC)139とAF用CPU(出願人における型番SH7034)138とを有し、このAF−IC(139)は、輝度信号生成回路(図示せず。)と各評価値毎に用意された評価値生成回路(図示せず。)とをもつている。各評価値生成回路は、輝度信号生成回路からの輝度信号Y及びタイミング発生回路125で生成されるHD,VD,CKの各タイミング信号が入力され、各評価値を夫々生成する。AF用CPU138は、予め記憶装置(図示せず。)に蓄積されたAFアルゴリズム(後で説明する。)に沿って、各評価値に対してAFアルゴリズムに応じた計算及び各種の処理を行い、また、計算で算出されたデータを1フィールドに1回更新して蓄積する。評価値の種類、役割等の詳細に関しては、項目「2.評価値」以降に説明する。
【0038】
AF用CPU138は、AF−IC(139)に対して、速距エリアサイズ(評価枠サイズ),画像の種類(NTSC/PAL、画素のクロック等)等のデータを設定し、AF−IC(139)より評価値を受け取る。また、レンズブロック側CPU114との間で、シリアル通信を通してカメラの諸データ(フォーカス位置,アイリス値等)を受け取りフォーカス指令データを算出し、シリアル通信を通してレンズブロック側CPU114にフォーカス指令データを送出する。AF用CPU138の動作ソフトであるAFアルゴリズムに関しては項目「3.AFソフト」で説明する。
【0039】
アイリス制御回路135は、図に示してないが、供給されたビデオ信号RGBの信号の中で信号レベルが最大である信号を選択するNAM回路と、選択された信号の画面におけるエリアを分割して、各エリア毎にビデオ信号を全積分する全積分回路を持っている。アイリス制御回路135は、この各エリア毎の積分データに基づいて、被写体の逆光証明,順光証明,フラット照明,スポット照明等のあらゆる照明状況を判断して、アイリスを制御するためのアイリス制御信号を生成し、このアイリス制御信号をメインCPU141に送出する。メインCPU141は、このアイリス制御信号に基づいて、レンズブロック側CPU112を介してアイリス駆動回路113Cに対して制御信号を送出する。
【0040】
ホワイトバランス制御回路136は、供給されたビデオ信号R,G,Bから、(R−Y)=0,(B−Y)=0となるようにホワイトバランス信号を生成し、このホワイトバランス信号をメインCPU141に送出する。メインCPU141は、このホワイトバランス信号に基づいて、ゲイン制御回路132R,132G,132Bに対して、ゲイン制御信号を供給する。
【0041】
一般に、ビデオカメラの内、レンズブロックは光学機器メーカで製造され、他の撮像ブロック及び信号処理ブロックからなるビデオカメラ本体は本出願人のような電子機器メーカで製造される。レンズブロックとビデオカメラ本体は、予め定めたフォーマット,プロトコル,コマンドデータ内容に対応していれば、どのメーカのレンズでもカメラ本体に取付けられる交換レンズ式となっている。即ち、レンズブロック側CPU114は、ビデオカメラ本体側から送られる各種情報要求(フォーカス位置、アイリス値等)に応じた情報をシリアル通信を通してカメラ本体のメインCPU141及びAF用CPU138に対して返却する。逆に、レンズブロック用CPU114は、シリアル通信ラインを通してカメラ本体側のメインCPU141及びAF用CPU137から送られるフォーカス制御指令及びウォブリング制御指令を受けて、フォーカスレンズ駆動回路111c,ウォブリングレンズ駆動回路1122c及びアイリス駆動回路113cを夫々制御する。
【0042】
次に、図2を参照しながら、AFブロック137に関して詳しく説明する。AF−IC(139)は、14種類の評価値(後で説明するように、ID0〜ID13で特定される。)を生成するため、輝度信号生成回路201と、各評価値に対して評価値生成回路202とをもっている。輝度信号生成回路201は、供給されたビデオ信号R,G,Bから輝度信号Yを生成する回路である。フォーカスが合っているかずれているかを判断するためには、コントラストが高いか低いかを判断すればよい。コントラストの変化は色信号のレベルの変化とは無関係であるので、輝度信号Yのレベルのみの変化を検出することによって、コントラストが高いか低いかを判断することが出来る。輝度信号生成回路201は、供給されたビデオ信号R,G,Bに対して、公知の演算(即ち、Y=0.3R+0.59G+0.11B)を行うことにより、輝度信号Yを生成することが出来る。
【0043】
評価値生成回路202には、14種類の評価値を生成するため、14個の評価値生成回路がある。評価値生成回路には、水平方向評価値算出フィルタ回路,全積分方式水平方向評価値算出フィルタ回路及び飽和輝度数算出フィルタがあり、これらの詳細は「2.2 評価値の種類」に関連して説明する。
【0044】
2.評価値
本実施例のAFで使用している評価値の性質に関して説明を行う。評価値とは基本的には画像の測距エリア内の高周波成分を合計したものであり、概してJPの度合いに相関を有し、画像のボケの度合い反相関するような量である。このAFシステムでは、評価値は専用に開発されたAF−IC(オートフォーカス用集積回路)139により算出される。AFは、フォーカスを動かしそれに伴う評価値の増減を判断しながらフォーカスをJPに追い込んで行く動作からなる。
【0045】
本AFで使用している評価値は14種類あり、ID0〜ID13で特定される。これらの評価値を一覧にして示す。なお、評価値ID7,ID8,ID10及びID11に関しては、画像データの高周波成分とは関係がないため上述の評価値の定義からは本来の評価値とはいえないが、評価値の増減を判断しながらフォーカスをJPに追い込んで行く上で補助的な役割を果たすので、本実施例では評価値として取り扱うことにする。ID#は、プログラム上で付与された評価値の識別記号であり、本明細書でも評価値を特定する際に使用する。
【0046】

Figure 0003840725
【0047】
1D0〜ID13の各評価値に付与された評価値名は、その由来が分かるように、「使用データ−枠サイズ−評価値算出法」により命名されている。例えば、評価値ID0は、「IIR1」で特定されるデータを使用し、「W1」の評価枠サイズを使用し、「HPeak」の評価値算出法を使用して、求めた評価値である。このように、評価値名がそのままその評価値の属性を示している。
【0048】
評価値名の使用データには大別して「IIR」及び「Y」がある。輝度信号からHPF(ハイパスフィルタ)を使用して取り出した高周波成分のデータを使用するIIR4と、HPFを使用しないで撮像信号の輝度データをそのまま使用するYとがある。
【0049】
HPFを使用する場合は、HPFとしては図3に示すように、IIR型(無限長インパルス応答型)のHPFを使用している。HPFの種類によって、評価値IIR0,IIR1,IIR3及びIIR4に分けられ、これらは夫々異なったカットオフ周波数を持つHPFを表している。
【0050】
異なるカットオフ周波数をもつHPFを設定する理由は、次の通りである。例えば、カットオフ周波数の高いHPFは、JPの近傍において非常に適している。JP近傍におけるレンズの動きに対して、評価値の変化の割合が比較的大きいからである。反対に、フォーカスが大きくずれているところでは、レンズを移動させたとしても、評価値の変化の割合が小さいので、カットオフ周波数の高いHPFはフォーカスが大きくずれているところでは適していない。
【0051】
一方、カットオフ周波数の低いHPFは、フォーカスが大きくずれているところにおいて適している。なぜなら、フォーカスが大きくずれているところでもレンズを移動させると、評価値の変化の割合が比較的大きいからである。反対に、JPの近傍においてレンズを移動させたとしても、評価値の変化の割合が小さいので、適しているとは言えない。JP近傍におけるレンズの動きに対して、評価値の変化の割合が比較的小さいので、カットオフ周波数の低いHPFはJP近傍においては適しているとは言えない。
【0052】
このように相反する性質を有する複数のフィルタを使用して性質の異なる評価値を生成し、AFの過程でその段階で最適な評価値を選択できるようにするため、異なるカットオフ周波数をもつHPFを設定している。
【0053】
HPFをしない場合には、Yは、撮像信号のフィルタ無しの輝度信号Yを使用する。
【0054】
次に、枠サイズ、即ち評価枠のサイズは、評価値生成に用いる画像領域の大きさであり、AF枠,評価枠,測距枠,特定領域とも称される。図7に示すように、本実施例で使用される枠サイズには、W1(評価枠1)〜W5(評価枠5)の5種類の枠サイズがあり、各々異なったサイズを有する。評価枠W1〜評価枠W5の各中心は、画面中心に一致する。
【0055】
Figure 0003840725
但し、1フィールドの画面サイズは、768画素×240画素である。
【0056】
これらの枠サイズの内、今回開発したAFソフトでは、狙った目標被写体に忠実にフォーカスさせるために、可能なかぎり最小サイズであるW1を用いてAF処理を行なっている。W1は、画面サイズの約1/6.6程度であり、この枠サイズW1を基本枠サイズと称する。
【0057】
なお、後述するように、W1又はW2を使用する特定の評価値において、基本的にはW1又はW2の設定を行なうが、一定の条件下において、枠サイズW1,W2を枠サイズW3,W4又は枠サイズW5の大きさに拡大変更して用いる場合がある。即ち、「偽山」(ぼける方向にフォーカスがすすむと評価値が上昇する現象。)が発生すると最小枠W1又はW2のままではJPに追い込めない場合があり、このような場合には、その評価値が本来使用している枠サイズを拡大変更して、再度AF処理を行なっている。詳細に関しては後で説明する。
【0058】
このように、複数種の枠サイズを設定することにより、各枠サイズに対応した夫々異なる評価値を生成することが出来る。従って、目標被写体がどのような大きさであろうとも、評価値ID0〜ID13の内のいずれかにより、適切な評価値を得ることが出来る。
【0059】
評価値算出法には、HPeak,HIntg,VIntg及びSatulの各方式がある。HPeak方式はピーク方式の水平評価値算出法、HIntg方式は全積分方式の水平評価値算出法、VIntg方式は積分方式の垂直方向評価値算出法、そして、Satul方式は飽和輝度の個数を夫々示す。各々について説明する。
【0060】
HPeak方式は、水平方向の画像信号からHPFを用いて高周波成分を求める評価値算出法である。評価値ID0,ID1,ID2,ID3,ID9,ID10及びID11に使用されている。従って、図2のこれらの評価値生成回路には、次に説明する水平方向評価値算出フィルタを有している。これらの評価値は、夫々評価値生成に用いるHPFのカットオフ周波数、枠サイズが異なっている。
【0061】
図3Aは、HPeak方式に使用される水平方向評価値算出フィルタの回路構成を示したものである。水平方向評価値算出フィルタは、輝度信号生成回路(図2の符号201)の輝度データYから高周波成分だけを抜き出すHPF202と、この高周波成分の絶対値をとる絶対値処理回路203と、絶対値化高周波成分に水平方向の枠制御信号を乗算する乗算回路204と、1ライン当たり1つのピーク値を保持するラインピークホールド回路205と、評価枠内の全てのラインについて各ピーク値を垂直方向に積分する垂直方向積分回路206とを有する。
【0062】
輝度データYはHPF202により高周波成分が抜き出され、絶対値処理回路203で絶対値化され全て正のデータとされる。次に、水平方向の枠制御信号が乗算回路204で乗算され、評価枠内の絶対値化高周波成分にされる。枠制御信号の乗算は、画面上でAF動作に関し目標被写体に関連して評価の対象となる範囲を評価枠として特定して、枠内の高周波成分のみを使用することにより、枠の外又は枠周辺部で出入りする映像情報による評価値のノイズ,急激な変化等を排除するためである。ラインピークホールド回路205で枠内の1〜Nの各ライン毎に1つのピーク値hp1,hp2,…,hpnが夫々ホールドされる。
【0063】
各ライン当たり1つのピーク値がホールドされ、これを垂直方法積分回路206で垂直方向の枠制御信号に基づき評価枠内のラインに関して垂直方向にhp1〜hpnまで加算する。1つの画面の特定の評価枠に対して、各ピーク値をライン分合計した値Σ(hp1+…+hpn)を得る。この方式は、水平方向(H)のピークが一旦ホールドされるのでHPeak方式と称する。
【0064】
また、枠制御信号に関しては、次のような工夫がされている。図3に、評価枠303に対応した水平方向の枠制御信号301と垂直方向の枠制御信号302を示す。ここで、垂直方向の枠制御信号302は方形波であるが、水平方向の枠制御信号301は単なる方形でなく家の屋根のような特性を与えて、両端部30画素の寄与率を徐々に減衰している。この理由は、フォーカスが進むにつれて枠周辺部に位置する枠外エッジ(評価枠周囲にある高輝度なエッジ)の枠内への侵入の影響及び被写体の揺れに伴う評価値の変動を軽減するためである。このような枠サイズの設定及び枠信号特性の生成は、今回開発したAF−ICにより、CPUから自由に行えるように構成されている。
【0065】
ここで、HPF202のカットオフ周波数の相違は、図3Bに示すようにHPFのz変換式X(z)=(1−z-1)/(1−αz-1)における係数αの値で決定される。各評価値のカットオフ周波数の係数αの相違は次の通りである。
【0066】
Figure 0003840725
【0067】
係数α=1/2で特定されるHPFのカットオフ周波数は、fsc(サブキャリアの周波数であって、サンプリング周波数の1/4。)近辺と比較的高く、感度は相対的に低いためノイズをあまり拾わない。一方、係数α=7/8で特定されるHPFのカットオフ周波数は、比較的低いため感度は相対的に高いが、反面ノイズを拾い易い。また、位相遅れが係数α=1/2の場合に比較して格段に大きいので枠外の影響を受け易い。
【0068】
なお、α=1/2のIIR0とIIR1、またα=7/8のIIR3とIIR4を夫々分けた理由は、後で説明する評価値算出法におけるV方向(垂直方向)とH方向(水平方向)の相違によるものである。その理由は、H方向は撮像信号のラインに関して連続的であるのに対して、V方向はフィールド単位の飛び越しラインなので離散的であるために空間周波数が比較的低くなってしまうことにある。従って、同じαを使用していても識別可能なように、使用データ名を別なものにしている。
【0069】
HIntg方式は、全積分方式で求める水平方向の評価値算出法である。HIntg方式は、評価値ID6,ID7,ID12及びID13に使用されている。HPeak方式と比較すると、HPeak方式が1ライン当たり1つのピーク値hp1 〜hpn を求めて、それらを垂直方向に加算Σ(hp1+…+hpn)をしているのに対して、HIntg方式では各ラインの全ての輝度信号y1 〜yn 又はその高周波成分h1 〜hn を用いて、それらを垂直方向に加算Σ(y1 +…+yn ),Σ(h1 +…+hn )している点で相違する。HIntg方式には、使用データが高周波成分を使用するIIR1と、輝度信号Y自体をそのまま使用するYとに分類される。
【0070】
HIntg方式において使用データとしてIIR1を使用する場合は、輝度信号からIIR1で特定されるHPFによって抜き出された高周波成分を全積分している。評価値ID6に使用される。従って、図2の評価値ID6生成回路は、次の全積分方式水平方向評価値算出フィルタを有している。図5は、この全積分方式水平方向評価値算出フィルタの回路構成を示す。このフィルタは、輝度信号生成回路(図2の符号201)からの輝度データYを出力する加算回路501と、輝度データYから高周波成分だけ抜き出すHPF502と、絶対値処理回路503と、絶対値化高周波成分に水平方向枠制御信号を乗算する乗算回路504と、絶対値化高周波成分を枠内の全てのラインについて加算する水平方向加算回路505と、垂直方向の枠制御信号に基づき枠内の全てのラインの絶対値化高周波成分加算値を垂直方向に積分する垂直方向積分回路506とを有する。
【0071】
図2のHPeak方式の水平方向評価値算出フィルタと比較すると、全積分方式水平方向評価値算出フィルタは、水平方向枠信号乗算回路504までは同じであるが、水平方向加算回路505で乗算後の水平方向データを全て加算し、その後、垂直方向積分回路506で枠内の全てのラインを垂直方向に積分する点で異なっている。従って、HIntg方式は、HPeak方式よりも評価値の値は相対的に高く、低コントラスト被写体に対しては有効であるが、反面、偽山も発生しやすい欠点も有する。そこで、本実施例のAFでは、HPeak方式とHIntg方式を適時の使い分けるのであるが、HPeak方式とHIntg方式の使い分けに関しては、後で説明する。
【0072】
HIntg方式において使用データとして輝度データYを使用する場合は、輝度データYを水平方向に全て加算し、設定された評価枠内で全積分している。この場合の評価値は輝度加算値とも称される。評価値ID7,ID12及びID13に使用される。輝度加算値は、図5の全積分方式水平方向評価値算出フィルタからHPF502を取り外した輝度加算値算出フィルタ回路で得られる。
【0073】
輝度加算値は、高周波成分を抜き出していないので、ボケ現象と直接的に関係する高周波成分を利用する本来の評価値、即ちHPeak方式,IIRを使用するHIntg方式及び次に説明するVIntg方式の評価値とは異なっている。実際、被写体に揺れ,外乱(ノイズ)等がなく被写体が評価枠内に出たり入ったりしない場合は、輝度加算値は、映像がJP状態の時でもボケ状態の時でも、ほとんど同じ値となる。しかし、被写体に揺れ,外乱等が生じて枠内に乱入すると、輝度加算値は大きく変化する。そこで、輝度加算値は、このような性質を利用して、主に外乱,揺れ等の監視に用いる評価値として有効である。このように、輝度加算値は、AFでJPを追い込む際に補助的であるが有効な役割を果たすので、本実施例では評価値として取り扱っている。
【0074】
VIntg方式は、全積分方式の垂直方向評価値算出法である。評価値ID4及びID5に使用される。従って、図2のこれらの評価値生成回路は、次に説明する垂直方向評価値算出フィルタを有している。HPeak方式及びHIntg方式はいずれも、水平方向に加算して評価値を生成しているのに対して、VIntg方式は高周波成分を垂直方向に加算して生成された評価値である。例えば画面の上半分が白色で下半分が黒色の映像,水平線の映像等シーンによっては垂直方向の高周波成分のみ有り垂直方向の高周波成分が無い場合は、HPeak方式水平方向評価値は有効に機能しない。そこで、VIntg方式の評価値は、このようなシーンにもAFが有効に機能するように定めている。
【0075】
一般に、高周波成分を垂直方向に加算しようとすると、高周波成分のデータを一旦ラインメモリ又はフレームメモリに記憶して、その読み出し順序を工夫することが必要であり、その回路構成が大規模且つ複雑となる。しかし、ここで定義したVIntg方式は、そのような回路構成を必要としない簡易的なオリジナルな構成により、垂直方向評価値を得ている。
【0076】
図6Aは、垂直方向評価値算出フィルタの回路構成を示す図である。垂直方向評価値算出フィルタは、垂直方向評価値算出フィルタ601と、タイミングジェネレータ602と、IIR型HPF603と、絶対値回路604と、積分回路605とを有する。
【0077】
垂直方向評価値算出フィルタ601は、輝度信号生成回路(図2の符号201)からの輝度データYの各ラインの評価枠内中心部にある64画素の平均値(合計値でも同じ。)を算出し、1Hに1回出力する。ここで、中心部の64画素としたのは、評価枠周辺部のノイズを除去するためである。ここでは、単に64画素分だけ逐次蓄積して最終的に1つの合計値を出力しているため、ラインメモリ又はフレームメモリ等のメモリ装置を必要としない簡易な構成となっている。次に、これを、ライン周波数で同期を取ってHPF603により高周波成分を抜き出している。この中心部の高周波成分は、絶対値回路604で絶対値化高周波データとされ、積分回路605で枠内の全てのラインに関して全積分している。
【0078】
垂直方向評価値は水平線のシーンのような水平方向の変化がない映像で特に有効である。反対に、水平方向の変化がある映像の場合には、これがノイズとなり評価値の有効性は低下する。
【0079】
Satul方式は、枠内の飽和した(具体的には、輝度レベルが所定量以上の)輝度データYの個数を求める算出法である。評価値ID8に使用され、評価値ID8は飽和輝度数とも称する。従って、図2のこれらのID8評価値生成回路は、次に説明する飽和輝度数算出回路を有している。飽和輝度数は、飽和輝度数が多い場合には偽山が発生することが多く、偽山発生に対してはAFとして特別の処理を必要とするため、高い確率で偽山が出現する状況を検出するための評価値として定義している。
【0080】
図6Bに、飽和輝度数算出回路の一例を示す。この飽和輝度数算出回路は、輝度データYと閾値αとを比較して、輝度データYが閾値α以上(飽和輝度)のとき「1」を出力する比較器606と、この比較器の出力,水平・垂直枠制御信号及び1画素クロックを表すクロック信号CLKを入力するAND回路607と、このAND回路の出力をクロック入力端子に入力し、1垂直期間を表すVD信号をセット端子に入力して、1フィールド分の飽和輝度データの個数を係数するカウンタ608とを有している。次に、各評価値について個別的に説明する。
【0081】
次に、個別評価値に関して説明する。
(1) ID0(IIR1―W1―HPeak)
評価値ID0は、本実施例のAFにおいて最も基本となる評価値であり、基本評価値とも称する。本実施例のAFは、評価値ID0の増減を優先的に判断して、実行している。評価値ID0は、IIR1で特定されるHPFのカットオフ周波数がfsc(サブキャリアの周波数であって、サンプリング周波数の1/4。)近辺と比較的高く、評価値ピークがJPと一致する確率が高い。
【0082】
これに対して、評価値ID3(IIR4―W1―HPeak)は、IIR4で特定されるのHPFのカットオフ周波数が比較的低いため感度が相対的に高く、評価枠外の要因等に影響され易く、評価値ピークがJPと重ならない場合が生じ、その結果、JPの追い込みに間違いが生じる危険性がある。
【0083】
反対に、評価値ID0は、感度が相対的に低いため他の評価値に比べて偽山が発生することが少ないが、少しのボケ状態でもノイズレベルに対してJPの所在が不明となり、有意な値が得られなくなる欠点も有する。
【0084】
この評価値を生成する回路構成は図3の水平方向評価値算出フィルタによる。図3Bに示すHPFの係数αは1/2である。枠の大きさは、基本サイズの評価枠W1(116×60)で、画面サイズの約1/6.6となっている。評価枠W1は、民生用ビデオカメラのAFに使用される評価枠に比べて相対的に小さな枠サイズである。民生用ビデオカメラに比較して小さい枠サイズを選定したのは、狙った目標被写体にきっちりフォーカスさせるためである。反面、枠サイズを小さくすると手ぶれ、被写体の揺れ等により評価値が変動し易くなり、AFは一層困難になる。このため、評価値ID0では、評価枠W1を固定的に使用するのではなく、後で述べる偽山判定,飽和輝度判定における一定の条件下で、線分比で2倍,3倍に拡大した別の評価枠に拡大変更して使用できる工夫も凝らしている。詳細については後述する。
【0085】
(2) ID1(IIR1―W2―HPeak)
評価値ID0(IIR1―W1―HPeak)に比較して、評価値ID1は、水平方向だけが僅かに小さいサイズの評価枠W2(96×60)で生成されている。ID1は、ID0に対して枠サイズが若干小さいだけで他の条件は全て等しいので、評価値曲線の挙動は略同じだが、IDOとの水平方向枠サイズの差を利用して、後で述べる「偽山判定」を行なうために設けている。
【0086】
(3) ID2(IIR4―W1―HPeak)
ID0(IIR1―W1―HPeak)と比較して、ID2は、評価値生成におけるHPFのカットオフ周波数が1/8となっており、低い周波数成分まで評価値生成に寄与しているので相対的に感度が高い性質を有する。枠サイズに関してはID0と同じ基本枠サイズW1であるので、ID0に比較してボケ状態でも有意な値をとるが、HPFの位相遅れがID0に比較して格段に大きいので枠外の影響を受け易く偽山が発生しやすいという欠点もある。
【0087】
図2に評価値ID0及び評価値ID2の傾向を示す。評価値ID0曲線はカットオフ周波数が比較的高い高周波成分しか寄与しないので、シャープな形状となっている。
【0088】
(4) ID3(IIR4―W3―HPeak)
ID2(IIR4―W1―HPeak)と比較して、評価値ID3は、枠サイズが異なり縦横共に線分比2倍の評価枠W3(232×120)を使用しているので、その分だけライン数が多くなり、評価値は相対的に高くなる。後で説明する「ウォブリング方向判定」,「逆送判定」及び「チェックダウン判定」に用いる。
【0089】
(5) ID4(IIR0―W1―VIntg)
評価値ID4は、垂直方向の高周波成分を求める評価値である。IIR型HPFのフィードバック係数はIIR1と同じα=1/2だが、フィールド単位の飛び越しラインなので、空間周波数で考えるとIIR1よりも低い。枠サイズはID0と同じ基本枠サイズW1である。評価値ID4は、映像に水平方向高周波成分がなく垂直方向高周波成分がある場合には、被写体のボケ現象と相関をもつ評価値となるが、反面、水平方向成分が増えてくると偽山を発生し易くなる性質を有する。
【0090】
(6) ID5(IIR3―W3―VIntg)
評価値ID5は、ID4(IIR0―W1―VIntg)と同様の垂直方向の評価値である。但し、本願出願時点ではこの評価値は用いていない。使用データIIR3は、IIR型HPFのフィードバック係数αはIIR4と同じα=7/8だが、フィールド単位の飛び越しラインなので空間周波数で考えるとIIR4よりも低い。枠サイズはID2と同じ評価枠W3である。
【0091】
(7) ID6(IIR1―W1―HIntg)
評価値ID6は、HPFに関してはID0(IIR1―W1―HPeak)と同じだが、この評価値は絶対値処理後の全てのデータをH方向及びV方向共に全積分しているため、評価値の感度が高い。従って、ID6は、暗いシーンに対して有効である。しかし、評価値の感度が高いためノイズを拾いやすく、極端に暗いシーンになると発生するノイズも全部加算するために偽山が発生しやすい欠点もある。評価値ID6は、主に低コントラストの被写体用に用意している。
【0092】
(8) ID7(Y―W1―HIntg)
評価値ID7は、枠内の輝度データYを単純に合計した値であり、輝度加算値とも呼ぶ。枠サイズは基本枠サイズW1である。被写体が静止していれば、フォーカスが変化しても輝度加算値はあまり変化しないので、被写体のボケ状態判断に用いることはない。しかし、輝度加算値は、被写体の揺れ状態、外乱の枠内への侵入があると大きく変化する性質を有するので、これらの監視用に用いる。
【0093】
(9) ID8(Y―W1―Satul)
評価値ID8は、CPUが設定する所定の輝度レベルよりも大きい輝度をもつ画素の数である。ID8を飽和輝度数とも呼ぶ。この所定の輝度レベルは、CPUによって設定され、略最大輝度レベルに近い値が設定される。枠サイズは基本枠サイズW1である。飽和輝度数が大きい場合には、偽山が発生することが多い。AFソフトでは、この飽和輝度数ID8を監視し、所定数を越えたら特別の処理に切り替えてフォーカスをJPに追い込んでいる。
【0094】
(10)ID9(IIR1―W3―HPeak)
評価値ID9は、ID0(IIR1―W1―HPeak)と比較して、枠サイズのみ異なり、線分比2倍に拡大したものを使用する。枠サイズは評価枠W3(232×120)である。「揺れ判定」,「偽山判定」及び「保険モード」時のピーク判定に用いる。
【0095】
(11)ID10(IIR1―W4―HPeak)
評価値ID10は、ID9(IIR1―W3―HPeak)に比較して、水平方向が僅かに小さいサイズの評価枠W4(192×120)で生成されている。枠サイズに関して、ID10のID9に対する関係は、ID1のID0に対する関係と同様である。「偽山判定」及び「保険モード」時のピーク判定に用いる。
【0096】
(12)ID11(IIR1―W5―HPeak)
評価値ID11は、ID0(IIR1―W1―HPeak)に比較して、枠サイズのみを線分比で横ほぼ5倍,縦3倍に拡大した評価値である。枠サイズは最大の評価枠W5サイズである。評価値ID10と同様に、「揺れ判定」,「偽山判定」及び「保険モード」時のピーク判定に用いる。
【0097】
(13)ID12(Y―W3―HIntg)
評価値ID12は、ID7(Y―W1―HIntg)に比較して、枠サイズのみを線分比で横縦共に2倍に拡大した評価値である。。枠サイズは評価枠W3(232×120)である。被写体の揺れ状態及び外乱の枠内への侵入の判断に用いる。
【0098】
(14)ID13(Y―W5―HIntg)
評価値ID13は、ID7(Y―W1―HIntg)に比較して、枠サイズのみを線分比で横ほぼ5倍,縦3倍に拡大した評価値である。枠サイズは最大の評価枠W5である。評価値ID12と同様に、被写体の揺れ状態、外乱の枠内への侵入の判断に用いる。
【0099】
(15)各評価値の関係
各評価値は、使用データにより輝度データYから抜き取った水平方向高周波成分を使用するHPeak(HIntg)と、輝度データYを全部使用するYと、水平方向データの中央部をの高周波成分を全部使用して垂直方向に積分するVIntgとに大別される。
【0100】
HPeakに関しては、図9Aに示すように、基本評価値ID0に対して、評価枠を面積比4倍に拡大したID9と、面積比ほぼ15倍に拡大したID11があり、また、IDOに対して水平方向が若干狭いID1と、ID9に対して水平方向が若干狭いID10とが用意されている。更に、基本評価値ID0に対してHPFのカットオフ周波数が低い(感度が高い)ID2と、ID9に対してHPFのカットオフ周波数が低いID3が用意されている。更に、特別に、基本評価値ID0と異なり、全積分HIntgするID6がある。
【0101】
Yに関しては、図9Bに示すように、輝度加算値ID7と、評価枠を面積比4倍に拡大したID12と、面積比ほぼ15倍に拡大したID13とがある。
VIntgに関しては、図9Cに示すように、ID4と、評価枠を拡大しカットオフ周波数も低いID5が用意されている。その他にID8が有る。
【0102】
次に、ビデオカメラの動作を、図10〜図38を用いて説明する。
3.AFアルゴリズム
3.1 全体フローチャート
今回開発したAF機構は、ワンショットタイプを採用するとの思想で開発されている。AFスイッチ(図1の符号115)がプッシュされたら起動し(AFスタート)、フォーカスをJPに追い込んだら動作を終了する「ワンショットタイプAF」の仕様となっている。即ち、一旦AF作動スイッチが押されてフォーカスがJP状態になったレンズは、次にAF作動スイッチが押されるまで不動状態となる。これは、放映中にフォーカスが変動する場合の危険性を回避するためである。
【0103】
実際の放送局スタジオ又は各種イベントにおける多くの撮影では、複数台のビデオカメラが用意され、適時切り替えて放映する。従って、特定のカメラと被写体間の距離はほとんどの場合に一定であり、ワンショットタイプAFは、このような映像に適したモードである。反面、屋外で遠方からこちらに向かって疾走する列車を撮影するような連続的にカメラとの距離が変化している被写体の撮影に関しては適していない。
【0104】
図10に本AFソフトのフローチャートを示す。本AFソフトは、概して、揺れ判定ステージ、WOBステージ、山登りステージ、の3ステージから構成されている。
揺れ判定ステージでは、被写体の揺れを判定し、それに応じたモードの設定を行なう。
WOBステージでは、ウォブリングレンズのみ動かしてウォブリング処理を行ない、フォーカスレンズが進むべきの初期方向を決める。ウォブリング処理終了時点までは、フォーカスレンズは不動である。
山登りステージでは、実際にフォーカスレンズを移動して、それに伴う評価値の増減を判断してフォーカスをJPに追い込む処理を行なう。このAFフローチャートでは、通常、山登りループを1フィールドで1回の割合で何回か周回しながら評価値ピークを検出し、JPに追い込んでいる。
【0105】
なお、上記AFフローとは別に毎フィールドのデータ処理として、次のデータを所定のループバッファメモリ(32フィールド分)へ順次更新して記録している。ループバッファに格納されたデータは、AFソフトの各種処理、判定に使用される。
(a) 評価値14種の生データ
(b)(a)の各評価値データ各々の3フィールドの移動平均をとったもの(14種)
(c) レンズ位置
(d) アイリス値及びフォーカス値(1フィールドづつ交互に記憶)
【0106】
以下、図10のAFフローのステップに順番に説明する。
【0107】
3.2 揺れ判定(レンズ静止時)
レンズに取付けられたスタートスイッチが押されると、AF機構が動作開始する。ステップS1001で、レンズ静止の時の揺れ判定、即ち、揺れの有無を判定する。「揺れ」とは、カメラと被写体の相対的な動きである。この揺れ判定には、AFスイッチが押されてから所定期間経過経過するまでの評価値データは、揺れ判定のための計算には寄与させない特徴を有する。
【0108】
図11は、カメラをパンさせて停止し、AFのスイッチをONしたときの評価値の変動を示したものである。この揺れ判定では、評価値に対するパン及びスイッチONによる影響を排除するように揺れ判定期間を定めている。図11に示すように、パンによる評価値が変動する期間1105の後、AF機構のスイッチオン(SW ON)1101してから20フィールド経過後まで期間を、直後の8フィールドの期間を除き、揺れ判定期間(9〜20フィールドの12フィールド間)1103として定め、この期間の評価値データを用いて揺れの状態を判定する。
【0109】
直後の8フィールド(1104)を除外しているのは、スイッチプッシュ時のカメラぶれの影響をとり除くためである。このように、揺れ判定期間1003を設定することにより、スイッチONによる影響の無い評価値が得られる。なお、「パン」(pan,panning)」とは、カメラワークの一種で、カメラを左右に移動しながら撮影することである。代表的なパンとして、フォローパンとサーベイングパン等がある。カーレースでスピードを出している自動車が止まっているように見えるが、背景が横に流れている映像は、自動車のスピードに合わせてカメラをフォローパンした結果である。
【0110】
揺れ判定の結果、揺れが有ればステップS1002に進み「揺れモード設定」をする。揺れモードが設定されると、後で説明するようにフォーカスレンズの動かす速度及びウォブリングレンズの動作を変えている。この段階までは、ウォブリングレンズ及びフォーカスレンズは不動である。
【0111】
ここで、各評価値の値はeで表示し、特に評価値IDiの値をe[i]と表記する。また、現フィールドの評価値をe0 、jフィールド前の評価値をej 、と表記する。従って、例えば、e2 [0]は評価値ID0の2フィールド前の値を意味するものとする。また、これから説明するようにAFの各段階で、各評価値の値e[i]は所定の閾値によって様々に判断されるが、その閾値をthとし、特に評価値IDiの閾値をth[i]と表記する。また、閾値が複数個ある場合、第1の閾値をth1 [i]とし、第2の閾値をth2 [i]とする。
【0112】
なお、本実施例においては、各閾値及びその他の判定基準に関して可能な限り具体的数値を挙げて説明するが、これらの数値は例示でありこれに限定されるものではない。発明の本質は、特定の性質を有する評価値に対して、閾値又はその他の判定基準を設けて各段階のフォーカス状態又はこれに関連する事象を判断しているところにあることを承知されたい。
【0113】
揺れの判定は、評価値ID0の正規化差分値及び評価値ID7(輝度加算値)の正規化差分値を用いる。評価値ID0の正規化差分値〔%〕は、現在フィールドの値e0 [0]、その2フィールド前の値e2 [0]を用いて、
50×|e0 [0]−e2 [0]|/e0 [0]
で定義する。同様に、評価値ID7の正規化差分値〔%〕は、現在フィールドでの値e0 [7]、その2フィールド前の値e2 [7]を用いて、
50×|e0 [7]−e2 [7]|/e0 [7]
で定義する。
【0114】
正規化差分値は1フィールド当たりの評価値の変化の割合を意味している。ここで、現在フィールドの評価値と2フィールド前の評価値とを比較しているのは、oddフィールドとevenフィールドの相違による評価値変動の影響を除去するために、2フィールド間隔としてodd又はevenフィールドの一方だけを使用するからである。また、百分率であるに拘わらず、50倍しているのも同様の理由による。
【0115】
また、実際に試作したAF機構では、更に、e0 [0],e2 [0],e0 [7],e2 [7]の各々は、3フィールドの移動平均値を採用している。これは、室内の蛍光灯が50Hzで点滅し、一方、カメラが60Hzで動作するため、蛍光灯のフリッカが20Hzとなり、この影響を排除するためである。同様に、これから説明する各評価値の値eは、特に断らない限り、いずれも3フィールドの平均値をとっているため、蛍光灯のフリッカの影響は無いものと承知されたい。
【0116】
ループバッファに格納した、揺れ判定期間の12フィールドにわたる評価値ID0を用いて正規化差分値を計算し、各正規化差分値の中で最大値を最大正規化差分値(以下、「ndiff e[0]」とする。)とし、揺れの判定を実行する。
【0117】
しかし、評価値ID0の値が低い場合には、定常的に存在するノイズ変動により被写体に揺れがなくとも「ndiff e[0]」が大きな値となり、揺れ判定の閾値を越えてしまうことがある。
【0118】
そこで、評価値ID0の値が低い場合には、代わりに輝度加算値ID7を用いて12フィールドの各正規化差分値を計算し、それらの最大値から最大正規化差分値「ndiff e[7]」を作成し、それを用いて揺れ判定を行なっている。全ての場合に評価値ID0の最大正規化差分値「ndiff e[0]」を用いないのは、評価値ID0が或る閾値以下であれば、「ndiff e[7]」の方が被写体の揺れに対応していると考えるからである。揺れ判定の具体的基準を以下に示す。
【0119】
評価値ID0の平均値(揺れ判定期間12フィールドの平均値)が200以上なら、
ndiff e[0]〈 3% → 静止モード
ndiff e[0]≧ 3% → 揺れモード1
ndiff e[0]≧30% → 揺れモード2
とする。
【0120】
評価値ID0の平均値が200未満なら、
ndiff e[7]〈 7% → 静止モード
ndiff e[7]≧ 7% → 揺れモード1
ndiff e[7]≧12.5%→ 揺れモード2
とする。
【0121】
揺れ判定の手順及び判定基準値は、多数の被写体を撮影して決定した。当初、出来れば全て評価値ID0で揺れ判定を行いたかったが、輝度加算値ID7をも使用したにのは、輝度が低くてノイズに近いようなシーンの場合(200未満)には、ID7に基づく「ndiff e[7]」を使用した方が好ましい結果が得られたからである。ここで、基準値として、評価値ID0の平均値が200以上又は未満で分けたこと、3%,30%,7%,12.5%の各閾値を採用したことは、多数の被写体を撮影して実験的に決定した。
【0122】
尚、画面が大ボケ状態の場合には画面は均一に近くなるので、たとえ被写体が揺れていたとしてもその検出は出来にくくなる。従って、AF動作を大ボケ状態からスタートすると、この揺れ判定では揺れの有無に係わらずに「静止モード」と判定してしまう。そこで、後で述べるフォーカスレンズが移動する山登りステージにおいても評価値が有意な大きさになったら、揺れ判定(S1014)を再度行なっている。
【0123】
次のステップS1003の「ロングフィルタ判定」及びS1004の「ロングフィルタ処理」に関しては、説明の都合上最後に説明する。
【0124】
3. 3 ウォブリング
ステップS1005でウォブリング(以下、「WOB」と略す。)が可能か否かを判断し、可能ならばWOB動作(S1006)に進み、そうでないならば直接山登りステージに進む。
【0125】
先ず、WOBの有用性について説明する。AFが要求されたら、直ちにフォーカスレンズを動かす方法も考えられる。一般に、WOBレンズは、フォーカスレンズと比較して質量が小さいため、比較的短い時間でフォーカスを焦点深度程度移動することができる。もちろんフォーカスレンズでフォーカスを焦点深度相当移動することもできるが、WOBレンズよりも長い時間を要する。更に、焦点深度が深いレンズ撮影条件(アイリスが閉じ気味、テレ端)では、CCDから相対的に遠いフォーカスレンズは一層大きく動かす必要がある。
【0126】
ここで「テレ端」とは拡大状態をいい、極端に狭い範囲でピントが合っている状態をいい、FARからNEARまで評価値が極端に変化する。反対に、「ワイド端」とは、ズームアップ状態をいい、テレ端では広範囲でピントが合っている。そのため、FarからNearまで評価値が変化しない。テレ端の傾向が高まるにつれ、WOBは有効となる。
【0127】
フォーカスレンズを進むべき方向が分からないままに移動させ、それが評価値低下の方向であることが判明した場合には、フォーカスレンズは移動方向を反転する応答特性が悪く、集束時間が長くかかってしまう。このような、ぼける方向に進み、その後反転してJP方向に進む動作は、画面の見栄えが良くなく、進むべき方向が分からないままに移動させた場合に発生する確率は厳密には言えないが半分の確率といってよい。また、WOBでは、フォーカスレンズを移動する方法に比較して、画面の変化がほとんど分からずに行えるので、フォーカスの状態(ジャストピン,小ボケ又は大ボケ)及び評価値の変化する方向、即ちフォーカスレンズの進むべき方向が正確にわかるならば、WOBは有用である。
【0128】
そこで、フォーカスレズが前玉繰り出し方式のレンズであり、WOBレンズを別個有する場合には、WOB可能であるか否かを判断した上で、予めWOB動作を行いフォーカスレンズの進む方向を探ってからフォーカスレンズを動かすこととしている。
【0129】
ステップS1005でWOB可能判断の処理を行う。WOB可能判断の処理では、WOBが有効(可能)であるか否か、即ちWOBさせるか否かの判定を行なう。WOBは常に有効であるわけではない。WOBが無効な場合とは、▲1▼評価値ID0が所定閾値(例えば、250)以下の場合、▲2▼揺れモードの場合、又は▲3▼飽和輝度数ID8が所定量以上ある場合であり、これらの場合はWOBを実行しない。
【0130】
▲1▼評価値ID0が所定の閾値(例えば、250)以下の場合
評価値IDOが低い場合、JP又は大ボケ状態ではWOBによって評価値の変化が得られないので、フォーカスレンズの移動方向を決定する方向判定ができない。そこで所定の閾値を設けて、それ以下であればWOBを行わない。この閾値の大きさ250は種々の被写体を用いて実験的に決定した。ここで、例えば、カットオフ周波数が低く枠サイズの大きいID3等の他の評価値を用いることも検討したが、偽山発生によりフォーカスレンズの方向判定が誤る場合が多かったので、結局、評価値ID0のみ使用して基準としている。
【0131】
▲2▼揺れモードの場合
ステップ901の揺れ判定(レンズ静止時)で揺れモード1又は2と判定された場合には、揺れによる評価値変動が大きくWOBしても方向判定を誤ることが多くなるので、WOBは行なわない。
【0132】
▲3▼飽和輝度数ID8が所定量以上ある場合
評価枠内に飽和輝度データが所定量以上ある場合には、WOBしても評価値が変動しない傾向にある。飽和している場合には多少ぼかしても、エッジのシャープさが変化しないためである。
【0133】
評価値ID0が所定の閾値以上あり、静止モードであり、且つ、飽和輝度数ID8が所定量以下の場合(▲1▼〜▲3▼のいずれにも該当しない場合)には、WOBを行うためWOB動作(S1006)に進む。▲1▼〜▲3▼のいずれかに該当した場合、WOBは有効でないため、WOBを行わずに、直接山登りステージに進む。
【0134】
ステップS1006でWOB動作を行う。これは、AFブロック137からレンズブロック側CPU114に対してWOBレンズ制御指定を与えることにより行われる(図1参照)。図12は、WOB動作のフローチャートを示したものである.WOBルーチンが起動されたら、
ステップS1201で、14種類の評価値の値(e0 [i],i=1〜13)を全て記憶する。
ステップS1202で、WOBレンズを現在位置からNear方向に向け移動して半焦点深度分だけNear方向に寄った位置にして、評価値が安定した後、ステップS1203で14種類の評価値(enear[i],i=1〜13)を記憶する。
ステップS1204で、WOBレンズをFar方向に向け移動し最初の位置から半焦点深度分だけFar方向に寄った位置にして、評価値が安定した後、ステップS1205で14種類の評価値(efar [i],i=0〜13)を記憶する。
【0135】
ステップS1206で、WOBレンズをニュートラル位置(最初の位置)に戻し、評価値が安定した後、ステップS1207で14種類の評価値(eneutral [i],i=0〜13)を記憶する。なお、再度最初の位置に戻してニュートラル位置とし、14種類の評価値をサンプリングしているのは、efar [i]との間で行う演算精度を上げるためである。従って、ステップS1206を外して、ステップS1202のe0 [i]を変わりに用いてもよい。
【0136】
ここで、Far方向とNear方向について説明する。レンズをCCDから遠ざける方向(即ち、被写体に近づける方向。)をNear方向という。換言すれば、近く(Near)にある被写体に対しJPになるように移動する方向をNear方向という。Far方向は、Near方向の反対方向である。また、Near端とFar端については、JP可能な最接近距離にある被写体がJP状態にあるレンズ位置をNear端にあるといい、無限遠にある被写体がJP状態にあるレンズ位置をFar端にあるという。
【0137】
なお、WOB動作のタイムチャートを図13に示す。図13においてwtimeは、WOBレンズの移動時間と移動平均フィルタの位相遅れ時間(1フィールド)を足したものである。
Figure 0003840725
wtimeは、アイリス値Fによって異なった値にしている。WOBレンズを半焦点深度分動かすには、アイリスが絞られればそれだけ時間がかかるためである。
【0138】
なお、ステップS1202のNear側への移動とステップS1204のFar側への移動は、どちらを先に実行してもよい。
【0139】
このようにして記憶した評価値e0 [i],efar [i],enear[i],eneutral [i],(i=0〜13)を用いてフォーカスの状態を判断するステップS1208の方向判定処理に進む。この方向判定処理の詳細なフローを図12Bに示す。
【0140】
図12Bに示す方向判定処理のフローは、第1段階判定と第2段階判定からなる。最初に、カットオフ周波数の比較的高い使用データIIR1の評価値を用いて第1段階判定を実行して方向判定し、ここで方向が分からなかった場合に、方向判定に寄与する評価値を変更して、カットオフ周波数の比較低い使用データIIR4方式の評価値を用いて第2段階判定を続行する。方向判定としては、第1段階判定がメインである。第1段階判定では、ジャストピン(JP)判定(S1209)、Near判定(S1211)、Far判定(S1213)の順に、各判定処理を実行する。
【0141】
ステップS1209で、フォーカスがJPであるか否かのJP判定を行う。JPとは、フォーカスがJP位置から半焦点深度(焦点深度の半分)以内のずれであることを意味する。JP判定でJPと判定されたら既にフォーカスは合っておりAFの必要はないので、ステップS1210で、移動方向は無し(ジャスト),モードはノーマルと設定して、WOBルーチンを終了する。JPでないと判定されたら、S1211のNear判定に進む。
【0142】
ステップS1212で、評価値の上昇する方向がNear方向であるか否かのNear判定を行う。Near判定でNearと判定されたら、ステップS1212で移動方向はNear,モードはノーマルと設定して、WOBルーチンを終了する。Nearでないと判定されたら、ステップS1213のFar判定に進む。
【0143】
ステップS1213で、評価値の上昇する方向がFar方向であるか否かのFar判定を行う。Far判定でFarと判定されたら、ステップS1214で移動方向はFar,モードはノーマルと設定して、WOBルーチンを終了する。Farでないと判定されたら、第1段階判定を終了し、ステップS1215の評価値の重み変更処理に進む。
【0144】
なお、ステップS1211のNear判定とステップS1213のFar判定は、どちらを先に実行してもよい。
【0145】
第1段階判定でJP,Near,Farのいずれとも判定されなく、フォーカスレンズの移動方向が分からなかった場合には、ステップS1215で評価値の重み付けを変更して、第2段階判定に進む。「評価値の重み」とは、Near判定、Far判定で行なっているファジーフィルタ型シナプス処理(図19参照)の各入力に対する重みである。
【0146】
第2段階判定では、ステップS1216で、再度Near判定を行なっている。Near判定でNearと判定されたら、ステップS1217で移動方向はNearと暫定的に決定し、モードはフラットと設定して、WOBルーチンを終了する。Nearでないと判定されたら、Far判定を行わずにステップS1283に進み、移動方向はFarと暫定的に決定し、モードはフラットと設定して、WOBルーチンを終了する。即ち、Near判定でNearと判定された場合を除いて、全てFarとしている。これは、実際にカメラを使用する場合、被写体としては数m以上離れていることが多いので、方向が分からないときにはFarに向かえばそれがJPに近づく方向である可能性が高いと考えたからである。以上により、WOB動作を終了して、JP判定(S1007)に進む。
【0147】
第1段階判定後、第2段階判定で評価値の重みを変更して再度同様の判定を行なう理由は、以下のとおりである。第1段階判定では、実際には評価値の重みを、
W[ ]={10,0,0,0,0,0,0,0,0,0,0,0,0,0}
但し、{}内の各数字は、評価値ID0〜ID13の夫々の評価の重みとし、カットオフ周波数の比較的高い使用データIIR1の評価値ID0のみを判定に寄与させている。第1段階判定で評価値ID0のみに絞って判定しているのは、方向判定を誤るとAF動作に支障が生じるため、JP,Near,Farの各判定における誤判定を極力減らすためである。
【0148】
第1段階判定でJP,Near又はFarのいずれとも判定されない場合には、フォーカスレンズの進むべき方向判定ができない、即ち、大ボケであると判定する。この場合には、フォーカスをNearに動かすか、又はFarに動かすかは明確な理由をもって決定できない。そこで、ステップS1215で、感度を多少あげるため評価値の重みを変更して、第2段階判定に進むこととしている。重みは
W[ ]={5,10,20,20,0,0,10,0,0,5,10,5,0,0}
のように変更する。この重み付けは、カットオフ周波数の比較的低い使用データIIR4のID2(IIR4- W1- HPeak)及び更に枠サイズが異なるID3(IIR4- W3- HPeak)に重みを置いている。
【0149】
このように、第1段階判定は、誤判定の確率は低いが評価値の感度が相対的に低く少しのボケ状態でも有為な値が得られない。第2段階判定は、感度がよい反面、偽山が発生しやすく誤判定を生じやすい。ここで、第1段階判定のカットオフ周波数の比較的高い使用データIIR1の評価値ID0と、カットオフ周波数の比較的低い使用データIIR4の評価値ID2又はID3とを、両者を加算して方向判定することも考えられる。しかし、この場合でも、後者の偽山が発生しやすく誤判定を生じやすいことが分かった。そこで、本実施例では先ず第1段階判定を優先させ、ここで方向判定できない場合のみ第2段階判定でバックアップすることにより、WOBの誤判定の確率を低く押さえたまま、WOBの感度を上げることができた。
【0150】
さて、第1段階判定及び第2段階判定の具体的内容である、ジャストピン判定,Near判定及びFar判定について説明する。
【0151】
ジャストピン判定において、WOBしたとき評価値がどのように変化した場合に「JP」と判定するかを視覚的に説明する。WOBを行なうとフォーカスの状態に応じて評価値は図15〜図16に示すような変化を示す。
図15Aは、始点(0) がJPに一致している場合の評価値の変化を示す。WOB((0) →▲1▼→▲2▼→▲3▼)により、評価値の変化は2回低下するW字型になる。
【0152】
図15Bは、始点(0) がJPから僅かにずれている場合である。WOB((0) →▲1▼→▲2▼→▲3▼)により、評価値は2回低下するが、1回目と2回目ではアンバランスになる。図15Bの状態もJPとする。
【0153】
図15Cは、始点(0) が半焦点深度近くずれている場合である。WOB((0) →▲1▼→▲2▼→▲3▼)により、評価値は、低下後上昇するか又は上昇後低下するの2通りとなる。いずれの場合でも低下の差が、上昇の差よりも大きい。低下の差と上昇の差の比率を定め、低下の差が一定比率以上であればJPとする。図17に示すように、本実施例では、低下分(b):上昇分(a)=5:1以上を採用する。これも実験値である。
【0154】
図16Dは、始点がJPから半焦点深度を越えてずれている場合の評価値の変化を示す。WOB((0) →▲1▼→▲2▼→▲3▼)により、評価値は、低下後上昇するか、又は上昇後低下するの2通りとなり、低下の差と上昇の差の大きさは同程度の大きさとなる。図16Dの状態はJPと判定せずに、ステップS1211のNear判定に進む。
【0155】
図16Eは、始点がJPから大きくずれた大ボケ位置にある場合の評価値の変化を示す。この場合にはWOB((0) →▲1▼→▲2▼→▲3▼)を行なっても評価値の変化はほとんどない。たとえ変化があったとしても、評価値のもつ定常ノイズ以下となる。
【0156】
図16Fは、JPの状態であるが、ディテールの少ない被写体の場合の評価値の変化を示す。ディテールが少ないとWOB((0) →▲1▼→▲2▼→▲3▼)で評価値の変化はほとんど得られず、図16Eの大ボケと同じような振る舞いを示す。しかし、JPにある。
【0157】
ここで、図16Eと図16Fでは評価値の変化は似ており、評価値の変化だけでは両者を区別することが困難である。これは、ディテールがある被写体の大ボケ状態と例えば均一に近い壁のようなディテールの少ない被写体のJP状態をWOBで判断するのは困難であることを意味する。この識別不能が画像処理形AFを困難なものにしている1つの要因である。
【0158】
この実施例では、図16A〜図16Cの場合には、WOBの結果はJPとしてWOBを終了しAFを行わない。図16D〜図16FはJPでないと判定し、Near判定に進む。本当は図16Fの場合もJPと判定すべきであるが、図16Eと見分けがつかないことから、JPでないと判定せざる得ない。以上のJP判定を計数的に実現するため、WOBフローで記憶したe0 ,enear,efar ,eneutral の各値を使用して、図18及び図19に示す計算方法を実行している。
【0159】
図18の方向判定におけるジャストピン判定を説明する。WOBレンズのニュートラル位置とFar方向に焦点深度分離れた位置との評価値差(e0 [0]−enear[0])1801及びニュートラル位置とNear方向に半焦点深度分離れた位置との評価値差(eneutral [0]−efar [0])1806より夫々の拡張合致度m1、m2を算出する。
【0160】
図中下部の各拡張合致度算出の詳細に示すように、拡張合致度m1の算出は、横軸の評価値差(e0 [0]−enear[0])に対応して縦軸のm1となる。
(1) 評価値差が0〜第1の第1閾値th1 [0]までの場合、m1=0をとる。
(2) 評価値差が第1の閾値th1 [0]の時、m1=0をとり、また、評価値差が第2閾値t h2 [0]の時、m1=100〔%〕をとる。
(3) 評価値差が第1閾値th1 [0]以上の場合、(2) の条件下で比例配分される。
(4) 評価値差が0以下の場合、縦軸に関して線対称となる。
【0161】
結局、評価値差とm1は1次関数にあるが、0付近に幅を持たせ、微妙な差はm1をゼロとしている。この理由は、評価値の微少な定常的なノイズ(リップル成分)を判定に寄与させないために、ゼロ付近に幅を持たせているのである。
【0162】
拡張合致度m2の算出も、横軸の評価値差(eneutral [0]−efar [0])に対応して、同様に行う。
【0163】
m1,m2がいずれも100%以下の場合、スイッチ1603,1610はいずれも上のルートを取り(1804,1811)、m1 とm2 は加算器1807で加算され、その和が比較器1814で定数βと比較される。本実施例では、図17で説明したように、低下分:上昇分=5:1以上より、β≧80%としている。この和がβより大きい場合には比較結果は「JP」となり、β未満であれば結果は「JPでない」となる。
【0164】
図15Cの例に対応させると、例えば、(0) から への移動により評価値差(e0 [0]−enear[0])から合致度m1=+90%、▲1▼から▲3▼への移動により評価値差(eneutral [0]−efar [0])から合致度m2=−10%が得られたとする。両者を加算すると80%となり、β≧80%を満たし、比較結果は「JP」となる。
【0165】
m1 とm2 のうちのいずれか一方が100%を越えた場合には、比率で見る必要があるため、スイッチ1803,1810はいずれも下のルートを取り、m1 又はm2 の大きい方の絶対値でm1 とm2 共に正規化する(1805,1812)。即ち、m1 又はm2 の絶対値が大きい方を100とする。その後、加算器1807で和をとり、比較器1614で比較演算を行なっている。同様に、この和がβより大きい場合には比較結果は「JP」となり、β未満であれば結果は「JPでない」となる。
【0166】
図15A,B及びCの場合にはm1 とm2 共に正となり、WOBで評価値差が所定以上であれば判定がJP状態となるよう定数β(例えば、0. 8)を実験的に定めている。図16Dの場合にはm1 とm2 のうち一方が正となり他方が負となる。m1 とm2 共にその絶対値が100%以下の場合には、通常(m1 +m2 )は相殺されてゼロに近い値となり、よってβ以下となるので判定は「JPでない」となる。
【0167】
ところが、m1 とm2 共にその絶対値が100%を大きく越し、(m1 +m2 )が正となる場合には|m1 /m2 |が1に近いにもかかわらず(これは典型的な小ボケ状態)判定結果はJPとでてしまうことがある。そこでm1 又はm2 の大きい方で正規化した後、和をとり比較することにより誤判定を防いでいる。
【0168】
図13E及びFの場合には、m1 とm2 が共にゼロもしくは小さな値となり判定は「JP状態でない」となる。尚、係数β=80%としているが、この値では、図17に示すように評価値低下分(b)と評価値上昇分(a)の比が5:1までJP状態と認めることになる。この値は多くの被写体を用いて実験的に調整して求めたものである。
【0169】
次に、方向判定に於けるNear判定に関して説明を行なう。Near判定は、図19Aに示すファジーフィルタ型シナプス構成をとっている。一般に、ファジーとは曖昧なというような意味であり、シナプス構成とは本来神経細胞間を伝達する接合構成をいうが、この神経細胞接合構成と似ているためこのように名付けている。
【0170】
この構成は、各評価値ID[i](i=0〜13)に関して、WOBに伴う評価値ID0[i]の変化(efar [i]−enear[i])(1501)に対して「Near方向に評価値が上昇するらしさの」合致度を求め(1502)、これらの結果に対し各評価値ID[i]各々に関して予め定めた重み係数W[i]を夫々乗算する(1503)。これらの総和を求め(1504)、その後、「係数α×重み合計」(α×ΣW[i])との比較を行なって(1505)、Near又は否の判定を行っている。拡張合致度算出に関しては図18の詳細図を参照されたい。この処理は、個々の評価値より各々の「Near方向に評価値が上昇するらしさ」を求め、重み付け多数決を行なっていることに等しい。
【0171】
なお、Near判定は、第1段階判定のステップS1211と第2段階判定のステップS1216で実行される。両者は、第1段階判定の評価の重みが、
W[ ]={10,0,0,0,0,0,0,0,0,0,0,0,0,0}
であるのに対して、第2段階判定の評価の重みが、
W[ ]={5,10,20,20,0,0,10,0,0,5,10,5,0,0}
となっている点で相違する。
【0172】
次に、方向判定に於けるFar判定に関して説明を行なう。図19Bに示すように、Far判定は、評価値ID[i]の変化に(eneutral [i]−efar [i])を用いている以外は、Near判定と同様の判定を行っている。
【0173】
ステップS1007で、WOB動作で得られたデータに基づき「JP判定」を行う。WOB動作の第1段階判定でJPと判定されたら、以降フォーカスレンズは動かさずにAF動作を終了する。
【0174】
これ以外の場合には、山登りステージに進む。最初のレンズ移動方向はWOB(S1006)で決定されている。但し、Near若しくはFarと判定されたら、JPに近いフォーカス位置にいる「ノーマルモード」(JPが比較的近い状態のモード)として、山登りステージに進むため、山登りパラメータの初期化(S1008)に進む。JP,Near又はFarのいずれとも判定されないで第2段階判定を行ったときは、Near又はFarを暫定的に決定し、大ボケ状態の「フラットモード」(方向を決定できないほどJPが遠い状態のモード。)として、山登りステージに進むため、山登りパラメータの初期化(S1008)に進む。「ノーマルモード」と「フラットモード」の違いに関しては後で説明を行なう。
【0175】
3. 4 山登りパラメータの初期化
ステップS1008で、AF山登りを開始する前に、山登りに関連するプログラム上の各パラメータの初期化を行なう。以下に初期化を行なうパラメータを示す。
【0176】
▲1▼境界値カウント
端に到達した際、反転指令を出すまでの待ち時間用カウントを0にリセットする。
▲2▼端到達フラグ
端に到達したことを示すフラグをリセットする。このフラグは、両端到達の判断に用いる。
▲3▼評価値の最大値
各評価値の最大値を0にする。後で説明する保険モードのピーク選定で用いる。
▲4▼評価値の最小値
各評価値の最小値を現フィールドの評価値にセットする。後で説明する保険モードのピーク選定で用いる。
▲5▼評価値の最大値位置
各評価値の最大値位置を現フィールドのレンズ位置にセットする。後で説明する保険モードのピーク選定で用いる。
▲6▼鋭角率最大値
各評価値の鋭角率最大値を0にリセットする。後で説明する保険モードのピーク選定で用いる。
▲7▼鋭角率最大値位置
各評価値の鋭角率最大値位置を現フィールドのレンズ位置にセットする。後で説明する保険モードのピーク選定で用いる。
【0177】
3. 5 最大最小値更新処理
ステップS1009で、山登りが開始したら毎フィールド毎に評価値の最大値及び最小値の更新処理を行なう(図14参照)。ここで、評価値の最大値最小値の更新処理とは、そのフィールドにおける評価値の最大値がそれまでの最大値未満であれば最大値の更新は行なわなく、同様に、評価値の最小値がそれまでの最小値を越えていれば最小値の更新は行なわない。
【0178】
▲1▼各評価値(ID0〜ID13の14種)の最大値max.e[i]
▲2▼各評価値(同14種)の最小値min.e[i]
▲3▼各評価値(同14種)が最大となったレンズ位置
これらの値は、後で説明する保険モードでのピーク選定に使用する。
【0179】
3.6 レンズ速度設定
ステップS1010で、レンズ速度の設定を行う。フォーカスレンズが移動開始してからピーク位置を検出するまでのレンズ速度を制御する。図20にレンズ速度決定のフローを示す。
【0180】
本実施例のAFでは、最初、ステップS1001,1002で揺れ判定及びモード設定され、その後1フィールド毎にステップS1014,1015で揺れ判定及びモード設定された揺れモードの結果の揺れの有無に対応して、AF時のレンズ速度を制御している。更に、WOB動作(S1007)により、第1段階判定で判明したノーマルモードか第2段階判定まで行ったフラットモードであるかが判定されている。この結果をも利用して、レンズ速度が制御される。
【0181】
被写体の揺れの有無を判定し、揺れの有る場合、レンズを高速で動作させ、低速切り替えは行なわない。揺れがない場合、ピーク位置に近づくまでは高速とし、ピーク位置の近辺に来たら速度を切り替えて低速としている。レンズ速度は低速と高速の2段階としている。これは高速と低速の間に中間的な速度を設けないことがAF収束時間にとって効率が良く、得策と考えているからである。
【0182】
低速は、2Fs/field 、即ち1フィールド当たり焦点深度Fsの2倍だけ進む速度である。高速は、12Fs/field 又はそのレンズの持つ最高速度の内の遅い方である。ここで、最高速度を12Fs/field で制限しているのは、これ以上速くすると評価値曲線のつぶれが顕著になり、高速から低速への速度切り替え判定が上手くいかなくなるからである。また、速度切り替えがうまく働かなかった場合、又は働かせなかった場合(後で説明するが揺れている場合には速度切り替えを行なわない。)に、これより速い速度にするとピーク通過後の行き過ぎ量が大きくなることの理由もあり、この制限を使用している。2Fs/field 、12Fs/field の値は、実験的に定めた値である。
【0183】
図20のレンズ速度決定フローを説明する。
ステップS2001で、揺れ判定する。最初はレンズ静止時の揺れ判定及び揺れモード設定(S1001,S1002)の結果、次回からはレンズ動作時の揺れ判定及び揺れモード設定(S1014,S1015)の結果、揺れモード1,2となり揺れの有る場合には、ステップS2002に進み、静止モードの場合には、ステップS2003に進む。ここで予め、レンズ静止時に揺れ判定及び揺れモード設定を行っていることから、AF動作開始前に、レンズ速度を設定することが出来る。
【0184】
ステップS2002(揺れの有る場合)では、レンズを高速で動作させ、低速切り替えは行なわない。その理由は、揺れがあるとレンズが静止していても評価値が変動するので、AFを開始すると、評価値には、▲1▼揺れによる寄与と、▲2▼レンズを動かしてフォーカスが変化することによる評価値変化の寄与、とが合成されることになる。
【0185】
AFではフォーカスを動かし評価値のピークを探索するので、上記▲1▼の揺れによる寄与が大きいと「ぼけたフォーカス位置でAFが収束する」ような誤動作を起こしてしまう。カメラ画像処理より評価値を算出しこれを用いる現在のAFシステム構成においては、上記誤動作を避けるために、レンズの速度を速くして、▲2▼のレンズを動かしてフォーカスが変化することによる評価値変化の寄与分を大きくすることにより、▲1▼の揺れによる寄与分を相対的に減らして、揺れに影響しない評価値特性を得ている。
【0186】
そこで、揺れの場合にはピーク位置を検出するまでは低速切り替えを行なわないようにしている。低速切り替えを行なうと、低速になった直後から上記 の寄与が大きくなり、揺れによる誤動作の確率が高くなってしまうからである。このように揺れている場合には、ジャストピン近くにきてもレンズ速度を低下させないので、揺れによる誤判定を低減させることが出来る。その結果、ボケ状態のままAFが終了するという誤操作を低減させることが出来る。
【0187】
揺れの無い場合にステップS2003では、フォーカスレンズの動作開始からの経過時間t1 によって分けている。経過時間が、初期低速期間t1 を経過していればステップS2004に進み、t1 以内であればステップS2005に進み、低速に切り替えてレンズを動かす。初期低速期間t1 を設けたのは、WOB動作で方向を誤って判定していた場合に、動作開始当初から高速で進み、行き過ぎててしまうのを回避するためである。ここで、初期低速期間t1 は次の通りである。
【0188】
t1 =12field (フラットモードの場合)
=36field (ノーマルモードの場合)
【0189】
フラットモードの場合、WOBの方向判定(Near,Far)によって方向判定できなかったのでレンズ動作開始時点では、JPは遠いと判断する。しかし、t1 =ゼロとしないのは、たまたまJPにあったのをフラットと誤判定した場合に対する配慮である。このような誤判定があってもt1 =12field と設定してあれば、JPからレンズ動作開始しても低速で動くのでJPから大きくずれてからJPに戻るということがない。
【0190】
ノーマルモードの場合、WOBで方向判定結果がでたのでレンズ動作開始時点ではJP位置が近いと判断する。この場合には、ピークを行き過ぎてしまうのを避け、低速のままでJPまで収束させる方が画像の見栄えがよいので、低速期間を長くとっている。従って、フォーカスがJPの近傍にあるか又は小ボケ状態の場合には、低速のままJPまでフォーカスが進むので、滑らかなフォーカス追い込みが得られる。また、フォーカスの移動速度が速すぎて、ピークを行き過ぎるというケースが低減する。上記の値12、36フィールドは実験的に定めた数値である。
【0191】
ステップS2005で、低速切り替え判定を行う。本AFでは上述したようにスタートしてから、初期低速期間を除き、ピーク位置の近くまではレンズを高速に進め、ピーク位置近くに到達したら低速に切り替えることが得策と考えている。即ち、大ボケ状態からピーク位置近くまでは高速にレンズを動かし、ピーク位置近くになったら急に減速して低速にし、滑らかに且つ行き過ぎることがないようにしてピーク位置に収束するようにしている。
【0192】
そこでレンズの速度を高速から低速に切り替えるタイミングが問題となる。本AFでは、以下の判別式(1)(2)で低速に切り替えるか否かの判断を行ない、式(3) を満たせば、低速に切り替え、満たさなければ高速のまま移動する。
【0193】
【数1】
Figure 0003840725
【0194】
【数2】
Figure 0003840725
【0195】
式(1) の第1項は、現フィールドにおける2つの評価値ID0(IIR1−W1−HPeak)とID2(IIR4−W1−HPeak)の差と和の比(e0 [0]−e0 [2])/(e0 [0]+e0 [2])を4倍したものを表している。第2項は、この2つの評価値の差と和の比を過去4フィールド分加算した量を表している。この式は、評価値ID[0]の立ち上がり時点を検出するための式である。差と和の比(即ち、ID[0]をID[2]で正規化したもの。)は、カットオフ周波数が低い(即ち、感度の良い)ID[2]に対して、ID[0]がどれだけ近づいたかの指標となっている。比をとっているので、例え照度が上がっても、各評価値の値e[i]が夫々所定倍されるので、評価値の差と和の比は照度と無関係に定まる。式(1) は、全体を4フィールドで割れば分かるように、現フィールドにおける指標から過去4フィールドの移動平均の指標を引いた差、即ち、現在の方が一層近づいているか否かを表している。
【0196】
式(2) は、ノイズ除去のために規定され、1フィールド前のrf(1)の値である。rf(0)、rf(1)の2つの指標より、式(3) の所定の閾値により切り替えのタイミングを判定している。
【0197】
【数3】
Figure 0003840725
【0198】
図21に示すようにぼけた位置からレンズを動かしていくと、始めのうちはrf(0)、rf(1)共に0よりも大きな値を示す。ピーク位置に近づくとrf(0)、rf(1)は急に0以下の値を示す。本判別式は、このような性質を利用してピーク位置に近づいたことを判別している。この判別式は、実験を重ねデータ解析を行なうことで求めたが、この判別式を決定するまでには種々の試行錯誤を繰り返している。
【0199】
この判別式は、その試行錯誤の中で最も特性のよいのを選んだに過ぎず、完全なものではない。しかし、ピーク位置で評価値が大きい被写体、即ちディテールの大きい被写体では、この判別式は有効に働いている。一方、ピーク位置でも評価値ID0(IIR1−W1−HPeak)の値が小さい(例えば、数100以下の)被写体では、ピーク位置近くになっても上記判別式を満足しないことがある。但し、ディテールの少ないピーク位置では、ピーク位置を大きく過ぎたとしても目立ちにくいという救いはある。そこで、閾値の決定に関しては、ディテールの大きい被写体でうまく高速から低速へ制動がかかることを第1の目標として決定している。
【0200】
AFでは、偽山の検出が1つのポイントになる。従って、本AFでは、偽山発生が評価枠周辺の高輝度エッジに起因すること、高輝度エッジのため飽和輝度数ID8が高くなること、等の評価値の特性に着目して、以下の偽山判定(S1011)及び飽和輝度判定(S1012)により偽山の検出をおこない、枠サイズ変更処理(S1013)を行っている。
【0201】
3.7 偽山判定
ステップS1011で、偽山判定を行う。本AFでは独自に考案した偽山判定方法を行なっており、偽山の発生により生じるAFの誤動作を低減している。
【0202】
最初に、偽山に関して説明する。偽山とは、フォーカスがAF枠内にある被写体に対してピーク位置に近づく時に評価値が低下する現象と定義する。
【0203】
図22Cは、縦軸に評価値を、横軸にレンズの位置(フォーカス)をとった評価値曲線を表している。AFは、評価値が大きくなる方向▲2▼→▲1▼と動作して(山登り)JPを探し当てる。しかし、現実には、評価値曲線が図に示すような特性を示す場合もある。このような、JPとは無関係な評価値の上昇部分を偽山と称する。この場合、AFは、評価値が上昇する方向にフォーカスを進めので、時としてレンズはJPとは反対向きに▲2▼→▲3▼とぼける方向に動作し、大きくぼけた位置で停止してしまう。このように、偽山が発生すると、ぼけた位置でAFが収束したり、ぼける方向にフォーカスが進むといった誤動作(以後、「偽山トラップ」という。)の要因となる。偽山の存在が、AF機能の開発を困難なものにしている。
【0204】
偽山の発生メカニズムは、輝度が飽和している場合には、JP状態では限られたラインが飽和輝度となってエネルギ的には無駄な状態となっている。これがぼけた状態になると、この無駄となっていたエネルギが拡がり周辺のラインにまで有効的に影響して或る一定レベル以上の輝度状態となる。これはエレルギ的に非常に高い部分は飽和してしまうCCDの特性に起因している。こうして、ボケ現象が進むと輝度が上昇する現象が生じるからである。
【0205】
偽山の画面における発生状況を図22を用いて説明する。図22Aに示すようにAF枠(評価枠1)内に目標被写体(ターゲット)2201があり、評価枠の外側に被写体よりもディテールの大きい高輝度エッジ2202があるシーンを想定する。ターゲット2201、高輝度エッジ2202共に同じ距離にあると仮定すると、フォーカスがターゲット2201に対してJPの時には高輝度エッジに対してもJPとなる。
【0206】
図22AはJP状態を示している。このJP状態からフォーカスをずらしていく様子を図22Bに示す。被写体はボケが進むにつれて徐々に膨らみ、同様に高輝度差のエッヂが波紋が広がるように▲1▼から▲2▼まで、更に▲2▼から▲3▼まで波紋のように膨らみ、評価枠に侵入する(実際には、▲1▼を中心に反対側に▲2▼,▲3▼の対応点が有り、▲1▼を中止に膨らむのであるが、反対側は評価枠と関係ないので省略している。)。図22Cは、その際の評価値の変化を示している。
【0207】
図22B及びCにおいて はJPの状態であり、このJP状態からフォーカスを移動させるとターゲット2201、エッジ2202共にボケて周りとの境がなくなっていき、波紋が広がるように大きくなっていき、JP状態から或るボケ状態までは評価値は低下していく(図22Cの▲1▼から▲2▼の範囲)。そして高輝度エッジ2202の波紋が広がり評価枠内にかかるようになる(図22Bの▲2▼の状態)。更にフォーカスを移動すると高輝度エッジの波紋は評価枠内へ侵入し始める(図22Bの▲3▼の状態)。
【0208】
高輝度エッジ2202の方がターゲット2201よりもディテールが大きいので、高輝度エッジが枠内に入っている部分のラインに関しては、被写体2201よりも高輝度エッジ2202の波紋が評価値へ大きく寄与する。エッジの侵入が進行するとV方向の侵入範囲も大きくなり、評価値は増加する(図22Cの▲2▼→▲3▼の範囲)。即ち、フォーカスがぼける方向に進むと評価値が上昇する範囲が生じることになる。▲3▼は高輝度エッジ自体でなく高輝度エッジの波紋(陰影)であり、評価値の高い方向にレンズを移動して追ったとしても、フォーカスが合うことはあり得ない。
【0209】
次に、本実施例のAFで計数的に行なっている偽山判定方法、偽山トラップ回避方法について説明する。偽山判定は、評価値ID0(IIR1‐W1‐HPeak)と評価値ID1(IIR1‐W2‐HPeak)の比ID0/ID1を監視し、この比を用いて判定を行なう。
【0210】
偽山発生の判断は、山登りが開始し、上記比ID0/ID1が1. 6以上であり、それが10フィールド連続した時に、偽山が発生したと判断している。
ej [0]/ej [1]≧1.6 (j=1〜10)
【0211】
評価値ID0(IIR1‐W1‐HPeak)と評価値ID1(IIR1‐W2‐HPeak)は、図23Aに示すように、ID0の評価枠W1がID1の評価枠W2より枠サイズがH方向に若干広いだけで他の特性は同じである。もし評価枠W1のH方向中央部(即ち、評価枠W1とW2の重複部分)のディテールのみが評価値ID0に寄与しているとすれば、評価値ID0と評価値ID1は同一の値となる。実際に、偽山発生のない通常のシーン、被写体では図23Bに示すように大ボケからJPに至るまで略同じ値を示している。反対に、評価値ID0と評価値ID1が異なり、評価値ID0≧評価値ID1となる場合は、評価値ID0に寄与する部分がH方向周辺部(評価枠W2とW1の差の部分)にあることを意味している。この偽山判定方式は、枠サイズW1(評価値ID0)と枠サイズW2(評価値ID1)の大きさの若干異なる2つの評価枠を用いていることより、「2重枠法」と呼ぶ。
【0212】
例えば、カメラを移動した場合に、評価値ID0≧評価値ID1の割合が一定以上になると、偽山が発生している可能性が非常に高い。上記比ID0/ID1が1を大きく越える場合には、図22Bに示すように評価枠W1の右端又は左端に評価枠W1内の最大ディテールが集中していることになる。この一例が上に述べた高輝度エッジ2202が評価枠W1に端に位置する状態である。この偽山判定方式では評価枠W1の端部に枠内最大のディテールが集中すると偽山発生を引き起こすと判断する。
【0213】
ここで、「山登りが開始し、10フィールド連続」としているのは、以下の理由による。揺れている場合には、たとえ偽山が発生しないシーンにおいても被写体のエッジが評価枠W2の端を通過する際に上記比が大きく変化し、1.6を越えてしまうことがある。揺れによるも以外にも、ネオン光のような間欠的なものを除くためでもある。偽山が発生するシーンに関しては、長いフィールドにわたり上記比1. 6をを大きく越える。以上より所定の複数フィールドにわたり所定の比を越えていれば偽山が発生したと判断する。
【0214】
次に、偽山が発生したと判断した場合の偽山トラップ回避方法に関して説明する。偽山発生と判断した場合には、ステップS1013の枠サイズ変更に進む。
【0215】
ステップS1013で、枠サイズ変更処理を行う。即ち、一旦フォーカスの移動を停止し、評価値ID0,ID1の評価枠W1,評価枠W2を夫々これら基本サイズから評価枠W3,評価枠W4の大きさに拡大変更する。これはAF用CPU(図2の符号203)内で評価値ID0,ID1を評価値ID9,ID10と夫々同じものにする操作による。評価値ID0,ID1自体を評価値ID9,ID10に夫々置換しなかったのは、評価値ID0は基本的な評価値であり、その後も使用されるので、評価値ID0のまま枠サイズを変更することとしている。その後、WOB(S1005〜1007)及び山登り(S1008〜1021)を開始して拡大サイズの評価枠で再度偽山判定を行う。上述した評価枠の説明で、評価枠W1に対して水平方向に若干狭い評価枠W2を、同様に評価枠W3に対して水平方向に若干狭い評価枠W4を用意したのはこの偽山判定のためである。
【0216】
なお、既にIDO,ID1の評価枠W1、W2のサイズが評価枠W3、W4のサイズに夫々変更された状態で、偽山判定を行い偽山発生と判定されたら、評価値ID0の評価枠W3のみを評価枠W5(最大枠サイズ)のサイズに拡大変更する(同様に、CPU内で評価値ID0を評価値ID11と同じにする。)。評価枠サイズを拡大することにより枠周辺にある高輝度エッジを枠中央近くの位置に移動する。たとえ輝度が高いエッジでも、枠中央近くに位置決めすれば、そのエッジはエッジの波紋(虚像)でなく実像であり、これにフォーカスが合うようなJPに近づく方向に評価値が上昇することになる。
【0217】
尚、図23Aに示すように、この「2重評価枠法」では、枠サイズを水平方向に変えた2つの評価値ID0(評価枠W1)とID1(評価枠W2)を比較しているが、縦方向に関しては枠サイズは一定のままで、サイズを変更して比較することは行なっていない。これは、図23Cに示すように、垂直方向に伸びている垂直エッジ2301が右方又は左方から侵入すると、多くのラインが同時に影響を受けてHピーク方式の評価値に対する影響が大きい。これに対して図23Dに示すように水平方向エッジ2302が上又は下から侵入しても、侵入された限られたライン数しか影響を受けない。以上より垂直方向に侵入する外乱の影響は、水平方向のそれと比較して比較的小さいとみなし無視している。
【0218】
3. 8 飽和輝度判定
ステップS1012で、飽和輝度判定を行う。通常の被写体では、フォーカスがぼけると評価値が低下する。しかし、上述したように、飽和輝度を持つ被写体ではボケ現象が進むにつれ評価値が上昇する場合がある。これを解決するために、飽和輝度数が所定数以上有る場合には、飽和輝度数を小さくする方向にフォーカスを動かす方法もある。しかし、飽和している被写体は飽和しているが故に、多少ボケても輝度は鈍らず、その波紋は広がる。一方、ぼけると被写体はボケが進みそのシルエットは拡がってしまう。このように、飽和輝度数は図30Bに示すように一般に双峰形の特性を示すことが多いため、このような方法は有効でない。
【0219】
そこで、飽和輝度判定では評価枠W1内の飽和輝度数ID8(Y‐W1‐Satul)を用いて、飽和輝度をもつ被写体の有無を判定する。評価枠内に飽和輝度の画素があると偽山が発生し易くなり、偽山トラップを起こすので、それを防止するためである。もし、所定期間(例えば、連続5フィールド)にわたって飽和輝度数が閾値(例えば、600)を越えれば偽山発生と判定し、ステップS1013に進み、各評価値の中で評価枠W1を使用するものを枠サイズW5に拡大変更する処理を行なう。連続5フィールドとしたのは、揺れや瞬間的なノイズによる枠サイズ変更を避けるためである。
【0220】
図24を用いて飽和輝度画素が評価枠内にある場合に偽山が発生するメカニズムを説明する。目標被写体(ターゲット)2401の領域AはフォーカスがJPの時の飽和輝度を持つターゲットの形状を示す。フォーカスがぼけるとターゲットはボケ始め、ターゲットのエッジ位置はターゲット中心から波紋が広がるように中心から遠ざかって膨らむ。飽和輝度を持つ被写体はボケても元々の輝度が高いため飽和輝度を持たない被写体に比べて波紋は大きく広がる(大きくなってもエッジのシャープさは衰えない)。領域Bは、ターゲットの波紋が評価枠2302と重なるまで広がった状態であり、更に、領域Cは、ターゲットの波紋が広がり評価枠2302の中まで達した状態を示している。
【0221】
領域Dの状態ではターゲットの波紋が広がっているため評価枠W1と評価枠W2による評価値の比(ID0/ID1)はそれほど大きくならず、1.6を越えない。この場合、前に説明した偽山が生じているにもかかわらず、偽山判定で偽山と判定できないため偽山トラップを起こしてしまう。
【0222】
図24Bは、この飽和輝度判定の結果から飽和輝度ありと判定して、評価枠W1を評価枠W5にサイズを拡大した状態を表している。この場合上記の飽和輝度被写体2401自体が全部枠内に納まるため、偽山の発生を押さえることができる。偽山に関しては、ターゲットの波紋だけが評価枠内にある場合が問題になる。
【0223】
以上の偽山判定(S1011)と飽和輝度判定(S1012)によって、偽山の発生を押さえている。
【0224】
3.9 揺れ判定(レンズ動作時)
ステップS1014でレンズ動作時の揺れ判定を行う。先に行ったレンズ静止時の揺れ判定(S1001)では、大ボケの状態で揺れていても評価値の変動が少なく正規化差分値は、「揺れ無し」の判定結果がでてしまう。この揺れ判定ではレンズが動きJPに近づき、評価値が上昇して揺れの判断ができるようになった時点で、再度揺れているか否かの判定を行なう。ここでは、輝度加算値のみを使用し、評価値ID7(輝度加算値)の6フィールド分の最大正規化差分値が2%を越えたら揺れあり(揺れモード1)と判定する。
【0225】
ndiff e[7]≦2% → 静止モード
ndiff e[7]>2% → 揺れモード1
【0226】
6フィールド分の正規化差分を用いるのは、ネオン光のような間欠的なものを除くためである。正規化差分の定義に関しては揺れ判定(レンズ静止時)で既に説明しているのでここでは省略する。揺れモードの場合、次回の山登りループにおけるレンズ速度決定(S1010)で低速切り替えは行わず、高速のままとする。この判定で「揺れ有り」と判定されたら、ステップS1015の揺れモード設定へ進み、その後、方向判定(S1016)に進む。「揺れ無し」と判定したら、直接、方向判定(S1016)に進む。ステップS1015の揺れモード設定は、ステップS1002の揺れモード設定と同様であり、説明を省略する。
【0227】
3.10 方向判定(山登り)
ステップS1016で、山登りにおける方向判定を行う。山登りステージでは、1フィールドに1回方向判定を行なっている。この方向判定では、各評価値の増減より評価値が上昇,下降又はフラット状態(Up,Down,Flat)のいずれかを判断し、その判断結果をメモリに格納している。方向判定では、▲1▼個別判定と、▲2▼総合判定、の2つの判定計算を行なっている。両者の関係は、個別判定の重み付け多数決判定が総合判定となる。
【0228】
▲1▼個別判定は、各評価値ID個々の判定結果である。図25にその計算方法を示す。ここで、e0 [i]は現フィールドでの評価値、efs[i]は1移動単位(焦点深度Fs)前の評価値を表す。iは評価値のID# である。所定基準値αfeは本実施例では0.5としている。
【0229】
1移動単位に関しては、焦点深度が深いときには焦点深度を越えない場合があるので、焦点深度を越えた場合に一移動単位と見なして、方向判定を行っている。また、フォーカスレンズは、レンズ速度設定で述べたように最低2Fs/field の速度で動くので通常は毎フィールド移動単位を越えているが、レンズの動き始めでは往々にして一移動単位分動かない場合がある。このような時は1移動単位を越えるまでは方向判定を行なわない。レンズが所定量移動していないのに方向判定を行うのは無意味だからである。
【0230】
図25に示すように、個別判定のUP判定では、合致度算出2502で、e0 〔i〕−efs〔i〕が第1閾値th1〔i〕まではゼロとし、第2閾値th2〔i〕以上なら100%とし、その間は比例関係とする。比較回路2503で、この値と、基準値αfe(例えば、50%)を比較して、前者が大なら出力1(Up)、後者が大なら出力0(Not Up)と判定する。同様に、DOWN判定では、efs〔i〕−e0 〔i〕により判定する。UpでなくDownでもないときはFlatである。UP判定個別判定結果(Up,Down,Flat)は、メモリに記憶され(図14参照)、後で述べる逆送判定(S1017)、山下り判定(S1022)のCHECK DOWN判定で使用される。
【0231】
▲2▼総合判定は、図26の構成で示すように複数の評価値よりファジー判定を行なう構成となっている。図26の構成及び処理方法は、WOBで説明したNear判定、Far判定と同じシナプス構成であるが、各閾値th1 [i],th 2[i]は異なっている。複数の評価値の個々の判定結果を重み付け多数決する処理となっている。但し、現時点では評価値の重みを
W[ ]={10,0,0,0,0,0,0,0,0,0,0,0,0,0}
とし、評価値ID0だけが判定に寄与するようにしてあり、評価値ID0の個別判定の結果と同じ結果となっている。現時点では、入力が1つだけなのでファジー処理としては意味がないが、将来の技術開発のためにこの構成はそのままにしている。
【0232】
図27Aに示すように、総合判定において2回連続Upが続いたら、大ボケを意味する「フラットモード」から山を登り始めJPに近づいたことを意味する「ノーマルモード」に変更する。
【0233】
フラットモードとノーマルモードの取り扱いの相違は、後で述べる山下り判定(S1022)においてフラットモードではJPが見つかったとはしていない。これは未だ山を登り始めていない大ボケ状態で評価値にノイズがのってDownが検出され、評価値ピークと誤判定するのを避けるためである。一方、ノーマルモードでは、Upがあった後にDownが検出された場合のみ、JPが見つかったこととしている。
【0234】
また、個別判定において、各評価値自体がEVAL TH [i]×γ[i](閾値×輝度加算補正係数)以下の場合は、強制的にフラットモードとしている。これは、レンズの光学的なノイズ,微少振動に起因する画面の揺れ等に起因する評価値の定常的なノイズでは簡単に反応しないように設定する必要があるためである。更に、次に述べるように輝度加算補正係数γ[i]を変数としているが、これは評価値が低い場合には定常的なノイズで方向判定を誤る場合が多いことと、輝度が高い、即ちID7(輝度加算値)が高いシーンでは評価値曲線全体が上昇し、その定常ノイズレベルの絶対値も一緒に上昇してUp又はDownの判定結果につながるので、この閾値を輝度加算値に対応して高くすることが必要であるという、実験で得た経験則に基づいている。そこで、EVAL TH [i]×γ[i](閾値×輝度加算補正係数)を次のように定めている。
【0235】
ここで、
Figure 0003840725
【0236】
このようにノイズレベルを決定する際に、閾値を輝度加算値に対応して補正してレベルを上げることにより、被写体を照らす照明が一層明るくなってもフォーカスが大ボケ状態で評価値が大きく変動することにより生じるAF動作の誤動作を低減することができる。
【0237】
3.11 逆送判定
ステップS1017で逆送判定を行う。WOBにおける第1段階の方向判定でNear又はFarが決定できた場合には、フォーカスレンズはJPに向かって動き始めることができる。しかし、WOBにおいて第2段階の方向判定に進んだFlatモードの場合は、第2段階判定で述べた基準にしたがって動き出す方向を暫定的に決定している。この場合には、移動方向が誤っておりJPから遠ざかる方向に動きだす確率も低くない。
【0238】
更に、山登りステージにおいても常にジャストピンに向かっているわけではなく、遠ざかる方向に方向に移動することもある。その理由としては、
▲1▼ボケているため又は被写体のディテールが低いため評価値が低く、評価値の上昇する方向が分からない場合にはフォーカスをFar方向又はNear方向のどちらかに定めて評価値の変化するのを待つしかない。
▲2▼評価値に偽山が生じた場合、その評価値が上昇するようにフォーカスを進めると、結果としてジャストピンから遠ざかることになる。
一般に、カットオフ周波数が高いHPFで高周波成分を抽出した評価値では、▲1▼を原因とする逆走が起こりやすい。反対に、カットオフ周波数が低いHPFで高周波成分を抽出した評価値では、▲1▼の原因は低減されるが▲2▼を原因とする逆走が起こりやすい。
【0239】
そこで、この逆送判定では、レンズが動きだしてから所定の評価値の低下が予め定めた基準を越えたら、JPから遠ざかる逆方向に進んでいると判定する。逆送判定の基準は、レンズが移動開始してから以下に示す▲1▼〜▲6▼が全て成立したらJPから遠ざかる逆走と判断する。
Figure 0003840725
【0240】
ここで、逆送と判定したらステップS1018に進み、レンズの進行方向を反転するため逆送処理を行なう。逆送でないと判定したらステップS1019に進み、端到達判定を行う。
【0241】
各判断基準について説明する。
▲1▼は、図27Bに示すような反転逆送の無限ループを防ぐためである。評価値ID3(IIR4‐W3‐HPeak)には図27Bに示すように偽山があるシーンを想定する。AF山登り開始フォーカス位置をAとしFarに向かってフォーカスが移動開始したとする。評価値ID0(IIR1‐W1‐HPeak)はほとんど変化がないが、位置Bで評価値ID3は低下し、逆送判定の基準を越えたとする。するとフォーカスは移動方向を反転し、位置Aの方向に戻るようになる。位置Aを越えると評価値ID3は低下を始め、位置Cで逆送判定の基準を越えたとする。もしここでレンズの移動方向を反転させるとレンズは位置BとCの間を無限に行き来することになる。この無限ループを回避するために▲1▼を条件を加え逆送反転を1回に制限している。
【0242】
▲2▼は、ID3/ID2が所定の値より小さいことを条件としている。ID3(IIR4−W3−HPeak)とID2(IIR4−W1−HPeak)の比によって、同じIIR4のHPFをもち、枠W1の評価値ID2とW3の評価値ID3とを比較することにより偽山判定を行なうためである。実験のデータ解析より、この比が所定値(例えば、8)を越えると、枠1の周辺に高輝度エッジがあり、評価値に偽山が生じて逆送判定を誤ることが多いと判明したので、この条件を設けている。
【0243】
▲3▼は、画面が明るいと逆送判定が誤る確立が高いので、輝度加算値ID7が所定値(例えば、1100)以下の条件を設けている。
【0244】
▲4▼は、枠W3の輝度加算値の変化の条件である。ID12(IIR4‐W5‐HPeak)の変化が大きい場合には、▲6▼のID3(IIR4‐W3‐HPeak)の変化の原因が揺れによるか、又は外乱乱入の可能性が高い。この場合には、ID3で逆走と判定すると誤判定につながるからである。
【0245】
▲5▼ノーマルモードでは逆送を起こしていることはまずないので、この条件を加えている。フラットモードの判定は、WOB(S1006)及び方向判定(S1016)で行われる。
【0246】
▲6▼この逆送判定は、実質的にID3を用いて判定を行なっている。ID3(IIR4‐W3‐HPeak)は、感度が高いので多少のボケなら有意な評価値の増減を得ることができる。しかし、偽山を発生しやすいのでそのまま信じて判定を行なうと誤った逆送判定となってしまう。そこで▲1▼〜▲5▼の付加条件を加えることにより誤判定を防止している。
【0247】
3.12 逆送処理
ステップS1018で逆送処理、即ち、反転処理を行う。逆送判定(S1017)で逆送と判定されたらレンズの移動方向を反転させるためである。この際、開始点位置、開始評価値、評価値の最大値、最大値位置等の山登りを開始する時点で初期化するべき各変数を再度初期化する(図14参照)。逆送反転した場合は、その位置から新たに山登り開始と同じ状態にする。
【0248】
異なるのは、1度逆送反転を行なったことを示すフラグがセットされている点である。即ち、フォーカスがFar端に向かって進行している時に逆送反転を行なった時は、「Far端到達フラグ」をセットし、Near端に向かって進行時に逆送反転を行なった場合には「Near端到達フラグ」をセットする。この2つの端到達フラグは次の端到達判定(S1019)で説明する。
【0249】
3.13 端到達判定
ステップS1019で端到達判定を行う。AF山登りでは有意な評価値ピークを発見するか、又は逆走判定により方向を反転させられるか、探索を中止するまではフォーカスの進む向きを変更せずに評価値ピークの探索を続ける。しかし、レンズには物理的なNear端及びFar端があり、これらの端を飛び越して探索することはできないので端に到達した際の処理が必要となる。
【0250】
端に到達した際、それが最初の端であればまだ全域を探索していないのでフォーカスの進む方向を反転して探索を続ける。この場合には次に説明する「端反転処理」(S1021)で山登りパラメータの初期化、方向を表すパラメータの変更処理を行なう。
【0251】
既にフォーカスがNear端からFar端までの全域を探索していれば、探索すべき領域は全て探索したことになる。この場合、たとえJPを検出できなかったとしてもこれ以上の探索は意味がないので、探索した範囲内の何処かにAF収束しなければならない。この収束動作を「保険モード」と呼ぶことにする。なお、全域探索では次のような問題がある。例えば、撮影するシーンが暗いと、有意な評価値ピークがでにくい場合がある。この場合、決められた範囲を探索した後に保険モードでAF収束することになるが、その範囲がNear端からFar端までの全域とすると、毎回全域を探索することになり収束するまでに時間がかかり過ぎる。
【0252】
そこで、物理的なNear端からFar端(これらを、「真のNear端」,「真のFar端」と呼ぶ。)までの間に仮のNear端を設け、探索時間の短縮を図っている。即ち、フォーカスが仮のNear端からFar端までを探索した時点で、その範囲内にJPが存在するかを一旦判断する。全域を探索せずに途中で判断するので途中判断と呼び、仮のNear端位置を「途中判断位置」と呼び、ここでの判断方法を「途中判断方法」と呼ぶ。途中判断位置は、真のNear端と真のFar端の略中央に設定してある。もし、JPが存在する場合には、全域探索した場合と比べて相対的に短い時間でAF収束できる。
【0253】
途中判断方法では、局部的なピーク(極大値)を検出できる鋭角率(後で説明する。)を用いてJPが存在するか否かを判断する。図28Aに示すように、レンズ移動開始位置から移動し、仮のNear端でフラグをセットし、次に真のFar端でフラグをセットし、フラグが2回セットされた時点で一旦途中判断を行い、鋭角率を用いてJPが存在するかを判断する。JPが存在すると判断したら、その位置にフォーカスを移動させる。このように、Far端とNear端の間に途中判断位置を設け、フォーカスがその位置に到達した時点で、それまでのフォーカスの経過の中でJPが存在するか否かを判断し、その結果によりそれ以降の探索を続行するか否かを判断している。このような途中判断を採用することにより、これまで全域探索を行った後でJPに集束していたディテールの少ない被写体,暗い被写体等のかなりの被写体が、全域探索を行わずに収束できるようになる。この結果、AFの平均集束時間を短縮できるようになった。なお、途中判断位置は、1つには限られない。所望に応じて複数個設けることが出来る。
【0254】
途中判断でJPが存在しないと判断したら、図28Bに示すように(端反転処理S1021で)反転し、引き続き真のNear端まで探索を続行する。真のNear端までフォーカスを進めたら、全域を探索したことになり、フォーカスを収束させる位置を決めなければならない。
【0255】
上記端到達判定の処理フローを図29に示す。以下にフローの説明を行なう。ステップS2901でレンズの現在位置が端到達であるか判定する。端到達してなければ、山下り判定に進み(図10のS1022)、端到達してれば、次に進む。
ステップS2902で、端到達フラッグをセットする。即ち、フォーカス位置がFar端ならFar端到達フラグをセットし、予め定めた途中判定位置よりもNear端に近ければNear端到達フラグをセットする。
ステップS2903で、Far及びNearの両端を既に通過しているかを判定する。上記2つの端到達フラグのどちらか一方のみがセットされていれば片端到達と見なし、レンズを停止し、端反転処理(図10のS1021)へ進む。上記のFar及びNearの端到達フラグがセットされていれば、次に進む。
【0256】
ステップS2904では、現フォーカス位置が既に真のNear端に到達しているかを判定する。真のNear端に到達している場合(図28BのQ点)、ピーク位置選定処理(図10のS1020)に進み、その処理のルールによりピーク位置の選定を行なう。まだ真のNear端に到達していない場合(図28AのP点)には、次に進む。
ステップS2905では、探索した範囲内に有意なピークが存在するかを判定する。ピークが有れば、ピーク位置選定処理(図10のS1020)に進む。無ければ、次に進む。
ステップS2906では、処理の都合上、次の途中判断位置に真のNear端を代入し、そこでの途中判断をなくし、Near端到達フラッグをリセットして探索動作を継続させる。
ステップS2907では、現在位置がFar端であるか否かを判定し、Far端であれば端反転処理(図10のS1021)に進む。Far端でなければ、山下り判定(S1022)へ進む。途中判断位置であれば進行方向はそのままとする。
【0257】
3.14 途中判断方法
仮のNear端〜Far端を探索した際にその範囲内にJPが存在するか否かを判断する途中判断方法は、「鋭角率」を用いて行なっている。以下に鋭角率の説明を行なう。
【0258】
特に暗いシーンで評価枠の周囲からの輝度の高いエッジが侵入して偽山が発生した場合ようなには、フォーカスに対する評価値曲線はJPで最大となる単峰形にはならない場合が少なくない。その一例を図30に示す。図30は横軸に時間を、縦軸に評価値の値をとった評価値曲線である。フォーカスは等速度でレンズを移動させているため、横軸の時間はフォーカス位置と見ることができる。鋭角率は、短いフィールド内でどれだけ上に尖っているか(極大値)の指標であり、図30Aに示すような偽山を含む評価値曲線においてもJPを見つけることができる。
【0259】
鋭角率は、全ての評価値ID[i],(i=1〜13)に対し、現在の評価値e0 [i]、3フィールド前の評価値e3 [i]及び6フィールド前の評価値e6 [i]を用いて計算し、式(4) で表わす。
【0260】
【数4】
Figure 0003840725
【0261】
鋭角率の概念は、図30Aに示すように、e3 [i]とe6 [i]の差分とe3 [i]の比(e3 [i]−e6 [i])/e3 [i]である。但し、e3 [i]を越して単調増加する場合もあるので、両側を取り、{(e3 [i]−e6 [i])/e3 [i]}×{(e3 [i]−e0 [i])/e3 [i]}としている。なお、(e3 [i]−e0 [i])と(e3 [i]−e6 [i])の両方が負の値を取ると、鋭角率として正の値が出てしまうので、(e3 [i]−e0 [i])<0、又は、(e3 [i]−e6 [i])<0の場合は、鋭角率はゼロとする。
【0262】
ここで、実際に用いる式(4) との相違は、分母の+1はe3 [i]がゼロの時に無限大となることを回避するため(ゼロディバイド防止)である。
【0263】
鋭角率の計算は毎フィールド行なわれ、鋭角率の最大値更新及び最大値のレンズ位置更新も毎フィールド行なわれる(図14B参照)。そして上記途中判断において、それまでに記録された各評価値の鋭角率最大値を調べ、鋭角率最大値が閾値(例えば、20)を越えているものがあれば探索した範囲内にJPが存在するとして、ステップS1020のピーク位置選定処理に進む。どの鋭角率最大値も20を越えていない場合、JPが存在しないと判断する。
【0264】
この鋭角率の考えを毎フィールドに採用し、所定の値を越えたらピーク発見とみなす方法は、後で述べる山下り判定のチェックダウン方式でも用いられる。しかし、途中判断で用いる鋭角率とチェックダウン方式とでは閾値が異なっており、チェックダウン方式の方が閾値を高くしている。これは途中判断では探索領域にわたっての鋭角率を用いているのに対してチェックダウン方式では基本的には数フィールド(最大10フィールド)の情報しか扱かっていないのでノイズに対してJP存在という結果を出させないためである。
【0265】
3.15 端反転処理
ステップS1021で端反転処理を行う。端反転処理は、以下の処理を行なう。
▲1▼フォーカスの進行方向を反転する。
▲2▼山登りパラメータの初期化を行なう。但し、端到達フラグのリセットは行なわない。
【0266】
山登りパラメータの初期化に関しては山登りループに入る直前に行なう「山登りパラメータの初期化」と同じ処理であるが、片端に到達したフラグまでリセットしてしまうと端反転を無限に繰り返してしまうので端到達フラグだけはセットしたままにする。
【0267】
3.16 ピーク選定
ステップS1020でピーク選定処理を行う。即ち、山下り判定でピークが検出できずにFarとNearの両端に到達した場合、又は、上記途中判断でピークありと判断した場合には、探索した範囲内でフォーカスを収束させる位置を選定する。
【0268】
ピーク選定では、各評価値の鋭角率最大値から最大の鋭角率を選定し、それが所定の値を越えていれば、その際最大鋭角率に対応するフォーカス位置をピーク位置と決定する。越えていなければ、次善の策として、特定の評価値に関して、最大値と最小値の差及び最大値と最小値の比を求め、いずれも所定量以上ならば、その評価値に対応するレンズ位置をピーク位置と決定する。
【0269】
図31にピーク選定のフローを示す。
ステップS3101で、評価値IDO〜ID13各々に対する鋭角率最大値の中から最大の鋭角率及びそれに対応するレンズ位置を選定する。
ステップS3102で、選定された最大の鋭角率が所定値(例えば、20)を越えていたら、ステップS3103に進む。所定値以下の時は、ステップS3104に進む。
ステップS3103で、最大鋭角率に対応するレンズ位置をピーク位置と決定する。
【0270】
ステップS3104では、最大の鋭角率が所定値以下の場合であり、この場合には鋭角率ではJPを決定することが出来ない。そこで、最後の手段として、評価値の最大最小の差が最大であった箇所をJPと決定することとする。即ち、評価値ID0,ID6,ID4,ID9及びID11の各評価値に対してこの優先順位で、
▲1▼最大値と最小値の差が所定量以上、且つ、
▲2▼最大値と最小値の比が所定量以上、
の条件を満足するかを順に調べる。これら▲1▼及び▲2▼の条件を満足する評価値が有れば、以降の探索を止め、満足した評価値の最大値に対応するレンズ位置をピーク位置と決定する。なお、このピーク位置は、メモリに蓄積されている。なお、▲1▼及び▲2▼を満足する評価値が依然として無い場合には、最後の手段として枠サイズが最大枠W5である評価値ID11の最大値に対応するレンズ位置をピークとしている。
【0271】
3.17 山下り判定(ピーク検出)
ステップS1022で、山下り判定を行う。画像処理方式のAFでは評価値のピークを通過して初めてJPを検出ができるので、山下り判定は評価値のピーク検出判定を意味する。従って、山下り、即ち評価値低下の検出方法が非常に重要である。山下り判定では、▲1▼差分判定、▲2▼チェックダウン判定、の2つ方法でピーク検出判定を行なっている。
【0272】
差分判定とチェックダウン判定の相違は、前者が現在フィールドの評価値と所定フィールド前の評価値の差を監視し、この差が一定の閾値を越えたらピークを検出したとする。一方、後者は、前者が現在フィールドの評価値と所定フィールド前の評価値の比を監視し、この比が一定の閾値を越えたらピークを検出したとする。差分判定では、コントラストの低い、従ってJPにおいても評価値の低い被写体では評価値の変化が少なく、JP検出が出来ない場合がある。チェックダウン判定は、コントラストの高い、従ってJPにおいても評価値の高い被写体でピーク検出が遅れ、その結果ピークを行き過ぎるオーバーランが頻発するという欠点を有する。このAFのピーク検出では、差分判定(差)とチェックダウン判定(比)の両方を用い、前者によりコントラストの高い被写体に対しては行き過ぎの増加なしにピークを検出し、後者によりコントラストの低い被写体に対してもピーク検出の感度を挙げることができるという特徴を有している。
【0273】
差分判定は、以下に説明するように1フィールド又は2フィールドの評価値の低下で山下りを判定するので、ピークを行き過ぎる量が次に述べるチェックダウン方式と比較して少ない。しかし、実際問題として、JPにおても評価値が低い(例えば、ID0で500以下の)被写体では方向判定結果が2回連続してDownとならないケースがある。そのような評価値の低い被写体に対してJP検出する目的で、チェックダウン方式を用意している。最初、差分判定を行い、ピーク検出が出来なかった場合、チェックダウン判定を行う。
【0274】
▲1▼差分判定
差分判定は、本AFのピーク検出では基本となる判定方法である。方向判定(S1016)における評価値ID0及びID1の個別判定結果が連続して閾値回「upng th」(フィールド)Downが続いたらピーク検出と判定し、ステップS1023に進みピーク位置算出を行う。この閾値「upng th」は、焦点深度に応じて変えている。即ち、焦点深度が長い場合には、1回のDownとし、焦点深度が小さい場合には、評価値曲線に小さな偽山が生じ易いという経験則にしたがって、2回連続Downというルールで偽山トラップを防止している。
【0275】
Figure 0003840725
ここで、「焦点深度が短い」:レンズ最高速度で1フィールドですすめるフォーカス量が焦点深度よりも大きいときをいう。
「焦点深度が長い」:レンズ最高速度で1フィールドですすめるフォーカス量が焦点深度よりも小さいときときをいう。
【0276】
但し、先に説明したID7(輝度加算値)の正規化差分値(50×|e0 [7]−e2 [7]|/e0 [7])がピーク検出時に所定値(例えば、10%)を越えている場合には、揺れによる誤動作で簡単に停止するのを防止するため、揺れ又は外乱乱入としてピーク検出判定の差分判定結果を無効に(メモリ内のダウンカウント値をリセット)している。
【0277】
50×|e0 [7]−e2 [7]|/e0 [7])≧10% →差分判定結果を無効
【0278】
これにより、被写体の揺れや外乱により生じるピーク検出の誤判定を低減することが出来る。その結果、ボケ状態のフォーカスのままAF動作が終了する誤動作を低減できる。
【0279】
差分判定が前に述べた方向判定の個別判定を用いているので、各評価値の大きさにかかわらずDownと判定するための差分閾値は同じである。評価値の低い場合には閾値は小さくし、評価値の高い場合に閾値は高くしても良いように思える。しかしながら評価値の高いシーンは、一般にディテールの高い場合が多くわずかなボケも目立ってしまう。評価値が高いからといって閾値も高くするとJP頂上での山下りを見逃し、その結果行き過ぎが目立ってしまう。これに対して評価値の低いシーンでは、一般にディテールが低いのでフォーカスがJPを多少行き過ぎてもあまり目立たない。従って、評価値が高いシーンは厳しく、反対に評価位置が低いシーンは緩く判定する必要がある。以上より各評価値の大きさにかかわらず定数の閾値を採用している。
【0280】
▲2▼チェックダウン判定
図32Bを用いてチェックダウン判定方法を示す。チェックダウン判定方法では、各評価値に関してe0 [i]、ej [i]、e2j[i]の3つの評価値を用いてピーク判定を行なう。[i]のiは評価値のIDを示す。e0 [i]は現フィールドの評価値、ej [i]はjフィールド前の評価値、e2j[i]は2jフィールド前の評価値を示している。jは2から5までの整数であり2から始めて順次増加させる。判定の計算式を式(5)(6)に示す。
【0281】
【数5】
Figure 0003840725
【0282】
【数6】
1/b<ej〔7〕/e0〔7〕<b、且つ、
1/b<ej〔7〕/e2j〔7〕<b
b=1.1
【0283】
式(5) は、途中判断方法で説明した鋭角率と同じ考えであり、サンプル時刻の異なる3つの評価値のうち中央の評価値ej [i]が他の2つe0 [i],e2j[i]より所定倍a以上大きければ(ej [i]/e0 [i]>a、且つ、ej [i]/e2j[i]>a)、ピーク検出と判定する。ここで、j=2,3,4,5なので、ej [i]は2,3,4,5フィールド前と順次拡げ、それに対応してe2j[i]も4,6,8,10フィールド前と順次拡げて判定する。なお、定数aは、揺れのない場合には小さくして検出感度を良くしている。揺れのある場合には、揺れによる評価評価値の変動で誤検出しないように定数aを大きくしている。
【0284】
式(6) は、評価値ID7(Y−W1−HIntg,輝度加算値)の変化率を用いて、チェックダウン判定に制限を与えた式である。即ち、評価値ID7の変化率が式(6) を満足しない場合には、揺れ又は外乱ありとして上記ピーク検出のチェックダウン判定を無効にしている。これにより、被写体の揺れや外乱により生じるピーク検出の誤判定を低減することが出来る。その結果、ボケ状態のフォーカスのままAF動作が終了する誤動作を低減できる。
【0285】
このチェックダウン判定でもピーク検出できない場合には、先に説明を行なった保険モードでJPに収束することになる。
【0286】
これら差分判定,チェックダウン判定及び保険モードの動作の比較を図32Bの図表にまとめて示す。図表において、検出遅延時間とは、評価値がピークに達してからピーク検出されるまでの時間を示す。検出遅延時間は小さければそれだけ行き過ぎ量が小さくて済む。図表より検出遅延時間は、差分判定<チェックダウン判定<保険モード、となっていることがわかる。従って、ピークの検出さえできれば差分判定が望ましい。しかしながら、評価値が低い場合には差分判定のピーク検出感度は小さいので、他の判定に頼ることになる。
【0287】
上記チェックダウン判定に使用している評価値は以下のとおりである。判定の順番は番号順となっており、ピークが検出できたら残りの判定は行なわない。
(1) 揺れのない場合
▲1▼ID0(IIR1−W1−HPeak)
▲2▼ID6(IIR1−W1−HIntg)
▲3▼ID3(IIR4−W1−HPeak)
▲4▼ID4(IIR0−W1−VIntg)
【0288】
なお、ここでID4を使用する場合には、次の制限がある。
(a) ID0 < 600
(b) ID6 < 600
(c) ID3 < 1600
これは、VIntg方式を使用する垂直方向評価値ID4を使用することにより、水平方向成分が無く、垂直方向成分だけがある水平線のシーンのようなシーンに対しても可能になった。しかし、ID4は、水平方向成分があると、フォーカスを動かした際に伴う画角の変更,ボケの変化によるエッジの侵入等による画素の移動が起こり、水平方向変化がID4を算出する際の水平方向64画素平均計算に影響し、シーンによっては評価値ID4に偽山を発生させることになる。これを回避するために、HPeak方式及びHIntg方式を使用する評価値ID0,ID6及びID3によって、水平方向成分が或る一定以上ある場合には、垂直方向評価値ID4を使用してピーク検出を行わないように制限を付したのである。
【0289】
(2) 揺れている場合
▲1▼ID6(IIR1−W1−HIntg)
【0290】
3.18 ピーク位置算出(重心計算)
ステップS1023で、ピーク位置算出を行う。即ち、山下り判定でピークが検出されたらピーク位置を算出する。
【0291】
図33は、フォーカスを一定速度で進め、1フィールド毎に評価値及びフォーカス位置をサンプルする様子を示している。レンズ速度が、1フィールドで進む1焦点深度以内であれば、評価値が最大となるフォーカス位置を選び、その位置にフォーカスを戻せばJP追い込み精度を1/2焦点深度に納めることもできる。
【0292】
ところが、「レンズ速度設定」(S1010)で述べたように高速のままJPを通り過ぎることもあり、概して、1フィールドで進むフォーカス量は焦点深度よりも大きい。この場合、評価値ピークにサンプル箇所が一致しなく、飛び越してしまうことが多い。そこで、ピーク値をサンプルしたデータの中から単に選ぶのでなく、補間計算をして正確なJP位置を算出する必要が生じる。
【0293】
本AFでは、正確なJP位置を算出のための補間計算として重心計算式(7) を用いている。多少のノイズがあってもJP算出結果には影響が少ないこと、最小二乗法と異なりf( x) の形を決める必要がないこと、から重心計算法を採用した。被写体の形状は無数にあるので評価値曲線は、最小二乘法のような数式でモデリングすることはできないからである。
【0294】
【数7】
Figure 0003840725
【0295】
式(7) でxはレンズ位置、x1,x2は積分範囲、f(x)はレンズ位置xにおける評価値の値を示している。積分範囲の設定方法に関しては後で説明する。この重心計算を行なうことにより、図33に示すようにサンプル点が評価値ピーク、即ちJP位置と重ならなくともJP位置を算出できるようになる。
【0296】
重心計算の精度を上げるためには、積分範囲の設定を適正に選ぶ必要がある。例えば、図34Aに示すように評価値ピークの前後でアンバランスに積分範囲を設定すると算出結果とJPとのずれは大きくなってしまう。
【0297】
図34Bに示すように、積分範囲は山下りを検出した時点のレンズ位置をx2とし、それまで経過したレンズ位置と評価値とで作られる評価値曲線における山の反対側でf(x2)と等しい評価値に対応したレンズ位置x1を探し、それを用いるのが最適である。
【0298】
ここで、実際にはサンプルデータは離散的(1フィールドに1回サンプル)なので式(7) のように連続積分はできない。そこで式(8) に示すように離散的積分計算を行なっている。
【0299】
【数8】
Figure 0003840725
【0300】
この場合、積分範囲に関しては、探し出したx1がバッファに格納したデータと一致している場合には、離散的積分計算の開始データとしてそのまま用いる。しかし、通常は一致しない。一致しない場合には、f(xp)≦f(x1)で且つx1に最も近いレンズ位置xpを、バッファに格納されているデータの中から検索して積分開始位置として用いる。
【0301】
この場合、積分範囲としては若干アンバランスとなるが、以下の理由により実際にはそれほど影響がない。その理由は、▲1▼評価値ピーク前後でレンズの移動速度が速い場合にはf(xp)は通常評価値ピークと比べて十分小さく、積分計算の寄与が小さいので、JP計算精度にはあまり影響しないこと、▲2▼評価値ピーク前後でレンズの移動速度が遅い場合には上記寄与が大きくなるが、逆に評価値データ間の間隔が狭くなることによりJP計算精度が上がるので、結果として相殺されて、精度低下は相殺されるからである。
【0302】
以上のピーク位置算出法においても、どのようなシーンにおいても算出結果とJPとのずれが焦点深度内に納まっている保証はない。評価値曲線の形がモデリングできないので、上記重心計算の精度を算出することができないからである。しかし、今回開発したAFの実力では、15倍のレンズで焦点距離120mm、アイリス1.7、エクステンダ2倍を挿入した条件下で、通常のシーンをAFさせた場合には、要求仕様を満足し十分な精度でジャストフォーカスに収束できることを確認している。
【0303】
3.19 ピーク位置移動
ステップS1024でフォーカスレンズを移動して、ピーク位置移動処理を行う。AFブロック137からレンズブロック側CPU114に対し、フォーカスレンズ制御指令が与えられることにより行われる(図1参照)。即ち、ピーク位置算でピーク位置が算出できたら、ピーク位置移動処理でピーク位置にフォーカスを移動させる。この処理では算出時点でのフォーカス位置と戻るべきフォーカス位置との差を計算し、もしその差が所定距離以上の場合にはその距離を25フィールドで戻るよう、レンズ速度の算出を行なっている。ピーク位置から離れている時は比較的速く、近くに在る時は比較的遅い速度で移動するためである。速度を算出したら、その速度を速度指令としてレンズ側に送信する。レンズが目標に近づいたら位置指令に切り替え、目標位置に正確に到達させている。
【0304】
このように、所定距離以上離れている場合に25フィールドかけてレンズをピーク位置に戻しているのは、あまり高速に戻すと画面の動きが不自然にぎくしゃくした感じを受けるからである。
【0305】
次に、未だ説明していないのロングフィルタ判定(S1003)及びロングフィルタ処理(S1004)について説明する。鏡面をもつ被写体が揺れながらライト,太陽光を反射させている場合やミラーボール等の発光体が激しく移動している場合には、各評価値,輝度加算値が激しく変動する。このようなシーンでは、JPから離れていても先に説明した山下り判定(ピーク検出)の条件を簡単に満足してしまい、ぼけた位置でレンズが止ってしまう。山下り判定ではID7(輝度加算値)の正規化差分(即ち、変化)を調べ、変化が大きい場合にはピーク検出を無効にしているが、すべての場合に完全に見抜けるわけではない。
【0306】
そこで、輝度加算値等の各評価値が激しく変動する被写体に対してもAFさせることを目的として、このロングフィルタモードを設けている。
【0307】
3.19 ロングフィルタ判定
先ず、ステップS1003で、ロングフィルタ判定を行う。図9に示したAFフローチャートでは、通常、山登りループを何回か回りながら評価値ピークを検出している。しかし、異常に揺れが激しい場合には山登りループで誤動作してしまう危険性がある。このような誤動作を回避するため、予め、ロングフィルタ判定を行って揺れが異常に激しいか否かを判定し、揺れが激しいと判定された場合には、ロングフィルタ処理(S1004)を行い、山登りステージに進まないでAF動作を終了する。ロングフィルタ処理を起動するか又は起動しないで通常のAF処理を行なうかは、次の条件で判定する。
【0308】
ロングフィルタ判定において、揺れが激しいか否かの判定には、レンズ静止時の揺れ判定(S1001)と同様の手順により行う。但し、レンズ静止時の揺れ判定では、評価値ID0とID7(輝度加算値)の正規化差分値の最大値である代表正規化差分値を用いて判断しているが、このロングフィルタ判定では更にこれら評価値に対して評価枠をW3に拡げた評価値ID9とID12(輝度加算値)を加えて判定している。
【0309】
評価値ID0及びID9の平均値(揺れ判定期間12フィールドの平均値)が200以上なら、
ndiff e[0]≧30%、且つ
ndiff e[9]≧30% → 揺れモード2
とする。
【0310】
評価値ID0の平均値が200未満なら、
ndiff e[7]≧12.5%、且つ
ndiff e[12]≧12.5% → 揺れモード2
とする。
【0311】
ロングフィルタ判定において、揺れが大(揺れモード2)であれば、ロングフィルタ処理(S1004)に移行する。揺れが大でなければ、通常のAF処理に進む。この条件は、実験的に求めた。
【0312】
3.20 ロングフィルタ処理
ロングフィルタモードは、先に説明した山登りステージとは異なり、長い移動平均を取りながら等速度でレンズを動かして、移動平均が最大となるレンズ位置にレンズを戻す方式を採っている。この利点は、評価値の変動の激しい被写体でも誤動作の確率が少ないことである。欠点は、移動平均を多数取っているのでピークの検出が比較的遅く、また、ピーク行き過ぎ量が大きいことである。
【0313】
図36にロングフィルタ処理のフローチャートを示す。以下に各処理の説明を行なう。
ロングフィルタ処理を開始する。
ステップS3601では、次の条件で、焦点深度に対応した等速度で動かすレンズ速度を設定する。
FS≦全ストローク/1000 → v=全ストローク/180 /フィールド
FS≧全ストローク/ 200 → v=全ストローク/ 90 /フィールド
全ストローク/1000 ≦ Fs ≦ 全ストローク/200 → 上記範囲の比例配分した速度
但し、Fs:焦点深度
全ストローク:フォーカスレンズを物理的なFar端〜Near端間移動させたときのパルスモータのパルス数で表したもの。なお、カメラのレンズによって異なるが、実際の光軸方向移動距離は十数mm程度であり、これを本実施例では0〜20000パルスに対応させている。
【0314】
ステップ3603で、レンズの移動方向を設定する。初期設定であれば図35に従う。図35で横軸はFar端からNear端までのレンズ位置FPOS(Focus Position)をパルス数0〜20000で特定しており、FPOSはフォーカスリングの回転角と1次関数の関係となっている。
【0315】
Figure 0003840725
【0316】
ステップS3604,3605,3607で、ロングフィルタ山下り判定を行う。先ず、S3604では、毎フィールド輝度正規化評価値の移動平均(段数11段)計算及びその最大値更新処理を行ない、反転回数が1の時に輝度正規化評価値が最大値の半分(50%)又は端に到達したならば、ステップS3608に進み反転回数を1にセットしてステップ3603に戻る。そうでなけらば、ステップS3608のレンズ位置算出に進む。。
【0317】
この輝度正規化評価値とは、評価値ID0に、ID7(輝度加算値)の32個移動平均を掛け、ID7の3個の移動平均で割ったものである。
【0318】
e[0]*{Σ(e0 [7]+…+e31[7])/32}÷{Σ(e0 [7]+…+e2 [7])/3}
【0319】
ここで、(輝度加算値32個の移動平均/輝度加算値3個の移動平均)を掛けているのは、ミラーによる強い反射光の影響を減小させるためである。
【0320】
図37は、変動の大きい評価値ID0に(輝度加算値の32移動平均/輝度加算の3移動平均)を掛け、更に段数11の移動平均を取ることにより変動が小さく、即ちノイズを減少して、JP位置が見つけ易くなる様子を示している。移動平均11段を取ることにより評価値ピーク位置が5フィールド遅れる(厳密には、上述したように評価値自体が3フィールドの移動平均をとっているため1フィールド遅れ、更に、CCDは1フィールド蓄積しているので、結局7フィールド遅れるが、本発明に関しては直接関係ないので省略する。)。
【0321】
ステップS3605で、反転回数が0の時に輝度正規化評価値が最大値の半分(50%)又は端に到達したならば、ステップS3606に進み反転回数を1にセットし、ステップS3603に進んで移動方向設定が行われる。そうでなけらば、ステップS3607に進む。
【0322】
ステップS3607では、次の移動位置をレンズに指定して、ステップS3604に戻る。
【0323】
ステップS3608では、JP位置算出を行う。ロングフィルタ山下り判定で輝度正規化評価値が最大値に対して半分に低下し、且つそれまでに既に反転していればJPが見つかったとしてロングフィルタ処理(S1004)に入る。輝度正規化評価値は先に述べたように11段の移動平均を取っているのでピークが出現するレンズ位置はそれだけで5フィールド遅れる(実際には7フィールド遅れる。)。従って、レンズ速度×7フィールド分だけレンズ位置を戻す必要がある。JP位置算出処理ではこれらの遅れも考慮してJP位置の算出を行なう。
【0324】
ステップS3609では、JP位置へ移動を行う。JP位置算出処理で算出した位置へレンズを移動させる。
【0325】
ステップS3610では、ロングフィルタ処理を終了する手続きを行ない、今回のAF処理は終了する。本実施例のAFはワンショットタイプであり、次回AFスイッチがプッシュされるまではアイドリング状態となる。
【0326】
図38にロングフィルタ処理によるレンズの動きの一例を示す(図36の▲1▼▲2▼▲3▼も参照)。図中、ロングフィルタ処理が起動され、先に述べた移動方向設定処理で動く方向が決まり、▲1▼に示すように等速度で動きだす。この場合、輝度正規化評価値は減少する方向なので最大値及び最大値位置は出発点のままとなる。レンズは進行して、輝度正規化評価値が最大値の半分になり、かつそれまで反転していないので、その位置から反転して再度スタートする。
【0327】
反転後レンズは等速度で進み、▲2▼に示すように正規化評価値ピークを通過して更に進行する。輝度正規化評価値が最大値の半分となったら、今度はそれまでに反転しているので先に述べたJP位置算出処理でJP位置を算出する。その後、▲3▼に示すようにJP位置に戻り、ロングフィルタ処理を終了する。
【0328】
以上により、本実施例の説明を終了する。
【0329】
[実施例の効果]
以下、本実施例の効果に関して、項目別に説明する。
(1) レンズ静止時の揺れ判定(S1001)においては、AFスイッチが押されてから所定期間経過するまでの評価値データは、揺れ判定の計算には寄与させていない。即ち、パン及びスイッチONによる影響が生じる所定期間、揺れ判定の計算に寄与させないことにより、これらの影響を排除した揺れ判定をすることができ、誤判定を回避できる。もし、この誤判定が生じると、被写体が揺れていなくとも揺れていると判定され、高速でレンズが駆動され、ジャストピンを通り越した後のレンズ行き過ぎ量が大きいものとなってしまう危険がある。本実施例では、被写体が揺れていなくとも揺れていると誤判定する、不都合を解消することが出来る。
【0330】
(2) 本実施例ではレンズ移動開始前のレンズ静止時に予め揺れ判定(S1001)を行うことにより、前もってレンズ移動速度を決定することが出来る。更に、レンズ移動開始後も周期的に揺れ判定(S1014)を行うことにより、レンズ静止時の予め揺れ判定では検出できない大ボケ状態での揺れ判定を正確に行うことが出来る。
【0331】
(3) 本実施例のレンズ速度設定(S1010)では、揺れの有る場合には、レンズを高速で動作させ、高速で移動させて低速切り替えは行なわない。揺れがあるとレンズが静止していても評価値が変動するので、AFを開始すると、評価値には、揺れによる寄与と、レンズを動かしてフォーカスが変化することによる評価値変化の寄与、とが合成される。揺れによる寄与が大きいと「ぼけたフォーカス位置でAFが収束する」ような誤動作を起こしてしまう。この誤動作を避けるために、本実施例では、レンズの速度を高速にすることにより、揺れによる寄与分を相対的に減らし、フォーカスが変化することによる評価値変化の寄与分を相対的に大きくし、揺れに影響しない評価値特性を得ている。
【0332】
(4) 画像処理方式のAFでは評価値のピークを通過して初めてJPを検出ができる。そこで、本実施例では、山下り判定(ピーク検出)(S1022)を行っている。山下り、即ち評価値低下の検出方法が非常に重要である。山下り判定では、差分判定、チェックダウン判定、の2つ方法でピーク検出判定を行なっている。前者は、現在フィールドの評価値と所定フィールド前の評価値の差を監視し、この差が一定の閾値を越えたらピークを検出したとする。この方法は、コントラストの低い、従ってJPにおいても評価値の低い被写体では評価値の変化が少なく、JP検出が出来ない場合がある。一方、後者は、前者が現在フィールドの評価値と所定フィールド前の評価値の比を監視し、この比が一定の閾値を越えたらピークを検出したとする。この方法は、コントラストの高い、従ってJPにおいても評価値の高い被写体でピーク検出が遅れ、その結果行き過ぎ(JPを越えてオーラン)が頻発するという欠点を有する。このAFのピーク検出では、差分判定とチェックダウン判定の両方を用い、前者によりコントラストの高い被写体に対しては行き過ぎの増加なしに、後者によりコントラストの低い被写体に対してもピーク検出の感度を挙げることができる。
【0333】
(5) 山下り判定(S1022)では、差分判定、チェックダウン判定、の2つ方法でピーク検出判定を行なっている。前者は、現在フィールドの評価値と所定フィールド前の評価値の差を監視し、この差が一定の閾値を越えたらピークを検出したとする。後者は、前者が現在フィールドの評価値と所定フィールド前の評価値の比を監視し、この比が一定の閾値を越えたらピークを検出したとする。
但し、先に説明した評価値ID7(輝度加算値)の正規化差分値がピーク検出時に所定値を越えている場合には、揺れによる誤動作で簡単に停止するのを防止するため、揺れ又は外乱乱入としてピーク検出判定の差分判定結果を無効に(メモリ内のダウンカウント値をリセット)している。
同様に、評価値ID7(輝度加算値)の変化率が式(6) を満足しない場合には、揺れ又は外乱ありとして、ピーク検出のチェックダウン判定結果を無効にしている。
これらにより、被写体の揺れや外乱により生じるピーク検出の誤判定を提言することが出来る。その結果、ボケ状態のフォーカスのままAF動作が終了する誤動作を低減できる。
【0334】
(6) 方向判定(S1016)において、各評価値自体が所定の閾値以下の場合は、強制的にFlatとしている。これにより、評価値の定常的なノイズでは簡単に反応しないようにすることが出来る。更に、評価値が低い場合には定常的なノイズで方向判定を誤る場合が多く、また、ID7(輝度加算値)が高いシーンでは評価値曲線全体が上昇し、その定常ノイズレベルの絶対値も一緒に上昇してUp又はDownの判定結果につながる。従って、所定の閾値をEVAL TH [i]×γ[i](閾値×輝度加算補正係数)とし、この閾値を輝度加算値に対応して順次高くしている。従って、被写体を照らす照明を一層明るくした際に、フォーカスが大ボケ状態で評価値の変動が大きくなることにより発生するAFの誤動作を低減することが出来る。
【0335】
(7) 本実施例の端到達判定(S1019)では、真のNear端から真のFar端までの間に仮のNear端を設け、探索時間の短縮を図っている。即ち、フォーカスが仮のNear端からFar端までを探索した時点で、その範囲内にJPが存在するかを判断する。もし、JPが存在する場合には、全域探索した場合と比べて短い時間でAF収束できたことになる。途中判断方法では、局部的なピークを検出できる鋭角率を用いてJPが存在するか否かを判断する。このように、Far端とNear端の間に途中判断位置を設け、フォーカスがその位置に到達した時点で、それまでのフォーカスの経過の中でJPが存在するか否かを判断し、その結果によりそれ以降の探索を続行するか否かを判断している。途中判断を採用することにより、これまで全域探索を行った後でJPに集束していたディテールの少ない被写体,暗い被写体等のかなりの被写体が、全域探索を行わずに集束できるようになり、AFの平均集束時間を短縮できるようになった。
【0336】
(8) 本実施例の飽和輝度判定(S1012)を採用することにより、飽和輝度数が所定の閾値を越えている場合には、評価枠の枠サイズを基本枠サイズW1から最大枠サイズW5に強制的に拡大変更してしまう。こうすることにより、図24に示すように、飽和輝度を持つ被写体を枠内に納めてしまうことにより、偽山の発生を押さえ、誤動作の発生を防止できる。
【0337】
(9) 本実施例のWOB(S1006)では、第1段階判定と第2段階判定を組み合わせて使用する。第1段階判定は、カットオフ周波数の比較的高い使用データIIR1の評価値ID0を使用するため誤判定の確率は低いが評価値の感度が相対的に低く少しのボケ状態でも有為な値が得られない。第2段階判定は、カットオフ周波数の比較的低い使用データのIIR4の評価値ID2及び更に枠サイズが異なるID3を使用するため、感度がよい反面、偽山が発生しやすく誤判定を生じやすい。そこで、本実施例では第1段階判定を先ず優先させ、ここで方向判定できない場合のみ第2段階判定でバックアップすることにより、WOBの誤判定の確率を低く押さえたまま、WOBの感度を上げている。
【0338】
(10)本実施例のレンズ速度設定(S1010)では、初期低速期間を除き、ピーク位置の近くまではレンズを高速に進め、ピーク位置近くに到達したら低速に切り替えるている。即ち、大ボケ状態からピーク位置近くまでは高速にレンズを動かし、ピーク位置近くになったら急に減速して低速にすることで、迅速且つ滑らかに行き過ぎることがなくピーク位置に収束できる。
【0339】
(11)本実施例のHPeak方式では輝度データYから高周波成分を抜き出している。この場合、例えばカラーバーを撮影したとき、このHPeak方式では後で述べる評価値の変化は均一な壁と同じようになり、評価値ピークの検出が出来ないことがある。これに対して、R,G,Bの画像信号を加算して輝度データを求めるのではなく、色信号R,G,Bに関して夫々独立に水平方向評価値算出フィルタを設け、各出力を加算して評価値とすることで、カラーバーのような色は異なるが輝度が均一な被写体に対しても有為な評価値を得ることが出来る。
【0340】
【発明の効果】
本発明によれば、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF機構を提供することが出来る。
更に本発明によれば、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF機構を備えたビデオカメラを提供することが出来る。
更に本発明によれば、業務用又はプロ用ビデオカメラに適する非常に精度の高いAF方法を提供することが出来る。
【0341】
更に本発明は、業務用又はプロ用ビデオカメラに適するAF機構において、コントラストの高低に関係なく、確実に評価値ピークを検出出来るようにすることが出来る。
更に本発明によれば、業務用又はプロ用ビデオカメラに適するAF機構において、現在フィールドの評価値と所定フィールド前の評価値を用いて評価値ピークを検出する段階において、コントラストの高い被写体に対して行き過ぎの増加なしに、コントラストの低い被写体に対してピーク検出の感度を上げることが出来る。
【図面の簡単な説明】
【図1】ビデオカメラから構成される撮像装置の全体の構成を示す図である。
【図2】図1のビデオカメラのAFブロックの構成を示す図である。
【図3】水平方向評価値算出フィルタの回路構成を説明する図である。ここで、図3Aは水平方向評価値算出フィルタの回路であり、図3BはHPFのカットオフ周波数の相違について説明している。
【図4】評価値生成回路で使用される枠制御信号を説明する図である。
【図5】全積分方式水平方向評価値算出フィルタの回路構成を説明する図である。
【図6】図6Aは、垂直方向評価値算出フィルタの回路構成、図6Bは飽和輝度数算出回路の構成を説明する図である。
【図7】各評価値の評価枠の枠サイズを説明する図である。
【図8】評価値ID0とID2の傾向を示す図である。
【図9】各評価値の関係を説明する図である。
【図10】本実施例で実行されるAFの全体フローチャートを示す図である。
【図11】図10のAFの全体フローチャートにおける揺れ判定処理(レンズ静止時の)の揺れ判定期間を説明する図である。
【図12】図10のAFの全体フローチャートにおけるウォブリング処理のフローチャートを示す図である。
【図13】図12のウォブリング処理におけるウォブリング動作のタイムチャートを示す図である。
【図14】図10のAFの全体フローチャートを実行する際に使用されるデータを説明する図である。
【図15】図16と共に、ウォブリングと評価値の変化を示す図であり、図15A,B及びCはジャストピント判定される場合を示している。
【図16】図15と共に、ウォブリングと評価値の変化を示す図であり、図16C,D及びEはジャストピントでないと判定される場合を示している。
【図17】図15Cに関連して、ジャストピンであると判定される場合の条件を説明する図である。
【図18】図15A,B及びCに関連して、ジャストピンと判定する判定方法を説明する図である。
【図19】図12のウォブリング処理における方向判定する判定方法を説明する図である。ここで、図19AはNear方向判定を示し、図19BはFar方向判定を示す。
【図20】図10のAFの全体フローチャートにおけるレンズ速度決定処理のフローチャートを示す図である。
【図21】図20の低速切り替え判定において使用される判別式を説明する図である。
【図22】図10のAFの全体フローチャートにおける偽山判定に関連し、偽山の発生過程を説明する図である。ここで、図22Aはジャストピン状態を示し、図22Bはボケの程度が徐々に進む状態を示す図であり、図22Cはこのときの評価値の推移を示す図である。
【図23】評価値ID0とID1を用いて行う揺れ判定に関する説明図である。ここで、図23Aは2重枠法を説明し、図23Bは偽山の発生しないシーンの評価値の振る舞いを説明し、図23Cは垂直エッジの偽山発生に与える影響を説明し、図23Dは水平エッジの偽山発生に与える影響を説明している。
【図24】図10のAFの全体フローチャートにおける飽和輝度判定に関連し、偽山の発生過程を説明する図である。ここで、図24Aは偽山発生に関して説明し、図24Bは偽山発生と判定された場合の評価枠の拡大に関して説明している。
【図25】図10のAFの全体フローチャートにおける方向判定の個別判定に関する説明図である。
【図26】図10のAFの全体フローチャートにおける方向判定の総合判定に関する説明図である。
【図27】図27Aは図26の方向判定の判定方法、図27Bは図10のAFの全体フローチャートにおける逆送判定の判定方法に関する説明図である。
【図28】図10のAFの全体フローチャートにおける端到達判定に関する説明図である。ここで、図28Aは途中判断方法が有効に働く場合を示し、図28Bは全域を探索する場合を示している。
【図29】図28の端到達判定のフローチャートを示す図である。
【図30】図30Aは鋭角率を説明する図であり、また、図30Bは飽和輝度判定を説明する図である。
【図31】図10のAFの全体フローチャートにおけるピーク位置選定のフローチャートである。
【図32】図32Aは、差分判定、チェックダウン判定及び保険モードの動作の比較をした図表である。図32Bは、図10のAFの全体フローチャートにおける山下り判定のチェックダウン判定を説明する図である。
【図33】図33は、フォーカスを一定速度で進め、1フィールド毎に評価値及びフォーカス位置をサンプリングする様子を示した図である。
【図34】図34は、図10のAFの全体フローチャートにおけるピーク位置算出の重心計算の積分範囲を説明する図である。ここで、図34Aは積分範囲が適正でない場合を示し、図34Bは積分範囲の設定方法を示す図である。
【図35】図35は、図10のAFの全体フローチャートにおけるロングフィルタ判定の初期レンズ移動方向の設定方法を説明する図である。
【図36】図36は、図10のAFの全体フローチャートにおけるロングフィルタ処理のフローチャートを示す図である。
【図37】図37は、図36に関連して輝度正規化評価値を説明する図である。
【図38】図37は、図36に関連してロングフィルタモードを説明する図である。
【図39】図39は、被写界深度及び焦点深度を説明する図である。ここで、図39Aは被写界深度を、図39Bは焦点深度を夫々示す。
【図40】図40は、許容錯乱円及びCCD画素間距離と許容錯乱円の関係を説明する図である。
【符号の説明】
111 フォーカスレンズ、111a フォーカスレンズ位置検出センサ、111bフォーカスレンズ駆動モータ、111c フォーカスレンズ駆動回路、112 ウォブリングレンズ、112a ウォブリングレンズ位置検出センサ、112b ウォブリングレンズ駆動モータ、112c ウォブリングレンズ駆動回路、113 アイリス機構、113a アイリス位置検出センサ、113b アイリス機構駆動モータ、113c アイリス駆動回路、114 レンズブロック側CPU、115 オートフォーカス・スイッチ、121 色分解プリズム、122R,122G,122B 撮像素子、123R,123G,123B プリアンプ、124 CCD駆動回路、125 タイミング信号発生回路、131R,131G,131B A/D変換回路、132R,132G,132B ゲイン制御回路、133R,133G,133B 信号処理回路、134 エンコーダ、135 アイリス制御回路、136 ホワイトバランス制御回路、137 オートフォーカスブロック、138 オートフォーカス用CPU、139 アートフォーカス専用集積回路(AF−IC)、141 メインCPU、142 ROM、143 RAM、145 操作部、201 輝度信号生成回路、202 評価値生成回路、203 オートフォーカス用CPU、204 ROM、205RAM[0001]
BACKGROUND OF THE INVENTION
The present invention relates to automatic focus adjustment (autofocus, hereinafter abbreviated as “AF”) of a video camera for news reports or business use. The focus adjustment is to determine a so-called just-focus state (hereinafter abbreviated as “JP”). More specifically, the present invention relates to a subject that automatically recognizes the position of a subject that is shot by a video camera or the like (including a television camera, a studio camera, an ENG camera, etc.) used for broadcasting stations or business. The present invention relates to a recognition device and an imaging device that uses the subject recognition device to focus on a subject.
[0002]
[Prior art]
Conventionally, an AF mechanism for automatically focusing on a subject in a video camera has already been realized in the field of consumer video cameras.
[0003]
At this time, it is well known that it is only necessary to determine whether the contrast of the imaging signal is high or low in order to detect whether or not the focus is on. That is, when the contrast is high, the focus is on, and when the contrast is low, the focus is off. By extracting the high-frequency component of the imaging signal, generating data by integrating the high-frequency component existing in a predetermined setting area in the screen, and using the integrated data, the level of contrast can be determined. This integrated data is data indicating how much high frequency components are present in the setting area, and this data is generally called an evaluation value. Therefore, AF can be realized by driving the focus lens so that the evaluation value is maximized, that is, the contrast is maximized.
[0004]
[Problems to be solved by the invention]
Consumer video cameras are not required to have such a precise AF mechanism because of their nature. The AF mechanism provided in current consumer video cameras has a relatively short time to follow the subject when it suddenly changes or fluctuates. If observed, the focused state (JP) and the shifted state (blurred state) are continuously repeated.
[0005]
This is because the current AF mechanism changes the evaluation value not only due to the change in the focus state of the target subject but also due to changes in various factors such as the background and brightness of the image. These factors cannot be distinguished from the value of the evaluation value, and the evaluation value extracted by such a method is never an accurate evaluation value representing the focus state of the subject. It is very difficult to solve this problem with a simple AF mechanism.
[0006]
In addition, it is a big selling point that the price of consumer equipment is low, and there is no demand for an AF mechanism that is more precise but expensive for consumer video cameras.
[0007]
However, business or professional equipment used in broadcasting stations or the like is required to have very high precision and fineness due to its nature. For example, in a video camera used for a broadcasting station or business use, a photographed image may be transmitted to a home by live relay (live broadcasting). If it is not possible to obtain an accurate evaluation value quickly and accurately during such live broadcasts, AF operation will take time, and an image signal with blurred focus will be sent to the home. Will be transmitted.
[0008]
Therefore, the video cameras used for broadcasting stations and business use are completely different from the simple and inexpensive small AF devices used in consumer video cameras. The AF mechanism cannot be introduced as it is.
[0009]
Furthermore, since a consumer video camera does not require such a clear image, it is used in a state where the lens is small and the depth of field is very deep, and the focus adjustment is easy accordingly. That is, when the distance of the subject exceeds a few tens of meters, even if the distance from the lens to the subject changes slightly over 1 m before and after JP, it is not determined to be “blurred” on the screen.
[0010]
On the other hand, a broadcast station camera requires a very clear image and is therefore used in a state where the lens is large and the depth of field is very shallow. That is, even if the distance from the lens to the subject changes slightly forward and backward, it is determined as “blur”. Therefore, it is necessary to adjust the focus more accurately by the amount of shallow subject depth.
[0011]
Here, “depth of field” and “depth of focus” that appears later will be briefly described. Depth of field (also referred to as “subject depth”) is the point closest to and farthest from the camera that can be accepted as clear when there is no blur when the camera lens is fixed at a certain lens set position. And the distance. That is, the total distance at which satisfactory sharpness is obtained when the lens is focused on a certain distance. Compared with consumer video cameras, professional video cameras can take shooting conditions with a deeper depth of field. In general, the focus adjustment characteristic of a camera is expressed by the depth of field. With a camera with an AF function, if the distance measurement error is within the depth of field of the video camera used for shooting (| depth of field |> | Distance error |), a good image that seems to have been in focus can be obtained. I can take it.
[0012]
On the other hand, the depth of focus refers to a range of image distances corresponding to the range before and after the object distance encompassed by the depth of field. In other words, it refers to the distance between the lens and the imaging surface (CCD charge coupled device) that allows the focused subject image within the acceptable sharpness range.
[0013]
As shown in FIG. 39A, when the object point (subject) P is focused on the CCD surface at the position P0, the lens (camera) that can be accepted as clear with this lens and the CCD fixed. The distance between the point P1 farthest from the point P2 and the closest point P2. On the other hand, as shown in FIG. 39B, image distance ranges P1 ′ to P2 ′ corresponding to the object distance front and back ranges P1 to P2 encompassed by the depth of field are referred to as focal depths.
[0014]
It should be noted that “a state in which there is no blur and can be accepted as clear” may be defined using a judgment with the naked eye and an allowable circle of confusion. The former is a so-called sensory test with the human eye. In the latter case, as shown in FIG. 40A, it is assumed that a circular blur having a convergence diameter d is originally generated at one point. At this time, the out-of-focus amount δ is the height of the small cone abc. The bottom of the cone when the maximum allowable amount of blur occurs is called an allowable circle of confusion. When a 2/3 inch CCD for broadcasting business is used, when the diameter d of the bottom surface of the small cone ABC is 22 [μm] or less, there is no blur and it can be accepted as clear. To do. Therefore, the bottom surface of the small cone ABC when d = 22 [μm] is called an allowable circle of confusion, and the defocus amount δ at this time is the depth of focus.
[0015]
As shown in FIG. 40B, the reason for the diameter of the allowable circle of confusion d ≦ 22 [μm] is that between the pixels (pixels) arranged in a regular grid of a 2/3 inch CCD used in a broadcast station video camera. This corresponds to the distance (pixel pitch). That is, if it is less than this, the image spreads to an image adjacent to the pixel at the image forming position, and does not adversely affect the adjacent pixel.
[0016]
In general, consumer video cameras often make judgments based on sensory tests, and professional video cameras often make judgments based on allowable circles of confusion.
[0017]
Conventionally, it has been desired to develop a highly accurate AF mechanism suitable for a professional or professional video camera. Up to now, attempts have been made to develop a high-precision AF mechanism suitable for professional or professional video cameras, but the high demands of broadcasting station cameramen cannot be satisfied, and both have failed. Therefore, the actual situation is that manual focus adjustment still depends on the craftsmanship of the photographer.
[0018]
In this application, as described in the detailed description of the invention, an AF mechanism suitable for a professional or professional video camera has been developed. In the AF of this image processing method, JP can be detected only after the evaluation value passes the peak. For this reason, downhill determination is adopted in which a peak is detected at the final stage of the AF flow.
[0019]
However, the hill climbing determination has the following problems. In other words, a method is conceivable in which the difference between the current field evaluation value and the evaluation value before a predetermined field is monitored, and the evaluation value peak is detected when the difference exceeds a certain threshold value. The method using the difference between the two evaluation values has a problem that the change in the difference is small and the JP cannot be detected because the evaluation value itself is low in a subject having a low contrast, and therefore a low evaluation value in JP. On the other hand, the method of judging using ratio of both was also examined. It has been found that the method using this ratio has a problem that peak detection is delayed in a subject with high contrast, that is, a subject with a high evaluation value in JP, and as a result, the balance exceeds the evaluation value peak.
[0020]
Therefore, in view of the problems described above, an object of the present invention is to provide a highly accurate AF mechanism suitable for a professional or professional video camera.
A further object of the present invention is to provide a video camera equipped with a highly accurate AF mechanism suitable for a professional or professional video camera.
A further object of the present invention is to provide a highly accurate AF method suitable for professional or professional video cameras.
[0021]
It is another object of the present invention to reliably detect an evaluation value peak in an AF mechanism suitable for a professional or professional video camera regardless of the level of contrast.
Furthermore, the present invention provides an AF mechanism suitable for a professional or professional video camera. In the stage of detecting an evaluation value peak using an evaluation value of a current field and an evaluation value before a predetermined field, an excessively high contrast object is overshot. It is an object to increase the sensitivity of peak detection for a low-contrast subject without increasing.
[0022]
[Means for Solving the Problems]
An autofocus device for a video camera according to the present invention includes an input unit that inputs an image signal of the video camera, an evaluation value generation unit that extracts a high frequency component of a specific region of the image signal and generates an evaluation value, and the evaluation A signal processing means for calculating a command value for driving the focus lens of the video camera according to the value; an output means for sending the command value to the focus lens driving section of the video camera; an evaluation value of the current field and a predetermined field; First peak detection determination means for determining whether a peak of the evaluation value is detected based on a difference from the previous evaluation value, and an evaluation value before the j (j is an integer of 2 or more) field as the evaluation value of the current field Value divided by And the evaluation value before j field is the evaluation value before 2j field Value divided by When both are above a predetermined threshold value, a determination process for determining that a peak has been detected, The value of j is sequentially increased from the first integer to the second integer greater than the first integer. Second peak detection determination means, and the signal processing means comprises: The determination by the first peak detection determination unit is performed first, and when the peak cannot be detected by the determination by the first peak detection determination unit, the determination by the second peak detection determination unit is performed, and the first Alternatively, when peak detection by the second peak detection determination means is obtained, the focus moves to the peak position. The command value is calculated.
[0023]
The video camera autofocus method according to the present invention further includes a step of generating an evaluation value by extracting a high frequency component of a specific region of the image signal from the image signal of the video camera, and an evaluation value of the current field and a predetermined field before A step of generating a first peak detection determination result for determining whether a peak of the evaluation value is detected based on a difference from the evaluation value, and an evaluation value before the j (j is an integer of 2 or more) field in the current field If the value obtained by dividing the evaluation value by j and the value obtained by dividing the evaluation value before j field by the evaluation value before 2j field are both equal to or greater than a predetermined threshold value, Generating a second peak detection determination result that is sequentially increased from a first integer to a second integer; The determination by the first peak detection determination unit is performed first, and when the peak cannot be detected, the determination by the second peak detection determination unit is performed, and the peak by the first or second peak detection determination unit is performed. If detection is obtained, move the focus to the peak position. And a step.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, the AF hardware configuration and operation algorithm of the broadcasting station or professional video camera developed this time will be described. Further, the hardware configuration for creating each AF evaluation value, the type and nature of the evaluation value, etc. will also be described.
[0025]
In addition, since description of an Example is long, a table of contents is described first, and it demonstrates according to the order of this table of contents after that. Further, in principle, the reference numerals used in the drawings are represented by four-digit numbers, the upper two digits correspond to the drawing number, and the lower two digits are given to each element in order. However, for the figure numbers 1 to 9, zeros in the thousands are omitted. Further, each step of the flowchart is further identified by adding “S” at the top.
[0026]
table of contents
1. Hardware configuration
2. Evaluation value
3. AF algorithm
3.1 Overall flowchart
3.2 Judgment (when the lens is stationary)
3.3 Wobbling
3.4 Mountain climbing parameter initialization
3.5 Maximum and minimum value update
3.6 Lens speed setting
3.7 Saturation luminance judgment
3.8 False mountain determination
3.9 Judgment (during lens operation)
3.10 Direction determination (hill climbing)
3.11 Reverse determination
3.12 Reverse feed reverse processing
3.13 Edge arrival judgment
3.14 Edge reversal processing
3.15 Midway judgment method
3.16 Peak selection
3.17 Downhill judgment
3.18 Peak position calculation (centroid processing)
3.19 Move to peak position
3.20 Long filter
[0027]
1. Hardware configuration
FIG. 1 shows the overall configuration of the video camera of the present invention. The video camera has a lens block for optically condensing incident light on the entire surface of the image sensor, and the incident light from the lens block is converted into electrical imaging signals of R, G, B (red, green, blue). It is divided into an imaging block to be converted and a signal processing block for performing predetermined signal processing on the imaging signal, and as a control means, a lens block control CPU 114 for controlling the lens block, and a video comprising the imaging block and the signal processing block A main CPU 141 for controlling the camera body and an AF block 137 having an AF dedicated CPU 138 for generating an evaluation value, which is a parameter used for AF, from the imaging signals RGB are provided.
[0028]
This lens block, as an optical element, is moved in the optical axis direction to find the focus lens 111 for driving the focus to the target subject (target) into the JP, and the direction in which the focus lens should advance when AF starts. Therefore, it has a wobbling lens 112 used for a wobbling operation, which will be described later, and an iris mechanism 113 for adjusting the opening amount.
[0029]
The lens block further includes, with respect to the focus lens 111, a focus lens position detection sensor 111a for detecting a lens position in the optical axis direction of the focus lens, a focus lens drive motor 111b for moving the focus lens in the optical axis direction, and a focus A focus lens (FL) driving circuit 111c for supplying a driving control signal to the lens driving motor. Similarly, for the wobbling lens 112, a wobbling lens position detection sensor 112a for detecting the lens position of the wobbling lens in the optical axis direction, a wobbling lens driving motor 112b for moving the wobbling lens in the optical axis direction, and wobbling lens driving. A wobbling lens (WOB) drive circuit 112c for supplying a drive control signal to the motor. Similarly, with respect to the iris mechanism 113, an iris position detection sensor 113a for detecting an opening position, an iris mechanism drive motor 113b for opening and closing the iris mechanism, and an iris drive circuit 113c for supplying a drive signal to the iris drive motor, Have
[0030]
The lens block CPU 114 is electrically connected to the focus lens driving circuit 111c, the wobbling lens driving circuit 112c, and the iris driving circuit 113c, and supplied with a control signal. The detection signals from the focus lens position detection sensor 111a, the wobbling lens position detection sensor 112a, and the iris lens position detection sensor 113a are always sent to the lens block CPU 114. The lens block CPU 114 has a ROM (or EEPROM) in which the focal length data, aperture ratio data, lens block manufacturer name and serial number, etc. of the focus lens 111 and the wobbling lens 112 are recorded. Read based on a read command from the block CPU 114. Further, the lens block CPU 114 is provided with an AF switch 115 for instructing AF activation. The lens block CPU 114 transmits switch information to the main CPU 141 and the AF block 137 on the camera body side.
[0031]
The imaging block further includes a color separation prism 121 for separating the incident light from the lens block into three primary colors of R, G, and B, and R, G, and B components separated by the color separation prism. The imaging elements 122R, 122G, and 122B output light after being focused on the imaging surface and converting the imaged imaging light of each color component into electrical imaging signals R, G, and B, respectively. . For example, the imaging elements 122R, 122G, and 122B are composed of a CCD (charge coupled device).
[0032]
The imaging block has preamplifiers 123R, 123G, and 123B for performing correlated double sampling for amplifying the levels of the imaging signals R, G, and B respectively output from the imaging elements and removing reset noise. Yes.
[0033]
Further, the imaging block generates a VD signal, an HD signal, and a CLK signal, which are basic clocks when each floor in the video camera operates, based on a reference clock from a reference clock generation circuit provided therein. Timing signal generation circuit 125, and a CCD drive circuit for supplying a drive clock to the image sensor 122R, image sensor 122G, and image sensor 122B based on the VD signal, HD signal, and CLK signal supplied from the timing generator circuit 124. The VD signal is a clock signal that represents one vertical period, the HD signal is a clock signal that represents one horizontal period, and the CLK signal is a clock signal that represents one pixel clock. These VD signal and HD signal Although not shown, a timing clock including the CLK signal and the CLK signal is supplied to each circuit of the video camera via the main CPU 141.
[0034]
The signal processing block is a block for performing predetermined signal processing on the imaging signals R, G, and B supplied from the imaging block. The signal processing block includes A / D conversion circuits 131R, 131G, and 131B that respectively convert the imaging signals R, G, and B from an analog format to a digital format, and a digital video signal R, based on a gain control signal from the main CPU 141. Gain control circuits 132R, 132G, and 132B for controlling the gains of G and B, respectively, and signal processing circuits 133R, 133G, and 133B that perform predetermined signal processing on the digital video signals R, G, and B ing. These signal processing circuits include, for example, a knee circuit that compresses a certain level or more of a video signal, a γ correction circuit that corrects the level of the video signal according to a set γ curve, and a predetermined black level or more than a predetermined level. Each has a B / W clip circuit for clipping the white level. The signal processing circuits 133R, 133G, and 133B may have a known black γ correction circuit, contour enhancement circuit, linear matrix circuit, and the like in addition to the knee circuit, γ correction circuit, and B / W clip circuit.
[0035]
The signal processing block further receives video signals output from the signal processing circuits 133R, 133G, and 133B, and the luminance signal Y and the color difference signals (RY) and (BY) from the video signals R, G, and B, respectively. Has an encoder 134 for generating.
[0036]
The signal processing block further receives the video signals R, G, and B output from the gain control circuits 132R, 132G, and 132B, respectively, and an AF block 137 that performs AF based on the video signals 132R, 132G, and 132B; An iris control circuit that receives the video signals R, G, and B output from the signal processing circuits 133R, 133G, and 133B, respectively, and controls the iris so that the amount of light incident on the image sensor is an appropriate amount based on the signal level. 135 and a white balance control circuit 136 for receiving video signals output from the signal processing circuits 133R, 133G, and 133B and performing white balance control based on the signal levels.
[0037]
The AF block 137 includes a newly developed autofocus integrated circuit (AF-IC) 139 and an AF CPU (Applicant's model number SH7034) 138. The AF-IC (139) includes a luminance signal generation circuit (FIG. And an evaluation value generation circuit (not shown) prepared for each evaluation value. Each evaluation value generation circuit receives the luminance signal Y from the luminance signal generation circuit and the HD, VD, and CK timing signals generated by the timing generation circuit 125, and generates each evaluation value. The AF CPU 138 performs calculations and various processes according to the AF algorithm for each evaluation value in accordance with an AF algorithm (described later) stored in a storage device (not shown) in advance. Further, the data calculated by calculation is updated once in one field and stored. Details of the type and role of the evaluation value will be described after the item “2. Evaluation value”.
[0038]
The AF CPU 138 sets data such as the fast distance area size (evaluation frame size) and image type (NTSC / PAL, pixel clock, etc.) to the AF-IC (139), and the AF-IC (139). ) Receive the evaluation value from. Further, the camera receives various data (focus position, iris value, etc.) of the camera through serial communication with the lens block side CPU 114, calculates focus command data, and sends the focus command data to the lens block side CPU 114 through serial communication. The AF algorithm which is the operation software of the AF CPU 138 will be described in the item “3. AF software”.
[0039]
Although not shown in the figure, the iris control circuit 135 divides an area on the screen of the selected signal and a NAM circuit that selects a signal having the maximum signal level among the supplied video signals RGB. Each area has a total integration circuit that fully integrates the video signal. The iris control circuit 135 determines all illumination conditions such as backlight proof, forward light proof, flat illumination, and spot illumination of the subject based on the integration data for each area, and controls the iris control signal. And the iris control signal is sent to the main CPU 141. Based on this iris control signal, the main CPU 141 sends a control signal to the iris drive circuit 113C via the lens block side CPU 112.
[0040]
The white balance control circuit 136 generates a white balance signal from the supplied video signals R, G, and B so that (RY) = 0 and (BY) = 0, and this white balance signal is generated. It is sent to the main CPU 141. The main CPU 141 supplies a gain control signal to the gain control circuits 132R, 132G, and 132B based on the white balance signal.
[0041]
In general, among video cameras, a lens block is manufactured by an optical equipment manufacturer, and a video camera body including other imaging blocks and signal processing blocks is manufactured by an electronic equipment manufacturer such as the present applicant. The lens block and the video camera main body are interchangeable lens types that can be attached to the camera main body of any manufacturer's lens as long as they correspond to a predetermined format, protocol, and command data content. That is, the lens block side CPU 114 returns information corresponding to various information requests (focus position, iris value, etc.) sent from the video camera body side to the main CPU 141 and AF CPU 138 of the camera body through serial communication. Conversely, the lens block CPU 114 receives a focus control command and a wobbling control command sent from the main CPU 141 and AF CPU 137 on the camera body side through the serial communication line, and receives the focus lens driving circuit 111c, the wobbling lens driving circuit 1122c, and the iris. Each of the drive circuits 113c is controlled.
[0042]
Next, the AF block 137 will be described in detail with reference to FIG. Since the AF-IC (139) generates 14 types of evaluation values (identified by ID0 to ID13, as will be described later), the luminance signal generation circuit 201 and the evaluation value for each evaluation value are used. And a generation circuit 202. The luminance signal generation circuit 201 is a circuit that generates a luminance signal Y from the supplied video signals R, G, and B. In order to determine whether the focus is on or off, it is only necessary to determine whether the contrast is high or low. Since the change in contrast is unrelated to the change in the level of the color signal, it is possible to determine whether the contrast is high or low by detecting only the change in the level of the luminance signal Y. The luminance signal generation circuit 201 generates a luminance signal Y by performing a known calculation (that is, Y = 0.3R + 0.59G + 0.11B) on the supplied video signals R, G, and B. I can do it.
[0043]
The evaluation value generation circuit 202 has 14 evaluation value generation circuits for generating 14 types of evaluation values. The evaluation value generation circuit includes a horizontal direction evaluation value calculation filter circuit, a full integration type horizontal direction evaluation value calculation filter circuit, and a saturated luminance number calculation filter. These details are related to “2.2 Types of evaluation values”. I will explain.
[0044]
2. Evaluation value
The nature of the evaluation value used in the AF of this embodiment will be described. The evaluation value is basically a sum of high-frequency components in the range-finding area of the image, and is generally an amount that has a correlation with the degree of JP and an anti-correlation with the degree of blur of the image. In this AF system, the evaluation value is calculated by an AF-IC (autofocus integrated circuit) 139 developed exclusively. AF consists of an operation of moving the focus to JP while determining whether the evaluation value increases or decreases accordingly.
[0045]
There are 14 types of evaluation values used in this AF, and are specified by ID0 to ID13. These evaluation values are shown in a list. Note that the evaluation values ID7, ID8, ID10, and ID11 are not related to the high-frequency component of the image data, and thus cannot be said to be the original evaluation values from the above-described definition of the evaluation values. However, since it plays an auxiliary role in driving the focus to JP, it is treated as an evaluation value in this embodiment. ID # is an identification symbol of the evaluation value given on the program, and is used when specifying the evaluation value also in this specification.
[0046]
Figure 0003840725
[0047]
The evaluation value name given to each evaluation value of 1D0 to ID13 is named by “use data−frame size−evaluation value calculation method” so that the origin can be understood. For example, the evaluation value ID0 is an evaluation value obtained by using the data specified by “IIR1”, using the evaluation frame size of “W1”, and using the evaluation value calculation method of “HPeak”. Thus, the evaluation value name indicates the attribute of the evaluation value as it is.
[0048]
The usage data of the evaluation value name is roughly classified into “IIR” and “Y”. There are IIR4 that uses high-frequency component data extracted from a luminance signal using an HPF (high-pass filter), and Y that uses luminance data of an imaging signal as it is without using HPF.
[0049]
When the HPF is used, as shown in FIG. 3, an IIR type (infinite length impulse response type) HPF is used as the HPF. Depending on the type of HPF, the evaluation values are divided into evaluation values IIR0, IIR1, IIR3, and IIR4, which represent HPFs having different cutoff frequencies.
[0050]
The reason for setting HPFs having different cutoff frequencies is as follows. For example, an HPF with a high cut-off frequency is very suitable in the vicinity of JP. This is because the rate of change of the evaluation value is relatively large with respect to the lens movement in the vicinity of JP. On the contrary, when the focus is greatly deviated, even if the lens is moved, the rate of change of the evaluation value is small. Therefore, an HPF having a high cut-off frequency is not suitable where the defocus is largely deviated.
[0051]
On the other hand, an HPF having a low cut-off frequency is suitable where the focus is greatly deviated. This is because the rate of change in evaluation value is relatively large when the lens is moved even when the focus is greatly deviated. On the other hand, even if the lens is moved in the vicinity of the JP, it cannot be said that it is suitable because the rate of change in the evaluation value is small. Since the rate of change of the evaluation value is relatively small with respect to the lens movement in the vicinity of the JP, an HPF having a low cut-off frequency cannot be said to be suitable in the vicinity of the JP.
[0052]
In order to generate evaluation values having different properties using a plurality of filters having conflicting properties in this manner and to select an optimal evaluation value at that stage in the AF process, HPFs having different cutoff frequencies are used. Is set.
[0053]
When HPF is not used, Y uses a luminance signal Y without a filter of the imaging signal.
[0054]
Next, the frame size, that is, the size of the evaluation frame is the size of the image region used for generating the evaluation value, and is also referred to as an AF frame, an evaluation frame, a distance measurement frame, or a specific region. As shown in FIG. 7, there are five types of frame sizes W1 (evaluation frame 1) to W5 (evaluation frame 5), which are used in the present embodiment, each having a different size. Each center of the evaluation frames W1 to W5 coincides with the screen center.
[0055]
Figure 0003840725
However, the screen size of one field is 768 pixels × 240 pixels.
[0056]
Among these frame sizes, the AF software developed this time performs AF processing using W1 which is the smallest possible size in order to focus the target object faithfully. W1 is about 1 / 6.6 of the screen size, and this frame size W1 is referred to as a basic frame size.
[0057]
As will be described later, in a specific evaluation value using W1 or W2, basically W1 or W2 is set. Under certain conditions, the frame sizes W1 and W2 are set to the frame sizes W3 and W4 or In some cases, the frame size W5 may be enlarged and changed. In other words, when a “false mountain” (a phenomenon in which the evaluation value increases when the focus moves in a blur direction) occurs, the JP may not be driven to the JP with the minimum frame W1 or W2. In such a case, the evaluation is not possible. The AF processing is performed again by enlarging and changing the frame size originally used by the value. Details will be described later.
[0058]
Thus, by setting a plurality of types of frame sizes, different evaluation values corresponding to the respective frame sizes can be generated. Accordingly, an appropriate evaluation value can be obtained from any of the evaluation values ID0 to ID13 regardless of the size of the target subject.
[0059]
As the evaluation value calculation method, there are HPeak, HIntg, VIntg, and Satul methods. The HPeak method indicates the peak method horizontal evaluation value calculation method, the HIntg method indicates the total integration method horizontal evaluation value calculation method, the VIntg method indicates the integration method vertical evaluation value calculation method, and the Satul method indicates the number of saturated luminances. . Each will be described.
[0060]
The HPeak method is an evaluation value calculation method for obtaining a high-frequency component from a horizontal image signal using HPF. It is used for evaluation values ID0, ID1, ID2, ID3, ID9, ID10, and ID11. Therefore, these evaluation value generation circuits in FIG. 2 have a horizontal direction evaluation value calculation filter described below. These evaluation values are different in the cut-off frequency and frame size of the HPF used for generating the evaluation values.
[0061]
FIG. 3A shows a circuit configuration of a horizontal direction evaluation value calculation filter used in the HPeak method. The horizontal direction evaluation value calculation filter includes an HPF 202 that extracts only a high frequency component from the luminance data Y of the luminance signal generation circuit (reference numeral 201 in FIG. 2), an absolute value processing circuit 203 that takes an absolute value of the high frequency component, and an absolute value conversion. Multiplication circuit 204 that multiplies the high-frequency component by a horizontal frame control signal, line peak hold circuit 205 that holds one peak value per line, and integration of each peak value in the vertical direction for all lines in the evaluation frame And a vertical integration circuit 206.
[0062]
The high-frequency component is extracted from the luminance data Y by the HPF 202, converted to an absolute value by the absolute value processing circuit 203, and is all made positive data. Next, the horizontal frame control signal is multiplied by the multiplication circuit 204 to obtain an absolute value high-frequency component in the evaluation frame. The multiplication of the frame control signal is performed by specifying the range to be evaluated in relation to the target object on the screen as the evaluation frame, and using only the high-frequency component in the frame, so that the outside of the frame or the frame This is to eliminate noise, abrupt changes, and the like of evaluation values due to video information entering and exiting from the periphery. The line peak hold circuit 205 holds one peak value hp1, hp2,..., Hpn for each of the lines 1 to N in the frame.
[0063]
One peak value is held for each line, and this is added by the vertical method integration circuit 206 from hp1 to hpn in the vertical direction with respect to the lines in the evaluation frame based on the vertical frame control signal. For a specific evaluation frame on one screen, a value Σ (hp1 +... + Hpn) is obtained by summing up each peak value for each line. This method is called the HPeak method because the peak in the horizontal direction (H) is once held.
[0064]
Further, the following measures are taken for the frame control signal. FIG. 3 shows a horizontal frame control signal 301 and a vertical frame control signal 302 corresponding to the evaluation frame 303. Here, the frame control signal 302 in the vertical direction is a square wave, but the frame control signal 301 in the horizontal direction gives a characteristic like a house roof rather than a simple square, and gradually increases the contribution ratio of the 30 pixels at both ends. It is decaying. The reason for this is to reduce the influence of the intrusion of the edge outside the frame (the bright edge around the evaluation frame) into the frame and the fluctuation of the evaluation value due to the shaking of the subject as the focus progresses. is there. Such frame size setting and frame signal characteristic generation can be freely performed from the CPU by the AF-IC developed this time.
[0065]
Here, the difference in the cut-off frequency of the HPF 202 is that the HPF z-conversion formula X (z) = (1−z) as shown in FIG. 3B. -1 ) / (1-αz -1 ) Is determined by the value of the coefficient α. The difference in the coefficient α of the cutoff frequency of each evaluation value is as follows.
[0066]
Figure 0003840725
[0067]
The cut-off frequency of the HPF specified by the coefficient α = 1/2 is relatively high near fsc (subcarrier frequency and ¼ of the sampling frequency), and the sensitivity is relatively low. I don't pick up much. On the other hand, the cutoff frequency of the HPF specified by the coefficient α = 7/8 is relatively low so that the sensitivity is relatively high, but it is easy to pick up noise. Further, since the phase delay is much larger than the case where the coefficient α = 1/2, it is easy to be influenced outside the frame.
[0068]
It should be noted that the reason why IIR0 and IIR1 with α = 1/2 and IIR3 and IIR4 with α = 7/8 are divided separately is the V direction (vertical direction) and H direction (horizontal direction) in the evaluation value calculation method described later. ). The reason is that while the H direction is continuous with respect to the lines of the imaging signal, the V direction is a discrete line because it is an interlaced line in a field unit, so that the spatial frequency becomes relatively low. Therefore, the data names used are different so that they can be identified even when the same α is used.
[0069]
The HIntg method is a method for calculating an evaluation value in the horizontal direction obtained by a total integration method. The HIntg method is used for the evaluation values ID6, ID7, ID12, and ID13. Compared with the HPeak method, the HPeak method obtains one peak value hp1 to hpn per line and adds them in the vertical direction Σ (hp1 +... + Hpn), whereas in the HIntg method, All the luminance signals y1 to yn or their high frequency components h1 to hn are used and added in the vertical direction Σ (y1 +... + Yn), Σ (h1 +... + Hn). In the HIntg method, usage data is classified into IIR1 that uses high-frequency components and Y that uses the luminance signal Y itself as it is.
[0070]
When IIR1 is used as usage data in the HIntg method, high-frequency components extracted by the HPF specified by IIR1 from the luminance signal are fully integrated. Used for evaluation value ID6. Therefore, the evaluation value ID 6 generation circuit in FIG. 2 has the following full integration type horizontal direction evaluation value calculation filter. FIG. 5 shows a circuit configuration of this total integration type horizontal direction evaluation value calculation filter. This filter includes an addition circuit 501 that outputs luminance data Y from the luminance signal generation circuit (reference numeral 201 in FIG. 2), an HPF 502 that extracts only high-frequency components from the luminance data Y, an absolute value processing circuit 503, and an absolute value high frequency signal. A multiplication circuit 504 that multiplies the horizontal frame control signal by the component, a horizontal addition circuit 505 that adds the absolute value high-frequency component for all the lines in the frame, and all the frames in the frame based on the vertical frame control signal. A vertical integration circuit 506 that integrates the absolute value high-frequency component addition value of the line in the vertical direction.
[0071]
Compared to the HPeak horizontal evaluation value calculation filter of FIG. 2, the total integration horizontal evaluation value calculation filter is the same up to the horizontal frame signal multiplication circuit 504, but after multiplication by the horizontal addition circuit 505. The difference is that all the horizontal direction data is added, and then the vertical direction integration circuit 506 integrates all the lines in the frame in the vertical direction. Therefore, the HIntg method has a relatively higher evaluation value than the HPeak method and is effective for low-contrast subjects, but has a drawback that false mountains are likely to occur. Therefore, in the AF of this embodiment, the HPeak method and the HIntg method are properly used as appropriate, but the appropriate use of the HPeak method and the HIntg method will be described later.
[0072]
When luminance data Y is used as usage data in the HIntg method, all luminance data Y is added in the horizontal direction, and is fully integrated within a set evaluation frame. The evaluation value in this case is also referred to as a luminance addition value. Used for evaluation values ID7, ID12, and ID13. The luminance addition value is obtained by a luminance addition value calculation filter circuit obtained by removing the HPF 502 from the full integration type horizontal direction evaluation value calculation filter of FIG.
[0073]
Since the high-frequency component is not extracted from the luminance addition value, the original evaluation value using the high-frequency component directly related to the blurring phenomenon, that is, the HPInk method, the HIntg method using IIR, and the VIntg method described below are evaluated. It is different from the value. Actually, when the subject is not shaken, disturbed (noise), etc., and the subject does not enter or leave the evaluation frame, the luminance addition value is almost the same regardless of whether the image is in the JP state or in the blurred state. . However, if the subject shakes, disturbs, etc. and enters the frame, the luminance addition value changes greatly. Therefore, the luminance addition value is effective as an evaluation value mainly used for monitoring disturbance, shaking, and the like by using such a property. As described above, the luminance addition value plays an auxiliary but effective role in pursuing JP by AF, and is thus treated as an evaluation value in this embodiment.
[0074]
The VIntg method is a total evaluation method of vertical direction evaluation value calculation. Used for evaluation values ID4 and ID5. Therefore, these evaluation value generation circuits in FIG. 2 have a vertical direction evaluation value calculation filter described below. The HPeak method and the HIntg method both generate evaluation values by adding in the horizontal direction, whereas the VIntg method is an evaluation value generated by adding high-frequency components in the vertical direction. For example, if the upper half of the screen is white and the lower half is black, or if the image is a horizontal line, depending on the scene, only the high-frequency component in the vertical direction exists and there is no high-frequency component in the vertical direction, the HPeak method horizontal evaluation value does not function effectively . Therefore, the evaluation value of the VIntg method is determined so that AF functions effectively in such a scene.
[0075]
In general, in order to add high-frequency components in the vertical direction, it is necessary to temporarily store high-frequency component data in a line memory or a frame memory, and to devise the reading order, and the circuit configuration becomes large and complicated. Become. However, the VIntg method defined here obtains a vertical direction evaluation value by a simple original configuration that does not require such a circuit configuration.
[0076]
FIG. 6A is a diagram illustrating a circuit configuration of a vertical direction evaluation value calculation filter. The vertical direction evaluation value calculation filter includes a vertical direction evaluation value calculation filter 601, a timing generator 602, an IIR type HPF 603, an absolute value circuit 604, and an integration circuit 605.
[0077]
The vertical direction evaluation value calculation filter 601 calculates the average value (the same applies to the total value) of 64 pixels in the center of the evaluation frame for each line of the luminance data Y from the luminance signal generation circuit (reference numeral 201 in FIG. 2). And output once every 1H. Here, the reason why the 64 pixels are in the center is to remove noise around the evaluation frame. Here, since only 64 pixels are sequentially accumulated and finally one total value is output, the memory device such as a line memory or a frame memory is not required. Next, a high frequency component is extracted by the HPF 603 in synchronization with the line frequency. The high frequency component at the center is converted into absolute value high frequency data by the absolute value circuit 604, and all integration is performed for all lines in the frame by the integration circuit 605.
[0078]
The vertical direction evaluation value is particularly effective for an image having no horizontal change such as a horizontal line scene. On the other hand, in the case of an image having a change in the horizontal direction, this becomes noise and the effectiveness of the evaluation value decreases.
[0079]
The Satul method is a calculation method for obtaining the number of saturated luminance data Y within the frame (specifically, the luminance level is a predetermined amount or more). Used for the evaluation value ID8, the evaluation value ID8 is also referred to as a saturated luminance number. Therefore, these ID8 evaluation value generation circuits in FIG. 2 have a saturated luminance number calculation circuit described below. As for the number of saturated luminances, false mountains often occur when the number of saturated luminances is large, and since special processing is required as AF for the occurrence of false mountains, there is a high probability that false mountains will appear. It is defined as an evaluation value for detection.
[0080]
FIG. 6B shows an example of a saturated luminance number calculation circuit. The saturated luminance number calculating circuit compares the luminance data Y with the threshold value α, and outputs a “1” when the luminance data Y is equal to or higher than the threshold value α (saturated luminance), and an output of the comparator, An AND circuit 607 for inputting a horizontal / vertical frame control signal and a clock signal CLK representing one pixel clock, an output of the AND circuit is inputted to a clock input terminal, and a VD signal representing one vertical period is inputted to a set terminal. And a counter 608 that coefficients the number of saturated luminance data for one field. Next, each evaluation value will be described individually.
[0081]
Next, the individual evaluation value will be described.
(1) ID0 (IIR1-W1-HPeak)
The evaluation value ID0 is the most basic evaluation value in the AF of this embodiment, and is also referred to as a basic evaluation value. The AF of the present embodiment is executed by preferentially determining increase / decrease of the evaluation value ID0. The evaluation value ID0 is relatively high when the cutoff frequency of the HPF specified by IIR1 is around fsc (subcarrier frequency, 1/4 of the sampling frequency), and the probability that the evaluation value peak matches JP is high. high.
[0082]
On the other hand, the evaluation value ID3 (IIR4-W1-HPeak) has a relatively high sensitivity because the cutoff frequency of the HPF specified by IIR4 is relatively low, and is easily influenced by factors outside the evaluation frame. There is a case where the evaluation value peak does not overlap with the JP, and as a result, there is a risk that an error in the driving-in of the JP occurs.
[0083]
On the other hand, evaluation value ID0 has a relatively low sensitivity, and therefore, false mountains are less likely to occur than other evaluation values. There is also a drawback that a correct value cannot be obtained.
[0084]
The circuit configuration for generating this evaluation value is based on the horizontal direction evaluation value calculation filter of FIG. The coefficient α of HPF shown in FIG. 3B is ½. The size of the frame is a basic size evaluation frame W1 (116 × 60), which is about 1 / 6.6 of the screen size. The evaluation frame W1 has a relatively small frame size compared to an evaluation frame used for AF of a consumer video camera. The reason for choosing a smaller frame size compared to consumer video cameras is to focus precisely on the target object. On the other hand, if the frame size is reduced, the evaluation value is likely to fluctuate due to camera shake, shaking of the subject, etc., making AF more difficult. For this reason, the evaluation value ID0 does not use the evaluation frame W1 in a fixed manner, but expands the line segment ratio to 2 or 3 times under certain conditions in the false mountain determination and saturation luminance determination described later. The device can be expanded and used in another evaluation frame. Details will be described later.
[0085]
(2) ID1 (IIR1-W2-HPeak)
Compared to the evaluation value ID0 (IIR1-W1-HPeak), the evaluation value ID1 is generated in an evaluation frame W2 (96 × 60) having a slightly smaller size only in the horizontal direction. Since ID1 has a slightly smaller frame size than ID0 and all other conditions are the same, the behavior of the evaluation value curve is almost the same, but the difference in the horizontal frame size from IDO will be used later. It is provided to perform “false mountain determination”.
[0086]
(3) ID2 (IIR4-W1-HPeak)
Compared to ID0 (IIR1-W1-HPeak), ID2 has a cut-off frequency of HPF in evaluation value generation of 1/8, and contributes to evaluation value generation up to a lower frequency component. High sensitivity. Since the frame size is the same basic frame size W1 as ID0, it takes a significant value even in a blurred state compared to ID0. However, the phase delay of HPF is much larger than ID0, so it is easily affected outside the frame. There is also a drawback that false mountains are likely to occur.
[0087]
FIG. 2 shows the tendency of the evaluation value ID0 and the evaluation value ID2. The evaluation value ID0 curve has a sharp shape because only the high frequency component having a relatively high cutoff frequency contributes.
[0088]
(4) ID3 (IIR4-W3-HPeak)
Compared with ID2 (IIR4-W1-HPeak), evaluation value ID3 uses an evaluation frame W3 (232 × 120) that has a different frame size and doubles the line segment ratio in both the vertical and horizontal directions. The evaluation value becomes relatively high. This is used for “wobbling direction determination”, “reverse feed determination”, and “check-down determination” described later.
[0089]
(5) ID4 (IIR0-W1-VIntg)
The evaluation value ID4 is an evaluation value for obtaining a high-frequency component in the vertical direction. The feedback coefficient of the IIR type HPF is α = 1/2 which is the same as that of IIR1, but since it is a field unit interlaced line, it is lower than IIR1 in terms of spatial frequency. The frame size is the same basic frame size W1 as ID0. The evaluation value ID4 is an evaluation value having a correlation with the blurring phenomenon of the subject when there is no horizontal high-frequency component in the video and there is a vertical high-frequency component, but on the other hand, if the horizontal component increases, It has the property of being easily generated.
[0090]
(6) ID5 (IIR3-W3-VIntg)
Evaluation value ID5 is an evaluation value in the vertical direction similar to ID4 (IIR0-W1-VIntg). However, this evaluation value is not used at the time of filing this application. In the usage data IIR3, the feedback coefficient α of the IIR type HPF is α = 7/8, which is the same as that of IIR4. The frame size is the same evaluation frame W3 as ID2.
[0091]
(7) ID6 (IIR1-W1-HIntg)
Evaluation value ID6 is the same as ID0 (IIR1-W1-HPeak) for HPF, but since this evaluation value fully integrates all data after absolute value processing in both the H and V directions, the sensitivity of the evaluation value Is expensive. Therefore, ID6 is effective for dark scenes. However, since the sensitivity of the evaluation value is high, it is easy to pick up noise, and there is also a drawback that false peaks are likely to occur because all noise generated in an extremely dark scene is added. The evaluation value ID6 is prepared mainly for low-contrast subjects.
[0092]
(8) ID7 (Y-W1-HIntg)
The evaluation value ID 7 is a value obtained by simply summing the luminance data Y in the frame, and is also referred to as a luminance addition value. The frame size is the basic frame size W1. If the subject is stationary, the luminance addition value does not change much even if the focus changes, and therefore, it is not used for determining the blur state of the subject. However, the luminance addition value is used for monitoring because it has a property of changing greatly when the subject is in a swaying state or when a disturbance enters the frame.
[0093]
(9) ID8 (Y-W1-Satul)
The evaluation value ID8 is the number of pixels having a luminance higher than a predetermined luminance level set by the CPU. ID8 is also called a saturated luminance number. The predetermined luminance level is set by the CPU, and a value close to the substantially maximum luminance level is set. The frame size is the basic frame size W1. When the saturation luminance number is large, false mountains often occur. The AF software monitors this saturation luminance number ID8, and when it exceeds a predetermined number, switches to a special process to drive the focus to JP.
[0094]
(10) ID9 (IIR1-W3-HPeak)
The evaluation value ID9 is different from ID0 (IIR1-W1-HPeak) only in the frame size, and the evaluation value ID9 is enlarged to 2 times the line segment ratio. The frame size is the evaluation frame W3 (232 × 120). It is used for peak judgment in “sway judgment”, “false mountain judgment” and “insurance mode”.
[0095]
(11) ID10 (IIR1-W4-HPeak)
The evaluation value ID10 is generated in an evaluation frame W4 (192 × 120) whose size in the horizontal direction is slightly smaller than ID9 (IIR1-W3-HPeak). Regarding the frame size, the relationship between ID10 and ID9 is the same as the relationship between ID1 and ID0. Used for peak determination in “false mountain determination” and “insurance mode”.
[0096]
(12) ID11 (IIR1-W5-HPeak)
The evaluation value ID11 is an evaluation value obtained by enlarging only the frame size by approximately 5 times in the horizontal and 3 times in the line segment ratio as compared with ID0 (IIR1-W1-HPeak). The frame size is the maximum evaluation frame W5 size. Similar to the evaluation value ID10, it is used for peak determination in “swing determination”, “false mountain determination”, and “insurance mode”.
[0097]
(13) ID12 (Y-W3-HIntg)
The evaluation value ID12 is an evaluation value obtained by enlarging only the frame size twice as long as the line segment ratio in comparison with ID7 (Y-W1-HIntg). . The frame size is the evaluation frame W3 (232 × 120). This is used to determine whether the subject is shaking and the intrusion into the frame of the disturbance.
[0098]
(14) ID13 (Y-W5-HIntg)
The evaluation value ID13 is an evaluation value obtained by enlarging only the frame size by approximately 5 times in the horizontal direction and 3 times in the vertical direction in comparison with ID7 (Y-W1-HIntg). The frame size is the maximum evaluation frame W5. Similar to the evaluation value ID12, it is used for determining whether the subject is shaking or entering the frame of the disturbance.
[0099]
(15) Relationship between evaluation values
Each evaluation value uses HPeak (HIntg) that uses horizontal high-frequency components extracted from luminance data Y by use data, Y that uses all luminance data Y, and all high-frequency components in the center of horizontal data. And VIntg that integrates in the vertical direction.
[0100]
With respect to HPeak, as shown in FIG. 9A, there are ID9 in which the evaluation frame is expanded to an area ratio of 4 times with respect to the basic evaluation value ID0, and ID11 in which the area ratio is increased to about 15 times. ID1 having a slightly narrow horizontal direction and ID10 having a slightly narrower horizontal direction than ID9 are prepared. Further, ID2 having a low HPF cutoff frequency (high sensitivity) with respect to the basic evaluation value ID0 and ID3 having a low HPF cutoff frequency with respect to ID9 are prepared. In addition, there is ID6 that performs total integration HIntg, unlike the basic evaluation value ID0.
[0101]
Regarding Y, as shown in FIG. 9B, there are a luminance addition value ID7, an ID12 in which the evaluation frame is expanded to an area ratio of 4 times, and an ID13 in which the area ratio is expanded to an area ratio of about 15 times.
As for VIntg, as shown in FIG. 9C, ID4 and ID5 having an enlarged evaluation frame and a low cutoff frequency are prepared. In addition, there is ID8.
[0102]
Next, the operation of the video camera will be described with reference to FIGS.
3. AF algorithm
3.1 Overall flowchart
The AF mechanism developed this time has been developed with the idea of adopting the one-shot type. When the AF switch (reference numeral 115 in FIG. 1) is pushed, it is activated (AF start), and the operation is terminated when the focus is driven to JP. In other words, the lens once the AF operation switch is pressed and the focus is in the JP state is in a non-moving state until the AF operation switch is pressed next time. This is to avoid danger when the focus fluctuates during broadcasting.
[0103]
In many shootings at actual broadcast station studios or various events, a plurality of video cameras are prepared and switched to be broadcast at appropriate times. Therefore, the distance between the specific camera and the subject is almost constant, and the one-shot type AF is a mode suitable for such an image. On the other hand, it is not suitable for shooting a subject whose distance from the camera is continuously changing, such as shooting a train that sprints from far away.
[0104]
FIG. 10 shows a flowchart of the AF software. This AF software is generally composed of three stages: a shake determination stage, a WOB stage, and a hill climbing stage.
In the shake determination stage, the shake of the subject is determined and the mode is set accordingly.
In the WOB stage, only the wobbling lens is moved to perform the wobbling process, and the initial direction in which the focus lens should proceed is determined. The focus lens does not move until the end of the wobbling process.
In the hill-climbing stage, the focus lens is actually moved, and the process of driving the focus to JP is performed by determining the increase or decrease of the evaluation value associated therewith. In this AF flowchart, normally, an evaluation value peak is detected while going around the hill-climbing loop several times at a rate of once in one field, and it is driven to JP.
[0105]
In addition to the AF flow, as data processing for each field, the next data is sequentially updated and recorded in a predetermined loop buffer memory (for 32 fields). The data stored in the loop buffer is used for various processes and determinations of the AF software.
(a) Raw data of 14 kinds of evaluation values
(b) A moving average of 3 fields of each evaluation value data of (a) (14 types)
(c) Lens position
(d) Iris value and focus value (stored alternately for each field)
[0106]
Hereinafter, the steps of the AF flow in FIG. 10 will be described in order.
[0107]
3.2 Judgment (when the lens is stationary)
When the start switch attached to the lens is pressed, the AF mechanism starts to operate. In step S1001, it is determined whether the lens is stationary, i.e., whether there is a vibration. “Shake” is the relative movement of the camera and the subject. In this shake determination, evaluation value data from when the AF switch is pressed until a predetermined period elapses has a feature that does not contribute to the calculation for shake determination.
[0108]
FIG. 11 shows the fluctuation of the evaluation value when the camera is panned and stopped, and the AF switch is turned on. In this shake determination, the shake determination period is determined so as to eliminate the influence of pan and switch ON on the evaluation value. As shown in FIG. 11, after the period 1105 in which the evaluation value by panning fluctuates, the period after the AF mechanism is switched on (SW ON) 1101 until 20 fields elapses, except for the period of the immediately following 8 fields. A determination period (between 12 fields of 9 to 20 fields) is defined as 1103, and the state of shaking is determined using the evaluation value data of this period.
[0109]
The reason why the immediately following 8 fields (1104) are excluded is to eliminate the effects of camera shake at the time of switch push. Thus, by setting the shake determination period 1003, an evaluation value that is not affected by the switch ON can be obtained. Note that “pan” is a kind of camera work and is to take a picture while moving the camera left and right. Typical bread includes follow bread and serving bread. The car that is speeding up in the car race seems to stop, but the video with the background flowing horizontally is the result of following the camera to the speed of the car.
[0110]
As a result of the shake determination, if there is a shake, the process proceeds to step S1002 to perform "set shake mode". When the shaking mode is set, the speed of moving the focus lens and the operation of the wobbling lens are changed as will be described later. Until this stage, the wobbling lens and the focus lens are stationary.
[0111]
Here, the value of each evaluation value is represented by e, and in particular, the value of the evaluation value IDi is represented as e [i]. The evaluation value of the current field is expressed as e0, and the evaluation value before j field is expressed as ej. Therefore, for example, e2 [0] means the value two fields before the evaluation value ID0. Further, as will be described below, at each stage of AF, the value e [i] of each evaluation value is variously determined by a predetermined threshold. The threshold is set to th, and in particular, the threshold of the evaluation value IDi is set to th [i ]. When there are a plurality of threshold values, the first threshold value is set to th1 [i], and the second threshold value is set to th2 [i].
[0112]
In the present embodiment, specific numerical values will be described as much as possible with respect to each threshold and other determination criteria. However, these numerical values are illustrative and are not limited thereto. It should be understood that the essence of the invention is that a threshold value or other criterion is set for an evaluation value having a specific property to determine a focus state at each stage or an event related thereto.
[0113]
The determination of shaking uses the normalized difference value of the evaluation value ID0 and the normalized difference value of the evaluation value ID7 (luminance addition value). The normalized difference value [%] of the evaluation value ID0 is obtained by using the value e0 [0] of the current field and the value e2 [0] two fields before,
50 × | e0 [0] −e2 [0] | / e0 [0]
Define in. Similarly, the normalized difference value [%] of the evaluation value ID7 uses the value e0 [7] in the current field and the value e2 [7] two fields before,
50 × | e0 [7] −e2 [7] | / e0 [7]
Define in.
[0114]
The normalized difference value means the rate of change of the evaluation value per field. Here, the evaluation value of the current field is compared with the evaluation value of the previous two fields in order to eliminate the influence of the evaluation value variation due to the difference between the odd field and the even field, and the odd or even as the two field interval. This is because only one of the fields is used. Moreover, the reason why it is multiplied by 50 regardless of the percentage is also for the same reason.
[0115]
Further, in the AF mechanism actually manufactured, each of e0 [0], e2 [0], e0 [7], and e2 [7] employs a moving average value of three fields. This is because the fluorescent lamp in the room blinks at 50 Hz, while the camera operates at 60 Hz, so that the flicker of the fluorescent lamp becomes 20 Hz and this influence is eliminated. Similarly, each evaluation value e to be described below is assumed to have no influence of flicker of a fluorescent lamp since all values take an average value of three fields unless otherwise specified.
[0116]
The normalized difference value is calculated using the evaluation value ID0 over the 12 fields of the shake determination period stored in the loop buffer, and the maximum value among the normalized difference values is set to the maximum normalized difference value (hereinafter, “ndiff e [ 0] ")) and the determination of shaking is executed.
[0117]
However, when the evaluation value ID0 is low, “ndiff e [0]” may be a large value even if the subject is not shaken due to noise fluctuations that exist constantly, and may exceed the shake determination threshold. .
[0118]
Therefore, when the value of the evaluation value ID0 is low, each normalized difference value of 12 fields is calculated using the luminance addition value ID7 instead, and the maximum normalized difference value “ndiff e [7] is calculated from the maximum value thereof. ”Is created, and the shaking judgment is performed using it. In all cases, the maximum normalized difference value “ndiff e [0]” of the evaluation value ID0 is not used if the evaluation value ID0 is equal to or less than a certain threshold value. It is because it thinks that it corresponds to the shaking. The specific criteria for shake determination are shown below.
[0119]
If the average value of the evaluation value ID0 (average value of the shake determination period 12 field) is 200 or more,
ndiff e [0] <3% → still mode
ndiff e [0] ≥ 3% → shaking mode 1
ndiff e [0] ≧ 30% → Shaking mode 2
And
[0120]
If the average value of evaluation value ID0 is less than 200,
ndiff e [7] <7% → still mode
ndiff e [7] ≧ 7% → Shaking mode 1
ndiff e [7] ≧ 12.5% → shaking mode 2
And
[0121]
The procedure for determination of shaking and the determination reference value were determined by photographing a large number of subjects. Initially, we wanted to perform the shake determination with the evaluation value ID0 if possible, but the luminance addition value ID7 is also used when the scene is low in luminance and close to noise (less than 200). This is because it is preferable to use the “ndiff e [7]”. Here, as the reference value, the average value of the evaluation value ID0 is divided into 200 or more and less than 3%, 30%, 7%, and 12.5% are used. And determined experimentally.
[0122]
Note that when the screen is in a largely blurred state, the screen becomes nearly uniform, and even if the subject is shaken, it is difficult to detect it. Therefore, when the AF operation is started from a largely blurred state, in this shake determination, the “still mode” is determined regardless of the presence or absence of the shake. Therefore, if the evaluation value becomes significant even in a hill-climbing stage where the focus lens described later moves, the shake determination (S1014) is performed again.
[0123]
The “long filter determination” in step S1003 and the “long filter process” in step S1004 will be described last for convenience of explanation.
[0124]
3.3 Wobbling
In step S1005, it is determined whether or not wobbling (hereinafter abbreviated as “WOB”) is possible. If possible, the process proceeds to the WOB operation (S1006), and if not, the process proceeds directly to the mountain climbing stage.
[0125]
First, the usefulness of WOB will be described. If AF is required, a method of moving the focus lens immediately can be considered. In general, since a WOB lens has a smaller mass than a focus lens, the focus can be moved by a depth of focus in a relatively short time. Of course, the focus lens can move the focus by the depth of focus, but it takes longer time than the WOB lens. Furthermore, under lens photographing conditions with a deep depth of focus (iris is closed, telephoto end), the focus lens relatively far from the CCD needs to be moved further.
[0126]
Here, “tele end” refers to an enlarged state, which refers to a state in which focus is extremely narrow, and the evaluation value changes extremely from FAR to NEAR. On the other hand, the “wide end” means a zoom-up state, and the tele end is in a wide range of focus. Therefore, the evaluation value does not change from Far to Near. As the tele end trend increases, WOB becomes effective.
[0127]
If the focus lens is moved without knowing the direction in which it should travel, and it turns out that the direction of the evaluation value decreases, the focus lens has a poor response characteristic that reverses the direction of movement, and the focusing time is long. End up. Such an operation that proceeds in the blur direction and then reverses and proceeds in the JP direction does not look good on the screen, but the probability that it will occur when moving without knowing the direction to proceed is not strictly speaking. It can be said that the probability is half. In addition, in WOB, since the screen can be changed with little understanding as compared with the method of moving the focus lens, the focus state (just pin, small blur or large blur) and the direction in which the evaluation value changes, that is, the focus WOB is useful if you know exactly what direction the lens should go.
[0128]
Therefore, in the case where the focus lens is a front-lens payout lens and has a WOB lens separately, it is determined whether or not WOB is possible and then a WOB operation is performed in advance to investigate the direction in which the focus lens advances. The focus lens is moved.
[0129]
In step S1005, a WOB possible determination process is performed. In the process for determining whether or not WOB is possible, it is determined whether or not the WOB is valid (possible), that is, whether or not to WOB. WOB is not always effective. The case where the WOB is invalid is (1) when the evaluation value ID0 is less than or equal to a predetermined threshold (for example, 250), (2) in the shaking mode, or (3) when the saturation luminance number ID8 is greater than or equal to the predetermined amount. In these cases, WOB is not executed.
[0130]
(1) When the evaluation value ID0 is a predetermined threshold value (for example, 250) or less
When the evaluation value IDO is low, since the change of the evaluation value cannot be obtained by WOB in the JP or large blurred state, the direction determination for determining the moving direction of the focus lens cannot be performed. Therefore, a predetermined threshold value is provided, and if it is less than that, WOB is not performed. The threshold size 250 was experimentally determined using various subjects. Here, for example, the use of another evaluation value such as ID3 having a low cut-off frequency and a large frame size was also examined. However, since there were many cases where the direction determination of the focus lens was erroneous due to the occurrence of false mountains, the evaluation value was eventually Only ID0 is used as a reference.
[0131]
(2) In shaking mode
When it is determined that the vibration mode is 1 or 2 in the vibration determination (when the lens is stationary) in step 901, the evaluation value variation due to the vibration is large, and even if WOB is performed, the direction determination is often erroneous, so WOB is not performed.
[0132]
(3) When the saturation luminance number ID8 is a predetermined amount or more
When the saturation luminance data exceeds a predetermined amount in the evaluation frame, the evaluation value tends not to change even when WOB is performed. This is because the edge sharpness does not change even when it is saturated when it is saturated.
[0133]
When the evaluation value ID0 is equal to or greater than a predetermined threshold value, the mode is still, and the saturated luminance number ID8 is equal to or less than the predetermined amount (when none of (1) to (3) corresponds), WOB is performed. The process proceeds to the WOB operation (S1006). If any one of (1) to (3) is met, the WOB is not valid, and the process proceeds directly to the hill climbing stage without performing the WOB.
[0134]
In step S1006, a WOB operation is performed. This is performed by giving a WOB lens control designation from the AF block 137 to the lens block side CPU 114 (see FIG. 1). FIG. 12 shows a flowchart of the WOB operation. Once the WOB routine is started
In step S1201, all 14 kinds of evaluation value values (e0 [i], i = 1 to 13) are stored.
In step S1202, the WOB lens is moved from the current position in the near direction to a position close to the near direction by the half-focal depth, and after the evaluation value is stabilized, in step S1203, 14 kinds of evaluation values (near [i ], I = 1 to 13).
In step S1204, the WOB lens is moved in the Far direction so that the evaluation value is stabilized by moving the WOB lens toward the Far direction from the initial position by the amount of the half-focal depth. ], I = 0 to 13).
[0135]
In step S1206, the WOB lens is returned to the neutral position (initial position), and after the evaluation value is stabilized, 14 types of evaluation values (eneutral [i], i = 0 to 13) are stored in step S1207. The reason why the 14 positions of the evaluation values are sampled by returning to the initial position again and setting the neutral position is to increase the accuracy of the calculation performed with efar [i]. Therefore, step S1206 may be removed and e0 [i] in step S1202 may be used instead.
[0136]
Here, the Far direction and the Near direction will be described. The direction in which the lens is moved away from the CCD (that is, the direction in which the lens is close to the subject) is referred to as the Near direction. In other words, a direction in which a subject that is near is moving so as to be JP is referred to as a Near direction. The Far direction is the opposite direction of the Near direction. For the Near end and Far end, the lens position where the subject at the closest possible JP distance is in the JP state is said to be at the Near end, and the lens position where the subject at infinity is in the JP state is the Far end. That is.
[0137]
A time chart of the WOB operation is shown in FIG. In FIG. 13, wtime is obtained by adding the moving time of the WOB lens and the phase delay time (one field) of the moving average filter.
Figure 0003840725
wtime is set to a different value depending on the iris value F. This is because it takes more time to move the WOB lens by the half focal depth if the iris is reduced.
[0138]
Note that either the movement toward the near side in step S1202 or the movement toward the far side in step S1204 may be executed first.
[0139]
Direction determination processing in step S1208 for determining the focus state using the evaluation values e0 [i], efar [i], near [i], enutral [i], (i = 0 to 13) stored in this way. Proceed to A detailed flow of this direction determination processing is shown in FIG. 12B.
[0140]
The flow of the direction determination process shown in FIG. 12B includes a first stage determination and a second stage determination. First, the first stage determination is performed using the evaluation value of the usage data IIR1 having a relatively high cutoff frequency to determine the direction. If the direction is not known, the evaluation value contributing to the direction determination is changed. Then, the second stage determination is continued using the evaluation value of the usage data IIR4 method having a comparatively low cutoff frequency. As the direction determination, the first stage determination is the main. In the first stage determination, each determination process is executed in the order of just pin (JP) determination (S1209), Near determination (S1211), and Far determination (S1213).
[0141]
In step S1209, it is determined whether or not the focus is JP. JP means that the focus is shifted within a half focal depth (half the focal depth) from the JP position. If it is determined that the JP is determined to be JP, the focus has already been achieved and AF is not necessary. Therefore, in step S1210, the moving direction is set to none (just) and the mode is set to normal, and the WOB routine is terminated. If it is determined that it is not JP, the process proceeds to Near determination in S1211.
[0142]
In step S <b> 1212, near determination is performed as to whether or not the direction in which the evaluation value increases is the near direction. If Near is determined as Near, the moving direction is set to Near and the mode is set to Normal in step S1212, and the WOB routine is terminated. If it is determined that it is not Near, the process proceeds to Far determination in step S1213.
[0143]
In step S1213, a Far determination is performed as to whether or not the direction in which the evaluation value increases is the Far direction. If Far is determined as Far, the moving direction is set to Far and the mode is set to Normal in step S1214, and the WOB routine is terminated. If it is determined that it is not Far, the first stage determination is terminated, and the process proceeds to the evaluation value weight change processing in step S1215.
[0144]
Note that either the near determination in step S1211 or the far determination in step S1213 may be executed first.
[0145]
If any of JP, Near, and Far is not determined in the first step determination and the moving direction of the focus lens is unknown, the weight of the evaluation value is changed in step S1215, and the process proceeds to the second step determination. The “weight of evaluation value” is a weight for each input of the fuzzy filter type synapse processing (see FIG. 19) performed in the Near determination and the Far determination.
[0146]
In the second stage determination, Near determination is performed again in step S1216. If Near is determined as Near, the moving direction is tentatively determined as Near in step S1217, the mode is set to flat, and the WOB routine is terminated. If it is determined that it is not Near, the process proceeds to step S1283 without performing Far determination, the movement direction is provisionally determined to be Far, the mode is set to flat, and the WOB routine is terminated. In other words, all are set to Far except when Near is determined in Near determination. This is because when the camera is actually used, the subject is often several meters or more away, so if you do not know the direction, if you go to Far, it is highly likely that it will be closer to JP. is there. As described above, the WOB operation is terminated and the process proceeds to JP determination (S1007).
[0147]
The reason for performing the same determination again after changing the weight of the evaluation value in the second step determination after the first step determination is as follows. In the first stage determination, actually the weight of the evaluation value is
W [] = {10,0,0,0,0,0,0,0,0,0,0,0,0,0}
However, each number in {} is a weight for evaluation of each of the evaluation values ID0 to ID13, and only the evaluation value ID0 of the usage data IIR1 having a relatively high cutoff frequency contributes to the determination. The reason why the first stage determination is limited to only the evaluation value ID0 is that, if the direction determination is incorrect, the AF operation is hindered, and therefore the erroneous determination in each determination of JP, Near, and Far is reduced as much as possible.
[0148]
If none of JP, Near, or Far is determined in the first step determination, it is determined that the direction in which the focus lens is to be advanced cannot be determined, that is, it is large blur. In this case, it cannot be determined for a clear reason whether the focus is moved to Near or Far. Therefore, in step S1215, the weight of the evaluation value is changed to increase the sensitivity somewhat, and the process proceeds to the second stage determination. Weight is
W [] = {5,10,20,20,0,0,10,0,0,5,10,5,0,0}
Change as follows. This weighting is applied to ID2 (IIR4-W1-HPeak) of usage data IIR4 having a relatively low cutoff frequency and ID3 (IIR4-W3-HPeak) having a different frame size.
[0149]
As described above, in the first stage determination, the probability of erroneous determination is low, but the sensitivity of the evaluation value is relatively low, and a significant value cannot be obtained even in a slight blurring state. The second stage determination has good sensitivity, but false mountains are likely to occur and erroneous determination is likely to occur. Here, the evaluation value ID0 of the usage data IIR1 having a relatively high cutoff frequency in the first stage determination and the evaluation value ID2 or ID3 of the usage data IIR4 having a relatively low cutoff frequency are added together to determine the direction. It is also possible to do. However, even in this case, it has been found that the latter false mountain is likely to occur and erroneous determination is likely to occur. Therefore, in this embodiment, the first stage determination is prioritized first, and only when the direction cannot be determined, backup is performed by the second stage determination to increase the WOB sensitivity while keeping the probability of WOB misjudgment low. I was able to.
[0150]
Now, the specific contents of the first stage determination and the second stage determination, which are just pin determination, near determination, and far determination, will be described.
[0151]
In the just pin determination, how to determine “JP” when the evaluation value changes when WOB is performed will be described visually. When WOB is performed, the evaluation value changes as shown in FIGS. 15 to 16 in accordance with the focus state.
FIG. 15A shows the change in evaluation value when the starting point (0) matches JP. By WOB ((0) → ▲ 1 ▼ → ▲ 2 ▼ → ▲ 3 ▼), the evaluation value changes to a W-shape that decreases twice.
[0152]
FIG. 15B shows a case where the starting point (0) is slightly deviated from JP. By WOB ((0) → (1) → (2) → (3)), the evaluation value decreases twice, but the first and second times become unbalanced. The state in FIG. 15B is also JP.
[0153]
FIG. 15C shows a case where the starting point (0) is shifted near the half-focus depth. According to WOB ((0) → (1) → (2) → (3)), the evaluation value is increased after decreasing or decreased after increasing. In either case, the difference in decline is greater than the difference in rise. The ratio between the difference in decrease and the difference in increase is determined. As shown in FIG. 17, in this embodiment, a decrease (b): an increase (a) = 5: 1 or more is employed. This is also an experimental value.
[0154]
FIG. 16D shows the change in the evaluation value when the starting point is deviated from the JP by more than the half-focus depth. According to WOB ((0)->(1)->(2)-> (3)), the evaluation value will increase after decreasing or decrease after increasing. The magnitude of the difference between decrease and increase Are of the same size. The state in FIG. 16D does not determine as JP, but proceeds to Near determination in step S1211.
[0155]
FIG. 16E shows a change in the evaluation value when the start point is at a large blur position greatly deviating from JP. In this case, the evaluation value hardly changes even if WOB ((0) → (1) → (2) → (3)) is performed. Even if there is a change, it is below the stationary noise of the evaluation value.
[0156]
FIG. 16F shows a change in the evaluation value in the case of a subject that is in JP but has little detail. When the detail is small, the evaluation value hardly changes in WOB ((0) → (1) → (2) → (3)), and the same behavior as the large blur in FIG. 16E is exhibited. However, it is in JP.
[0157]
Here, the change in the evaluation value is similar between FIG. 16E and FIG. 16F, and it is difficult to distinguish the two only by the change in the evaluation value. This means that it is difficult for the WOB to determine the large blurred state of a subject with detail and the JP state of a subject with little detail, such as a nearly uniform wall. This indistinguishability is one factor that makes the image processing AF difficult.
[0158]
In this embodiment, in the case of FIGS. 16A to 16C, the WOB result is JP, and the WOB is terminated and AF is not performed. 16D to 16F determine that it is not JP, and proceed to Near determination. In fact, in the case of FIG. 16F, it should be determined as JP, but since it cannot be distinguished from FIG. 16E, it must be determined that it is not JP. In order to realize the above-mentioned JP determination numerically, the calculation methods shown in FIGS. 18 and 19 are executed using the values of e0, near, efar, and neutral stored in the WOB flow.
[0159]
The just pin determination in the direction determination of FIG. 18 will be described. Evaluation value difference (e0 [0] -near [0]) 1801 between the neutral position of the WOB lens and the position separated by the focal depth in the Far direction, and the evaluation value between the neutral position and the position separated by the semifocal depth in the Near direction Based on the difference (eneutral [0] −efar [0]) 1806, the respective expanded match degrees m1 and m2 are calculated.
[0160]
As shown in the details of each extended match degree calculation in the lower part of the figure, the calculation of the extended match degree m1 corresponds to the evaluation value difference (e0 [0] −near [0]) on the horizontal axis and the m1 on the vertical axis. Become.
(1) When the evaluation value difference is 0 to the first first threshold th1 [0], m1 = 0 is taken.
(2) When the evaluation value difference is the first threshold th1 [0], m1 = 0, and when the evaluation value difference is the second threshold th2 [0], m1 = 100 [%].
(3) If the evaluation value difference is greater than or equal to the first threshold th1 [0], proportional distribution is performed under the condition (2).
(4) When the evaluation value difference is 0 or less, the vertical axis is line symmetric.
[0161]
Eventually, the evaluation value difference and m1 are in a linear function, but a width is provided in the vicinity of 0, and a subtle difference makes m1 zero. The reason for this is that in order to prevent the stationary noise (ripple component) having a small evaluation value from contributing to the determination, a width is provided near zero.
[0162]
The expansion match m2 is calculated in the same manner corresponding to the evaluation value difference (eneutral [0] -efar [0]) on the horizontal axis.
[0163]
When m1 and m2 are both 100% or less, the switches 1603 and 1610 both take the upper route (1804 and 1811), m1 and m2 are added by the adder 1807, and the sum is given by the constant β Compared with In the present embodiment, as described with reference to FIG. 17, β ≧ 80% is set based on a decrease: an increase = 5: 1 or more. If this sum is greater than β, the comparison result is “JP”, and if it is less than β, the result is “not JP”.
[0164]
15C, for example, by moving from (0) to, the degree of match m1 = + 90% from the difference in evaluation values (e0 [0] −near [0]), from (1) to (3) Assume that the degree of match m2 = −10% is obtained from the evaluation value difference (eneutral [0] −efar [0]) by movement. When both are added, it becomes 80%, β ≧ 80% is satisfied, and the comparison result is “JP”.
[0165]
When either one of m1 and m2 exceeds 100%, it is necessary to look at the ratio. Therefore, both switches 1803 and 1810 take the lower route, and the absolute value of m1 or m2 is larger. Both m1 and m2 are normalized (1805, 1812). That is, the larger absolute value of m1 or m2 is set to 100. Thereafter, the adder 1807 takes the sum, and the comparator 1614 performs the comparison operation. Similarly, when this sum is larger than β, the comparison result is “JP”, and when it is less than β, the result is “not JP”.
[0166]
In the case of FIGS. 15A, 15B and 15C, a constant β (for example, 0.8) is experimentally determined so that both m1 and m2 are positive, and if the evaluation value difference in the WOB is greater than or equal to a predetermined value, the determination becomes the JP state. Yes. In the case of FIG. 16D, one of m1 and m2 is positive and the other is negative. When the absolute values of both m1 and m2 are 100% or less, normally (m1 + m2) is canceled and becomes a value close to zero, and therefore becomes less than β, so the determination is “not JP”.
[0167]
However, if the absolute value of both m1 and m2 exceeds 100% and (m1 + m2) is positive, even though | m1 / m2 | is close to 1 (this is a typical small-blurred state) The judgment result may be JP. Therefore, after normalizing with the larger of m1 or m2, misjudgment is prevented by summing and comparing.
[0168]
In the case of FIGS. 13E and 13F, both m1 and m2 are zero or small values, and the determination is “not in the JP state”. The coefficient β is 80%, but at this value, as shown in FIG. 17, the ratio of the evaluation value decrease (b) to the evaluation value increase (a) is recognized as the JP state up to 5: 1. . This value is obtained by experimental adjustment using many subjects.
[0169]
Next, the near determination in the direction determination will be described. The Near determination has a fuzzy filter type synapse configuration shown in FIG. 19A. In general, fuzzy means ambiguous, and the synaptic structure is a junction structure that originally communicates between neurons, but is named because it is similar to this nerve cell junction structure.
[0170]
In this configuration, for each evaluation value ID [i] (i = 0 to 13), the change of evaluation value ID0 [i] accompanying the WOB (efar [i] −near [i]) (1501) is “Near. The degree of coincidence of the likelihood that the evaluation value rises in the direction is obtained (1502), and these results are multiplied by a predetermined weighting factor W [i] for each evaluation value ID [i] (1503). These sums are obtained (1504), and then compared with “coefficient α × total weight” (α × ΣW [i]) (1505) to determine near or not. Please refer to the detailed diagram of FIG. 18 for the extended match degree calculation. This process is equivalent to obtaining a “probability that the evaluation value increases in the Near direction” from each evaluation value and performing a weighted majority decision.
[0171]
The Near determination is executed in Step S1211 of the first stage determination and Step S1216 of the second stage determination. In both cases, the evaluation weight of the first stage determination is
W [] = {10,0,0,0,0,0,0,0,0,0,0,0,0,0}
On the other hand, the evaluation weight of the second stage determination is
W [] = {5,10,20,20,0,0,10,0,0,5,10,5,0,0}
It is different in that.
[0172]
Next, the Far determination in the direction determination will be described. As illustrated in FIG. 19B, the Far determination is performed in the same manner as the Near determination except that (eneutral [i] −efar [i]) is used to change the evaluation value ID [i].
[0173]
In step S1007, “JP determination” is performed based on the data obtained by the WOB operation. If it is determined as JP in the first stage determination of the WOB operation, the AF operation is terminated without moving the focus lens thereafter.
[0174]
Otherwise, go to the mountain climbing stage. The first lens moving direction is determined by WOB (S1006). However, if it is determined to be Near or Far, the process proceeds to the hill climbing parameter initialization (S1008) in order to proceed to the hill climbing stage as “normal mode” (mode in which JP is relatively close) at the focus position close to JP. When the second stage judgment is made without judging any of JP, Near, or Far, Near or Far is tentatively decided, and “flat mode” in a large blurred state (JP is so far away that the direction cannot be decided) Mode)), the process proceeds to mountain climbing parameter initialization (S1008) in order to proceed to the mountain climbing stage. The difference between “normal mode” and “flat mode” will be described later.
[0175]
3.4 Initialization of hill climbing parameters
In step S1008, each parameter on the program related to mountain climbing is initialized before starting AF mountain climbing. The parameters for initialization are shown below.
[0176]
(1) Boundary value count
When the end is reached, the waiting time count until the reverse command is issued is reset to zero.
(2) Edge arrival flag
Reset the flag indicating that the end has been reached. This flag is used to determine whether both ends have been reached.
(3) Maximum evaluation value
The maximum value of each evaluation value is set to 0. Used for peak selection in insurance mode, which will be described later.
(4) Minimum evaluation value
The minimum value of each evaluation value is set to the evaluation value of the current field. Used for peak selection in insurance mode, which will be described later.
(5) Maximum position of evaluation value
The maximum value position of each evaluation value is set to the lens position of the current field. Used for peak selection in insurance mode, which will be described later.
(6) Maximum acute angle rate
The maximum acute angle ratio of each evaluation value is reset to zero. Used for peak selection in insurance mode, which will be described later.
(7) Maximum sharp angle rate position
The position of the maximum acute angle rate of each evaluation value is set to the lens position of the current field. Used for peak selection in insurance mode, which will be described later.
[0177]
3.5 Maximum / minimum value update processing
In step S1009, when mountain climbing is started, update processing of the maximum value and minimum value of the evaluation value is performed for each field (see FIG. 14). Here, the update processing of the maximum value and the minimum value of the evaluation value means that the maximum value is not updated if the maximum value of the evaluation value in the field is less than the maximum value so far. Similarly, the minimum value of the evaluation value is not updated. If the value exceeds the previous minimum value, the minimum value is not updated.
[0178]
(1) Maximum value max.e [i] of each evaluation value (14 types of ID0 to ID13)
(2) Minimum value of each evaluation value (14 types) min.e [i]
(3) Lens position where each evaluation value (14 types) is the maximum
These values are used for peak selection in the insurance mode described later.
[0179]
3.6 Lens speed setting
In step S1010, the lens speed is set. The lens speed from when the focus lens starts to move until the peak position is detected is controlled. FIG. 20 shows a flow for determining the lens speed.
[0180]
In the AF of the present embodiment, first, the shake determination and mode setting are performed in steps S1001 and 1002, and then the shake determination and mode setting result set in steps S1014 and 1015 for each field corresponds to the presence or absence of the shake. The lens speed during AF is controlled. Further, it is determined by the WOB operation (S1007) whether the normal mode determined by the first step determination or the flat mode performed until the second step determination. Using this result as well, the lens speed is controlled.
[0181]
The presence or absence of shaking of the subject is determined, and if there is shaking, the lens is operated at high speed and the low speed switching is not performed. When there is no shaking, the speed is increased until the peak position is approached, and the speed is switched to a lower speed when the peak position is reached. The lens speed is in two stages, low speed and high speed. This is because an intermediate speed between the high speed and the low speed is not effective for the AF convergence time and is considered a good solution.
[0182]
The low speed is a speed that advances by 2 Fs / field, that is, twice the depth of focus Fs per field. High speed is the slower of 12Fs / field or the maximum speed of the lens. Here, the reason why the maximum speed is limited to 12 Fs / field is that if the speed is further increased, the evaluation value curve will be crushed, and the speed switching judgment from high speed to low speed will not be successful. In addition, if speed switching does not work well, or if it does not work (explained later, speed switching is not performed when shaking), if the speed is faster than this, the overshoot amount after passing the peak will be reduced. This limitation is used for reasons of growth. The values of 2Fs / field and 12Fs / field are experimentally determined values.
[0183]
The lens speed determination flow in FIG. 20 will be described.
In step S2001, the shaking is determined. As a result of shaking determination and shaking mode setting (S1001, S1002) when the lens is stationary at first, and as a result of shaking judgment and shaking mode setting (S1014, S1015) when the lens is operating from the next time, shaking modes 1 and 2 are present. In the case, the process proceeds to step S2002, and in the still mode, the process proceeds to step S2003. Here, since the shake determination and the shake mode setting are performed in advance when the lens is stationary, the lens speed can be set before the AF operation starts.
[0184]
In step S2002 (when there is shaking), the lens is operated at a high speed, and the low speed switching is not performed. The reason is that if the lens shakes, the evaluation value will fluctuate even if the lens is stationary. Therefore, when AF is started, the evaluation value will contribute to (1) the shake and (2) the focus will change by moving the lens. As a result, the contribution of the change in the evaluation value is combined.
[0185]
In AF, since the focus is moved and the peak of the evaluation value is searched, if the contribution due to the shaking of (1) is large, a malfunction such as “the AF converges at the blurred focus position” occurs. In the current AF system configuration that uses an evaluation value calculated from camera image processing and uses the evaluation value, in order to avoid the malfunction, the evaluation is performed by increasing the lens speed and moving the lens in (2) to change the focus. By increasing the contribution of the value change, the contribution due to the shaking of (1) is relatively reduced, and an evaluation value characteristic that does not affect the shaking is obtained.
[0186]
Therefore, in the case of shaking, low speed switching is not performed until the peak position is detected. This is because if the low-speed switching is performed, the above-mentioned contribution increases immediately after the low-speed switching, and the probability of malfunction due to shaking increases. In such a case, since the lens speed is not lowered even if it is close to the just pin, erroneous determination due to the shake can be reduced. As a result, it is possible to reduce an erroneous operation in which AF ends in a blurred state.
[0187]
When there is no shaking, in step S2003, the time is divided by the elapsed time t1 from the start of the operation of the focus lens. If the elapsed time has passed the initial low speed period t1, the process proceeds to step S2004. If the elapsed time is within t1, the process proceeds to step S2005, and the lens is moved by switching to a low speed. The reason why the initial low speed period t1 is provided is to avoid a situation in which the direction is erroneously determined in the WOB operation and the vehicle proceeds at a high speed from the beginning of the operation and goes too far. Here, the initial low speed period t1 is as follows.
[0188]
t1 = 12 field (in flat mode)
= 36 fields (in normal mode)
[0189]
In the flat mode, since the direction could not be determined by the WOB direction determination (Near, Far), it is determined that JP is far at the start of lens operation. However, the fact that t1 is not zero is a consideration for a case in which it was accidentally determined that the event occurred in JP was flat. Even if there is such a misjudgment, if t1 = 12 field is set, even if the lens operation starts from JP, the lens moves at a low speed, so that it does not return to JP after greatly deviating from JP.
[0190]
In the normal mode, since the direction determination result is obtained in WOB, it is determined that the JP position is close at the time of starting the lens operation. In this case, avoiding overshooting the peak and converging to JP at a low speed makes the image look better, so the low speed period is long. Therefore, when the focus is in the vicinity of the JP or in a small blur state, the focus advances to the JP at a low speed, so that smooth focus driving can be obtained. Moreover, the case where the moving speed of the focus is too fast and the peak is excessive is reduced. The above-mentioned values 12 and 36 are numerical values determined experimentally.
[0191]
In step S2005, a low speed switching determination is performed. In the present AF, after starting as described above, except for the initial low speed period, the lens is advanced at high speed to the vicinity of the peak position, and when reaching near the peak position, the low speed is considered to be the best solution. In other words, the lens is moved at a high speed from a large blurring state to near the peak position, and when approaching the peak position, the lens is suddenly decelerated to a low speed so that it converges to the peak position smoothly and not excessively. .
[0192]
Therefore, the timing of switching the lens speed from high speed to low speed becomes a problem. In this AF, the following discriminants (1) and (2) are used to determine whether or not to switch to a low speed. If the formula (3) is satisfied, the speed is switched to a low speed.
[0193]
[Expression 1]
Figure 0003840725
[0194]
[Expression 2]
Figure 0003840725
[0195]
The first term of equation (1) is the ratio (e0 [0] -e0 [2]) of the difference between the two evaluation values ID0 (IIR1-W1-HPeak) and ID2 (IIR4-W1-HPeak) in the current field. ) / (E0 [0] + e0 [2]) multiplied by 4. The second term represents an amount obtained by adding the difference between the two evaluation values and the sum ratio for the past four fields. This expression is an expression for detecting the rising point of the evaluation value ID [0]. The ratio between the difference and the sum (that is, ID [0] normalized by ID [2]) is lower than that of ID [2] having a low cutoff frequency (that is, having high sensitivity). It is an indicator of how close is. Since the ratio is taken, even if the illuminance increases, the value e [i] of each evaluation value is multiplied by a predetermined value, so the ratio between the difference between the evaluation values and the sum is determined independently of the illuminance. Equation (1) represents the difference between the current field index minus the moving average index of the past four fields, that is, whether the current is closer, as can be seen by dividing the whole by four fields. Yes.
[0196]
Expression (2) is defined for noise removal and is the value of rf (1) one field before. The switching timing is determined from the two indices rf (0) and rf (1) according to the predetermined threshold value of the equation (3).
[0197]
[Equation 3]
Figure 0003840725
[0198]
As shown in FIG. 21, when the lens is moved from a blurred position, both rf (0) and rf (1) initially show values larger than zero. When approaching the peak position, rf (0) and rf (1) suddenly show values of 0 or less. This discriminant uses this property to discriminate that the peak position has been approached. This discriminant is obtained by repeating experiments and analyzing data, but various trials and errors are repeated until the discriminant is determined.
[0199]
This discriminant has only chosen the best characteristics of the trial and error, and is not perfect. However, this discriminant works effectively for a subject with a large evaluation value at the peak position, that is, a subject with large details. On the other hand, an object having a small evaluation value ID0 (IIR1-W1-HPeak) at the peak position (for example, several hundreds or less) may not satisfy the above discriminant even when the object is close to the peak position. However, there is a salvation that the peak position with less detail is not noticeable even if the peak position is too large. Therefore, with regard to the determination of the threshold value, it is determined as a first target that the braking from the high speed to the low speed is successfully performed on a subject with large details.
[0200]
In AF, detection of false mountains is one point. Therefore, in this AF, paying attention to the characteristics of the evaluation value such as the occurrence of false mountains due to the high-luminance edge around the evaluation frame and the fact that the saturated luminance number ID8 is high due to the high-luminance edge, False mountains are detected by mountain determination (S1011) and saturation luminance determination (S1012), and frame size change processing (S1013) is performed.
[0201]
3.7 False mountain determination
In step S1011, false mountain determination is performed. In this AF, a false mountain determination method devised independently is performed, and the malfunction of the AF caused by the occurrence of the false mountain is reduced.
[0202]
First, the false mountain will be explained. The false mountain is defined as a phenomenon in which the evaluation value decreases when the focus approaches the peak position with respect to the subject in the AF frame.
[0203]
FIG. 22C represents an evaluation value curve with the vertical axis representing the evaluation value and the horizontal axis representing the lens position (focus). AF operates in the direction (2) → (1) in which the evaluation value increases (mountain climbing) to find a JP. However, in reality, the evaluation value curve may exhibit characteristics as shown in the figure. Such an increase in evaluation value unrelated to JP is referred to as a false mountain. In this case, since the AF advances the focus in the direction in which the evaluation value increases, sometimes the lens moves in the direction of (2) → (3) in the direction opposite to JP and stops at a position that is largely blurred. End up. Thus, when a false mountain occurs, it causes a malfunction (hereinafter referred to as “false mountain trap”) in which the AF converges at a blurred position or the focus advances in the blurred direction. The existence of false mountains makes it difficult to develop AF functions.
[0204]
In the false mountain generation mechanism, when the luminance is saturated, a limited line becomes saturated luminance in the JP state, and the energy is wasted. When this is blurred, this wasted energy spreads and effectively affects the surrounding lines, resulting in a luminance state of a certain level or higher. This is due to the characteristics of the CCD that saturates very high portions in terms of energy. This is because a phenomenon in which luminance increases as the blurring phenomenon proceeds.
[0205]
The occurrence state of the false mountain screen will be described with reference to FIG. As shown in FIG. 22A, a scene is assumed in which there is a target subject (target) 2201 in the AF frame (evaluation frame 1), and a high-luminance edge 2202 with greater detail than the subject outside the evaluation frame. Assuming that both the target 2201 and the high-luminance edge 2202 are at the same distance, when the focus is JP with respect to the target 2201, the JP is also obtained for the high-luminance edge.
[0206]
FIG. 22A shows the JP state. FIG. 22B shows how the focus is shifted from this JP state. The subject gradually swells as the blur progresses. Similarly, the edge of the high-intensity difference swells like ripples from (1) to (2), and from (2) to (3) so that the ripples spread. Intrusions (actually, there are corresponding points of (2) and (3) on the opposite side centering on (1), and (1) is inflated to cancel, but the opposite side is not related to the evaluation frame, so it is omitted is doing.). FIG. 22C shows a change in the evaluation value at that time.
[0207]
22B and 22C show the JP state. When the focus is moved from this JP state, both the target 2201 and the edge 2202 are blurred and the boundary with the surroundings disappears, and the ripples spread and become larger. The evaluation value decreases from 1 to a certain blur state (range (1) to (2) in FIG. 22C). Then, the ripple of the high brightness edge 2202 spreads and falls within the evaluation frame (state (2) in FIG. 22B). When the focus is further moved, the ripple of the high brightness edge starts to enter the evaluation frame (state (3) in FIG. 22B).
[0208]
Since the detail of the high-luminance edge 2202 is larger than that of the target 2201, the ripple of the high-luminance edge 2202 contributes more to the evaluation value than the subject 2201 for the part of the line where the high-luminance edge is in the frame. As edge penetration progresses, the penetration range in the V direction also increases and the evaluation value increases (range (2) → (3) in FIG. 22C). That is, a range in which the evaluation value increases as the focus progresses is generated. {Circle over (3)} is a ripple (shadow) of the high-luminance edge, not the high-luminance edge itself, and even if the lens is moved in the direction of a high evaluation value, the focus cannot be achieved.
[0209]
Next, a false mountain determination method and a false mountain trap avoidance method that are numerically performed in the AF of this embodiment will be described. The false mountain determination is performed by monitoring the ratio ID0 / ID1 between the evaluation value ID0 (IIR1-W1-HPeak) and the evaluation value ID1 (IIR1-W2-HPeak) and using this ratio.
[0210]
The determination of the occurrence of false mountains is that when the mountain climbing starts and the ratio ID0 / ID1 is 1.6 or more and it continues for 10 fields, a false mountain has occurred.
ej [0] / ej [1] ≧ 1.6 (j = 1 to 10)
[0211]
As shown in FIG. 23A, the evaluation value ID0 (IIR1-W1-HPeak) and the evaluation value ID1 (IIR1-W2-HPeak) are slightly wider in the H direction in the ID0 evaluation frame W1 than in the ID1 evaluation frame W2. Just the other characteristics are the same. If only the details of the central portion in the H direction of the evaluation frame W1 (that is, the overlapping portion of the evaluation frames W1 and W2) contribute to the evaluation value ID0, the evaluation value ID0 and the evaluation value ID1 have the same value. . Actually, in a normal scene and subject in which no false mountain is generated, substantially the same value is shown from large blur to JP as shown in FIG. 23B. On the contrary, when the evaluation value ID0 and the evaluation value ID1 are different and the evaluation value ID0 ≧ the evaluation value ID1, the portion contributing to the evaluation value ID0 is in the H direction peripheral portion (the difference between the evaluation frames W2 and W1). It means that. This false mountain determination method is called a “double frame method” because two evaluation frames having slightly different sizes of the frame size W1 (evaluation value ID0) and the frame size W2 (evaluation value ID1) are used.
[0212]
For example, if the ratio of evaluation value ID0 ≧ evaluation value ID1 becomes a certain value or more when the camera is moved, it is very likely that a false mountain has occurred. When the ratio ID0 / ID1 greatly exceeds 1, the maximum detail in the evaluation frame W1 is concentrated at the right end or the left end of the evaluation frame W1 as shown in FIG. 22B. This example is a state in which the high-luminance edge 2202 described above is positioned at the end of the evaluation frame W1. In this false mountain determination method, it is determined that the occurrence of false mountains occurs when the maximum detail in the frame is concentrated at the end of the evaluation frame W1.
[0213]
Here, the reason that “mountain climbing has started and 10 fields are continuous” is as follows. In the case of shaking, even in a scene where a false mountain does not occur, when the edge of the subject passes through the end of the evaluation frame W2, the ratio changes greatly and may exceed 1.6. It is also for removing intermittent things such as neon light besides being caused by shaking. For scenes with false mountains, the ratio of 1.6 is greatly exceeded over a long field. As described above, if a predetermined ratio is exceeded over a plurality of predetermined fields, it is determined that a false mountain has occurred.
[0214]
Next, a method for avoiding false mountain traps when it is determined that a false mountain has occurred will be described. If it is determined that a false mountain has occurred, the process proceeds to a frame size change in step S1013.
[0215]
In step S1013, a frame size change process is performed. That is, the movement of the focus is temporarily stopped, and the evaluation frames W1 and evaluation frames W2 of the evaluation values ID0 and ID1 are enlarged and changed from these basic sizes to the evaluation frames W3 and W4, respectively. This is due to the operation of making the evaluation values ID0 and ID1 the same as the evaluation values ID9 and ID10 in the AF CPU (reference numeral 203 in FIG. 2). The evaluation values ID0 and ID1 themselves are not replaced with the evaluation values ID9 and ID10, respectively. The evaluation value ID0 is a basic evaluation value and is used after that, so the frame size is changed with the evaluation value ID0. I am going to do that. Thereafter, WOB (S1005 to 1007) and mountain climbing (S1008 to 1021) are started, and false mountain determination is performed again in the evaluation frame of the enlarged size. In the description of the evaluation frame, the evaluation frame W2 that is slightly narrower in the horizontal direction than the evaluation frame W1 and the evaluation frame W4 that is slightly narrower in the horizontal direction than the evaluation frame W3 are prepared. Because.
[0216]
If the false mountains are already determined when the IDO and ID1 evaluation frames W1 and W2 have been changed to the evaluation frames W3 and W4, respectively, the evaluation frame W3 of the evaluation value ID0 is determined. Only the evaluation frame W5 (maximum frame size) is enlarged and changed (similarly, the evaluation value ID0 is made the same as the evaluation value ID11 in the CPU). By enlarging the evaluation frame size, the high brightness edge around the frame is moved to a position near the center of the frame. Even if an edge with high brightness is positioned near the center of the frame, the edge is not a ripple (virtual image) of the edge but is a real image, and the evaluation value increases in a direction approaching JP so that the edge is focused. .
[0217]
As shown in FIG. 23A, in this “double evaluation frame method”, two evaluation values ID0 (evaluation frame W1) and ID1 (evaluation frame W2) in which the frame size is changed in the horizontal direction are compared. In the vertical direction, the frame size remains constant, and comparison is not performed by changing the size. As shown in FIG. 23C, when the vertical edge 2301 extending in the vertical direction enters from the right side or the left side, many lines are affected at the same time, which greatly affects the evaluation value of the H peak method. On the other hand, even if the horizontal edge 2302 enters from above or below as shown in FIG. 23D, only a limited number of intruded lines are affected. From the above, the influence of disturbance entering in the vertical direction is considered to be relatively small compared with that in the horizontal direction and ignored.
[0218]
3.8 Saturation luminance judgment
In step S1012, saturation luminance determination is performed. For normal subjects, the evaluation value decreases when the focus is blurred. However, as described above, the evaluation value may increase as the blur phenomenon progresses in a subject having saturation luminance. In order to solve this, there is a method of moving the focus in the direction of decreasing the saturation luminance number when the saturation luminance number is a predetermined number or more. However, since a saturated subject is saturated, the brightness does not become dull even if it is slightly blurred, and the ripple spreads. On the other hand, if the subject is blurred, the subject will become blurred and its silhouette will expand. As described above, since the saturated luminance number generally has a bimodal characteristic as shown in FIG. 30B, such a method is not effective.
[0219]
Accordingly, in the saturation luminance determination, the presence / absence of a subject having saturation luminance is determined using the saturation luminance number ID8 (Y-W1-Satul) in the evaluation frame W1. This is to prevent false mountains when a pixel with saturated luminance is present in the evaluation frame, which causes false mountains traps. If the number of saturated luminances exceeds a threshold value (for example, 600) over a predetermined period (for example, five consecutive fields), it is determined that a false mountain has occurred, and the process proceeds to step S1013, and the evaluation frame W1 is used in each evaluation value. Is enlarged to the frame size W5. The reason for the five continuous fields is to avoid frame size changes due to shaking or instantaneous noise.
[0220]
With reference to FIG. 24, a mechanism for generating false mountains when saturated luminance pixels are within the evaluation frame will be described. A region A of the target subject (target) 2401 shows the shape of the target having saturation luminance when the focus is JP. When the focus is lost, the target starts to blur, and the edge position of the target swells away from the center so that ripples spread from the center of the target. Even if a subject with saturation brightness is blurred, the original brightness is high, so the ripples are greatly spread compared to a subject without saturation brightness (the sharpness of the edge does not fade even if the subject becomes large). Region B is in a state where the ripples of the target have spread until they overlap the evaluation frame 2302, and region C shows a state in which the ripples of the target have spread and have reached the evaluation frame 2302.
[0221]
In the state of the region D, since the ripples of the target are spread, the ratio (ID0 / ID1) between the evaluation values of the evaluation frame W1 and the evaluation frame W2 is not so large and does not exceed 1.6. In this case, the false mountain trap is caused because the false mountain cannot be determined by the false mountain determination even though the false mountain described above has occurred.
[0222]
FIG. 24B shows a state in which it is determined that there is saturated luminance from the result of the saturated luminance determination, and the size of the evaluation frame W1 is expanded to the evaluation frame W5. In this case, since the saturated luminance subject 2401 itself is entirely contained within the frame, the occurrence of false mountains can be suppressed. For false mountains, the problem is that only the ripples of the target are within the evaluation frame.
[0223]
The occurrence of false mountains is suppressed by the false mountain determination (S1011) and saturation luminance determination (S1012).
[0224]
3.9 Judgment (during lens operation)
In step S1014, shake determination during lens operation is performed. In the first shake determination (S1001) when the lens is stationary, the evaluation value fluctuates little even if the lens is shaken in a largely blurred state, and the normalized difference value results in a determination result of “no shake”. In this shake determination, when the lens approaches the movement JP and the evaluation value rises so that the shake can be determined, it is determined again whether or not it is shaken. Here, only the luminance addition value is used, and if the maximum normalized difference value for six fields of the evaluation value ID7 (luminance addition value) exceeds 2%, it is determined that there is shaking (swing mode 1).
[0225]
ndiff e [7] ≦ 2% → still mode
ndiff e [7]> 2% → Shaking mode 1
[0226]
The reason why the normalized difference for 6 fields is used is to remove intermittent things such as neon light. Since the definition of the normalized difference has already been described in the shake determination (when the lens is stationary), it is omitted here. In the shaking mode, the low speed switching is not performed in the lens speed determination (S1010) in the next hill climbing loop, and the high speed is maintained. If it is determined that there is “shake” in this determination, the process proceeds to the shake mode setting in step S1015, and then proceeds to direction determination (S1016). If it is determined that “no shaking”, the process proceeds directly to the direction determination (S1016). The shaking mode setting in step S1015 is the same as the shaking mode setting in step S1002, and a description thereof will be omitted.
[0227]
3.10 Direction determination (hill climbing)
In step S1016, direction determination in mountain climbing is performed. In the hill climbing stage, direction determination is performed once per field. In this direction determination, it is determined whether the evaluation value is rising, falling, or in a flat state (Up, Down, Flat) by increasing or decreasing each evaluation value, and the determination result is stored in the memory. In the direction determination, two determination calculations are performed: (1) individual determination and (2) comprehensive determination. As for the relationship between the two, a weighted majority decision of individual determination is a comprehensive determination.
[0228]
(1) Individual determination is a determination result for each evaluation value ID. FIG. 25 shows the calculation method. Here, e0 [i] represents an evaluation value in the current field, and efs [i] represents an evaluation value before one movement unit (focus depth Fs). i is an evaluation value ID #. The predetermined reference value αfe is set to 0.5 in this embodiment.
[0229]
With respect to one movement unit, when the depth of focus is deep, the focal depth may not be exceeded. Therefore, when the depth of focus is exceeded, the movement is regarded as one movement unit and direction determination is performed. In addition, the focus lens moves at a speed of at least 2Fs / field as described in the lens speed setting, so it usually exceeds the unit of movement per field, but it often does not move by one movement unit at the beginning of lens movement. There is. In such a case, the direction is not determined until the movement unit is exceeded. This is because it is meaningless to determine the direction even though the lens has not moved by a predetermined amount.
[0230]
As shown in FIG. 25, in the UP determination of the individual determination, in the degree-of-match calculation 2502, e0 [i] -efs [i] is zero until the first threshold th1 [i], and is equal to or greater than the second threshold th2 [i]. In this case, 100% is set, and a proportional relationship is set between them. The comparison circuit 2503 compares this value with a reference value αfe (for example, 50%), and determines that the output is 1 (Up) if the former is large and 0 (Not Up) if the latter is large. Similarly, in DOWN determination, determination is made by efs [i] -e0 [i]. When it is neither Up nor Down, it is Flat. The UP determination individual determination results (Up, Down, Flat) are stored in the memory (see FIG. 14), and are used in the CHECK DOWN determination of the reverse transmission determination (S1017) and the mountain down determination (S1022) described later.
[0231]
{Circle around (2)} The overall determination is configured to perform fuzzy determination from a plurality of evaluation values as shown in the configuration of FIG. The configuration and processing method of FIG. 26 have the same synapse configuration as the Near determination and Far determination described in WOB, but the threshold values th1 [i] and th2 [i] are different. This is a process of weighted majority of individual determination results of a plurality of evaluation values. However, at the present time, the weight of the evaluation value is
W [] = {10,0,0,0,0,0,0,0,0,0,0,0,0,0}
Only the evaluation value ID0 contributes to the determination, which is the same result as the individual determination result of the evaluation value ID0. At the present time, since there is only one input, it is meaningless as fuzzy processing, but this configuration is left as it is for future technological development.
[0232]
As shown in FIG. 27A, when the continuous determination is continued twice in the comprehensive determination, the mode is changed from “flat mode” meaning large blur to “normal mode” meaning climbing a mountain and approaching JP.
[0233]
The difference in handling between the flat mode and the normal mode is that the JP is not found in the flat mode in the downhill determination (S1022) described later. This is to avoid erroneously determining the evaluation value peak as a result of noise being detected in the evaluation value in a large blurred state where the mountain has not yet started to climb the mountain. On the other hand, in the normal mode, JP is found only when Down is detected after Up.
[0234]
In the individual determination, when each evaluation value itself is equal to or less than EVAL TH [i] × γ [i] (threshold value × luminance addition correction coefficient), the flat mode is forcibly set. This is because it is necessary to set the lens so that it does not easily react with the steady noise of the evaluation value caused by the optical noise of the lens, the screen shake caused by minute vibrations, and the like. Further, as described below, the luminance addition correction coefficient γ [i] is used as a variable. When the evaluation value is low, there are many cases where the direction determination is erroneous due to stationary noise, and the luminance is high. In the scene where ID7 (luminance addition value) is high, the entire evaluation value curve rises, and the absolute value of the steady noise level also rises and leads to an Up or Down determination result. Therefore, this threshold value corresponds to the luminance addition value. It is based on an empirical rule obtained through experiments that it is necessary to increase the height. Therefore, EVAL TH [i] × γ [i] (threshold value × luminance addition correction coefficient) is determined as follows.
[0235]
here,
Figure 0003840725
[0236]
When the noise level is determined in this way, the threshold value is corrected corresponding to the luminance addition value to increase the level, so that the evaluation value varies greatly with the focus out of focus even when the illumination illuminating the subject becomes brighter. It is possible to reduce the malfunction of the AF operation caused by doing so.
[0237]
3.11 Reverse determination
In step S1017, reverse feed determination is performed. If Near or Far can be determined in the first direction determination in WOB, the focus lens can start moving toward JP. However, in the case of the Flat mode that has advanced to the second stage direction determination in WOB, the direction in which movement starts is tentatively determined according to the criteria described in the second stage determination. In this case, the moving direction is wrong and the probability of moving away from the JP is not low.
[0238]
Furthermore, the hill climbing stage is not always directed toward the just pin, but may move in a direction away from it. The reason is
(1) If the evaluation value is low because the subject is blurred or the detail of the subject is low, and the direction in which the evaluation value increases is unknown, the focus is set to either the Far direction or the Near direction, and the evaluation value changes. I have no choice but to wait.
{Circle around (2)} When a false mountain occurs in the evaluation value, if the focus is advanced so that the evaluation value increases, as a result, the evaluation pin moves away from the just pin.
In general, in an evaluation value obtained by extracting a high-frequency component with an HPF having a high cut-off frequency, reverse running due to (1) is likely to occur. On the other hand, in the evaluation value obtained by extracting high-frequency components with an HPF having a low cut-off frequency, the cause of (1) is reduced, but reverse running due to (2) is likely to occur.
[0239]
Therefore, in this reverse feed determination, if the decrease in the predetermined evaluation value exceeds a predetermined reference after the lens starts moving, it is determined that the lens is moving in the reverse direction away from the JP. The criterion for the reverse feed determination is determined to be reverse running away from the JP when all of the following (1) to (6) are established after the lens starts moving.
Figure 0003840725
[0240]
Here, if it is determined that the reverse feeding is performed, the process proceeds to step S1018, and the reverse feeding process is performed in order to reverse the moving direction of the lens. If it is determined that it is not reverse feeding, the process proceeds to step S1019, and edge arrival determination is performed.
[0241]
Each criterion will be described.
(1) is to prevent an infinite loop of reverse reverse feed as shown in FIG. 27B. Assume that the evaluation value ID3 (IIR4-W3-HPeak) has a false mountain as shown in FIG. 27B. Assume that the AF hill-climbing start focus position is A, and the focus starts moving toward Far. Assume that evaluation value ID0 (IIR1-W1-HPeak) hardly changes, but evaluation value ID3 decreases at position B and exceeds the criteria for reverse determination. Then, the focus reverses the moving direction and returns to the position A. When the position A is exceeded, the evaluation value ID3 starts to decrease, and the position C exceeds the criterion for reverse feed determination. If the moving direction of the lens is reversed here, the lens goes back and forth between positions B and C indefinitely. In order to avoid this infinite loop, the condition {circle around (1)} is added to restrict reverse inversion to one time.
[0242]
(2) is conditional on ID3 / ID2 being smaller than a predetermined value. The ratio of ID3 (IIR4-W3-HPeak) and ID2 (IIR4-W1-HPeak) has the same IIR4 HPF, and the false mountain determination is made by comparing the evaluation value ID2 of the frame W1 with the evaluation value ID3 of W3. To do. From the data analysis of the experiment, it was found that if this ratio exceeds a predetermined value (for example, 8), there is a high-luminance edge around the frame 1 and false evaluation occurs frequently in the evaluation value, resulting in erroneous reverse determination. Therefore, this condition is provided.
[0243]
In (3), since it is highly probable that the reverse determination will be wrong if the screen is bright, a condition that the luminance addition value ID7 is a predetermined value (for example, 1100) or less is provided.
[0244]
(4) is a condition for changing the luminance added value of the frame W3. If the change in ID12 (IIR4-W5-HPeak) is large, the cause of the change in ID3 (IIR4-W3-HPeak) in (6) is due to shaking or the possibility of disturbance intrusion is high. In this case, it is because it will lead to a misjudgment if it determines with reverse running by ID3.
[0245]
(5) This condition is added because reverse transmission is unlikely to occur in normal mode. The flat mode is determined by WOB (S1006) and direction determination (S1016).
[0246]
{Circle around (6)} This reverse feed determination is substantially performed using ID3. Since ID3 (IIR4-W3-HPeak) has high sensitivity, a significant increase / decrease in the evaluation value can be obtained if it is somewhat blurred. However, since false mountains are likely to occur, if the determination is made by believing as it is, an incorrect reverse determination is made. Therefore, the erroneous determination is prevented by adding the additional conditions (1) to (5).
[0247]
3.12 Reverse feed processing
In step S1018, reverse feed processing, that is, reverse processing is performed. This is to reverse the moving direction of the lens when it is determined in the reverse feed determination (S1017). At this time, each variable to be initialized at the time of starting mountain climbing such as the starting point position, the starting evaluation value, the maximum value of the evaluation value, the maximum value position, etc. is initialized again (see FIG. 14). When reverse feeding is reversed, the same state as when starting a hill climbing is newly made from that position.
[0248]
The difference is that a flag indicating that reverse feed reverse has been performed once is set. In other words, when reverse feed reversal is performed while the focus is moving toward the Far end, the “Far end arrival flag” is set, and when reverse reversal is performed while traveling toward the Near end, “ “Near end arrival flag” is set. These two edge arrival flags will be described in the next edge arrival determination (S1019).
[0249]
3.13 Edge arrival judgment
In step S1019, end arrival determination is performed. The search for the evaluation value peak is continued without changing the direction in which the focus advances until the AF mountain climbing finds a significant evaluation value peak, or the direction can be reversed by reverse running determination, or until the search is stopped. However, the lens has a physical near end and a far end, and it is not possible to skip over these ends, so processing when the end is reached is required.
[0250]
When the end is reached, if it is the first end, the entire area has not yet been searched, so the direction in which the focus advances is reversed and the search is continued. In this case, initialization of the hill-climbing parameter and change processing of the parameter indicating the direction are performed in “end inversion processing” (S1021) described below.
[0251]
If the focus has already searched the entire area from the Near end to the Far end, all the areas to be searched are searched. In this case, even if JP cannot be detected, further search is meaningless, and AF convergence must be performed somewhere within the searched range. This convergence operation is called “insurance mode”. There are the following problems in the whole area search. For example, when the scene to be photographed is dark, a significant evaluation value peak may be difficult to appear. In this case, AF is converged in the insurance mode after searching the determined range. However, if the range is the entire area from the Near end to the Far end, the entire area is searched every time, and it takes time to converge. It takes too much.
[0252]
Therefore, a provisional near end is provided between the physical near end and the far end (these are called “true near end” and “true far end”) in order to shorten the search time. . That is, when the focus is searched from the provisional Near end to the Far end, it is once determined whether or not JP exists within the range. Since it is determined in the middle without searching the entire area, it is referred to as intermediate determination, the temporary Near end position is referred to as “intermediate determination position”, and the determination method here is referred to as “intermediate determination method”. The midway determination position is set at the approximate center between the true near end and the true far end. If JP exists, AF convergence can be achieved in a relatively short time compared to the case where the entire area search is performed.
[0253]
In the midway determination method, it is determined whether or not JP exists using an acute angle rate (described later) that can detect a local peak (maximum value). As shown in FIG. 28A, the lens is moved from the lens movement start position, a flag is set at the temporary near end, and then a flag is set at the true far end. And determine whether a JP exists using the acute angle rate. If it is determined that JP exists, the focus is moved to that position. In this way, an intermediate determination position is provided between the Far end and the Near end, and when the focus reaches that position, it is determined whether or not JP exists in the course of the focus so far. Thus, it is determined whether or not the subsequent search is continued. By adopting such mid-term judgment, it is possible to converge a large number of subjects such as low-detail subjects and dark subjects that have been focused on the JP after performing the whole area search without performing the whole area search. Become. As a result, the average focusing time of AF can be shortened. Note that the midway determination position is not limited to one. A plurality can be provided as desired.
[0254]
If it is determined in the middle that JP does not exist, it is reversed (in edge reversal processing S1021) as shown in FIG. 28B, and the search is continued until the true near end. If the focus is advanced to the true near end, it means that the entire area has been searched, and the position where the focus is converged must be determined.
[0255]
FIG. 29 shows a processing flow of the edge arrival determination. The flow will be described below. In step S2901, it is determined whether the current position of the lens has reached the end. If the end has not been reached, the process proceeds to hill descent determination (S1022 in FIG. 10), and if the end has been reached, the process proceeds to the next.
In step S2902, an end reaching flag is set. That is, if the focus position is the Far end, the Far end arrival flag is set. If the focus position is closer to the Near end than the predetermined midway determination position, the Near end arrival flag is set.
In step S 2903, it is determined whether both ends of Far and Near have already been passed. If only one of the two end arrival flags is set, it is considered that one end has been reached, the lens is stopped, and the process proceeds to the end inversion process (S1021 in FIG. 10). If the Far and Near end reach flags are set, proceed to the next.
[0256]
In step S2904, it is determined whether the current focus position has already reached the true near end. When the true near end has been reached (Q point in FIG. 28B), the process proceeds to the peak position selection process (S1020 in FIG. 10), and the peak position is selected according to the rules of the process. If the true Near end has not yet been reached (point P in FIG. 28A), the process proceeds to the next.
In step S2905, it is determined whether a significant peak exists within the searched range. If there is a peak, the process proceeds to peak position selection processing (S1020 in FIG. 10). If not, go to the next.
In step S2906, for the convenience of processing, the true near end is substituted into the next midway determination position, the midway determination there is eliminated, the near end arrival flag is reset, and the search operation is continued.
In step S2907, it is determined whether or not the current position is the Far end. If the current position is the Far end, the process proceeds to the end inversion process (S1021 in FIG. 10). If it is not the Far end, the process proceeds to the hill descending determination (S1022). If it is an intermediate determination position, the traveling direction is left as it is.
[0257]
3.14 Judgment method
An intermediate determination method for determining whether or not JP exists within the range when searching for a temporary near end to far end is performed using the “acute angle ratio”. The acute angle rate will be described below.
[0258]
In particular, in a dark scene, when an edge with high brightness from the periphery of the evaluation frame intrudes and a false mountain occurs, the evaluation value curve for the focus may not be a single peak that is the maximum in JP. . An example is shown in FIG. FIG. 30 is an evaluation value curve in which time is plotted on the horizontal axis and evaluation values are plotted on the vertical axis. Since the focus moves the lens at a constant speed, the time on the horizontal axis can be regarded as the focus position. The acute angle rate is an index of how much the sharpness is sharp in the short field (maximum value), and JP can also be found in an evaluation value curve including a false mountain as shown in FIG. 30A.
[0259]
The acute angle ratio is the current evaluation value e0 [i], the evaluation value e3 [i] three fields before, and the evaluation value e6 six fields before, for all evaluation values ID [i], (i = 1 to 13). Calculated using [i] and expressed by equation (4).
[0260]
[Expression 4]
Figure 0003840725
[0261]
The concept of the acute angle ratio is, as shown in FIG. 30A, a ratio between the difference between e3 [i] and e6 [i] and e3 [i] (e3 [i] -e6 [i]) / e3 [i]. However, since it may increase monotonically beyond e3 [i], both sides are taken and {(e3 [i] -e6 [i]) / e3 [i]} × {(e3 [i] -e0 [i ]) / E3 [i]}. If both (e3 [i] -e0 [i]) and (e3 [i] -e6 [i]) take negative values, a positive value is obtained as the acute angle rate. If i] -e0 [i]) <0 or (e3 [i] -e6 [i]) <0, the acute angle rate is zero.
[0262]
Here, the difference from the actually used equation (4) is to prevent the denominator +1 from becoming infinite when e3 [i] is zero (zero divide prevention).
[0263]
The calculation of the acute angle rate is performed every field, and the maximum value update of the acute angle rate and the lens position update of the maximum value are also performed every field (see FIG. 14B). Then, in the above judgment, the maximum acute angle rate of each evaluation value recorded so far is examined. If there is a maximum acute angle rate exceeding a threshold value (for example, 20), JP exists within the searched range. As a result, the process proceeds to a peak position selection process in step S1020. If none of the acute angle rate maximum values exceeds 20, it is determined that JP does not exist.
[0264]
The method of adopting the idea of the acute angle rate in each field and considering that the peak is found when a predetermined value is exceeded is also used in the check-down method for hill-descent determination described later. However, the threshold is different between the acute angle rate used in the determination on the way and the checkdown method, and the threshold is higher in the checkdown method. This is because the acute angle rate over the search area is used in the middle judgment, but the check-down method basically handles only information of several fields (up to 10 fields), so that the result of the presence of JP against noise is obtained. This is to prevent them from being released.
[0265]
3.15 Edge reversal processing
In step S1021, end reversal processing is performed. The edge inversion process performs the following process.
(1) Reverse the direction of focus movement.
(2) Mountain climbing parameters are initialized. However, the edge arrival flag is not reset.
[0266]
The initialization of hill-climbing parameters is the same as “Initialization of hill-climbing parameters” that is performed immediately before entering the hill-climbing loop. However, if the flag that reaches one end is reset, end inversion is repeated infinitely, so the end is reached. Leave only the flags set.
[0267]
3.16 Peak selection
In step S1020, peak selection processing is performed. That is, when the peak cannot be detected in the hill-down determination and both ends of Far and Near have been reached, or when it is determined that there is a peak in the midway determination, a position for converging the focus within the searched range is selected. .
[0268]
In the peak selection, the maximum acute angle ratio is selected from the maximum acute angle ratio values of the respective evaluation values, and if it exceeds a predetermined value, the focus position corresponding to the maximum acute angle ratio is determined as the peak position. If not, as a next best measure, the difference between the maximum value and the minimum value and the ratio between the maximum value and the minimum value are obtained with respect to a specific evaluation value. The position is determined as the peak position.
[0269]
FIG. 31 shows a flow for peak selection.
In step S3101, the maximum acute angle ratio and the corresponding lens position are selected from the maximum acute angle ratio values for each of the evaluation values IDO to ID13.
If the selected maximum acute angle ratio exceeds a predetermined value (for example, 20) in step S3102, the process proceeds to step S3103. If it is less than or equal to the predetermined value, the process proceeds to step S3104.
In step S3103, the lens position corresponding to the maximum acute angle rate is determined as the peak position.
[0270]
In step S3104, the maximum acute angle rate is equal to or less than a predetermined value. In this case, JP cannot be determined with the acute angle rate. Therefore, as a last means, a portion where the maximum and minimum difference between the evaluation values is maximum is determined as JP. That is, the evaluation values ID0, ID6, ID4, ID9, and ID11 are evaluated in this priority order.
(1) The difference between the maximum value and the minimum value is a predetermined amount or more, and
(2) The ratio between the maximum and minimum values is more than a predetermined amount.
In order to check whether the conditions are satisfied. If there is an evaluation value that satisfies these conditions (1) and (2), the subsequent search is stopped, and the lens position corresponding to the maximum value of the satisfied evaluation value is determined as the peak position. This peak position is stored in the memory. If there is still no evaluation value satisfying (1) and (2), the lens position corresponding to the maximum value of the evaluation value ID11 whose frame size is the maximum frame W5 is peaked as the last means.
[0271]
3.17 Downhill judgment (peak detection)
In step S1022, downhill determination is performed. Since the image processing AF can detect the JP only after passing the evaluation value peak, the downhill determination means the evaluation value peak detection determination. Therefore, the detection method of hill-descent, that is, evaluation value decrease is very important. In downhill determination, peak detection determination is performed by two methods: (1) difference determination and (2) checkdown determination.
[0272]
The difference between the difference determination and the checkdown determination is that the former monitors the difference between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when the difference exceeds a certain threshold. On the other hand, in the latter case, it is assumed that the former monitors the ratio between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when this ratio exceeds a certain threshold value. In the difference determination, there is a case where a subject with a low contrast and therefore a low evaluation value even in the JP has a small change in the evaluation value, and the JP cannot be detected. The check-down determination has a drawback that peak detection is delayed in a subject having a high contrast and therefore a high evaluation value even in JP, and as a result, overrun that frequently goes beyond the peak occurs frequently. This AF peak detection uses both difference judgment (difference) and check-down judgment (ratio) to detect a peak without an excessive increase with respect to a subject having a higher contrast by the former, and a subject having a lower contrast by the latter. Is also characterized by the sensitivity of peak detection.
[0273]
In the difference determination, as described below, hill-descent is determined by a decrease in the evaluation value of one field or two fields, so that the amount of excessive peaks is smaller than that in the check-down method described below. However, as a practical problem, there is a case where the direction determination result does not become Down twice consecutively for a subject whose evaluation value is low even in JP (for example, ID0 is 500 or less). A check-down method is prepared for the purpose of performing JP detection on such a subject with a low evaluation value. First, a difference determination is performed, and if a peak cannot be detected, a check-down determination is performed.
[0274]
(1) Judgment of difference
The difference determination is a basic determination method in the peak detection of the AF. If the individual determination result of the evaluation values ID0 and ID1 in the direction determination (S1016) continues for the threshold value “upng th” (field) Down, it is determined that the peak is detected, and the process proceeds to step S1023 to calculate the peak position. This threshold value “upng th” is changed according to the depth of focus. That is, when the depth of focus is long, one down is set, and when the depth of focus is small, a false mountain trap according to the rule of two consecutive downs according to the rule of thumb that a small false mountain is likely to occur in the evaluation value curve. Is preventing.
[0275]
Figure 0003840725
Here, “the depth of focus is short”: when the focus amount recommended for one field at the maximum lens speed is larger than the depth of focus.
“Long depth of focus”: When the amount of focus to be advanced in one field at the maximum lens speed is smaller than the depth of focus.
[0276]
However, the normalized difference value (50 × | e0 [7] −e2 [7] | / e0 [7]) of ID7 (luminance addition value) described above is a predetermined value (for example, 10%) when a peak is detected. If it exceeds, the difference detection result of the peak detection determination is invalidated (resets the down count value in the memory) as shaking or disturbance intrusion in order to prevent a stop due to a malfunction due to shaking.
[0277]
50 × | e0 [7] −e2 [7] | / e0 [7]) ≧ 10% → Invalid difference judgment result
[0278]
As a result, it is possible to reduce erroneous determination of peak detection caused by subject shake or disturbance. As a result, it is possible to reduce malfunctions in which the AF operation ends with the focus in the blurred state.
[0279]
Since the difference determination uses the individual determination of the direction determination described above, the difference threshold value for determining “Down” is the same regardless of the size of each evaluation value. It seems that the threshold value may be decreased when the evaluation value is low, and the threshold value may be increased when the evaluation value is high. However, a scene with a high evaluation value generally has high details and a slight blurring is noticeable. If the threshold value is increased even if the evaluation value is high, the mountain descending at the top of the JP is missed, and as a result, overshooting becomes conspicuous. On the other hand, in a scene with a low evaluation value, since the detail is generally low, even if the focus goes a little beyond JP, it is not so conspicuous. Therefore, it is necessary to judge a scene with a high evaluation value severely, and conversely, a scene with a low evaluation position loosely. From the above, a constant threshold value is adopted regardless of the size of each evaluation value.
[0280]
(2) Checkdown judgment
A checkdown determination method will be described with reference to FIG. 32B. In the check-down determination method, peak determination is performed using three evaluation values e0 [i], ej [i], and e2j [i] for each evaluation value. I in [i] indicates the ID of the evaluation value. e0 [i] indicates the evaluation value of the current field, ej [i] indicates the evaluation value before j field, and e2j [i] indicates the evaluation value before 2j field. j is an integer from 2 to 5 and starts from 2 and increases sequentially. Equations (5) and (6) show the calculation formulas for judgment.
[0281]
[Equation 5]
Figure 0003840725
[0282]
[Formula 6]
1 / b <ej [7] / e0 [7] <b, and
1 / b <ej [7] / e2j [7] <b
b = 1.1
[0283]
Expression (5) is the same idea as the acute angle rate explained in the midway determination method, and among the three evaluation values with different sample times, the central evaluation value ej [i] is the other two e0 [i], e2j [ If i is larger than the predetermined multiple a by (ej [i] / e0 [i]> a and ej [i] / e2j [i]> a), it is determined that the peak is detected. Here, since j = 2, 3, 4, and 5, ej [i] is sequentially expanded to 2, 3, 4, and 5 fields before, and correspondingly, e2j [i] is also 4, 6, 8, and 10 fields before. Judgment is made by expanding sequentially. Note that the constant a is reduced to improve detection sensitivity when there is no shaking. When there is a shake, the constant a is increased so as not to be erroneously detected due to the fluctuation of the evaluation evaluation value due to the shake.
[0284]
Expression (6) is an expression that gives a limit to the check-down determination using the change rate of the evaluation value ID7 (Y-W1-HIntg, luminance addition value). That is, when the rate of change of the evaluation value ID7 does not satisfy the formula (6), the peak detection check-down determination is invalidated because there is a shake or disturbance. As a result, it is possible to reduce erroneous determination of peak detection caused by subject shake or disturbance. As a result, it is possible to reduce malfunctions in which the AF operation ends with the focus in the blurred state.
[0285]
If the peak cannot be detected even by this check-down determination, it converges to JP in the insurance mode described above.
[0286]
A comparison of these difference determination, check-down determination, and insurance mode operations is summarized in the chart of FIG. 32B. In the chart, the detection delay time indicates the time from when the evaluation value reaches the peak until the peak is detected. The smaller the detection delay time, the smaller the overshoot amount. From the chart, it can be seen that the detection delay time is: differential determination <checkdown determination <insurance mode. Therefore, the difference determination is desirable as long as the peak can be detected. However, when the evaluation value is low, the peak detection sensitivity of the difference determination is small, so that it depends on another determination.
[0287]
The evaluation values used for the check-down determination are as follows. The order of determination is in order of numbers, and the remaining determination is not performed if a peak can be detected.
(1) When there is no shaking
(1) ID0 (IIR1-W1-HPeak)
(2) ID6 (IIR1-W1-HIntg)
(3) ID3 (IIR4-W1-HPeak)
(4) ID4 (IIR0-W1-VIntg)
[0288]
In addition, when using ID4 here, there exists the following restrictions.
(a) ID0 <600
(b) ID6 <600
(c) ID3 <1600
By using the vertical direction evaluation value ID4 using the VIntg method, this is possible even for a scene such as a horizontal line scene having no horizontal direction component and only a vertical direction component. However, if there is a horizontal component in ID4, pixel movement occurs due to a change in the angle of view when the focus is moved, an edge intrusion due to a change in blur, etc., and the horizontal change in calculating ID4 is a horizontal change. This affects the average calculation of 64 pixels in the direction, and a false mountain is generated in the evaluation value ID4 depending on the scene. In order to avoid this, when the horizontal direction component exceeds a certain value by the evaluation values ID0, ID6 and ID3 using the HPeak method and the HIntg method, peak detection is performed using the vertical direction evaluation value ID4. There was a restriction so that there was no such thing.
[0289]
(2) When shaking
(1) ID6 (IIR1-W1-HIntg)
[0290]
3.18 Peak position calculation (centroid calculation)
In step S1023, peak position calculation is performed. That is, the peak position is calculated when a peak is detected in the downhill determination.
[0291]
FIG. 33 shows a state in which the focus is advanced at a constant speed and the evaluation value and the focus position are sampled for each field. If the lens speed is within one focal depth that advances in one field, a focus position that maximizes the evaluation value is selected, and if the focus is returned to that position, the JP tracking accuracy can be reduced to ½ focal depth.
[0292]
However, as described in the “lens speed setting” (S1010), it may pass the JP at a high speed, and in general, the amount of focus traveling in one field is larger than the depth of focus. In this case, the sample location often does not match the evaluation value peak and jumps over in many cases. Therefore, it is necessary not to simply select the peak value from the sampled data but to calculate the correct JP position by interpolation calculation.
[0293]
In this AF, the centroid calculation formula (7) is used as an interpolation calculation for calculating an accurate JP position. The center-of-gravity calculation method was adopted because there is little influence on the JP calculation result even if there is some noise, and it is not necessary to determine the shape of f (x) unlike the least square method. This is because the evaluation value curve cannot be modeled by a mathematical expression such as the least square method because there are innumerable shapes of the subject.
[0294]
[Expression 7]
Figure 0003840725
[0295]
In Expression (7), x is a lens position, x1 and x2 are integration ranges, and f (x) is a value of an evaluation value at the lens position x. A method for setting the integration range will be described later. By performing this centroid calculation, the JP position can be calculated even if the sample point does not overlap the evaluation value peak, ie, the JP position, as shown in FIG.
[0296]
In order to increase the accuracy of centroid calculation, it is necessary to select an appropriate integration range. For example, as shown in FIG. 34A, if the integration range is set unbalanced before and after the evaluation value peak, the difference between the calculation result and JP becomes large.
[0297]
As shown in FIG. 34B, the integration range is set to x2 as the lens position at the time of detecting the hill descending, and f (x2) on the opposite side of the peak in the evaluation value curve formed by the lens position and the evaluation value that have passed so far. It is optimal to search for and use the lens position x1 corresponding to the equal evaluation value.
[0298]
Here, since the sample data is actually discrete (one sample per field), continuous integration cannot be performed as shown in Equation (7). Therefore, discrete integration calculation is performed as shown in Equation (8).
[0299]
[Equation 8]
Figure 0003840725
[0300]
In this case, regarding the integration range, if the found x1 matches the data stored in the buffer, it is used as it is as the start data of the discrete integration calculation. But usually not. If they do not match, the lens position xp closest to x1 with f (xp) ≦ f (x1) is retrieved from the data stored in the buffer and used as the integration start position.
[0301]
In this case, the integration range is slightly unbalanced, but there is no significant influence in practice for the following reason. The reason is as follows: (1) When the moving speed of the lens is fast before and after the evaluation value peak, f (xp) is sufficiently smaller than the normal evaluation value peak, and the contribution of the integral calculation is small. (2) If the moving speed of the lens is slow before and after the peak of the evaluation value, the above contribution will increase, but conversely, since the interval between the evaluation value data becomes narrower, the JP calculation accuracy will increase. This is because the reduction in accuracy is canceled out.
[0302]
In the above peak position calculation method, there is no guarantee that the deviation between the calculation result and the JP is within the depth of focus in any scene. This is because the accuracy of the centroid calculation cannot be calculated because the shape of the evaluation value curve cannot be modeled. However, with the AF that has been developed this time, the required specifications are satisfied when AF is performed on a normal scene under the condition that a focal length of 120 mm, an iris of 1.7, and an extender of 2 times are inserted with a 15x lens. It has been confirmed that it can converge to just focus with sufficient accuracy.
[0303]
3.19 Peak position shift
In step S1024, the focus lens is moved to perform peak position movement processing. This is performed by giving a focus lens control command from the AF block 137 to the lens block side CPU 114 (see FIG. 1). That is, when the peak position can be calculated by calculating the peak position, the focus is moved to the peak position by the peak position moving process. In this process, the difference between the focus position at the time of calculation and the focus position to be returned is calculated, and if the difference is greater than or equal to a predetermined distance, the lens speed is calculated so that the distance is returned in 25 fields. This is because it moves relatively fast when it is away from the peak position and relatively slow when it is close. When the speed is calculated, the speed is transmitted to the lens side as a speed command. When the lens approaches the target, it switches to the position command, and the target position is reached accurately.
[0304]
The reason why the lens is returned to the peak position over 25 fields when the distance is more than a predetermined distance is that the screen motion feels unnaturally jerky if it is returned too fast.
[0305]
Next, the long filter determination (S1003) and the long filter processing (S1004) that have not been described will be described. When a subject having a mirror surface is reflecting light and sunlight while shaking, or when a light emitter such as a mirror ball is moving violently, each evaluation value and luminance addition value fluctuate drastically. In such a scene, even if it is away from the JP, the above-described hill-down determination (peak detection) condition is easily satisfied, and the lens stops at a blurred position. In the downhill determination, the normalized difference (that is, change) of ID7 (luminance addition value) is examined, and when the change is large, the peak detection is invalidated, but not completely detected in all cases.
[0306]
Therefore, this long filter mode is provided for the purpose of performing AF even on a subject in which each evaluation value such as a luminance addition value fluctuates drastically.
[0307]
3.19 Long filter judgment
First, in step S1003, long filter determination is performed. In the AF flowchart shown in FIG. 9, the evaluation value peak is normally detected while going around the hill climbing loop several times. However, there is a risk of malfunction in a hill climbing loop when the shaking is abnormally intense. In order to avoid such a malfunction, a long filter determination is performed in advance to determine whether or not the shake is abnormally severe. If it is determined that the shake is severe, long filter processing (S1004) is performed, and hill climbing is performed. The AF operation is terminated without proceeding to the stage. Whether the normal AF process is performed without starting the long filter process or not is determined under the following conditions.
[0308]
In the long filter determination, the determination as to whether or not the shake is intense is performed by the same procedure as the shake determination when the lens is stationary (S1001). However, in the shake determination when the lens is stationary, the determination is performed using the representative normalized difference value that is the maximum value of the normalized difference values of the evaluation values ID0 and ID7 (luminance addition value). These evaluation values are determined by adding evaluation values ID9 and ID12 (luminance addition values) with the evaluation frame expanded to W3.
[0309]
If the average value of the evaluation values ID0 and ID9 (the average value of the shake determination period 12 field) is 200 or more,
ndiff e [0] ≧ 30% and
ndiff e [9] ≧ 30% → Shaking mode 2
And
[0310]
If the average value of evaluation value ID0 is less than 200,
ndiff e [7] ≧ 12.5% and
ndiff e [12] ≧ 12.5% → Shaking mode 2
And
[0311]
If the shake is large (swing mode 2) in the long filter determination, the process proceeds to the long filter process (S1004). If the shaking is not large, the process proceeds to normal AF processing. This condition was obtained experimentally.
[0312]
3.20 Long filter processing
Unlike the hill climbing stage described above, the long filter mode employs a method of moving the lens at a constant speed while taking a long moving average and returning the lens to a lens position where the moving average is maximum. This advantage is that the probability of malfunction is small even for a subject whose evaluation value varies greatly. Disadvantages are that since many moving averages are taken, peak detection is relatively slow, and the amount of peak overshoot is large.
[0313]
FIG. 36 shows a flowchart of the long filter process. Each process will be described below.
Start long filter processing.
In step S3601, a lens speed to be moved at a constant speed corresponding to the depth of focus is set under the following conditions.
FS ≦ full stroke / 1000 → v = full stroke / 180 / field
FS ≧ full stroke / 200 → v = full stroke / 90 / field
Full stroke / 1000 ≤ Fs ≤ Full stroke / 200 → Proportionally distributed speed within the above range
Where Fs: depth of focus
Full stroke: The number of pulses of the pulse motor when the focus lens is moved between the physical Far end and Near end. Although it varies depending on the lens of the camera, the actual movement distance in the direction of the optical axis is about several tens of millimeters, and this corresponds to 0 to 20000 pulses in this embodiment.
[0314]
In step 3603, the moving direction of the lens is set. If it is initial setting, it follows FIG. In FIG. 35, the horizontal axis specifies the lens position FPOS (Focus Position) from the Far end to the Near end by the number of pulses of 0 to 20000, and FPOS has a relationship between the rotation angle of the focus ring and a linear function.
[0315]
Figure 0003840725
[0316]
In steps S3604, 3605, and 3607, a long filter hill-down determination is performed. First, in S3604, the moving average (11 steps) calculation of the luminance normalized evaluation value for each field and the maximum value update process are performed. When the number of inversions is 1, the luminance normalized evaluation value is half the maximum value (50%). Alternatively, if the end has been reached, the process proceeds to step S3608, the inversion count is set to 1, and the process returns to step 3603. Otherwise, the process proceeds to lens position calculation in step S3608. .
[0317]
This luminance normalized evaluation value is obtained by multiplying the evaluation value ID0 by 32 moving averages of ID7 (luminance addition value) and dividing by the three moving averages of ID7.
[0318]
e [0] * {Σ (e0 [7] + ... + e31 [7]) / 32} / {Σ (e0 [7] + ... + e2 [7]) / 3}
[0319]
Here, (the moving average of 32 luminance addition values / the moving average of three luminance addition values) is multiplied in order to reduce the influence of the strong reflected light by the mirror.
[0320]
In FIG. 37, the evaluation value ID0 having a large variation is multiplied by (32 moving average of luminance addition value / three moving averages of luminance addition), and further the moving average of 11 stages is taken to reduce the variation, that is, reduce the noise. , JP is easy to find. By taking the moving average of 11 steps, the evaluation value peak position is delayed by 5 fields (strictly speaking, as described above, the evaluation value itself takes a moving average of 3 fields, so 1 field is delayed, and the CCD stores 1 field. Therefore, it is delayed by 7 fields after all, but it is omitted because it is not directly related to the present invention).
[0321]
If the luminance normalized evaluation value reaches half (50%) or the end of the maximum value when the number of inversions is 0 in step S3605, the process proceeds to step S3606, the number of inversions is set to 1, and the process proceeds to step S3603. Direction setting is performed. Otherwise, the process proceeds to step S3607.
[0322]
In step S3607, the next movement position is designated as the lens, and the process returns to step S3604.
[0323]
In step S3608, JP position calculation is performed. If the luminance normalization evaluation value is reduced to half of the maximum value in the long filter hill-down determination, and if it has already reversed, the long filter processing (S1004) is entered assuming that JP is found. As described above, since the luminance normalized evaluation value has an eleven-stage moving average, the lens position where the peak appears is delayed by 5 fields by itself (actually, it is delayed by 7 fields). Therefore, it is necessary to return the lens position by the lens speed × 7 fields. In the JP position calculation process, the JP position is calculated in consideration of these delays.
[0324]
In step S3609, movement to the JP position is performed. The lens is moved to the position calculated in the JP position calculation process.
[0325]
In step S3610, a procedure for ending the long filter process is performed, and the current AF process ends. The AF of this embodiment is a one-shot type, and is in an idling state until the next time the AF switch is pushed.
[0326]
FIG. 38 shows an example of lens movement by the long filter process (see also (1), (2) and (3) in FIG. 36). In the figure, the long filter process is activated, the moving direction is determined by the movement direction setting process described above, and the movement starts at a constant speed as shown in (1). In this case, since the luminance normalized evaluation value decreases, the maximum value and the maximum value position remain as starting points. The lens advances, the luminance normalized evaluation value becomes half of the maximum value, and since it has not been reversed so far, it is reversed from that position and restarted.
[0327]
After the inversion, the lens advances at a constant speed, and further advances through the normalized evaluation value peak as shown in (2). When the luminance normalized evaluation value becomes half of the maximum value, since it has been inverted so far, the JP position is calculated by the JP position calculation process described above. Thereafter, as shown in (3), the process returns to the JP position, and the long filter process is terminated.
[0328]
This is the end of the description of this embodiment.
[0329]
[Effect of Example]
Hereinafter, the effects of this embodiment will be described item by item.
(1) In the shake determination when the lens is stationary (S1001), the evaluation value data from when the AF switch is pressed until a predetermined period elapses does not contribute to the calculation of the shake determination. That is, by not contributing to the calculation of the shake determination for a predetermined period in which the influence due to the pan and the switch is ON, it is possible to perform the shake determination excluding these influences and avoid the erroneous determination. If this misjudgment occurs, it is determined that the subject is not shaking, the lens is driven at high speed, and there is a risk that the lens overshoot amount after passing the just pin will be large. In this embodiment, it is possible to eliminate the inconvenience of erroneously determining that the subject is shaking even if the subject is not shaking.
[0330]
(2) In this embodiment, the lens moving speed can be determined in advance by performing the shake determination (S1001) in advance when the lens is stationary before starting the lens movement. Further, by performing the shake determination periodically (S1014) even after the lens movement is started, it is possible to accurately perform the shake determination in a large blur state that cannot be detected in advance by the shake determination when the lens is stationary.
[0331]
(3) In the lens speed setting (S1010) of this embodiment, when there is a shake, the lens is operated at a high speed and moved at a high speed, and the low speed switching is not performed. The evaluation value fluctuates even if the lens is stationary when there is shaking, so when AF is started, the evaluation value contributes to the evaluation value and the contribution of the evaluation value change due to the focus changing by moving the lens Is synthesized. If the contribution due to shaking is large, a malfunction such as “the AF converges at a blurred focus position” occurs. In order to avoid this malfunction, in this embodiment, by increasing the speed of the lens, the contribution due to shaking is relatively reduced, and the contribution due to the change in evaluation value due to the change in focus is relatively increased. Evaluation value characteristics that do not affect shaking are obtained.
[0332]
(4) In image processing AF, JP can be detected only after passing the peak of the evaluation value. Therefore, in this embodiment, hill-down determination (peak detection) (S1022) is performed. The detection method of downhill, that is, evaluation value decrease is very important. In downhill determination, peak detection determination is performed by two methods, ie, difference determination and checkdown determination. The former monitors the difference between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when this difference exceeds a certain threshold value. In this method, there is a case in which JP detection cannot be performed because there is little change in the evaluation value in a subject having a low contrast, and therefore a low evaluation value even in JP. On the other hand, in the latter case, it is assumed that the former monitors the ratio between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when this ratio exceeds a certain threshold value. This method has a drawback in that peak detection is delayed in a subject having a high contrast and therefore a high evaluation value even in JP, resulting in frequent overshooting (over-JP over Auran). In this AF peak detection, both difference determination and check-down determination are used, and the sensitivity of peak detection is increased even for a low-contrast subject by the latter without increasing excessively for the high-contrast subject. be able to.
[0333]
(5) In the mountain descent determination (S1022), the peak detection determination is performed by two methods of difference determination and check-down determination. The former monitors the difference between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when this difference exceeds a certain threshold value. In the latter case, it is assumed that the former monitors the ratio between the evaluation value of the current field and the evaluation value before the predetermined field, and detects a peak when this ratio exceeds a certain threshold value.
However, when the normalized difference value of the evaluation value ID7 (luminance addition value) described above exceeds a predetermined value at the time of peak detection, in order to prevent a simple stop due to a malfunction due to shaking, shaking or disturbance The difference determination result of peak detection determination is invalidated as intrusion (down count value in the memory is reset).
Similarly, when the rate of change of the evaluation value ID7 (luminance addition value) does not satisfy Expression (6), the peak detection check-down determination result is invalidated because there is shaking or disturbance.
Accordingly, it is possible to propose an erroneous determination of peak detection caused by shaking or disturbance of the subject. As a result, it is possible to reduce malfunctions in which the AF operation ends with the focus in the blurred state.
[0334]
(6) In the direction determination (S1016), if each evaluation value itself is equal to or less than a predetermined threshold value, it is forcibly set to Flat. As a result, it is possible to avoid a simple reaction with stationary noise of the evaluation value. Furthermore, when the evaluation value is low, there are many cases where the direction determination is erroneous due to stationary noise, and in the scene where ID7 (luminance addition value) is high, the entire evaluation value curve rises, and the absolute value of the stationary noise level is also It rises together and leads to the judgment result of Up or Down. Therefore, the predetermined threshold value is set to EVAL TH [i] × γ [i] (threshold value × luminance addition correction coefficient), and the threshold value is sequentially increased corresponding to the luminance addition value. Therefore, when the illumination for illuminating the subject is further brightened, it is possible to reduce AF malfunction caused by a large fluctuation in the evaluation value when the focus is in a largely blurred state.
[0335]
(7) In the end arrival determination (S1019) of the present embodiment, a temporary near end is provided between the true near end and the true far end to shorten the search time. That is, when the focus is searched from the provisional Near end to the Far end, it is determined whether JP exists within the range. If JP exists, the AF can be converged in a shorter time compared to the case where the entire area search is performed. In the midway determination method, it is determined whether or not JP exists by using an acute angle rate at which a local peak can be detected. In this way, an intermediate determination position is provided between the Far end and the Near end, and when the focus reaches that position, it is determined whether or not JP exists in the course of the focus so far. Thus, it is determined whether or not the subsequent search is continued. By adopting midway determination, it becomes possible to focus a large number of subjects, such as low-detail subjects and dark subjects, that have been focused on JP after performing a global search so far, without performing a global search. The average focusing time can be shortened.
[0336]
(8) By adopting the saturation luminance determination (S1012) of the present embodiment, when the saturation luminance number exceeds a predetermined threshold, the frame size of the evaluation frame is changed from the basic frame size W1 to the maximum frame size W5. The enlargement change is forced. As a result, as shown in FIG. 24, a subject having saturation luminance is accommodated in the frame, so that the occurrence of false mountains can be suppressed and the occurrence of malfunction can be prevented.
[0337]
(9) In the WOB (S1006) of this embodiment, the first stage determination and the second stage determination are used in combination. In the first stage determination, since the evaluation value ID0 of the usage data IIR1 having a relatively high cutoff frequency is used, the probability of erroneous determination is low, but the sensitivity of the evaluation value is relatively low and a significant value can be obtained even in a slight blurring state. I can't get it. The second stage determination uses the IIR4 evaluation value ID2 of the usage data having a relatively low cut-off frequency and ID3 having a different frame size. Therefore, the sensitivity is good, but false mountains are likely to occur and erroneous determination is likely to occur. Therefore, in the present embodiment, the first step determination is given priority first, and only when the direction determination cannot be performed, the second step determination is used for backup, thereby increasing the WOB sensitivity while keeping the probability of erroneous determination of WOB low. Yes.
[0338]
(10) In the lens speed setting (S1010) of the present embodiment, except for the initial low speed period, the lens is advanced at high speed to near the peak position, and is switched to low speed when reaching the peak position. That is, by moving the lens at a high speed from a large blurring state to near the peak position, and suddenly decelerating to a low speed when approaching the peak position, it is possible to converge quickly and smoothly on the peak position.
[0339]
(11) In the HPeak method of this embodiment, high frequency components are extracted from the luminance data Y. In this case, for example, when a color bar is photographed, in this HPeak method, the evaluation value change described later becomes the same as a uniform wall, and the evaluation value peak may not be detected. On the other hand, the luminance data is not obtained by adding the R, G, B image signals, but a horizontal direction evaluation value calculation filter is provided for each of the color signals R, G, B, and the outputs are added. By setting the evaluation value, it is possible to obtain a significant evaluation value even for a subject having a different luminance such as a color bar but having a uniform luminance.
[0340]
【The invention's effect】
According to the present invention, it is possible to provide a highly accurate AF mechanism suitable for a professional or professional video camera.
Furthermore, according to the present invention, it is possible to provide a video camera provided with a highly accurate AF mechanism suitable for a professional or professional video camera.
Furthermore, according to the present invention, it is possible to provide a highly accurate AF method suitable for a professional or professional video camera.
[0341]
Furthermore, the present invention can reliably detect an evaluation value peak in an AF mechanism suitable for a professional or professional video camera regardless of the level of contrast.
Furthermore, according to the present invention, in an AF mechanism suitable for a professional or professional video camera, an object having a high contrast is detected at a stage where an evaluation value peak is detected using an evaluation value of a current field and an evaluation value before a predetermined field. It is possible to increase the sensitivity of peak detection for a low-contrast subject without increasing excessively.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an overall configuration of an imaging apparatus including a video camera.
FIG. 2 is a diagram illustrating a configuration of an AF block of the video camera of FIG.
FIG. 3 is a diagram illustrating a circuit configuration of a horizontal direction evaluation value calculation filter. Here, FIG. 3A is a circuit of the horizontal direction evaluation value calculation filter, and FIG. 3B explains the difference in the cut-off frequency of the HPF.
FIG. 4 is a diagram illustrating a frame control signal used in an evaluation value generation circuit.
FIG. 5 is a diagram for explaining a circuit configuration of a full integration type horizontal direction evaluation value calculation filter;
6A is a diagram illustrating a circuit configuration of a vertical direction evaluation value calculation filter, and FIG. 6B is a diagram illustrating a configuration of a saturation luminance number calculation circuit.
FIG. 7 is a diagram illustrating the frame size of an evaluation frame for each evaluation value.
FIG. 8 is a diagram showing a tendency of evaluation values ID0 and ID2.
FIG. 9 is a diagram illustrating a relationship between evaluation values.
FIG. 10 is a diagram illustrating an overall flowchart of AF executed in the present embodiment.
11 is a diagram for explaining a shake determination period of a shake determination process (when the lens is stationary) in the overall AF flowchart of FIG.
12 is a diagram showing a flowchart of wobbling processing in the overall AF flowchart of FIG. 10;
13 is a diagram showing a time chart of a wobbling operation in the wobbling process of FIG. 12. FIG.
14 is a diagram for explaining data used when the entire flowchart of AF in FIG. 10 is executed. FIG.
15 is a diagram showing changes in wobbling and evaluation values together with FIG. 16, and FIGS. 15A, 15B, and 15C show a case where a just-focus determination is made. FIG.
16 is a diagram showing changes in wobbling and evaluation values together with FIG. 15, and FIGS. 16C, 16D, and 16E show cases where it is determined that the focus is not just;
FIG. 17 is a diagram for explaining a condition when it is determined that the pin is a just pin in relation to FIG. 15C;
FIG. 18 is a diagram illustrating a determination method for determining a just pin in relation to FIGS. 15A, 15B, and 15C.
FIG. 19 is a diagram illustrating a determination method of direction determination in the wobbling process of FIG. Here, FIG. 19A shows Near direction determination, and FIG. 19B shows Far direction determination.
20 is a diagram illustrating a flowchart of lens speed determination processing in the overall AF flowchart of FIG. 10;
FIG. 21 is a diagram illustrating a discriminant used in the low-speed switching determination of FIG.
FIG. 22 is a diagram for explaining a false mountain generation process related to false mountain determination in the overall AF flowchart of FIG. 10; Here, FIG. 22A shows a just pin state, FIG. 22B shows a state where the degree of blur gradually progresses, and FIG. 22C shows a transition of the evaluation value at this time.
FIG. 23 is an explanatory diagram regarding shake determination performed using evaluation values ID0 and ID1. Here, FIG. 23A explains the double frame method, FIG. 23B explains the behavior of the evaluation value of the scene where no false mountain occurs, FIG. 23C explains the influence of the vertical edge on false mountain occurrence, and FIG. Explains the effect of horizontal edges on false mountain generation.
24 is a diagram illustrating a false mountain generation process related to the saturation luminance determination in the overall AF flowchart of FIG. Here, FIG. 24A explains the occurrence of false mountains, and FIG. 24B explains the expansion of the evaluation frame when it is determined that false mountains have occurred.
25 is an explanatory diagram regarding individual determination of direction determination in the overall flowchart of AF in FIG.
26 is an explanatory diagram relating to overall determination of direction determination in the overall flowchart of AF in FIG. 10;
27A is an explanatory diagram regarding the determination method of the direction determination of FIG. 26, and FIG. 27B is an explanatory diagram regarding the determination method of the reverse determination in the entire AF flowchart of FIG.
FIG. 28 is an explanatory diagram relating to edge arrival determination in the overall flowchart of AF in FIG. 10; Here, FIG. 28A shows a case where the midway determination method works effectively, and FIG. 28B shows a case where the entire area is searched.
29 is a diagram showing a flowchart of edge arrival determination in FIG. 28. FIG.
30A is a diagram for explaining an acute angle rate, and FIG. 30B is a diagram for explaining saturation luminance determination.
31 is a flowchart of peak position selection in the overall flowchart of AF in FIG.
FIG. 32A is a chart comparing the operations of difference determination, check-down determination, and insurance mode. FIG. 32B is a diagram for explaining the check-down determination of the mountain-down determination in the entire AF flowchart of FIG.
FIG. 33 is a diagram illustrating a state in which the focus is advanced at a constant speed and the evaluation value and the focus position are sampled for each field.
FIG. 34 is a diagram for explaining an integration range of centroid calculation for peak position calculation in the overall AF flowchart of FIG. 10; Here, FIG. 34A shows a case where the integration range is not appropriate, and FIG. 34B is a diagram showing a method for setting the integration range.
FIG. 35 is a diagram illustrating a method for setting an initial lens movement direction for long filter determination in the overall AF flowchart of FIG. 10;
FIG. 36 is a diagram showing a flowchart of long filter processing in the overall flowchart of AF in FIG. 10;
FIG. 37 is a diagram for explaining a luminance normalization evaluation value in relation to FIG. 36.
FIG. 37 is a diagram illustrating the long filter mode in relation to FIG. 36.
FIG. 39 is a diagram illustrating the depth of field and the depth of focus. Here, FIG. 39A shows the depth of field, and FIG. 39B shows the depth of focus.
FIG. 40 is a diagram for explaining the permissible circle of confusion and the relationship between the CCD pixel distance and the permissible circle of confusion.
[Explanation of symbols]
111 focus lens, 111a focus lens position detection sensor, 111b focus lens drive motor, 111c focus lens drive circuit, 112 wobbling lens, 112a wobbling lens position detection sensor, 112b wobbling lens drive motor, 112c wobbling lens drive circuit, 113 iris mechanism, 113a iris position detection sensor, 113b iris mechanism drive motor, 113c iris drive circuit, 114 lens block side CPU, 115 autofocus switch, 121 color separation prism, 122R, 122G, 122B image sensor, 123R, 123G, 123B preamplifier, 124 CCD drive circuit, 125 timing signal generation circuit, 131R, 131G, 131B A / D conversion circuit, 132R 132G, 132B Gain control circuit, 133R, 133G, 133B Signal processing circuit, 134 Encoder, 135 Iris control circuit, 136 White balance control circuit, 137 Autofocus block, 138 Autofocus CPU, 139 Art focus integrated circuit (AF -IC), 141 main CPU, 142 ROM, 143 RAM, 145 operation unit, 201 luminance signal generation circuit, 202 evaluation value generation circuit, 203 autofocus CPU, 204 ROM, 205 RAM

Claims (8)

ビデオカメラの画像信号を入力する入力手段と、
上記画像信号の特定領域の高周波成分を抽出して評価値を生成する評価値生成手段と、
上記評価値に応じて上記ビデオカメラのフォーカスレンズを駆動する指令値を算出する信号処理手段と、
上記指令値を上記ビデオカメラのフォーカスレンズ駆動部に送出する出力手段と、
現フィールドの評価値と所定フィールド前の評価値との差に基づいて評価値のピークを検出したかを判定する第1のピーク検出判定手段と、
j(jは2以上の整数)フィールド前の評価値を現フィールドの評価値で除算した値および、jフィールド前の評価値を2jフィールド前の評価値で除算した値とが共に所定のしきい値以上の場合にはピーク検出したと判定する判定処理を、上記jの値を第1の整数から第1の整数より大きい値の第2の整数まで順次増加させて行う第2のピーク検出判定手段と、
を備え、
上記信号処理手段は、
上記第1のピーク検出判定手段による上記判定を最初に行ない、上記第1のピーク検出判定手段による判定でピーク検出できない場合に、上記第2のピーク検出判定手段による上記判定を行ない、上記第1または第2のピーク検出判定手段によるピーク検出が得られた場合には、上記ピーク位置にフォーカスが移動するよう上記指令値を算出することを特徴とする、
ビデオカメラのオートフォーカス装置。
Input means for inputting video camera image signals;
An evaluation value generating means for extracting a high frequency component of a specific region of the image signal and generating an evaluation value;
Signal processing means for calculating a command value for driving the focus lens of the video camera in accordance with the evaluation value;
Output means for sending the command value to the focus lens driving unit of the video camera;
First peak detection determination means for determining whether a peak of the evaluation value is detected based on a difference between the evaluation value of the current field and the evaluation value before the predetermined field;
The value obtained by dividing the evaluation value before j (j is an integer of 2 or more) field by the evaluation value of the current field and the value obtained by dividing the evaluation value before j field by the evaluation value before 2j field are both predetermined threshold values. The second peak detection determination is performed by sequentially increasing the value of j from the first integer to a second integer greater than the first integer in order to determine that a peak has been detected when the value is greater than or equal to the value. Means,
With
The signal processing means includes
The determination by the first peak detection determination unit is performed first, and when the peak cannot be detected by the determination by the first peak detection determination unit, the determination by the second peak detection determination unit is performed, and the first Alternatively, when the peak detection by the second peak detection determination means is obtained, the command value is calculated so that the focus moves to the peak position .
Autofocus device for video cameras.
請求項1に記載のビデオカメラのオートフォーカス装置において、
上記第1の整数は2で、上記第2の整数は5であることを特徴とする、ビデオカメラのオートフォーカス装置。
The autofocus device for a video camera according to claim 1,
The autofocus device for a video camera, wherein the first integer is 2 and the second integer is 5.
請求項1または2に記載のビデオカメラのオートフォーカス装置において、
上記所定のしきい値は、上記ビデオカメラと被写体の相対的な揺れの有無に関連して異なっていることを特徴とする、ビデオカメラのオートフォーカス装置。
The video camera autofocus device according to claim 1 or 2,
The video camera autofocus device, wherein the predetermined threshold value is different in relation to the presence or absence of relative shaking of the video camera and the subject.
請求項3に記載のビデオカメラのオートフォーカス装置において、
上記所定のしきい値は、上記揺れが有る場合には、揺れが無い場合に比較して相対的に大きいことを特徴とする、ビデオカメラのオートフォーカス装置。
The video camera autofocus device according to claim 3,
An autofocus device for a video camera, wherein the predetermined threshold value is relatively larger when the shaking is present than when there is no shaking.
ビデオカメラの画像信号より該画像信号の特定領域の高周波成分を抽出して評価値を生成するステップと、
現フィールドの評価値と所定フィールド前の評価値との差に基づいて評価値のピークを検出したかを判定する第1のピーク検出判定結果を生成するステップと、
j(jは2以上の整数)フィールド前の評価値を現フィールドでの評価値で除算した値と、jフィールド前の評価値を2jフィールド前の評価値で除算した値が共に所定のしきい値以上の場合にはピーク検出したと判定する判定処理を、上記jの値を第1の整数から第2の整数まで順次増加させて行う第2のピーク検出判定結果を生成するステップと、
上記第1のピーク検出判定手段による上記判定を最初に行わせ、ピーク検出できない場合には上記第2のピーク検出判定手段による上記判定を行ない、
上記第1または第2のピーク検出判定手段によるピーク検出が得られた場合には、上記ピーク位置にフォーカスを移動させるステップと、
を備えた
ビデオカメラのオートフォーカス方法。
Extracting a high frequency component of a specific region of the image signal from an image signal of the video camera and generating an evaluation value;
Generating a first peak detection determination result for determining whether a peak of the evaluation value is detected based on a difference between the evaluation value of the current field and the evaluation value before the predetermined field;
The value obtained by dividing the evaluation value before the j field (j is an integer of 2 or more) by the evaluation value in the current field and the value obtained by dividing the evaluation value before the j field by the evaluation value before the 2j field are both predetermined thresholds. Generating a second peak detection determination result in which a determination process for determining that a peak has been detected when the value is equal to or greater than the value is performed by sequentially increasing the value of j from the first integer to the second integer;
First, the determination by the first peak detection determination unit is performed, and when the peak cannot be detected, the determination by the second peak detection determination unit is performed,
When the peak detection by the first or second peak detection determination means is obtained, moving the focus to the peak position ;
Autofocus method for video cameras equipped with
請求項5に記載のビデオカメラのオートフォーカス方法において、
上記第1の整数は2で、上記第2の整数は5であることを特徴とする、ビデオカメラのオートフォーカス方法。
The autofocus method for a video camera according to claim 5,
An autofocus method for a video camera, wherein the first integer is 2 and the second integer is 5.
請求項5または6に記載のビデオカメラのオートフォーカス方法において、
上記所定のしきい値は、上記ビデオカメラと被写体の相対的な揺れの有無に関連して異なっていることを特徴とする、ビデオカメラのオートフォーカス方法。
The video camera autofocus method according to claim 5 or 6,
The video camera autofocus method, wherein the predetermined threshold value differs in relation to the presence or absence of relative shaking of the video camera and the subject.
請求項7に記載のビデオカメラのオートフォーカス方法において、
上記所定のしきい値は、上記揺れが有る場合には、揺れが無い場合に比較して相対的に大きいことを特徴とする、ビデオカメラのオートフォーカス方法。
The autofocus method for a video camera according to claim 7,
An autofocus method for a video camera, wherein the predetermined threshold value is relatively larger when the shaking is present than when there is no shaking.
JP01706197A 1997-01-30 1997-01-30 Autofocus device for video camera Expired - Fee Related JP3840725B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01706197A JP3840725B2 (en) 1997-01-30 1997-01-30 Autofocus device for video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01706197A JP3840725B2 (en) 1997-01-30 1997-01-30 Autofocus device for video camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006035354A Division JP2006189892A (en) 2006-02-13 2006-02-13 Automatic focusing device and method for video camera

Publications (2)

Publication Number Publication Date
JPH10213736A JPH10213736A (en) 1998-08-11
JP3840725B2 true JP3840725B2 (en) 2006-11-01

Family

ID=11933483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01706197A Expired - Fee Related JP3840725B2 (en) 1997-01-30 1997-01-30 Autofocus device for video camera

Country Status (1)

Country Link
JP (1) JP3840725B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8558942B2 (en) 2007-10-17 2013-10-15 Nikon Corporation Focusing measurement device, focusing measurement method, and program

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326681A (en) * 2004-05-14 2005-11-24 Pentax Corp Focus detector and focus detecting method
JP4496051B2 (en) * 2004-09-22 2010-07-07 富士フイルム株式会社 Imaging device
JP2006301034A (en) * 2005-04-15 2006-11-02 Sony Corp Autofocus device and method, and program
JP4407564B2 (en) 2005-04-15 2010-02-03 ソニー株式会社 Autofocus device, autofocus method and program
JP4419084B2 (en) * 2005-04-15 2010-02-24 ソニー株式会社 Control device and method, program, and camera
JP2006301006A (en) * 2005-04-15 2006-11-02 Sony Corp Control unit and method thereof, program, and camera
JP2006301032A (en) * 2005-04-15 2006-11-02 Sony Corp Autofocus device, autofocus method, and program
JP2006301036A (en) 2005-04-15 2006-11-02 Sony Corp Autofocus system, autofocus method, and program
JP2008009342A (en) 2006-06-30 2008-01-17 Sony Corp Autofocus device and method, and imaging apparatus
JP5380784B2 (en) 2007-04-12 2014-01-08 ソニー株式会社 Autofocus device, imaging device, and autofocus method
JP5401982B2 (en) * 2008-12-26 2014-01-29 株式会社ニコン Focus adjustment device and camera
JP5888890B2 (en) * 2011-07-21 2016-03-22 オリンパス株式会社 Focus control device
JP2013057889A (en) 2011-09-09 2013-03-28 Toshiba Corp Image processing device and camera module
US11184524B2 (en) * 2016-11-25 2021-11-23 Sony Group Corporation Focus control device, focus control method, program, and imaging device
CN113329183B (en) * 2021-07-01 2022-08-09 珠海丽珠试剂股份有限公司 Focusing method and device for shooting equipment and multiple liquid phase chip shooting equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8558942B2 (en) 2007-10-17 2013-10-15 Nikon Corporation Focusing measurement device, focusing measurement method, and program

Also Published As

Publication number Publication date
JPH10213736A (en) 1998-08-11

Similar Documents

Publication Publication Date Title
JP3840725B2 (en) Autofocus device for video camera
JP4407564B2 (en) Autofocus device, autofocus method and program
JP3302003B2 (en) Imaging device having autofocus function
US7973833B2 (en) System for and method of taking image and computer program
KR20080002693A (en) Auto-focus apparatus, image capture apparatus, and auto-focus method
JP2008009341A (en) Autofocus device and method, and imaging apparatus
JP5704851B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
EP0987884B1 (en) Automatic focusing device
US7391461B2 (en) Apparatus, method and control computer program for imaging a plurality of objects at different distances
JPH10213737A (en) Autofocusing device for video camera
JP2008187412A (en) Electronic camera
JP2002182106A (en) Focusing control system for digital still video camera
JP2009198574A (en) Focusing apparatus and method for controlling the same
JP2006189892A (en) Automatic focusing device and method for video camera
JP2007133301A (en) Autofocus camera
JPH10239582A (en) Automatic focusing device
JP3804145B2 (en) Autofocus device and autofocus method
JP3794086B2 (en) Autofocus device for video camera
JP3796874B2 (en) Video camera autofocus device, video camera autofocus method, and video camera
JP2006301031A (en) Autofocus device and method, and program
JP3760546B2 (en) Autofocus device for video camera
JPH0638089A (en) Automatic focusing device
JPH10213840A (en) Automatic focusing device for video camera
JP7191552B2 (en) Control device, imaging device, program, and storage medium
JPH10221594A (en) Automatic focus device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060601

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060731

LAPS Cancellation because of no payment of annual fees