JP4032877B2 - Auto focus system - Google Patents

Auto focus system Download PDF

Info

Publication number
JP4032877B2
JP4032877B2 JP2002243360A JP2002243360A JP4032877B2 JP 4032877 B2 JP4032877 B2 JP 4032877B2 JP 2002243360 A JP2002243360 A JP 2002243360A JP 2002243360 A JP2002243360 A JP 2002243360A JP 4032877 B2 JP4032877 B2 JP 4032877B2
Authority
JP
Japan
Prior art keywords
focus
focus evaluation
evaluation value
lens
afv
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002243360A
Other languages
Japanese (ja)
Other versions
JP2004085676A (en
Inventor
篤司 金山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2002243360A priority Critical patent/JP4032877B2/en
Priority to US10/642,143 priority patent/US7345706B2/en
Priority to DE10338246A priority patent/DE10338246A1/en
Priority to FR0310096A priority patent/FR2843809B1/en
Publication of JP2004085676A publication Critical patent/JP2004085676A/en
Application granted granted Critical
Publication of JP4032877B2 publication Critical patent/JP4032877B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明はオートフォーカスシステムに係り、特にコントラスト方式によって撮影レンズのフォーカスを制御するオートフォーカスシステムに関する。
【0002】
【従来の技術】
ビデオカメラなどのオートフォーカスは、コントラスト方式によるものが一般的である。このコントラスト方式は、撮像素子から得られた映像信号のうちある範囲(フォーカスエリア)内の映像信号の高域周波数成分を積算して焦点評価値とし、その焦点評価値が最大(極大)となるようにピント調整を自動で行うものである。これによって、撮像素子で撮像された画像の鮮鋭度(コントラスト)が最大となる最良ピント(合焦)が得られる。
【0003】
また、合焦位置(焦点評価値の極大点)にフォーカスを設定する方法として、山登り方式と呼ばれるものが広く知られている。この方法は、フォーカスを動かしたときの異なる2点での焦点評価値の比較により焦点評価値が増加する方向を検出すると共に、その方向にフォーカスを動かし、焦点評価値が増加から減少に変わると、焦点評価値が減少する前の位置にフォーカスを戻してフォーカスを焦点評価値の極大点に設定するというものである。
【0004】
また、上述の山登り方式の場合、フォーカスを実際に動かさないと焦点評価値の増加方向や合焦を判断することができないという欠点があるため、光路長の異なる位置に複数の撮像素子を配置してフォーカスを動かさなくても撮影レンズのピント状態(前ピン、後ピン、合焦)を検出できるようにしたピント状態検出方法が提案されている(特願2001−168246号、特願2001−168247号、特願2001−168248号、特願2001−168249号等)。このピント状態検出方法によれば、各撮像素子から得られる現時点の焦点評価値の大小関係により現時点のピント状態を即座に知ることができるため、フォーカスの移動方向や合焦をフォーカスを動かすことなく判断することができる。したがって、この方法を用いたオートフォーカスでは、フォーカスを合焦位置に迅速に設定することができる等の利点がある。
【0005】
【発明が解決しようとする課題】
ところで、上述のように複数の撮像素子を用いてオートフォーカスを行う場合、オートフォーカスの精度を上げるためには、各撮像素子から得られる焦点評価値の感度(各撮像素子に入射した被写体光と、それに対して得られる焦点評価値の大きさと関係)を合わせる必要がある。即ち、各撮像素子や各撮像素子からの映像信号を処理して焦点評価値を求める処理回路等の特性が一致していることを前提にしてオートフォーカスの制御を行うが、正確には、各撮像素子や処理回路の特性にはバラツキがあるため、オートフォーカスの精度を上げるためには、各撮像素子から得られる焦点評価値の感度を事前に校正しておくことが重要である。
【0006】
本発明はこのような事情に鑑みてなされたもので、複数の撮像素子から得られる焦点評価値に基づいてオートフォーカス制御を行う場合において、焦点評価値の感度を適切に校正し、精度の高いオートフォーカスを行えるようにしたオートフォーカスシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
前記目的を達成するために、請求項1に記載の発明は、撮影レンズに入射した被写体光を光路長が異なる位置に配置された複数の撮像手段により撮像し、該複数の撮像手段により撮像された各画像の鮮鋭度を示す焦点評価値に基づいて前記撮影レンズのフォーカスを合焦位置に移動させると共に、前記各撮像手段から得られた焦点評価値ごとに該焦点評価値の所定の基準値からの変化量に所定のゲインを乗じて得られた値を、前記撮影レンズのフォーカスの制御に使用する焦点評価値とするオートフォーカスシステムにおいて、前記基準値及び前記ゲインを適切な値に設定することにより前記各撮像手段から得られる焦点評価値の感度が一致するように該感度を校正する校正手段を備え、前記校正手段は、コントラストのない画像を撮像した場合に前記各撮像手段から得られた焦点評価値を前記基準値として設定する基準値設定手段と、前記撮影レンズのフォーカスを移動させた場合に前記各撮像手段から得られた焦点評価値の最大値が一致するように前記ゲインを設定するゲイン設定手段と、を備えると共に、前記ゲイン設定手段によって前記ゲインを設定する際に、前記撮影レンズのズームを予め決められた位置に設定した状態でフォーカスを移動させることを特徴としている。
【0008】
請求項2に記載の発明は、撮影レンズに入射した被写体光を光路長が異なる位置に配置された複数の撮像手段により撮像し、該複数の撮像手段により撮像された各画像の鮮鋭度を示す焦点評価値に基づいて前記撮影レンズのフォーカスを合焦位置に移動させると共に、前記各撮像手段から得られた焦点評価値ごとに該焦点評価値の所定の基準値からの変化量に所定のゲインを乗じて得られた値を、前記撮影レンズのフォーカスの制御に使用する焦点評価値とするオートフォーカスシステムにおいて、前記基準値及び前記ゲインを適切な値に設定することにより前記各撮像手段から得られる焦点評価値の感度が一致するように該感度を校正する校正手段を備え、前記校正手段は、コントラストのない画像を撮像した場合に前記各撮像手段から得られた焦点評価値を前記基準値として設定する基準値設定手段と、前記撮影レンズのフォーカスを移動させた場合に前記各撮像手段から得られた焦点評価値の最大値が一致するように前記ゲインを設定するゲイン設定手段であって、前記撮影レンズのフォーカスを高速で移動させて前記各撮像素子から得られる焦点評価値の最大値の存在を確認した後、前記フォーカスを低速で移動させて前記各撮像素子から得られる焦点評価値の最大値を精度良く検出するゲイン設定手段と、を備えたことを特徴としている。
【0009】
また、請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、前記校正手段は、所定のスイッチがオンされた時、電源立ち上げ時、又は、出荷前の初期設定時に前記感度の校正を自動で実行することを特徴としている。
【0010】
また、請求項4に記載の発明は、請求項1又は請求項2に記載の発明において、前記校正手段は、前記基準値設定手段及び前記ゲイン設定手段により設定した基準値及びゲインを校正データとしてメモリに記憶させることを特徴としている。
【0011】
また、請求項5に記載の発明は、請求項1又は請求項2に記載の発明において、前記基準値設定手段は、前記撮影レンズのアイリスを閉じることによって、前記コントラストのない画像を前記各撮像素子により撮像することを特徴とする請求項1又は2のオートフォーカスシステム。
【0013】
また、請求項に記載の発明は、請求項に記載の発明において、前記ゲイン設定手段は、前記撮影レンズのフォーカスを高速で移動させて前記各撮像素子から得られる焦点評価値の最大値の存在を確認した後、前記フォーカスを低速で移動させて前記各撮像素子から得られる焦点評価値の最大値を精度良く検出することを特徴としている。
【0014】
また、請求項に記載の発明は、請求項1又は請求項2に記載の発明において、前記校正手段による前記感度の校正の実行中であることを表示する表示手段を備えたことを特徴としている。
【0015】
本発明によれば、各撮像素子から得られる焦点評価値の感度を校正する校正手段を備えたため、焦点評価値の感度を適切に校正し、精度の高いオートフォーカスを行えるようになる。また、焦点評価値の感度の校正を自動で行えるようにし、煩雑な手間を不要にすることもできる。
【0016】
【発明の実施の形態】
以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。
【0017】
図1は、本発明に係るオートフォーカスシステムが適用されたテレビカメラシステムのブロック図である。同図に示すように、このテレビカメラシステムは、レンズ装置10とカメラ本体12等から構成されており、カメラ本体12には、放映用の映像を撮影し、所定形式の映像信号を出力又は記録媒体に記録するための撮像素子(以下、映像用撮像素子という)や所要の回路等が搭載されている。
【0018】
レンズ装置10は、カメラ本体12に着脱可能に装着され、主に光学系(撮影レンズ)と制御系とから構成されている。まず、撮影レンズの構成について説明すると、撮影レンズには、フォーカスレンズ(群)16、ズームレンズ(群)18、アイリス20、前側リレーレンズ22Aと後側リレーレンズ22Bとからなるリレーレンズ(リレー光学系)等が配置されている。そして、リレー光学系の前側リレーレンズ22Aと後側リレーレンズ22Bとの間には、撮影レンズに入射した被写体光からピント状態検出用の被写体光を分岐するためのハーフミラー24が配置されている。
【0019】
ハーフミラー24は、撮影レンズの光軸Oに対して略45度傾斜して設置されており、前側リレーレンズ22Aを通過した被写体光の一部(例えば1/3の光量)がピント状態検出用の被写体光として直角に反射するようになっている。
【0020】
ハーフミラー24を透過した被写体光は、映像用の被写体光として撮影レンズの後端側から射出されたのち、カメラ本体12の撮像部14に入射する。撮像部14の構成については省略するが、撮像部14に入射した被写体光は、例えば色分解光学系により、赤色光、緑色光、青色光の3色に分解され、各色ごとの映像用撮像素子の撮像面に入射する。これによって放映用のカラー映像が撮影される。なお、図中のピント面Pは、各映像用撮像素子の撮像面に対して光学的に等価な位置を撮影レンズの光軸O上に示したものである。
【0021】
一方、ハーフミラー24で反射された被写体光は、ピント状態検出用の被写体光として光軸Oに対して垂直な光軸O′に沿って進行し、リレーレンズ26に入射する。そして、このリレーレンズ26で集光されてピント状態検出部28に入射する。
【0022】
ピント状態検出部28は、光分割光学系を構成する2つのプリズム30A、30Bと、ピント状態検出用の一対の撮像素子32A、32B(以下、ピント状態検出用撮像素子32A、32Bという)とで構成されている。
【0023】
上述したようにハーフミラー24で反射した被写体光は、光軸O′に沿って進行し、まず、第1プリズム30Aに入射する。そして、第1プリズム30Aのハーフミラー面Mで反射光と透過光に等分割される。このうち反射光は一方のピント状態検出用撮像素子32Aの撮像面に入射し、透過光は他方のピント状態検出用撮像素子32Bに入射する。尚、各ピント状態検出用撮像素子32A、32Bのそれぞれの撮像面には、例えば、撮影レンズに入射した全被写体光のうちの1/6の光量が入射する。
【0024】
図2は、カメラ本体12の映像用撮像素子に入射する被写体光の光軸と一対のピント状態検出用撮像素子32A、32Bに入射する被写体光の光軸を同一直線上に表示したものである。同図に示すように、一方のピント状態検出用撮像素子32Aに入射する被写体光の光路長は、他方のピント状態検出用撮像素子32Bに入射する被写体光の光路長よりも短く設定され、映像用撮像素子の撮像面(ピント面P)に入射する被写体光の光路長は、その中間の長さとなるように設定されている。すなわち、一対のピント状態検出用撮像素子32A、32B(の撮像面)は、それぞれ映像用撮像素子の撮像面(ピント面P)に対して前後等距離(d)の位置に配置されている。
【0025】
従って、ハーフミラー24で分岐されたピント形態検出用の被写体光は、一対のピント状態検出用撮像素子32A、32Bにより、映像用撮像素子の撮像面(ピント面P)に対して前後等距離の位置で撮像される。尚、ピント状態検出用撮像素子32A、32Bは後述のようにピント状態検出(オートフォーカス制御)のための映像信号を取得するものであり、カラー映像を撮像するものである必要はなく、本実施の形態では白黒画像を撮像するCCDであるものとする。
【0026】
続いて、レンズ装置10の制御系について説明すると、上記フォーカスレンズ16、ズームレンズ18、アイリス20は、それぞれ図1に示すフォーカスモータ42、ズームモータ46、アイリスモータ50と図示しない動力伝達機構を介して連結されており、フォーカスモータ42を駆動すると、フォーカスレンズ16が光軸方向に移動して撮影レンズの焦点位置(撮影距離)が変更され、ズームモータ46を駆動すると、ズームレンズ18が光軸方向に移動して撮影レンズのズーム倍率が変更され、アイリスモータ50を駆動すると、アイリス20の絞り羽根が開閉動作して絞り径(絞り値)が変更されるようになっている。
【0027】
各モータ42、46、50には、それぞれフォーカスモータ駆動回路44、ズームモータ駆動回路48、アイリスモータ駆動回路52から駆動電圧が与えられ、各駆動回路44、48、52には、D/A変換器54を介してレンズ装置10に搭載されたCPU40から制御信号が与えられるようになっている。
【0028】
CPU40から出力される上記制御信号は、例えば、駆動するモータの回転速度、即ち、駆動する対象(フォーカスレンズ16、ズームレンズ18、アイリス20)の動作速度に対応する電圧値を示しており、その電圧値がD/A変換器54によってアナログ信号に変換されて対応する駆動回路44、48、52に与えられると、各駆動回路44、48、52によって電圧増幅され、その増幅された電圧が駆動電圧として対応するモータ42、46、50に印加される。これによって、各モータ42、46、50の回転速度がCPU40によって制御される。
【0029】
また、フォーカスレンズ16、ズームレンズ18、アイリス20の現在位置がそれぞれポテンショメータ等のフォーカスレンズ位置検出器56、ズームレンズ位置検出器58、アイリス位置検出器60によって検出されており、それらの位置検出器56、58、60から出力された検出信号がA/D変換器68を介してCPU40に与えられるようになっている。
【0030】
従って、CPU40の処理において、上述のように各モータ42、46、50の回転速度を制御することにより、フォーカスレンズ16、ズームレンズ18、アイリス20の動作速度を所望の速度に制御することができると共に、各位置検出器56、58、60からの検出信号によりフォーカスレンズ16、ズームレンズ18、アイリス20の現在位置を読み取りながら、各モータ42、46、50の回転速度を制御することにより、フォーカスレンズ16、ズームレンズ18、アイリス20の設定位置を所望の位置に制御することができる。
【0031】
撮影レンズのフォーカスやズームは、一般にフォーカスデマンド62やズームデマンド64等のコントローラをレンズ装置10に接続することによって操作者がマニュアル操作することができるようになっており、例えば、フォーカスデマンド62からは、マニュアル操作部材(フォーカスリング)の回動位置に対応した電圧のフォーカス指令信号(フォーカスデマンドデータ)が出力され、A/D変換器68を介してCPU40に与えられる。CPU40は、例えば、そのフォーカスデマンドデータの値をフォーカスレンズ16の移動目標位置を示す値として、その移動目標位置と、フォーカスレンズ位置検出器56から取得される現在位置(フォーカス位置データ)との差に応じた移動速度での移動を指令する制御信号を上述のようにD/A変換器54を介してフォーカスモータ駆動回路44に出力する。これによりフォーカスレンズ16がフォーカスデマンド62によって指令された移動目標位置に移動し、停止する。
【0032】
尚、ズームデマンド64からは、一般に、操作部材(サムリング)の回動位置に対応した電圧がズームレンズ18の移動目標速度を示す値としてCPU40に与えられ、CPU40は、その移動目標速度での移動を指令する制御信号をズームモータ駆動回路48に出力し、ズームレンズ18をズームデマンド64によって指令された移動目標速度で移動させる。また、アイリス20については、一般にカメラ本体12からアイリス20の動作目標位置を指令する指令信号がCPU40に与えられ、その動作目標位置となるようにアイリス20の位置がCPU40によって制御される。
【0033】
また、撮影レンズのフォーカスの制御には、上記フォーカスデマンド62を用いたマニュアルフォーカス(MF)制御と、上記ピント状態検出用撮像素子32A、32Bからの映像信号に基づくオートフォーカス(AF)制御とがあり、このようなMF制御とAF制御を切り替えるAFスイッチ66がレンズ装置10又はフォーカスデマンド62等に設けられている。AFスイッチ66のオン/オフ状態は、CPU40によって検出され、AFスイッチ66がオフの場合にはMF制御が行われ、上述のようにフォーカスデマンド62からのフォーカス指令信号(フォーカスデマンドデータ)に基づいてフォーカスレンズ16が制御される。
【0034】
一方、AFスイッチ66がオンされた場合には、AF制御が行われる。即ち、上記一対のピント状態検出用撮像素子32A、32Bで撮像された画像(映像)は、その各画素値を1画面を構成する複数の走査線(水平ライン)にそって順次伝送する映像信号として出力され、焦点評価値生成部70に入力される。焦点評価値生成部70の構成、処理については後述するが、焦点評価値生成部70において、その入力された映像信号から、各ピント状態検出用撮像素子32A、32Bで撮像された各画像のコントラスト(鮮鋭度)の高低を示す焦点評価値が生成され、それらの生成された焦点評価値がCPU40に与えられるようになっている。尚、ピント状態検出用撮像素子32Aからの映像信号に基づいて生成された焦点評価値を、チャンネルA(chA)の焦点評価値といい、ピント状態検出用撮像素子32Bからの映像信号に基づいて生成された焦点評価値を、チャンネルB(chB)の焦点評価値という。CPU40では、詳細を後述するように、焦点評価値生成部70から取得したchAとchBの焦点評価値を取得し、その取得した焦点評価値に基づいて、撮影レンズのピント状態(前ピン、後ピン、合焦)を検出すると共に、撮影レンズのピント状態が合焦となるようにフォーカスレンズ16の位置を制御する。
【0035】
尚、同図において、メモリ72は、例えば、焦点評価値の感度を校正する後述の校正データ等が記憶される不揮発性メモリであり、校正開始スイッチ74は、その校正の開始を指示するスイッチであり、表示器76は、その校正の実行中であることを表示するLED等の表示手段である。
【0036】
以上の如く構成されたカメラシステムにおけるAF制御について以下詳説する。まず、焦点評価値生成部70の構成及び処理について説明する。図3に示すように、各ピント状態検出用撮像素子32A、32Bから出力された映像信号は、焦点評価値生成部70のハイパスフィルタ(HPF)80A、80Bに入力される。ここでピント状態検出用撮像素子32A、32Bは、いずれも白黒画像を撮影するCCDであることから、各ピント状態検出用撮像素子32A、32Bから出力される映像信号は、それぞれの画面を構成する各画素の輝度値を示す輝度信号である
HPF80A、80Bに入力された映像信号は、それぞれHPF80A、80Bによってその高域周波数成分が抽出され、その高域周波数成分の信号は、続いてA/D変換器82A、82Bによってデジタル信号に変換される。そして、ピント状態検出用撮像素子32A、32Bにより撮像された画像の1画面分(1フィールド分)のデジタル信号のうち所定のフォーカスエリア内(例えば、画面中央部分)の画素に対応するデジタル信号のみがゲート回路84A、84Bによって抽出され、抽出された範囲のデジタル信号の値が加算器86A、86Bによって加算される。これにより、フォーカスエリア内における映像信号の高域周波数成分の値の総和が求められる。加算器86A、86Bによって得られた値は、フォーカスエリア内における画像の鮮鋭度の高低を示す焦点評価値であり、加算器86Aで得られた焦点評価値はチャンネルA(chA)の焦点評価値として、加算器86Bで得られた焦点評価値はチャンネルB(chB)の焦点評価値としてCPU40に与えられる。
【0037】
尚、同図に示す同期信号発生回路88からは、各種同期信号が各ピント状態検出用撮像素子32A、32Bやゲート回路84A、84B等の各回路に与えられており、各回路の処理の同期が図られている。また、同期信号発生回路88からCPU40には、映像信号の1フィールドごとの垂直同期信号(V信号)が与えられている。
【0038】
次に、上記焦点評価値に基づくピント状態の検出及びフォーカス(フォーカスレンズ16)の制御について説明する。上記のように焦点評価値生成部70から取得されるchAとchBの焦点評価値により映像用撮像素子の撮像面(ピント面P)に対する撮影レンズの現在のピント状態を検出することができる。
【0039】
図4は、横軸に撮影レンズのフォーカスレンズ16の位置(フォーカス位置)、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。図中点線で示す曲線Cは、映像用撮像素子(又は映像用撮像素子と共役の位置に配置された撮像素子)からの映像信号により焦点評価値を求めたと仮定した場合にその焦点評価値をフォーカス位置に対して示したものであり、図中実線で示す曲線A、Bは、それぞれピント状態検出用撮像素子32A、32Bから得られるchAとchBの焦点評価値をフォーカス位置に対して示したものである。同図において、曲線Cの焦点評価値が最大(極大)となる位置F3が合焦位置である。
【0040】
撮影レンズのフォーカス位置が同図のF1に設定された場合、chAの焦点評価値VA1は、曲線Aの位置F1に対応する値となり、chBの焦点評価値VB1は、曲線Bの位置F1に対応する値となる。そして、この場合、chAの焦点評価値VA1の方が、chBの焦点評価値VB1よりも大きくなり、このことから、フォーカス位置が合焦位置(F3)よりも至近側に設定された状態、すなわち、前ピンの状態であることが分かる。
【0041】
一方、撮影レンズのフォーカス位置が同図のF2に設定された場合、chAの焦点評価値VA2は、曲線Aの位置F2に対応する値となり、chBの焦点評価値VB2は、曲線Bの位置F2に対応する値となる。そして、この場合、chAの焦点評価値VA2の方が、chBの焦点評価値VB2よりも小さくなり、このことから、フォーカス位置が合焦位置(F3)よりも無限遠側に設定された状態、すなわち、後ピンの状態であることが分かる。
【0042】
これに対して、撮影レンズのフォーカス位置がF3、すなわち合焦位置に設定された場合、chAの焦点評価値VA3は、曲線Aの位置F3に対応する値となり、chBの焦点評価値VB3は、曲線Bの位置F3に対応する値となる。このとき、chAの焦点評価値VA3とchBの焦点評価値VB3は等しくなり、このことから、フォーカス位置が合焦位置(F3)に設定された状態であることが分かる。
【0043】
このように、焦点評価値生成部70から得られるchAとchBの焦点評価値により、撮影レンズの現在のピント状態が前ピン、後ピン、合焦のいずれの状態であるかを検出することができる。
【0044】
従って、焦点評価値生成部70から得られるchAとchBの焦点評価値に基づいてフォーカスレンズ16の位置を制御することにより、フォーカスレンズ16を合焦位置に移動させることができる。即ち、chAとchBの焦点評価値が、前ピンであると判断される状態の場合には、フォーカスレンズ16を無限遠方向に移動させ、後ピンであると判断される状態の場合には、フォーカスレンズ16を至近方向に移動させ、合焦であると判断される状態となった場合には、フォーカスレンズ16をその位置で停止させることによって、フォーカスレンズ16を合焦位置に移動させることができる。
【0045】
上記説明に対応するCPU40の処理について具体的に説明すると、焦点評価値生成部70から取得されるchAの焦点評価値をAFV_A、chBの焦点評価値をAFV_Bとすると、AFV_A>AFV_Bの場合には前ピンの状態であることからCPU40は、現在設定されているフォーカスレンズ16の移動目標位置を無限遠側に後述する移動量分(正の値)だけ変化させ、その新たな移動目標位置にフォーカスレンズ16を移動させる制御信号を上記D/A変換器54を介してフォーカスモータ駆動回路44に出力する。反対にAFV_A<AFV_Bの場合には後ピンの状態であることから、現在設定されているフォーカスレンズ16の移動目標位置を至近側に後述する移動量分(負の値)だけ変化させ、その新たな移動目標位置にフォーカスレンズ16を移動させる制御信号を上記D/A変換器54を介してフォーカスモータ駆動回路44に出力する。このような処理を繰り返し、AFV_A=AFV_Bとなった場合にはフォーカスレンズ16の移動を停止させる。これによってフォーカスレンズ16が合焦位置に移動する。
【0046】
ここで、フォーカスレンズ位置検出器56から取得されるフォーカスレンズ16の現在位置を示す検出信号の値(フォーカス位置データ)をF_POSIとし、上述のように設定されるフォーカスレンズ16の移動目標位置をAF_CTRLとすると、CPU40は移動目標位置AF_CTRLから現在位置F_POSIを引いた値、即ち、AF_CTRL−F_POSIをフォーカスモータ駆動回路44に出力する制御信号の値F_SPEEDとする。フォーカスモータ駆動回路44に出力される制御信号は、フォーカスモータ駆動回路44に指令するフォーカスモータ42の回転速度(フォーカスレンズ16の移動速度)に対応した値であり、上述のように設定した制御信号の値F_SPEEDをフォーカスモータ駆動回路44に出力することで、移動目標位置AF_CTRLと現在位置F_POSIとの差(AF_CTRL−F_POSI)に対応した速度でフォーカスレンズ16が移動することになる。
【0047】
次に、上述のようにフォーカスレンズ16の新たな移動目標位置を設定する際に現在の移動目標位置に加算する移動量について説明する。上述のようにフォーカスレンズ16の現在位置F_POSIと移動目標位置AF_CTRLとの差は、フォーカスレンズ16の移動速度に対応しており、新たな移動目標位置AF_CTRLを設定する際に現在の移動目標位置に加算する上記移動量が大きいほど、フォーカスレンズ16の移動速度が速くなり、上記移動量が小さい程、フォーカスレンズ16の移動速度が小さくなる。
【0048】
一方、フォーカスレンズ16を合焦位置に移動させる場合に、フォーカスレンズ16を合焦位置に安定した動作で確実に停止させるためには、フォーカスレンズ16が合焦位置に近づいていく程、上記移動量を小さくしてフォーカスレンズ16の移動速度を遅くし、合焦位置に到達した場合に移動量を0としてフォーカスレンズ16の移動速度を0にする必要がある。
【0049】
そこで、CPU40は、上記chAとchBの焦点評価値の差ΔAFV(=AFV_A−AFV_B)を求め、その差ΔAFV(=AFV_A−AFV_B)に所定のAFゲインAFGをかけた値ΔAFV*AFGを上記移動量として設定する。これにより、フォーカスレンズ16が合焦位置に到達した場合、即ち、焦点評価値の差ΔAFVが0(AFV_A=AFV_B)となった場合には、上記移動量ΔAFV*AFGが0となり、フォーカスレンズ16がその合焦位置で停止する。また、図4から分かるようにフォーカスレンズ16が合焦位置付近から合焦位置に近づいていく際に、焦点評価値の差ΔAFVが減少して移動量ΔAFV*AFGが徐々に0に近づいていき、フォーカスレンズ16の移動速度も徐々に減速する。
【0050】
また、上述のようにchAとchBの焦点評価値の差ΔAFVに所定のAFゲインAFGをかけた値ΔAFV*AFGを上記移動量とするのではなく、次のように上記移動量を設定することもできる。即ち、CPU40は、まず、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bの比ΔAFV=AFV_A/AFV_Bを求める。そして、AFV_A>AFV_B(ΔAFV>1)の場合、即ち、前ピンの状態(図4参照)の場合には、移動量を(ΔAFV−1)*AFGとする。尚、AFGは、所定のAFゲインの値を示す。一方、AFV_A≦AFV_B(ΔAFV≦1)の場合、即ち、後ピンの状態(又は合焦の状態)の場合には、移動量を−(1/ΔAFV−1)*AFGとする。
これにより、フォーカスレンズ16が合焦位置に到達した場合には、ΔAFV=1であるから移動量が0となり、フォーカスレンズ16がその合焦位置で停止する。また、フォーカスレンズ16が合焦位置付近から合焦位置に近づいていく際に、(ΔAFV−1)又は(1/ΔAFV−1)が減少して移動量が徐々に0に近づいていき、フォーカスレンズ16の移動速度も徐々に減速する。更に、このように移動量を求める要素として焦点評価値の比ΔAFV=AFV_A/AFV_Bを用いた場合には、焦点評価値自体の大きさによる移動量(移動速度)への影響がすくなく、より安定したフォーカスの動作を実現することができる。
【0051】
次に、上記焦点評価値生成部70から取得したchAとchBの焦点評価値の感度の校正について説明する。上述の説明においては、焦点評価値生成部70から得られるchAとchBの焦点評価値の感度(以下、焦点評価値感度という)が一致している場合を前提にしている。即ち、chAの焦点評価値を生成するためのピント状態検出用撮像素子32A及び焦点評価値生成部70内のchAに関連する各種回路の特性と、chBの焦点評価値を生成するためのピント状態検出用撮像素子32B及び焦点評価値生成部70内のchBに関連する各種回路の特性とが一致しているものとしている。しかしながら、実際には、焦点評価値感度が一致していない場合もあるため、本実施の形態では、焦点評価値生成部70から得られるchAとchBの焦点評価値の感度を校正できるようにした場合について説明する。
【0052】
まず、CPU40において、上記焦点評価値生成部70から取得したchAの焦点評価値をAFV_A0、chBの焦点評価値をAFV_B0とする。そして、校正された感度でのchAとchBの焦点評価値、即ち、上記AF制御に使用する焦点評価値(補正後の焦点評価値という)をそれぞれ上述のようにAFV_A、AFV_Bとする。このとき、次式、
【0053】
【数1】
AFV_A=(AFV_A0−AFV_A_OFFSET)*AFG_A …▲1▼
【0054】
【数2】
AFV_B=(AFV_B0−AFV_B_OFFSET)*AFG_B …▲2▼
により補正後の焦点評価値を算出するものとする。尚、上式▲1▼、▲2▼によって補正する前の焦点評価値生成部70から取得される焦点評価値AFV_A0、AFV_B0を補正前の焦点評価値という。
【0055】
したがって、上式▲1▼及び▲2▼内のAFV_A_OFFSET、AFV_B_OFFSET、AFG_A、AFG_Bの値を適切な値に設定することによって焦点評価値感度を校正することができ、chAとchBの焦点評価値感度を一致させることができる。
【0056】
具体的な校正処理については後述するが、校正処理によって上記AFV_A_OFFSET、AFV_B_OFFSET(基準値)は、それぞれピント状態検出用撮像素子32A、32Bを遮光した状態で得られるchAとchBの黒レベルの焦点評価値(補正前の焦点評価値)に設定されるようになっている。例えば、アイリス20を完全に閉じた状態で取得されるchAとchBの焦点評価値に設定される。但し、これに限らず、例えば、無地の被写体(コントラストのない画像)を撮像した際に得られるchAとchBの焦点評価値に設定するようにしてもよい。
【0057】
一方、上記AFG_A、AFG_B(ゲイン)は、チャートなどの所定の被写体(但し、特別に決められた被写体でなくてもよい)を撮影しながらフォーカスレンズ16を移動させた際に得られるchAとchBのそれぞれの焦点評価値の最大値に基づいて、補正後の焦点評価値が一致するような値に設定される。
【0058】
このように校正処理によって設定された上記AFV_A_OFFSET、AFV_B_OFFSET、AFG_A、AFG_Bを用いて、上式▲1▼、▲2▼により焦点評価値生成部70から取得したchAの焦点評価値AFV_A0とchBの焦点評価値AFV_B0を補正することにより焦点評価値感度が一致した状態でのchAとchBの焦点評価値AFV_A、AFV_Bを取得することができる。
【0059】
また、校正処理によって設定された上記AFV_A_OFFSET、AFV_B_OFFSET、AFG_A、AFG_Bは、図1に示したメモリ72に校正データとして記憶され、AF制御を行う場合にそれらの校正データが読み出されて焦点評価値生成部70から取得した焦点評価値の補正に使用されるようになっている。校正処理は、図1に示した校正開始スイッチ74をオンすることによって実行され、その校正処理の実行中には、図1に示した表示器76(例えばLED)が点灯し、校正処理が終了すると表示器76が消灯するようになっている。尚、校正開始スイッチ74、表示器76は、レンズ装置10に設置されていてもよいし、フォーカスデマンド62等のコントローラ等に設置されていてもよい。また、校正開始スイッチ74をオンすることによって校正処理を実行するのではなく、レンズ装置10の電源立ち上げ時や製品出荷前の初期調整時に実行し、設定した校正データをメモリ72に記憶させるようにしてもよい。
【0060】
次に、CPU40におけるAF制御の処理手順について説明する。まず、CPU40における処理全体の流れについて図5のフローチャートで説明すると、CPU40は、所要の初期設定を行った後(ステップS10)、焦点評価値感度の校正(校正データの生成)を開始するか否かを判断する(ステップS12)。焦点評価値感度の校正を行うか否かは、上述のように校正開始スイッチ74がオンされた否かによって判断される。
【0061】
ステップS12において、YESと判断した場合には、後述の焦点評価値感度校正処理を実行し(ステップS14)、NOと判断した場合には、既に生成されてメモリ72に記憶されている校正データをメモリ72から読み出す(ステップS16)。
【0062】
次にCPU40は、カメラ本体12から与えられるアイリス指令信号に基づいてアイリス制御を行う(ステップS18)。次いで、ズームデマンド64からのズーム指令信号に基づいてズーム制御を行う(ステップS20)。
【0063】
続いてCPU40は、AFスイッチ66がONになっているか否かを判定し(ステップS22)、YESと判定した場合には、AFスタートフラグをONにした後(ステップS24)、フォーカス制御の処理を実行する(ステップS26)。一方、ステップS22においてNOと判定した場合にはAFスタートフラグをONにすることなく、フォーカス制御の処理を実行する(ステップS26)。ステップS26のフォーカス制御の処理が終了すると、ステップS18の処理に戻り、ステップS18からステップS26までの処理を繰り返し実行する。
【0064】
図6乃至図9は、上記ステップS14における焦点評価値感度校正処理の手順を示したフローチャートである。尚、焦点評価値感度校正を実行させる場合に、オペレータはコントラストの高いチャートを被写体として撮影する状態に撮影レンズを設定しておくことが望ましい。まず図6において、CPU40は、アイリスモータ駆動回路52に制御信号を出力してアイリスモータ50を駆動し、アイリス20の開口を完全に閉じる(ステップS30)。これによって、ピント状態検出用撮像素子32A、32Bが遮光される。続いて、焦点評価値生成部70からchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得する(ステップS32、34)。続いて、焦点評価値サンプリングカウンタのカウント値を1増加させ(ステップS36)、そのサンプリングカウンタのカウント値に基づいて、規定した数のサンプリングが終了したか否かを判定する(ステップS38)。NOと判定した場合には、上記ステップS32からの処理を繰り返す。
【0065】
一方、上記ステップS38でYESと判定した場合には、次に、chAとchBについてそれぞれサンプリングした焦点評価値のうちから最大値AFV_A_MAX、AFV_B_MAXを検出し、その検出した最大値AFV_A_MAX、AFV_B_MAXをchAとchBのそれぞれのオフセット値(黒レベルの焦点評価値)AFV_A_OFFSET、AFV_B_OFFSETとする。即ち、
【0066】
【数3】
AFV_A_OFFSET=AFV_A_MAX
【0067】
【数4】
AFV_B_OFFSET=AFV_B_MAX
とする(ステップS40)。
【0068】
次にCPU40は、アイリスモータ駆動回路52に制御信号を出力してアイリスモータ50を駆動し、アイリス20の開口を開く(ステップS42)。これによって、ピント状態検出用撮像素子32A、32Bに被写体光が入射する。続いて、CPU40は、ズームモータ駆動回路48に制御信号を出力してズームモータ46を駆動し、ズームレンズ18を適当な位置(予め決められた位置)に移動させる(ステップS44)。また、フォーカスモータ駆動回路44に制御信号を出力してフォーカスモータ42を駆動し、フォーカスレンズ16を至近端に移動させる(ステップS46)。
【0069】
尚、ステップS44において設定されるズームレンズ18の位置は、焦点評価値感度の校正に適した位置であり、例えば、ワイド側に設定しておくと、以下の処理においてフォーカスレンズ16を高速で移動させることができ、一方、テレ側に設定しておくと以下の処理において焦点評価値の正確なピーク(最大値)を検出することができるというそれぞれの利点がある。
【0070】
次に、CPU40は、焦点評価値生成部70からchAの焦点評価値AFV_Aを取得し、その取得した焦点評価値AFV_AをAFV_A_MINに設定する(ステップS48)。また、図7のフローチャートに移行して示すように、CPU40は、焦点評価値生成部70からchBの焦点評価値AFV_Bを取得し、その取得した焦点評価値AFV_BをAFV_B_MINに設定する(ステップS50)。尚、ステップS48とステップS50及び以下の処理において、AFV_A、AFV_Bで表すchAとchBの焦点評価値は、焦点評価値生成部70から取得した焦点評価値のそれぞれからステップS40において設定したchAとchBのオフセットAFV_A_OFFSET、AFV_B_OFFSETを引いた値としてもよい。
【0071】
次に、CPU40は、被写体を検出するためのフォーカスレンズ16の移動速度F_SPEED_1STを設定する(ステップS52)。そして、その移動速度F_SPEED_1STを制御信号としてD/A変換器54を介してフォーカスモータ駆動回路44に出力し、フォーカスレンズ16を無限遠方向に移動させる(ステップS54)。
【0072】
このようにフォーカスレンズ16を無限遠方向に移動させている間、CPU40は、焦点評価値生成部70からchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得し(ステップS56、S58)、chAの焦点評価値とchBの焦点評価値のそれぞれのピーク(最大値)を検出したか否かを判定する(ステップS60)。NOと判定した場合には、上記ステップS56からの処理を繰り返す。
【0073】
一方、ステップS60においてYESと判定した場合、続いてCPU40は、焦点評価値生成部70からchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得し(ステップS62、S64)、上記ステップS48及びステップS50で設定したAFV_A_MIN、AFV_B_MINに対して次式
【0074】
【数5】
AFV_A≦AFV_A_MIN
又は、
【0075】
【数6】
AFV_B_MIN≦AFV_B_MIN
が成り立つか否かを判定する(ステップS66)。NOと判定した場合には、上記ステップS62からの処理を繰り返す。一方、YESと判定した場合には、図8のフローチャートに移行して示すように、フォーカスレンズ16を停止させる(ステップS68)。
【0076】
次に、CPU40は、焦点評価値の最大値を精度良く検出できるフォーカスレンズ16の移動速度F_SPEED_MIN(上記移動速度F_SPEED_1STよりも低速)を設定する(ステップS70)。そして、その移動速度F_SPEED_MINを制御信号としてD/A変換器54を介してフォーカスモータ駆動回路44に出力し、フォーカスレンズ16を至近方向に移動させる(ステップS72)。
【0077】
このようにフォーカスレンズ16を至近方向に移動させている間、CPU40は、焦点評価値生成部70からchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得し(ステップS74、S76)、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bのそれぞれの最大値を検索し、それぞれの最大値をAFV_A_MAX、AFV_B_MAXに設定する(ステップS78)。そして、chAとchBともに最大値が見つかったか否かを判定する(ステップS80)。NOと判定した場合には、ステップS74からの処理を繰り返す。一方、YESと判定した場合には、図9のフローチャートに移行して示すように、フォーカスレンズ16を停止させる(ステップS82)。
【0078】
次に、CPU40は、ステップS78で設定したAFV_A_MAXとAFV_B_MAXが次式、
【0079】
【数7】
AFV_A_MAX>AFV_B_MAX
を満たすか否かを判定する(ステップS84)。YESと判定した場合には上式▲1▼、▲2▼における校正値AFG_Bを1に設定すると共に、校正値AFG_AをAFV_B_MAX/AFV_A_MAXに設定する(ステップS86)。一方、NOと判定した場合には、上式▲1▼、▲2▼における校正値AFG_Aを1に設定すると共に、校正値AFG_BをAFV_A_MAX/AFV_B_MAXに設定する(ステップS88)。
【0080】
そして、ステップS86又はステップS88で設定した校正値AFG_A及びAFG_Bを焦点評価値の校正データとしてメモリ72(不揮発性メモリ)に書き込む(ステップS90)。尚、上記ステップS40において設定したオフセットAFV_A_OFFSET及びAFV_B_OFFSETも校正データとしてメモリ72に書き込む。以上の処理により焦点評価値感度校正処理が終了する。
【0081】
図10は、上記図5のステップS26におけるフォーカス制御の処理を示したフローチャートである。フォーカス制御の処理を実行する場合、まず、CPU40は、焦点評価値生成部70からピント状態検出用撮像素子32A(chA)の焦点評価値AFV_Aを取得する(ステップS100)と共に、ピント状態検出用撮像素子32B(chB)の焦点評価値AFV_Bを取得する(ステップS102)。
【0082】
ここで、ステップS100及びステップS102において取得する焦点評価値AFV_A及びAFV_Bは、補正後の焦点評価値を示し、その補正の手順を図11に示す。まず、CPU40は、焦点評価値生成部70からchAとchBの焦点評価値(補正前の焦点評価値)を読み込み、それぞれAFV_A0、AFV_B0に設定する(ステップS120)。そして、上式▲1▼、▲2▼で示したように、図5のステップS16においてメモリ72から読み出した校正データAFV_A_OFFSET、AFV_B_OFFSET、AFG_A、AFG_Bを用いて補正後の焦点評価値AFV_A、AFV_Bを次式、
【0083】
【数8】
AFV_A=(AFV_A0−AFV_A_OFFSET)*AFG_A …▲1▼
【0084】
【数9】
AFV_B=(AFV_B0−AFV_B_OFFSET)*AFG_B …▲2▼
により算出する。
【0085】
図10に戻って説明すると、上述のように算出したchAとchBの焦点評価値AFV_A、AFV_Bを取得した後、次に、CPU40は、AFスタートフラグがONに設定されているか否かを判定する(ステップS104)。NOと判定した場合はMFの処理を実行する。
【0086】
MFの処理の場合、CPU40は、フォーカスレンズ位置検出器56からフォーカスレンズ16の現在位置を示すフォーカス位置データF_POSIを取得するとともに(ステップS106)、フォーカスデマンド62からフォーカスレンズ16の移動目標位置を示すフォーカスデマンドデータF_CTRLを取得する(ステップS108)。そして、取得したフォーカス位置データF_POSIとフォーカスデマンドデータF_CTRLとの差F_POSI−F_CTRLを求め、その値を、フォーカスデマンド62により指令された移動目標位置にフォーカスレンズ16を移動させるための移動速度F_SPEEDとして設定する(ステップS110)。そして、その移動速度F_SPEEDを制御信号としてD/A変換器54を介してフォーカスモータ駆動回路44に出力する。(ステップS114)。
【0087】
一方、ステップS104においてYES、即ち、AFスタートフラグがONと判定された場合には、CPU40はAFの処理を実行する(ステップS112)。
【0088】
図12は、ステップS12におけるAFの処理手順を示したフローチャートである。まず、CPU40は、パラメータF_MEMO_FLGが1に設定されているか否かを判断する(ステップS130)。MF制御からAF制御に移行した最初の処理では、NOと判定され、その場合、フォーカスデマンド62から現在の移動目標位置を示すフォーカスデマンドデータを取得し、そのデータ値を初期(現在)の移動目標位置F_CTRLとして設定する(ステップS132)。次に、上記パラメータF_MEMO_FLGを1に設定する(ステップS134)。上記ステップS130においてYESと判定した場合には、これらのステップS132、ステップS134の処理は行わない。
【0089】
次に、CPU40は、上記図10のステップS100及びステップS102で取得した補正後のchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bとの差ΔAFV=AFV_A−AFV_Bを求める(ステップS136)。
【0090】
そして、上記ΔAFVに所定のAFゲインAFGをかけた値(移動量)ΔAFV*AFGを現在の移動目標位置AF_CTRLに加算し、その値を新たな移動目標位置AF_CTRLとする(ステップS138)。即ち、AF_CTRL=AF_CTRL+ΔAFV*AFGとする。
【0091】
次にCPU40は、フォーカスレンズ位置検出器56からフォーカスレンズ16の現在位置を示すフォーカス位置データF_POSIを読み込み(ステップS140)、そのフォーカス位置データF_POSIと、ステップS138で設定した移動目標位置AF_CTRLとの差AF_CTRL−F_POSIを、フォーカスレンズ16を移動させるための移動速度F_SPEEDとして設定する(ステップS142)。そして、図10のフローチャートに戻り、その移動速度F_SPEEDを制御信号としてD/A変換器54を介してフォーカスモータ駆動回路44に出力する(ステップS114)。
【0092】
以上の処理により撮影レンズの焦点距離及びF値に応じた移動速度でフォーカスレンズ16が合焦位置に移動する。
【0093】
次に、図12に示したAF処理のようにchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bとの差ΔAFV=AFV_A−AFV_Bを上記移動量を設定する際の要素とするのではなく、上述のようにchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bの比ΔAFV=AFV_A/AFV_Bを上記移動量を設定する際の要素とする場合のAF処理を図13のフローチャートで説明する。尚、図13のフローチャートにおけるステップS150〜ステップS154の処理は図12のステップS130〜ステップS134の処理と全く同じであるため図13のステップS156の処理から説明する。
【0094】
CPU40は、ステップS150〜ステップS154までの処理を行った後、次に上記図10のステップS100及びステップS102で取得した補正後のchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bとの比ΔAFV=AFV_A/AFV_Bを求める(ステップS156)。
【0095】
そして、CPU40は、焦点評価値の比ΔAFVが1.0より大きいか否かを判定する(ステップS158)。YESと判定した場合には、ΔAFV=(ΔAFV−1.0)*AFGとする(ステップS160)。一方、NOと判定した場合には、−ΔAFV=(1/ΔAFV−1.0)*AFGとする(ステップS162)。尚、AFGは所定のAFゲインの値を示す。そして、CPU40は、上記求めた値(移動量)ΔAFVを現在の移動目標位置AF_CTRLに加算し、その値を新たな移動目標位置AF_CTRLとする(ステップS164)。即ち、AF_CTRL=AF_CTRL+ΔAFVとする。
【0096】
次にCPU40は、フォーカスレンズ位置検出器56からフォーカスレンズ16の現在位置を示すフォーカス位置データF_POSIを読み込み(ステップS166)、そのフォーカス位置データF_POSIと、ステップS164で設定した移動目標位置AF_CTRLとの差AF_CTRL−F_POSIを、フォーカスレンズ16を移動させるための移動速度F_SPEEDとして設定する(ステップS168)。そして、図10のフローチャートに戻り、その移動速度F_SPEEDを制御信号としてD/A変換器54を介してフォーカスモータ駆動回路44に出力する(ステップS114)。
【0097】
以上、上記実施の形態では、2つのピント検出用撮像素子32A、32Bから2つの焦点評価値を取得してAF制御を行う場合について説明したが、これに限らず、光路長が異なる位置に配置された3つ以上の撮像素子から得られる3つ以上の焦点評価値に基づいてAF制御を行う場合でもそれらの焦点評価値感度を一致させる処理を上記実施の形態と同様に行うことができる。
【0098】
また、上記実施の形態では、AF制御において、chAとchBの焦点評価値の差又は比によりフォーカスレンズ16の移動目標位置を設定し、その移動目標位置と現在位置との差に対応した移動速度でフォーカスレンズ16を移動させるようにしたが、これに限らず、chAとchBの焦点評価値の差又は比により直接移動速度を設定し、その移動速度でフォーカスレンズ16を移動させるようにしてもよい。
【0099】
また、上記実施の形態では、本発明をテレビカメラシステムに適用した場合を例に説明したが、本発明はこれに限らず、ビデオカメラや静止画を撮影するスチルカメラにも適用することができる。
【0100】
【発明の効果】
以上説明したように、本発明に係るオートフォーカスシステムによれば、各撮像素子から得られる焦点評価値の感度を校正する校正手段を備えたため、焦点評価値の感度を適切に校正し、精度の高いオートフォーカスを行えるようになる。また、焦点評価値の感度の校正を自動で行えるようにし、煩雑な手間を不要にすることもできる。
【図面の簡単な説明】
【図1】図1は、本発明に係るオートフォーカスシステムが適用されたテレビカメラシステムのブロック図である。
【図2】図2は、映像用撮像素子に入射する被写体光の光軸と一対のピント状態検出用撮像素子に入射する被写体光の光軸を同一直線上に表示した図である。
【図3】図3は、焦点評価値生成部の構成を示したブロック図である。
【図4】図4は、横軸に撮影レンズのフォーカス位置、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。
【図5】図5は、CPUにおける処理全体の流れを示したフローチャートである。
【図6】図6は、CPUにおける焦点評価値感度校正処理の手順を示したフローチャートである。
【図7】図7は、CPUにおける焦点評価値感度校正処理の手順を示したフローチャートである。
【図8】図8は、CPUにおける焦点評価値感度校正処理の手順を示したフローチャートである。
【図9】図9は、CPUにおける焦点評価値感度校正処理の手順を示したフローチャートである。
【図10】図10は、図5におけるフォーカス制御の処理手順を示したフローチャートである。
【図11】図11は、CPUにおける焦点評価値算出の処理手順を示したフローチャートである。
【図12】図12は、図10におけるAF処理の処理手順を示したフローチャートである。
【図13】図13は、AF処理の他の形態における処理手順を示したフローチャートである。
【符号の説明】
10…レンズ装置、12…カメラ本体、14…撮像部、16…フォーカスレンズ(群)、18…ズームレンズ(群)、20…アイリス、22A…前側リレーレンズ、22B…後側リレーレンズ、24…ハーフミラー、26…リレーレンズ、28…ピント状態検出部、30A…第1プリズム、30B…第2プリズム、32A、32B…ピント状態検出用撮像素子、40…CPU、42…フォーカスモータ、44…フォーカスモータ駆動回路、56…フォーカスレンズ位置検出器、62…フォーカスデマンド、66…AFスイッチ、70…焦点評価値生成部、72…メモリ、74…校正開始スイッチ、76…表示器、80A、80B…ハイパスフィルタ(HPF)、82A、82B…A/D変換器、84A、84B…ゲート回路、86A、86B…加算器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an autofocus system, and more particularly to an autofocus system that controls the focus of a photographing lens by a contrast method.
[0002]
[Prior art]
In general, autofocus for a video camera or the like is based on a contrast method. This contrast method integrates the high frequency components of a video signal within a certain range (focus area) of the video signal obtained from the image sensor to obtain a focus evaluation value, and the focus evaluation value is maximized (maximum). Thus, the focus adjustment is automatically performed. As a result, it is possible to obtain the best focus (focusing) that maximizes the sharpness (contrast) of the image captured by the image sensor.
[0003]
As a method for setting the focus at the in-focus position (the maximum point of the focus evaluation value), a so-called hill-climbing method is widely known. This method detects the direction in which the focus evaluation value increases by comparing the focus evaluation values at two different points when the focus is moved, moves the focus in that direction, and changes the focus evaluation value from increase to decrease. The focus is returned to the position before the focus evaluation value decreases, and the focus is set to the maximum point of the focus evaluation value.
[0004]
In addition, in the case of the above-described hill-climbing method, there is a drawback in that it is not possible to determine the increase direction or focus of the focus evaluation value unless the focus is actually moved. In other words, Japanese Patent Application Nos. 2001-168246 and 2001-168247 have proposed methods for detecting the focus state (front focus, rear focus, in-focus) of the taking lens without moving the focus. No., Japanese Patent Application No. 2001-168248, Japanese Patent Application No. 2001-168249, etc.). According to this focus state detection method, it is possible to immediately know the current focus state from the magnitude relationship between the current focus evaluation values obtained from the respective image sensors, so that the focus movement direction and focus can be adjusted without moving the focus. Judgment can be made. Therefore, the autofocus using this method has an advantage that the focus can be quickly set to the in-focus position.
[0005]
[Problems to be solved by the invention]
By the way, when performing autofocus using a plurality of image sensors as described above, in order to increase the accuracy of autofocus, the sensitivity of the focus evaluation value obtained from each image sensor (the subject light incident on each image sensor and Therefore, it is necessary to match the magnitude of the focus evaluation value obtained with respect to it). That is, autofocus control is performed on the assumption that the characteristics of each image sensor and the processing circuit for processing a video signal from each image sensor to obtain a focus evaluation value are the same. Since there are variations in the characteristics of the image sensor and the processing circuit, it is important to calibrate the sensitivity of the focus evaluation value obtained from each image sensor in advance in order to increase the accuracy of autofocus.
[0006]
The present invention has been made in view of such circumstances. In the case where autofocus control is performed based on focus evaluation values obtained from a plurality of image sensors, the sensitivity of the focus evaluation value is appropriately calibrated and the accuracy is high. An object of the present invention is to provide an autofocus system that can perform autofocus.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1, the subject light incident on the photographing lens is imaged by a plurality of imaging means arranged at positions having different optical path lengths, and is imaged by the plurality of imaging means. The focus of the photographing lens is moved to the in-focus position based on the focus evaluation value indicating the sharpness of each image. In addition, for each focus evaluation value obtained from each imaging means, a value obtained by multiplying the amount of change of the focus evaluation value from a predetermined reference value by a predetermined gain is used for controlling the focus of the photographing lens. Focus evaluation value In the autofocus system, By setting the reference value and the gain to appropriate values The sensitivity is calibrated so that the sensitivity of the focus evaluation values obtained from each of the imaging means is the same. A calibration unit, and the calibration unit moves a focus of the photographing lens, and a reference value setting unit that sets a focus evaluation value obtained from each imaging unit as the reference value when an image without contrast is captured. Gain setting means for setting the gain so that the maximum values of the focus evaluation values obtained from the respective imaging means coincide with each other, and when setting the gain by the gain setting means, Moving the focus with the zoom of the taking lens set to a predetermined position. It is a feature.
[0008]
The invention described in claim 2 The subject lens incident on the photographic lens is imaged by a plurality of imaging units arranged at positions having different optical path lengths, and the photographic lens is based on a focus evaluation value indicating the sharpness of each image captured by the plurality of imaging units. Move the focus to the in-focus position, For each focus evaluation value obtained from each of the imaging means, a value obtained by multiplying the amount of change of the focus evaluation value from a predetermined reference value by a predetermined gain is used for controlling the focus of the photographing lens. Evaluation value In the autofocus system, By setting the reference value and the gain to appropriate values The sensitivity of the focus evaluation values obtained from the respective imaging means is matched. Calibrate the sensitivity Proofreading means The calibration means comprises Reference value setting means for setting the focus evaluation value obtained from each imaging means as the reference value when an image having no contrast is taken, and obtained from each imaging means when the focus of the photographing lens is moved. Gain setting means for setting the gain so that the maximum values of the focus evaluation values obtained coincide with each other Then, after the focus of the photographing lens is moved at a high speed to confirm the presence of the maximum value of the focus evaluation value obtained from each image sensor, the focus is moved at a low speed and obtained from each image sensor. A gain setting means for accurately detecting the maximum focus evaluation value; It is characterized by having.
[0009]
The invention according to claim 3 is the invention according to claim 1 or claim 2, wherein the calibration means is configured to perform initial setting when a predetermined switch is turned on, when power is turned on, or before shipment. Sometimes the sensitivity calibration is automatically performed.
[0010]
The invention according to claim 4 Claim 1 or According to a second aspect of the present invention, the calibration means stores the reference value and gain set by the reference value setting means and the gain setting means in a memory as calibration data.
[0011]
The invention according to claim 5 Claim 1 or The invention according to claim 2, wherein the reference value setting means captures an image without the contrast by each of the imaging elements by closing an iris of the photographing lens. 1 or 2 autofocus system.
[0013]
Claims 6 The invention described in claim 1 The gain setting means moves the focus at a low speed after confirming the existence of the maximum value of the focus evaluation value obtained from each image sensor by moving the focus of the photographing lens at a high speed. The maximum value of the focus evaluation value obtained from each image sensor is detected with high accuracy.
[0014]
Claims 7 The invention according to claim 1 is characterized in that, in the invention according to claim 1 or 2, there is provided display means for displaying that the calibration of the sensitivity by the calibration means is being executed.
[0015]
According to the present invention, since the calibration means for calibrating the sensitivity of the focus evaluation value obtained from each image sensor is provided, the sensitivity of the focus evaluation value can be appropriately calibrated, and highly accurate autofocus can be performed. In addition, it is possible to automatically calibrate the sensitivity of the focus evaluation value, so that troublesome work can be eliminated.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.
[0017]
FIG. 1 is a block diagram of a television camera system to which an autofocus system according to the present invention is applied. As shown in the figure, this TV camera system is composed of a lens device 10 and a camera body 12, and the camera body 12 shoots a video for broadcasting and outputs or records a video signal of a predetermined format. An image sensor for recording on a medium (hereinafter referred to as an image sensor for video), a required circuit, and the like are mounted.
[0018]
The lens device 10 is detachably attached to the camera body 12 and mainly includes an optical system (photographing lens) and a control system. First, the configuration of the photographing lens will be described. The photographing lens includes a focus lens (group) 16, a zoom lens (group) 18, an iris 20, and a relay lens (relay optical) including a front relay lens 22A and a rear relay lens 22B. System) etc. are arranged. A half mirror 24 is arranged between the front relay lens 22A and the rear relay lens 22B of the relay optical system for branching the subject light for focus state detection from the subject light incident on the photographing lens. .
[0019]
The half mirror 24 is installed with an inclination of approximately 45 degrees with respect to the optical axis O of the photographing lens, and a part of the subject light (for example, 1/3 light amount) that has passed through the front relay lens 22A is used for focus state detection. Is reflected at right angles as subject light.
[0020]
The subject light transmitted through the half mirror 24 is emitted from the rear end side of the photographing lens as subject light for an image and then enters the imaging unit 14 of the camera body 12. Although the configuration of the imaging unit 14 is omitted, subject light incident on the imaging unit 14 is separated into, for example, three colors of red light, green light, and blue light by a color separation optical system, and an image pickup device for video for each color. Is incident on the imaging surface. As a result, a color image for broadcasting is taken. In addition, the focus surface P in the figure indicates the optically equivalent position on the optical axis O of the imaging lens with respect to the imaging surface of each image pickup device.
[0021]
On the other hand, the subject light reflected by the half mirror 24 travels along the optical axis O ′ perpendicular to the optical axis O as subject light for focus state detection, and enters the relay lens 26. Then, the light is condensed by the relay lens 26 and enters the focus state detection unit 28.
[0022]
The focus state detection unit 28 includes two prisms 30A and 30B constituting a light splitting optical system and a pair of image pickup devices 32A and 32B for focus state detection (hereinafter referred to as focus state detection image pickup devices 32A and 32B). It is configured.
[0023]
As described above, the subject light reflected by the half mirror 24 travels along the optical axis O ′ and first enters the first prism 30A. Then, the light is equally divided into reflected light and transmitted light by the half mirror surface M of the first prism 30A. Of these, the reflected light is incident on the imaging surface of one focus state detection image sensor 32A, and the transmitted light is incident on the other focus state detection image sensor 32B. Note that, for example, 1/6 of the total object light incident on the photographing lens is incident on the respective imaging surfaces of the focus state detection imaging elements 32A and 32B.
[0024]
FIG. 2 shows the optical axis of the subject light incident on the video image sensor of the camera body 12 and the optical axis of the subject light incident on the pair of focus state detection image sensors 32A and 32B on the same straight line. . As shown in the figure, the optical path length of the subject light incident on one focus state detection image pickup device 32A is set shorter than the optical path length of the subject light incident on the other focus state detection image pickup device 32B. The optical path length of the subject light incident on the image pickup surface (focus plane P) of the image pickup device is set to be an intermediate length. That is, the pair of focus state detection image pickup devices 32A and 32B (the image pickup surfaces thereof) are respectively disposed at positions equidistant (d) in the front-rear direction from the image pickup surface (focus surface P) of the image pickup device.
[0025]
Accordingly, the subject light for focus form detection branched by the half mirror 24 is equidistant from the image pickup surface (focus surface P) of the image pickup device for video by the pair of focus state detection image pickup devices 32A and 32B. Imaged at position. The focus state detection imaging elements 32A and 32B acquire a video signal for focus state detection (autofocus control) as will be described later, and do not need to capture a color image. In this embodiment, it is assumed that the CCD is for capturing a black and white image.
[0026]
Next, the control system of the lens apparatus 10 will be described. The focus lens 16, the zoom lens 18, and the iris 20 are respectively connected to the focus motor 42, the zoom motor 46, and the iris motor 50 shown in FIG. When the focus motor 42 is driven, the focus lens 16 is moved in the optical axis direction to change the focal position (shooting distance) of the photographing lens. When the zoom motor 46 is driven, the zoom lens 18 is moved to the optical axis. When the zoom magnification of the photographing lens is changed by moving in the direction and the iris motor 50 is driven, the aperture blades of the iris 20 are opened and closed to change the aperture diameter (aperture value).
[0027]
Each of the motors 42, 46, 50 is supplied with a driving voltage from a focus motor driving circuit 44, a zoom motor driving circuit 48, and an iris motor driving circuit 52, and each of the driving circuits 44, 48, 52 has a D / A conversion. A control signal is given from the CPU 40 mounted on the lens apparatus 10 via the device 54.
[0028]
The control signal output from the CPU 40 indicates, for example, the voltage value corresponding to the rotational speed of the motor to be driven, that is, the operating speed of the target to be driven (focus lens 16, zoom lens 18, iris 20). When the voltage value is converted into an analog signal by the D / A converter 54 and applied to the corresponding drive circuit 44, 48, 52, the voltage is amplified by each drive circuit 44, 48, 52, and the amplified voltage is driven. A voltage is applied to the corresponding motor 42, 46, 50. As a result, the rotational speeds of the motors 42, 46 and 50 are controlled by the CPU 40.
[0029]
The current positions of the focus lens 16, the zoom lens 18, and the iris 20 are detected by a focus lens position detector 56 such as a potentiometer, a zoom lens position detector 58, and an iris position detector 60, respectively. Detection signals output from 56, 58 and 60 are supplied to the CPU 40 via the A / D converter 68.
[0030]
Therefore, in the processing of the CPU 40, the operation speeds of the focus lens 16, the zoom lens 18, and the iris 20 can be controlled to desired speeds by controlling the rotation speeds of the motors 42, 46, and 50 as described above. At the same time, the rotational speeds of the motors 42, 46, 50 are controlled by reading the current positions of the focus lens 16, the zoom lens 18, and the iris 20 based on detection signals from the position detectors 56, 58, 60. The setting positions of the lens 16, the zoom lens 18, and the iris 20 can be controlled to desired positions.
[0031]
In general, the focus and zoom of the photographing lens can be manually operated by an operator by connecting a controller such as a focus demand 62 and a zoom demand 64 to the lens device 10. Then, a focus command signal (focus demand data) having a voltage corresponding to the rotation position of the manual operation member (focus ring) is output and supplied to the CPU 40 via the A / D converter 68. For example, the CPU 40 sets the value of the focus demand data as a value indicating the movement target position of the focus lens 16, and the difference between the movement target position and the current position (focus position data) acquired from the focus lens position detector 56. As described above, the control signal for instructing the movement at the movement speed corresponding to is output to the focus motor drive circuit 44 via the D / A converter 54. As a result, the focus lens 16 moves to the movement target position commanded by the focus demand 62 and stops.
[0032]
In general, a voltage corresponding to the rotation position of the operation member (thumbing) is supplied from the zoom demand 64 to the CPU 40 as a value indicating the movement target speed of the zoom lens 18, and the CPU 40 moves at the movement target speed. Is output to the zoom motor drive circuit 48, and the zoom lens 18 is moved at the movement target speed commanded by the zoom demand 64. For the iris 20, generally, a command signal for instructing the operation target position of the iris 20 is given from the camera body 12 to the CPU 40, and the position of the iris 20 is controlled by the CPU 40 so as to be the operation target position.
[0033]
In addition, the focus control of the photographing lens includes manual focus (MF) control using the focus demand 62 and auto focus (AF) control based on the video signals from the focus state detection imaging elements 32A and 32B. There is an AF switch 66 for switching between MF control and AF control in the lens device 10 or the focus demand 62. The on / off state of the AF switch 66 is detected by the CPU 40. When the AF switch 66 is off, MF control is performed, and based on the focus command signal (focus demand data) from the focus demand 62 as described above. The focus lens 16 is controlled.
[0034]
On the other hand, when the AF switch 66 is turned on, AF control is performed. That is, the image (video) imaged by the pair of focus state detection imaging elements 32A and 32B is a video signal for sequentially transmitting the pixel values along a plurality of scanning lines (horizontal lines) constituting one screen. And is input to the focus evaluation value generation unit 70. The configuration and processing of the focus evaluation value generation unit 70 will be described later. In the focus evaluation value generation unit 70, the contrast of each image captured by the focus state detection imaging elements 32A and 32B from the input video signal. Focus evaluation values indicating the level of (sharpness) are generated, and the generated focus evaluation values are given to the CPU 40. The focus evaluation value generated based on the video signal from the focus state detection image sensor 32A is referred to as a focus evaluation value of channel A (chA), and is based on the video signal from the focus state detection image sensor 32B. The generated focus evaluation value is referred to as a focus evaluation value of channel B (chB). As will be described in detail later, the CPU 40 acquires the focus evaluation values of chA and chB acquired from the focus evaluation value generation unit 70, and based on the acquired focus evaluation values, the focus state of the photographing lens (front pin, rear pin) The focus lens 16 is controlled so that the photographing lens is in focus.
[0035]
In the figure, a memory 72 is a non-volatile memory in which, for example, calibration data described later for calibrating the sensitivity of the focus evaluation value is stored, and a calibration start switch 74 is a switch for instructing the start of the calibration. Yes, the display 76 is a display means such as an LED for indicating that the calibration is being executed.
[0036]
The AF control in the camera system configured as described above will be described in detail below. First, the configuration and processing of the focus evaluation value generation unit 70 will be described. As shown in FIG. 3, the video signals output from the focus state detection imaging elements 32 </ b> A and 32 </ b> B are input to high-pass filters (HPF) 80 </ b> A and 80 </ b> B of the focus evaluation value generation unit 70. Here, since the focus state detection imaging elements 32A and 32B are both CCDs that capture black and white images, the video signals output from the focus state detection imaging elements 32A and 32B constitute respective screens. It is a luminance signal indicating the luminance value of each pixel
The high frequency components of the video signals input to the HPFs 80A and 80B are extracted by the HPFs 80A and 80B, respectively, and the signals of the high frequency components are subsequently converted into digital signals by the A / D converters 82A and 82B. The Only digital signals corresponding to pixels within a predetermined focus area (for example, the center portion of the screen) among the digital signals for one screen (one field) of the images captured by the focus state detection imaging elements 32A and 32B. Are extracted by the gate circuits 84A and 84B, and the values of the digital signals in the extracted range are added by the adders 86A and 86B. Thereby, the sum total of the values of the high frequency components of the video signal in the focus area is obtained. The values obtained by the adders 86A and 86B are focus evaluation values indicating the sharpness of the image in the focus area, and the focus evaluation values obtained by the adder 86A are the focus evaluation values of the channel A (chA). As described above, the focus evaluation value obtained by the adder 86B is given to the CPU 40 as the focus evaluation value of the channel B (chB).
[0037]
It should be noted that various synchronization signals are given to the respective circuits such as the focus state detection imaging devices 32A and 32B and the gate circuits 84A and 84B from the synchronization signal generation circuit 88 shown in FIG. Is planned. Further, a vertical synchronizing signal (V signal) for each field of the video signal is supplied from the synchronizing signal generation circuit 88 to the CPU 40.
[0038]
Next, focus state detection and focus (focus lens 16) control based on the focus evaluation value will be described. As described above, the current focus state of the photographic lens with respect to the imaging surface (focus surface P) of the imaging device for video can be detected based on the focus evaluation values of chA and chB acquired from the focus evaluation value generation unit 70.
[0039]
FIG. 4 is a diagram illustrating the state of the focus evaluation value with respect to the focus position when a certain subject is imaged, with the horizontal axis representing the position of the focus lens 16 (focus position) and the vertical axis representing the focus evaluation value. . A curve C indicated by a dotted line in the figure indicates a focus evaluation value when it is assumed that a focus evaluation value is obtained from a video signal from a video image sensor (or an image sensor arranged at a conjugate position with the video image sensor). The curves A and B indicated by the solid line in the figure indicate the focus evaluation values of chA and chB obtained from the focus state detection imaging elements 32A and 32B, respectively, with respect to the focus position. Is. In the figure, the position F3 at which the focus evaluation value of the curve C is maximum (maximum) is the in-focus position.
[0040]
When the focus position of the photographic lens is set to F1 in the figure, the chA focus evaluation value V A1 Is a value corresponding to the position F1 of the curve A, and the focus evaluation value V of chB B1 Is a value corresponding to the position F1 of the curve B. In this case, the chA focus evaluation value V A1 Is the focus evaluation value V of chB B1 From this, it can be seen that the focus position is set closer to the in-focus position (F3), that is, the state of the front pin.
[0041]
On the other hand, when the focus position of the photographic lens is set to F2 in FIG. A2 Is a value corresponding to the position F2 of the curve A, and the focus evaluation value V of chB B2 Is a value corresponding to the position F2 of the curve B. In this case, the chA focus evaluation value V A2 Is the focus evaluation value V of chB B2 From this, it can be seen that the focus position is set to the infinity side from the in-focus position (F3), that is, the state of the rear pin.
[0042]
On the other hand, when the focus position of the photographing lens is set to F3, that is, the in-focus position, the chA focus evaluation value V A3 Is a value corresponding to the position F3 of the curve A, and the focus evaluation value V of chB B3 Is a value corresponding to the position F3 of the curve B. At this time, the focus evaluation value V of chA A3 And chB focus evaluation value V B3 From this, it can be seen that the focus position is set to the in-focus position (F3).
[0043]
As described above, it is possible to detect whether the current focus state of the photographing lens is the front pin, the rear pin, or the in-focus state based on the chA and chB focus evaluation values obtained from the focus evaluation value generation unit 70. it can.
[0044]
Therefore, the focus lens 16 can be moved to the in-focus position by controlling the position of the focus lens 16 based on the chA and chB focus evaluation values obtained from the focus evaluation value generation unit 70. That is, when the focus evaluation values of chA and chB are determined to be the front pins, the focus lens 16 is moved in the infinity direction, and when the focus evaluation values are determined to be the rear pins, When the focus lens 16 is moved in the closest direction and the focus lens 16 is determined to be in focus, the focus lens 16 can be moved to the focus position by stopping the focus lens 16 at that position. it can.
[0045]
The processing of the CPU 40 corresponding to the above description will be specifically described. When the focus evaluation value of chA acquired from the focus evaluation value generation unit 70 is AFV_A and the focus evaluation value of chB is AFV_B, AFV_A> AFV_B. Since it is in the state of the front pin, the CPU 40 changes the currently set movement target position of the focus lens 16 to the infinity side by a movement amount (positive value) described later, and focuses on the new movement target position. A control signal for moving the lens 16 is output to the focus motor drive circuit 44 via the D / A converter 54. On the other hand, when AFV_A <AFV_B, the rear pin is in the state, so that the currently set movement target position of the focus lens 16 is changed to the closest side by a movement amount (negative value) described later, and the new A control signal for moving the focus lens 16 to a desired movement target position is output to the focus motor drive circuit 44 via the D / A converter 54. Such processing is repeated, and when AFV_A = AFV_B, the movement of the focus lens 16 is stopped. As a result, the focus lens 16 moves to the in-focus position.
[0046]
Here, the value of the detection signal (focus position data) indicating the current position of the focus lens 16 acquired from the focus lens position detector 56 is F_POSI, and the movement target position of the focus lens 16 set as described above is AF_CTRL. Then, the CPU 40 sets a value obtained by subtracting the current position F_POSI from the movement target position AF_CTRL, that is, AF_CTRL−F_POSI as a control signal value F_SPEED to be output to the focus motor drive circuit 44. The control signal output to the focus motor drive circuit 44 is a value corresponding to the rotational speed of the focus motor 42 (moving speed of the focus lens 16) commanded to the focus motor drive circuit 44, and the control signal set as described above. By outputting the value F_SPEED to the focus motor drive circuit 44, the focus lens 16 moves at a speed corresponding to the difference (AF_CTRL−F_POSI) between the movement target position AF_CTRL and the current position F_POSI.
[0047]
Next, the amount of movement added to the current movement target position when setting a new movement target position of the focus lens 16 as described above will be described. As described above, the difference between the current position F_POSI of the focus lens 16 and the movement target position AF_CTRL corresponds to the movement speed of the focus lens 16, and the current movement target position is set when a new movement target position AF_CTRL is set. The larger the amount of movement to be added is, the faster the moving speed of the focus lens 16 is. The smaller the amount of movement is, the smaller the moving speed of the focus lens 16 is.
[0048]
On the other hand, when the focus lens 16 is moved to the in-focus position, in order to surely stop the focus lens 16 with the stable operation at the in-focus position, the above-mentioned movement is performed as the focus lens 16 approaches the in-focus position. It is necessary to reduce the moving amount of the focus lens 16 by reducing the amount, and to move the moving amount of the focus lens 16 to 0 when the focus position is reached.
[0049]
Therefore, the CPU 40 calculates the difference ΔAFV (= AFV_A−AFV_B) between the focus evaluation values of chA and chB, and moves the difference ΔAFV * AFG obtained by multiplying the difference ΔAFV (= AFV_A−AFV_B) by a predetermined AF gain AFG. Set as a quantity. As a result, when the focus lens 16 reaches the in-focus position, that is, when the focus evaluation value difference ΔAFV becomes 0 (AFV_A = AFV_B), the movement amount ΔAFV * AFG becomes 0, and the focus lens 16 Stops at the in-focus position. As can be seen from FIG. 4, when the focus lens 16 approaches the in-focus position from the focus position, the focus evaluation value difference ΔAFV decreases and the movement amount ΔAFV * AFG gradually approaches zero. The moving speed of the focus lens 16 is also gradually reduced.
[0050]
Further, as described above, instead of using the value ΔAFV * AFG obtained by multiplying the focus evaluation value difference ΔAFV between chA and chB by a predetermined AF gain AFG as the movement amount, the movement amount is set as follows. You can also. That is, the CPU 40 first obtains a ratio ΔAFV = AFV_A / AFV_B between the focus evaluation value AFV_A of chA and the focus evaluation value AFV_B of chB. In the case of AFV_A> AFV_B (ΔAFV> 1), that is, in the state of the front pin (see FIG. 4), the movement amount is set to (ΔAFV−1) * AFG. AFG represents a predetermined AF gain value. On the other hand, in the case of AFV_A ≦ AFV_B (ΔAFV ≦ 1), that is, in the rear pin state (or in-focus state), the movement amount is set to − (1 / ΔAFV−1) * AFG.
As a result, when the focus lens 16 reaches the in-focus position, ΔAFV = 1, so that the movement amount becomes 0, and the focus lens 16 stops at the in-focus position. Further, when the focus lens 16 approaches the in-focus position from near the in-focus position, (ΔAFV-1) or (1 / ΔAFV-1) decreases and the movement amount gradually approaches 0, and the focus The moving speed of the lens 16 is also gradually reduced. Further, when the focus evaluation value ratio ΔAFV = AFV_A / AFV_B is used as an element for determining the movement amount in this way, the movement amount (movement speed) due to the size of the focus evaluation value itself is little and more stable. The focus operation can be realized.
[0051]
Next, calibration of the sensitivity of the chA and chB focus evaluation values acquired from the focus evaluation value generation unit 70 will be described. In the above description, it is assumed that the sensitivity of the chA and chB focus evaluation values obtained from the focus evaluation value generation unit 70 (hereinafter referred to as focus evaluation value sensitivity) is the same. That is, the focus state detection imaging device 32A for generating the chA focus evaluation value and the characteristics of various circuits related to chA in the focus evaluation value generation unit 70, and the focus state for generating the chB focus evaluation value It is assumed that the characteristics of various circuits related to chB in the detection image sensor 32B and the focus evaluation value generation unit 70 match. However, in reality, the focus evaluation value sensitivities may not match, and in this embodiment, the sensitivity of the chA and chB focus evaluation values obtained from the focus evaluation value generation unit 70 can be calibrated. The case will be described.
[0052]
First, in the CPU 40, the focus evaluation value for chA acquired from the focus evaluation value generation unit 70 is AFV_A0, and the focus evaluation value for chB is AFV_B0. Then, the focus evaluation values of chA and chB with the calibrated sensitivity, that is, the focus evaluation values used for the AF control (referred to as corrected focus evaluation values) are respectively AFV_A and AFV_B as described above. At this time,
[0053]
[Expression 1]
AFV_A = (AFV_A0−AFV_A_OFFSET) * AFG_A… ▲ 1 ▼
[0054]
[Expression 2]
AFV_B = (AFV_B0−AFV_B_OFFSET) * AFG_B… ▲ 2 ▼
Thus, the corrected focus evaluation value is calculated. The focus evaluation values AFV_A0 and AFV_B0 acquired from the focus evaluation value generation unit 70 before correction by the above formulas (1) and (2) are referred to as focus evaluation values before correction.
[0055]
Therefore, the focus evaluation value sensitivity can be calibrated by setting the values of AFV_A_OFFSET, AFV_B_OFFSET, AFG_A, and AFG_B in the above formulas (1) and (2) to appropriate values, and the focus evaluation value sensitivity of chA and chB Can be matched.
[0056]
Although specific calibration processing will be described later, the AFV_A_OFFSET and AFV_B_OFFSET (reference values) obtained by the calibration processing are focus evaluations of the black levels of chA and chB obtained in a state where the focus state detection imaging elements 32A and 32B are shielded from light, respectively. The value (focus evaluation value before correction) is set. For example, the focus evaluation values of chA and chB acquired when the iris 20 is completely closed are set. However, the present invention is not limited to this, and for example, the focus evaluation values of chA and chB obtained when a plain subject (an image without contrast) is captured may be set.
[0057]
On the other hand, the above AFG_A and AFG_B (gain) are chA and chB obtained when the focus lens 16 is moved while photographing a predetermined subject such as a chart (however, it may not be a specially determined subject). Based on the maximum value of the respective focus evaluation values, the values are set so that the corrected focus evaluation values match.
[0058]
Using the AFV_A_OFFSET, AFV_B_OFFSET, AFG_A, and AFG_B set by the calibration process in this way, the focus evaluation values AFV_A0 and chB of chA acquired from the focus evaluation value generation unit 70 by the above formulas (1) and (2) By correcting the evaluation value AFV_B0, the chA and chB focus evaluation values AFV_A and AFV_B in a state where the focus evaluation value sensitivities coincide with each other can be acquired.
[0059]
Further, the AFV_A_OFFSET, AFV_B_OFFSET, AFG_A, and AFG_B set by the calibration process are stored as calibration data in the memory 72 shown in FIG. 1, and when AF control is performed, the calibration data is read and the focus evaluation value is read. The focus evaluation value acquired from the generation unit 70 is used for correction. The calibration process is executed by turning on the calibration start switch 74 shown in FIG. 1. During the execution of the calibration process, the indicator 76 (for example, LED) shown in FIG. Then, the display 76 is turned off. The calibration start switch 74 and the display 76 may be installed in the lens device 10 or may be installed in a controller such as the focus demand 62. In addition, the calibration process is not executed by turning on the calibration start switch 74, but is executed when the power of the lens apparatus 10 is turned on or during initial adjustment before product shipment, and the set calibration data is stored in the memory 72. It may be.
[0060]
Next, an AF control processing procedure in the CPU 40 will be described. First, the flow of the entire processing in the CPU 40 will be described with reference to the flowchart of FIG. 5. After the CPU 40 performs the necessary initial settings (step S10), it is determined whether or not to start calibration of focus evaluation value sensitivity (generation of calibration data). Is determined (step S12). Whether or not the focus evaluation value sensitivity is calibrated is determined by whether or not the calibration start switch 74 is turned on as described above.
[0061]
If YES is determined in step S12, a focus evaluation value sensitivity calibration process described later is executed (step S14). If NO is determined, the calibration data already generated and stored in the memory 72 is stored. Read from the memory 72 (step S16).
[0062]
Next, the CPU 40 performs iris control based on the iris command signal given from the camera body 12 (step S18). Next, zoom control is performed based on the zoom command signal from the zoom demand 64 (step S20).
[0063]
Subsequently, the CPU 40 determines whether or not the AF switch 66 is ON (step S22). If YES is determined, the AF start flag is turned ON (step S24), and then the focus control process is performed. Execute (step S26). On the other hand, if NO is determined in step S22, the focus control process is executed without turning on the AF start flag (step S26). When the focus control process in step S26 ends, the process returns to step S18, and the processes from step S18 to step S26 are repeatedly executed.
[0064]
6 to 9 are flowcharts showing the procedure of the focus evaluation value sensitivity calibration process in step S14. When performing the focus evaluation value sensitivity calibration, it is desirable for the operator to set the photographing lens in a state of photographing a chart having a high contrast as a subject. First, in FIG. 6, the CPU 40 outputs a control signal to the iris motor drive circuit 52 to drive the iris motor 50 and completely closes the opening of the iris 20 (step S30). As a result, the focus state detection imaging elements 32A and 32B are shielded from light. Subsequently, the chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B are acquired from the focus evaluation value generation unit 70 (steps S32 and S34). Subsequently, the count value of the focus evaluation value sampling counter is incremented by 1 (step S36), and it is determined based on the count value of the sampling counter whether or not the specified number of samplings have been completed (step S38). When it determines with NO, the process from said step S32 is repeated.
[0065]
On the other hand, if YES is determined in step S38, the maximum values AFV_A_MAX and AFV_B_MAX are detected from the focus evaluation values sampled for chA and chB, and the detected maximum values AFV_A_MAX and AFV_B_MAX are set to chA. The chB offset values (focus evaluation values of the black level) are AFV_A_OFFSET and AFV_B_OFFSET. That is,
[0066]
[Equation 3]
AFV_A_OFFSET = AFV_A_MAX
[0067]
[Expression 4]
AFV_B_OFFSET = AFV_B_MAX
(Step S40).
[0068]
Next, the CPU 40 outputs a control signal to the iris motor drive circuit 52 to drive the iris motor 50 and open the opening of the iris 20 (step S42). As a result, the subject light enters the focus state detection imaging elements 32A and 32B. Subsequently, the CPU 40 outputs a control signal to the zoom motor driving circuit 48 to drive the zoom motor 46, and moves the zoom lens 18 to an appropriate position (predetermined position) (step S44). Further, a control signal is output to the focus motor drive circuit 44 to drive the focus motor 42 and move the focus lens 16 to the closest end (step S46).
[0069]
Note that the position of the zoom lens 18 set in step S44 is a position suitable for calibration of the focus evaluation value sensitivity. For example, if it is set to the wide side, the focus lens 16 is moved at high speed in the following processing. On the other hand, if the telephoto side is set, there is an advantage that an accurate peak (maximum value) of the focus evaluation value can be detected in the following processing.
[0070]
Next, the CPU 40 acquires the focus evaluation value AFV_A of chA from the focus evaluation value generation unit 70, and sets the acquired focus evaluation value AFV_A to AFV_A_MIN (step S48). Further, as shown in the flowchart of FIG. 7, the CPU 40 acquires the focus evaluation value AFV_B of chB from the focus evaluation value generation unit 70, and sets the acquired focus evaluation value AFV_B to AFV_B_MIN (step S50). . In step S48 and step S50 and the following processing, the chA and chB focus evaluation values represented by AFV_A and AFV_B are the chA and chB set in step S40 from the focus evaluation values acquired from the focus evaluation value generation unit 70, respectively. The offset AFV_A_OFFSET and AFV_B_OFFSET may be subtracted.
[0071]
Next, the CPU 40 sets the moving speed F_SPEED_1ST of the focus lens 16 for detecting the subject (step S52). Then, the moving speed F_SPEED_1ST is output as a control signal to the focus motor drive circuit 44 via the D / A converter 54, and the focus lens 16 is moved in the infinity direction (step S54).
[0072]
While moving the focus lens 16 in the infinity direction in this way, the CPU 40 acquires the focus evaluation value AFV_A for chA and the focus evaluation value AFV_B for chB from the focus evaluation value generation unit 70 (steps S56 and S58). It is determined whether or not peaks (maximum values) of the chA focus evaluation value and the chB focus evaluation value have been detected (step S60). When it determines with NO, the process from said step S56 is repeated.
[0073]
On the other hand, if YES is determined in step S60, the CPU 40 subsequently acquires the focus evaluation value AFV_A for chA and the focus evaluation value AFV_B for chB from the focus evaluation value generation unit 70 (steps S62 and S64). For AFV_A_MIN and AFV_B_MIN set in step S50,
[0074]
[Equation 5]
AFV_A ≦ AFV_A_MIN
Or
[0075]
[Formula 6]
AFV_B_MIN ≦ AFV_B_MIN
It is determined whether or not holds (step S66). When it determines with NO, the process from said step S62 is repeated. On the other hand, if YES is determined, the focus lens 16 is stopped as shown in the flowchart of FIG. 8 (step S68).
[0076]
Next, the CPU 40 sets a moving speed F_SPEED_MIN (slower than the moving speed F_SPEED_1ST) of the focus lens 16 that can accurately detect the maximum focus evaluation value (step S70). Then, the movement speed F_SPEED_MIN is output as a control signal to the focus motor drive circuit 44 via the D / A converter 54, and the focus lens 16 is moved in the closest direction (step S72).
[0077]
While the focus lens 16 is thus moved in the closest direction, the CPU 40 acquires the chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B from the focus evaluation value generation unit 70 (steps S74 and S76), and chA. The maximum values of the focus evaluation value AFV_A and the focus evaluation value AFV_B of chB are searched, and the maximum values are set to AFV_A_MAX and AFV_B_MAX (step S78). Then, it is determined whether a maximum value is found for both chA and chB (step S80). When it determines with NO, the process from step S74 is repeated. On the other hand, if YES is determined, the focus lens 16 is stopped as shown in the flowchart of FIG. 9 (step S82).
[0078]
Next, the CPU 40 determines that AFV_A_MAX and AFV_B_MAX set in step S78 are as follows:
[0079]
[Expression 7]
AFV_A_MAX> AFV_B_MAX
It is determined whether or not the condition is satisfied (step S84). If YES is determined, the calibration value AFG_B in the above formulas (1) and (2) is set to 1, and the calibration value AFG_A is set to AFV_B_MAX / AFV_A_MAX (step S86). On the other hand, if NO is determined, the calibration value AFG_A in the above formulas (1) and (2) is set to 1 and the calibration value AFG_B is set to AFV_A_MAX / AFV_B_MAX (step S88).
[0080]
Then, the calibration values AFG_A and AFG_B set in step S86 or step S88 are written in the memory 72 (nonvolatile memory) as the focus evaluation value calibration data (step S90). The offset AFV_A_OFFSET and AFV_B_OFFSET set in step S40 are also written in the memory 72 as calibration data. The focus evaluation value sensitivity calibration processing is completed by the above processing.
[0081]
FIG. 10 is a flowchart showing the focus control process in step S26 of FIG. When executing the focus control process, first, the CPU 40 obtains the focus evaluation value AFV_A of the focus state detection imaging element 32A (chA) from the focus evaluation value generation unit 70 (step S100) and at the same time, the focus state detection imaging. The focus evaluation value AFV_B of the element 32B (chB) is acquired (step S102).
[0082]
Here, the focus evaluation values AFV_A and AFV_B acquired in step S100 and step S102 indicate the focus evaluation values after correction, and the correction procedure is shown in FIG. First, the CPU 40 reads the chA and chB focus evaluation values (focus evaluation values before correction) from the focus evaluation value generation unit 70, and sets them to AFV_A0 and AFV_B0, respectively (step S120). Then, as indicated by the above formulas (1) and (2), the corrected focus evaluation values AFV_A and AFV_B using the calibration data AFV_A_OFFSET, AFV_B_OFFSET, AFG_A, and AFG_B read from the memory 72 in step S16 of FIG. The following formula,
[0083]
[Equation 8]
AFV_A = (AFV_A0−AFV_A_OFFSET) * AFG_A… ▲ 1 ▼
[0084]
[Equation 9]
AFV_B = (AFV_B0−AFV_B_OFFSET) * AFG_B… ▲ 2 ▼
Calculated by
[0085]
Returning to FIG. 10, after acquiring the focus evaluation values AFV_A and AFV_B for chA and chB calculated as described above, the CPU 40 next determines whether or not the AF start flag is set to ON. (Step S104). If NO is determined, MF processing is executed.
[0086]
In the case of the MF process, the CPU 40 acquires focus position data F_POSI indicating the current position of the focus lens 16 from the focus lens position detector 56 (step S106), and indicates the movement target position of the focus lens 16 from the focus demand 62. Focus demand data F_CTRL is acquired (step S108). Then, a difference F_POSI−F_CTRL between the acquired focus position data F_POSI and focus demand data F_CTRL is obtained, and the value is set as a movement speed F_SPEED for moving the focus lens 16 to the movement target position commanded by the focus demand 62. (Step S110). Then, the movement speed F_SPEED is output as a control signal to the focus motor drive circuit 44 via the D / A converter 54. (Step S114).
[0087]
On the other hand, if YES in step S104, that is, if it is determined that the AF start flag is ON, the CPU 40 executes AF processing (step S112).
[0088]
FIG. 12 is a flowchart showing the AF processing procedure in step S12. First, the CPU 40 determines whether or not the parameter F_MEMO_FLG is set to 1 (step S130). In the first process that shifts from the MF control to the AF control, it is determined as NO. In this case, the focus demand data indicating the current movement target position is acquired from the focus demand 62, and the data value is the initial (current) movement target. The position F_CTRL is set (step S132). Next, the parameter F_MEMO_FLG is set to 1 (step S134). If YES is determined in step S130, the processes in steps S132 and S134 are not performed.
[0089]
Next, the CPU 40 obtains the difference ΔAFV = AFV_A−AFV_B between the corrected chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B acquired in step S100 and step S102 of FIG. 10 (step S136).
[0090]
Then, a value (movement amount) ΔAFV * AFG obtained by multiplying the ΔAFV by a predetermined AF gain AFG is added to the current movement target position AF_CTRL, and the value is set as a new movement target position AF_CTRL (step S138). That is, AF_CTRL = AF_CTRL + ΔAFV * AFG.
[0091]
Next, the CPU 40 reads focus position data F_POSI indicating the current position of the focus lens 16 from the focus lens position detector 56 (step S140), and the difference between the focus position data F_POSI and the movement target position AF_CTRL set in step S138. AF_CTRL-F_POSI is set as a moving speed F_SPEED for moving the focus lens 16 (step S142). Then, returning to the flowchart of FIG. 10, the movement speed F_SPEED is output as a control signal to the focus motor drive circuit 44 via the D / A converter 54 (step S114).
[0092]
With the above processing, the focus lens 16 moves to the in-focus position at a moving speed corresponding to the focal length and F value of the photographing lens.
[0093]
Next, instead of using the difference ΔAFV = AFV_A−AFV_B between the focus evaluation value AFV_A of chA and the focus evaluation value AFV_B of chB as in the AF process shown in FIG. An AF process when the ratio ΔAFV = AFV_A / AFV_B between the focus evaluation value AFV_A of chA and the focus evaluation value AFV_B of chB is used as an element for setting the movement amount as described above will be described with reference to the flowchart of FIG. Note that the processing from step S150 to step S154 in the flowchart in FIG. 13 is exactly the same as the processing from step S130 to step S134 in FIG. 12, and therefore will be described from the processing in step S156 in FIG.
[0094]
The CPU 40 performs the processing from step S150 to step S154, and then the ratio ΔAFV between the corrected chA focus evaluation value AFV_A and chB focus evaluation value AFV_B acquired in step S100 and step S102 of FIG. = AFV_A / AFV_B is obtained (step S156).
[0095]
Then, the CPU 40 determines whether or not the focus evaluation value ratio ΔAFV is greater than 1.0 (step S158). If YES is determined, ΔAFV = (ΔAFV−1.0) * AFG is set (step S160). On the other hand, if NO is determined, -ΔAFV = (1 / ΔAFV−1.0) * AFG is set (step S162). AFG represents a predetermined AF gain value. Then, the CPU 40 adds the obtained value (movement amount) ΔAFV to the current movement target position AF_CTRL, and sets the value as a new movement target position AF_CTRL (step S164). That is, AF_CTRL = AF_CTRL + ΔAFV.
[0096]
Next, the CPU 40 reads focus position data F_POSI indicating the current position of the focus lens 16 from the focus lens position detector 56 (step S166), and the difference between the focus position data F_POSI and the movement target position AF_CTRL set in step S164. AF_CTRL-F_POSI is set as a moving speed F_SPEED for moving the focus lens 16 (step S168). Then, returning to the flowchart of FIG. 10, the movement speed F_SPEED is output as a control signal to the focus motor drive circuit 44 via the D / A converter 54 (step S114).
[0097]
In the above embodiment, the case where two focus evaluation values are acquired from the two focus detection imaging elements 32A and 32B and AF control is performed has been described. However, the present invention is not limited thereto, and the optical path lengths are arranged at different positions. Even when AF control is performed based on three or more focus evaluation values obtained from three or more image pickup devices, the process of matching the focus evaluation value sensitivities can be performed in the same manner as in the above embodiment.
[0098]
In the above embodiment, in AF control, the movement target position of the focus lens 16 is set by the difference or ratio between the focus evaluation values of chA and chB, and the movement speed corresponding to the difference between the movement target position and the current position. However, the present invention is not limited to this, and the moving speed may be set directly based on the difference or ratio between the chA and chB focus evaluation values, and the focusing lens 16 may be moved at the moving speed. Good.
[0099]
Further, although cases have been described with the above embodiment as examples where the present invention is applied to a television camera system, the present invention is not limited thereto, and can also be applied to a video camera and a still camera for capturing a still image. .
[0100]
【The invention's effect】
As described above, according to the autofocus system of the present invention, since the calibration means for calibrating the sensitivity of the focus evaluation value obtained from each image sensor is provided, the sensitivity of the focus evaluation value is appropriately calibrated, and the accuracy is improved. High autofocus can be performed. In addition, it is possible to automatically calibrate the sensitivity of the focus evaluation value, so that troublesome work can be eliminated.
[Brief description of the drawings]
FIG. 1 is a block diagram of a television camera system to which an autofocus system according to the present invention is applied.
FIG. 2 is a diagram in which an optical axis of subject light incident on a video image sensor and an optical axis of subject light incident on a pair of focus state detection image sensors are displayed on the same line.
FIG. 3 is a block diagram illustrating a configuration of a focus evaluation value generation unit.
FIG. 4 is a diagram illustrating a state of a focus evaluation value with respect to a focus position when a certain subject is imaged, with a horizontal axis indicating a focus position of the photographing lens and a vertical axis indicating a focus evaluation value.
FIG. 5 is a flowchart showing the overall flow of processing in a CPU.
FIG. 6 is a flowchart illustrating a procedure of focus evaluation value sensitivity calibration processing in a CPU.
FIG. 7 is a flowchart illustrating a procedure of focus evaluation value sensitivity calibration processing in a CPU.
FIG. 8 is a flowchart illustrating a procedure of focus evaluation value sensitivity calibration processing in a CPU.
FIG. 9 is a flowchart illustrating a procedure of focus evaluation value sensitivity calibration processing in the CPU.
FIG. 10 is a flowchart showing a processing procedure of focus control in FIG. 5;
FIG. 11 is a flowchart illustrating a processing procedure for calculating a focus evaluation value in a CPU.
FIG. 12 is a flowchart showing a processing procedure of AF processing in FIG. 10;
FIG. 13 is a flowchart illustrating a processing procedure in another form of AF processing;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Lens apparatus, 12 ... Camera body, 14 ... Imaging part, 16 ... Focus lens (group), 18 ... Zoom lens (group), 20 ... Iris, 22A ... Front side relay lens, 22B ... Rear side relay lens, 24 ... Half mirror, 26 ... relay lens, 28 ... focus state detection unit, 30A ... first prism, 30B ... second prism, 32A, 32B ... focus state detection image sensor, 40 ... CPU, 42 ... focus motor, 44 ... focus Motor drive circuit 56 ... focus lens position detector 62 ... focus demand 66 ... AF switch 70 ... focus evaluation value generator 72 ... memory 74 ... calibration start switch 76 ... display 80A, 80B ... high pass Filter (HPF), 82A, 82B ... A / D converter, 84A, 84B ... Gate circuit, 86A, 86B Adder

Claims (7)

撮影レンズに入射した被写体光を光路長が異なる位置に配置された複数の撮像手段により撮像し、該複数の撮像手段により撮像された各画像の鮮鋭度を示す焦点評価値に基づいて前記撮影レンズのフォーカスを合焦位置に移動させると共に、前記各撮像手段から得られた焦点評価値ごとに該焦点評価値の所定の基準値からの変化量に所定のゲインを乗じて得られた値を、前記撮影レンズのフォーカスの制御に使用する焦点評価値とするオートフォーカスシステムにおいて、
前記基準値及び前記ゲインを適切な値に設定することにより前記各撮像手段から得られる焦点評価値の感度が一致するように該感度を校正する校正手段を備え、
前記校正手段は、
コントラストのない画像を撮像した場合に前記各撮像手段から得られた焦点評価値を前記基準値として設定する基準値設定手段と、
前記撮影レンズのフォーカスを移動させた場合に前記各撮像手段から得られた焦点評価値の最大値が一致するように前記ゲインを設定するゲイン設定手段と、
を備えると共に、前記ゲイン設定手段によって前記ゲインを設定する際に、前記撮影レンズのズームを予め決められた位置に設定した状態でフォーカスを移動させることを特徴とするオートフォーカスシステム。
The subject lens incident on the photographic lens is imaged by a plurality of imaging units arranged at positions having different optical path lengths, and the photographic lens is based on a focus evaluation value indicating the sharpness of each image captured by the plurality of imaging units. And a value obtained by multiplying the amount of change from a predetermined reference value of the focus evaluation value by a predetermined gain for each focus evaluation value obtained from each imaging means, In an autofocus system that is used as a focus evaluation value for controlling the focus of the photographing lens ,
A calibration unit that calibrates the sensitivity so that the sensitivity of the focus evaluation value obtained from each imaging unit matches by setting the reference value and the gain to appropriate values ;
The calibration means includes
Reference value setting means for setting a focus evaluation value obtained from each of the image pickup means as the reference value when an image without contrast is picked up;
Gain setting means for setting the gain so that the maximum value of the focus evaluation values obtained from the respective imaging means when the focus of the photographing lens is moved;
And an autofocus system that moves the focus while setting the zoom of the photographing lens to a predetermined position when the gain is set by the gain setting means .
撮影レンズに入射した被写体光を光路長が異なる位置に配置された複数の撮像手段により撮像し、該複数の撮像手段により撮像された各画像の鮮鋭度を示す焦点評価値に基づいて前記撮影レンズのフォーカスを合焦位置に移動させると共に、前記各撮像手段から得られた焦点評価値ごとに該焦点評価値の所定の基準値からの変化量に所定のゲインを乗じて得られた値を、前記撮影レンズのフォーカスの制御に使用する焦点評価値とするオートフォーカスシステムにおいて、
前記基準値及び前記ゲインを適切な値に設定することにより前記各撮像手段から得られる焦点評価値の感度が一致するように該感度を校正する校正手段を備え、
前記校正手段は、
コントラストのない画像を撮像した場合に前記各撮像手段から得られた焦点評価値を前記基準値として設定する基準値設定手段と、
前記撮影レンズのフォーカスを移動させた場合に前記各撮像手段から得られた焦点評価値の最大値が一致するように前記ゲインを設定するゲイン設定手段であって、前記撮影レンズのフォーカスを高速で移動させて前記各撮像素子から得られる焦点評価値の最大値の存在を確認した後、前記フォーカスを低速で移動させて前記各撮像素子から得られる焦点評価値の最大値を精度良く検出するゲイン設定手段と、
を備えたことを特徴とするオートフォーカスシステム。
The subject lens incident on the photographic lens is imaged by a plurality of imaging units arranged at positions having different optical path lengths, and the photographic lens is based on a focus evaluation value indicating the sharpness of each image captured by the plurality of imaging units. And a value obtained by multiplying the amount of change from a predetermined reference value of the focus evaluation value by a predetermined gain for each focus evaluation value obtained from each imaging means, In an autofocus system that is used as a focus evaluation value for controlling the focus of the photographing lens ,
Comprising a calibration means for calibrating the sensitivity as the sensitivity of the focus evaluation values obtained from the respective imaging means coincides by setting the reference value and the gain to an appropriate value,
The calibration means includes
Reference value setting means for setting a focus evaluation value obtained from each of the image pickup means as the reference value when an image without contrast is picked up;
Gain setting means for setting the gain so that the maximum focus evaluation values obtained from the respective imaging means coincide with each other when the focus of the taking lens is moved ; A gain for accurately detecting the maximum value of the focus evaluation value obtained from each image sensor by moving the focus at a low speed after confirming the existence of the maximum value of the focus evaluation value obtained from each image sensor by moving Setting means;
Features and to Luo over autofocus system further comprising a.
前記校正手段は、所定のスイッチがオンされた時、電源立ち上げ時、又は、出荷前の初期設定時に前記感度の校正を自動で実行することを特徴とする請求項1又は2のオートフォーカスシステム。  3. The autofocus system according to claim 1, wherein the calibration unit automatically executes calibration of the sensitivity when a predetermined switch is turned on, when the power is turned on, or when initial setting is performed before shipment. . 前記校正手段は、前記基準値設定手段及び前記ゲイン設定手段により設定した基準値及びゲインを校正データとしてメモリに記憶させることを特徴とする請求項1又は2のオートフォーカスシステム。The calibration means according to claim 1 or 2 autofocus system, characterized in that to the memory to store the reference value and the gain set by the reference value setting means and said gain setting means as the calibration data. 前記基準値設定手段は、前記撮影レンズのアイリスを閉じることによって、前記コントラストのない画像を前記各撮像素子により撮像することを特徴とする請求項1又は2のオートフォーカスシステム。It said reference value setting means, by closing the iris of the photographing lens, according to claim 1 or 2 autofocus system characterized by capturing an image with no the contrast by the respective imaging element. 前記ゲイン設定手段は、前記撮影レンズのフォーカスを高速で移動させて前記各撮像素子から得られる焦点評価値の最大値の存在を確認した後、前記フォーカスを低速で移動させて前記各撮像素子から得られる焦点評価値の最大値を精度良く検出することを特徴とする請求項のオートフォーカスシステム。The gain setting means moves the focus of the photographing lens at a high speed and confirms the presence of the maximum value of the focus evaluation value obtained from each of the image sensors, and then moves the focus at a low speed to move the focus from each of the image sensors. 2. The autofocus system according to claim 1 , wherein a maximum value of the obtained focus evaluation values is detected with high accuracy. 前記校正手段による前記感度の校正の実行中であることを表示する表示手段を備えたことを特徴とする請求項1又は2のオートフォーカスシステム。  3. The autofocus system according to claim 1, further comprising display means for displaying that the calibration of the sensitivity by the calibration means is being executed.
JP2002243360A 2002-08-23 2002-08-23 Auto focus system Expired - Fee Related JP4032877B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002243360A JP4032877B2 (en) 2002-08-23 2002-08-23 Auto focus system
US10/642,143 US7345706B2 (en) 2002-08-23 2003-08-18 Auto focus system
DE10338246A DE10338246A1 (en) 2002-08-23 2003-08-20 Autofocus System
FR0310096A FR2843809B1 (en) 2002-08-23 2003-08-22 AUTOMATIC FOCUSING SYSTEM WITH SENSITIVITY CORRECTION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002243360A JP4032877B2 (en) 2002-08-23 2002-08-23 Auto focus system

Publications (2)

Publication Number Publication Date
JP2004085676A JP2004085676A (en) 2004-03-18
JP4032877B2 true JP4032877B2 (en) 2008-01-16

Family

ID=32052139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002243360A Expired - Fee Related JP4032877B2 (en) 2002-08-23 2002-08-23 Auto focus system

Country Status (1)

Country Link
JP (1) JP4032877B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038932A (en) * 2004-07-22 2006-02-09 Fujinon Corp Af lens device
JP2006064972A (en) * 2004-08-26 2006-03-09 Fujinon Corp Automatic focusing system
JP4838557B2 (en) 2005-09-12 2011-12-14 キヤノン株式会社 Zoom lens and imaging apparatus having the same
JP2007108584A (en) * 2005-10-17 2007-04-26 Fujifilm Corp Imaging apparatus and control program
JP5409028B2 (en) 2009-01-30 2014-02-05 キヤノン株式会社 Splitting optical system, imaging optical system and imaging apparatus using the same
JP5475417B2 (en) * 2009-12-01 2014-04-16 富士フイルム株式会社 Image sensor characteristic adjustment method and characteristic adjustment apparatus

Also Published As

Publication number Publication date
JP2004085676A (en) 2004-03-18

Similar Documents

Publication Publication Date Title
JP3975395B2 (en) Camera system
KR101369666B1 (en) Lens device and imaging device
JP4094458B2 (en) Image input device
JP5089154B2 (en) Auto focus system
JP4334784B2 (en) Autofocus device and imaging device using the same
US7262805B2 (en) Focus detecting system
EP1571477A2 (en) Focus detecting system
JP2009265239A (en) Focus detecting apparatus, focus detection method, and camera
JP2004085675A (en) Automatic focus system
JP2010243843A (en) Autofocus system
JP4032877B2 (en) Auto focus system
JP2002372661A (en) Photographic lens
US20030174232A1 (en) Focus detecting system
JP2004085673A (en) Autofocus system
JP4847352B2 (en) Imaging apparatus and control method thereof
JP4066244B2 (en) Auto focus system
JP2006215285A (en) Autofocus system
JP2009109792A (en) Autofocusing device and camera using it
JP2010147612A (en) Camera and camera system
KR101436836B1 (en) Apparatus and method for adjusting focuss error in digital imgage processing device
JP2004212458A (en) Autofocus system
JP2005156736A (en) Auto focus system
JP5475417B2 (en) Image sensor characteristic adjustment method and characteristic adjustment apparatus
JP4513056B2 (en) Auto focus system
JP2004151608A (en) Autofocus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees