JP2004151608A - Autofocus system - Google Patents

Autofocus system Download PDF

Info

Publication number
JP2004151608A
JP2004151608A JP2002319258A JP2002319258A JP2004151608A JP 2004151608 A JP2004151608 A JP 2004151608A JP 2002319258 A JP2002319258 A JP 2002319258A JP 2002319258 A JP2002319258 A JP 2002319258A JP 2004151608 A JP2004151608 A JP 2004151608A
Authority
JP
Japan
Prior art keywords
focus
evaluation value
focus evaluation
horizontal
vertical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002319258A
Other languages
Japanese (ja)
Inventor
Kunio Tanida
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Priority to JP2002319258A priority Critical patent/JP2004151608A/en
Publication of JP2004151608A publication Critical patent/JP2004151608A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autofocus system by which a subject is surely brought into focus even in the case of photographing the subject whose contrast in either a horizontal direction or a vertical direction is low by generating a focus evaluating value showing the distinctness (contrast) of a photographic image both in the horizontal direction and the vertical direction of the photographic image and controlling focusing of a photographic lens to attain focusing both in the horizontal direction and the vertical direction based on the focus evaluating values in both directions. <P>SOLUTION: A CPU 54 acquires focus evaluated values in the respective horizontal and vertical directions from imaging devices for detecting a focusing state 32A and 32B through a focus evaluating value generating part 58 and controls the position of a focus lens 16 by driving a focus motor 50 so that the focus evaluated values in both directions may show a state regarded as a focusing state. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明はオートフォーカスシステムに係り、特に映像信号に基づくコントラスト方式のオートフォーカスシステムに関する。
【0002】
【従来の技術】
ビデオカメラなどのオートフォーカスは、コントラスト方式によるものが一般的である。このコントラスト方式は、撮像素子から得られた映像信号のうちある範囲(フォーカスエリア)内の映像信号の高域周波数成分を積算して焦点評価値を生成し、その焦点評価値が最大(極大)となるようにピント調整を自動で行うものである。これによって、撮像素子で撮像された画像の鮮鋭度(コントラスト)が最大となる最良ピント(合焦)が得られる。
【0003】
また、従来、光路長の異なる位置に配置した複数の撮像素子を用いて撮影レンズのピント状態(前ピン、後ピン、合焦)を検出する方法が提案されている。これによれば、現在のフォーカス位置において、例えばフォーカスを前後に移動させたときの焦点評価値を、複数の撮像素子から得られた映像信号によって同時に知ることができ、その情報から現在のピント状態を検出することができる。また、検出したピント状態に基づいて合焦となるように撮影レンズのピント調整を自動で行うこともできる(例えば、特許文献1乃至4参照)。
【0004】
【特許文献1】
特願2001−168246
【0005】
【特許文献2】
特願2001−168247
【0006】
【特許文献3】
特願2001−168248
【0007】
【特許文献4】
特願2001−168249
【0008】
【発明が解決しようとする課題】
ところで、通常、映像信号は、各フレームの画像の上端から下端まで水平方向に順に走査して各画素の信号を走査した順に時系列で伝送する形態をとる。そのため、映像信号から高域周波数成分を抽出して積算することにより生成される焦点評価値は水平方向に対する画像のコントラストを示す値となる。従って、被写体のコントラストが垂直方向に対して高くても、水平方向に対して低い場合(例えば、横縞の模様)には、正常にピント合わせできないという不具合があった。
【0009】
本発明はこのような事情に鑑みてなされたもので、コントラスト方式のオートフォーカスにおいて、一方向、特に垂直方向にのみコントラストが高い被写体に対しても確実にピントを合わせることができるオートフォーカスシステムを提供することを目的とする。
【0010】
【課題を解決するための手段】
前記目的を達成するために、請求項1に記載の発明は、撮像手段により得られる映像信号に基づいて該映像信号により形成される画像の鮮鋭度を示す焦点評価値を求め、該焦点評価値に基づいて撮影レンズのフォーカスを制御し、該撮影レンズのピント合わせを自動で行うオートフォーカスシステムにおいて、前記映像信号により形成される画像の水平方向に対する高域周波数成分を抽出し、該高域周波数成分に基づいて水平方向に対する画像の鮮鋭度を示す焦点評価値を生成する水平方向焦点評価値生成手段と、前記映像信号により形成される画像の垂直方向に対する高域周波数成分を抽出し、該高域周波数成分に基づいて垂直方向に対する画像の鮮鋭度を示す焦点評価値を生成する垂直方向焦点評価値生成手段と、前記水平方向焦点評価値生成手段により生成された焦点評価値に基づいて合焦か否かを判定する水平方向合焦判定手段と、前記垂直方向焦点評価値生成手段により生成された焦点評価値に基づいて合焦か否かを判断する垂直方向合焦判定手段と、前記水平方向合焦判定手段と前記垂直方向合焦判定手段のいずれにおいても合焦と判定される状態となるように前記撮影レンズのフォーカスを制御するフォーカス制御手段と、を備えたことを特徴とするオートフォーカスシステム。
【0011】
また、請求項2に記載の発明は、請求項1に記載の発明において、前記撮影レンズに入射した被写体光を光路長の異なる位置で撮像する複数の撮像手段を備え、前記水平方向焦点評価値生成手段及び前記垂直方向焦点評価値生成手段は、前記複数の撮像手段からの各映像信号に基づいて各撮像手段に対応した焦点評価値を生成し、前記水平方向合焦判定手段は、前記水平方向焦点評価値生成手段により生成された前記各撮像手段に対応した焦点評価値を比較することによって合焦か否かを判定すると共に、合焦でないと判定した場合に合焦を得るためのフォーカスの動作方向を判定し、前記垂直方向合焦判定手段は、前記水平方向焦点評価値生成手段により生成された前記各撮像手段に対応した焦点評価値を比較することによって合焦か否かを判定すると共に、合焦でないと判定した場合に合焦を得るためのフォーカスの動作方向を判定し、前記フォーカス制御手段は、前記水平方向合焦判定手段又は前記垂直方向合焦判定手段によって判定された合焦を得るためのフォーカスの動作方向に基づいて、前記水平方向合焦判定手段と前記垂直方向合焦判定手段のいずれにおいても合焦と判定される状態となるようにフォーカスを制御することを特徴としている。
【0012】
本発明によれば、撮影画像の水平方向及び垂直方向の両方向に対して画像の鮮鋭度(コントラスト)を示す焦点評価値を生成し、水平方向及び垂直方向の両方向の焦点評価値に基づいて両方向に対して合焦となるように撮影レンズのフォーカスを制御するようにしたため、水平方向及び垂直方向のいずれか一方向のコントラストが低い被写体を撮影する場合であっても確実にピントを合わせることができる。
【0013】
【発明の実施の形態】
以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。
【0014】
図1は、本発明が適用されたテレビカメラシステムの光学系の構成を示したブロック図である。同図に示すテレビカメラシステムは、撮影レンズ10を備えたレンズ装置とカメラ本体12等から構成されており、カメラ本体12には、再生用(放映用等)の映像を撮影し、所定形式の映像信号として出力又は記録媒体に記録するための撮像素子(以下、映像用撮像素子という)や所要の回路等が搭載されている。
【0015】
撮影レンズ10を備えたレンズ装置は、カメラ本体12に着脱可能に装着され、主に光学系(撮影レンズ10)と制御系(後述)とから構成されている。撮影レンズ10には、光軸Oに沿ってフォーカスレンズ(群)16、変倍系及び補正系(図示せず)からなるズームレンズ(群)18、アイリス20、前側リレーレンズ22A及び後側リレーレンズ22Bからなるリレーレンズ(リレー光学系)等が配置されている。
【0016】
リレー光学系の前側リレーレンズ22Aと後側リレーレンズ22Bとの間には、ピント状態検出用の被写体光を映像用の被写体光から分岐するためのハーフミラー24が配置されている。このハーフミラー24は、撮影レンズ10の光軸Oに対して略45度傾斜して設置されており、前側リレーレンズ22Aを通過した被写体光の例えば1/3の光量を直角に反射して、映像用の被写体光から分岐する。
【0017】
ハーフミラー24を透過した被写体光は、映像用の被写体光として撮影レンズ10の後端側から射出されたのち、カメラ本体12の撮像部14に入射する。撮像部14の構成については省略するが、撮像部14に入射した被写体光は、例えば色分解光学系により、赤色光、緑色光、青色光の3色に分解され、各色ごとの映像用撮像素子の撮像面に入射する。これによって放映用のカラー映像が撮影される。なお、図中のピント面Pは、各映像用撮像素子の撮像面に対して光学的に等価な位置を撮影レンズ10の光軸O上に示したものである。
【0018】
一方、ハーフミラー24で反射された被写体光は、ピント状態検出用の被写体光として光軸Oに対して垂直な光軸O′に沿って進行し、リレーレンズ26に入射する。そして、このリレーレンズ26で集光されてピント状態検出部28に入射する。
【0019】
ピント状態検出部28は、光分割光学系を構成する2つのプリズム30A、30Bと、ピント状態検出用の一対の撮像素子32A、32B(以下、ピント状態検出用撮像素子という)とで構成されている。
【0020】
上述したようにハーフミラー24で反射した被写体光は、光軸O′に沿って進行し、まず、第1プリズム30Aに入射する。そして、第1プリズム30Aのハーフミラー面Mで反射光と透過光に等分割される。このうち反射光は一方のピント状態検出用撮像素子32Aの撮像面に入射され、透過光は他方のピント状態検出用撮像素子32Bに入射される。このとき、各ピント状態検出用撮像素子32A、32Bの撮像面には、それぞれ撮影レンズ10に入射した全被写体光のうちの約1/6の光量が入射する。
【0021】
図2は、カメラ本体12の映像用撮像素子に入射する被写体光の光軸と一対のピント状態検出用撮像素子32A、32Bに入射する被写体光の光軸を同一直線上に表した図である。同図に示すように、一方のピント状態検出用撮像素子32Aに入射する被写体光の光路長は、他方のピント状態検出用撮像素子32Bに入射する被写体光の光路長よりも短く設定され、映像用撮像素子の撮像面(ピント面P)に入射する被写体光の光路長は、その中間の長さとなるように設定されている。すなわち、一対のピント状態検出用撮像素子32A、32B(の撮像面)は、それぞれ映像用撮像素子の撮像面(ピント面P)に対して前後等距離(d)の位置に配置されている。
【0022】
このように配置された一対のピント状態検出用撮像素子32A、32Bにより、撮影レンズ10に入射した被写体光が映像用撮像素子の撮像面(ピント面P)に対して前後等距離の位置で撮像されるようになっている。尚、一対のピント状態検出用撮像素子32A、32Bは、映像用撮像通素子の撮像面に対して前後等距離の位置に撮像面を配置したときに撮像される映像を撮像するものであり、必ずしもピント状態検出用撮像素子32A、32Bと映像用撮像素子との光路長の関係が図2のようになる場合に限らない。また、ピント状態検出用撮像素子32A、32Bは後述のようにピント状態検出(オートフォーカス制御)のための映像信号を取得するものであり、カラー映像を撮像するものである必要はなく、本実施の形態では白黒画像を撮像するCCDであるものとする。
【0023】
次に、レンズ装置におけるオートフォーカス制御に関連する制御系について説明する。図3は、オートフォーカス制御に関連する制御系の構成を示したブロック図である。上記フォーカスレンズ16は、図3に示すようにフォーカスモータ50に連結されており、フォーカスモータ50が駆動されると、フォーカスレンズ16が光軸方向に移動しフォーカスが変更される。フォーカスモータ50には、フォーカスモータ駆動回路52から駆動電圧が与えられ、フォーカスモータ駆動回路52にはCPU54からの制御信号が与えられる。
【0024】
CPU54からの制御信号は、例えば、フォーカスモータ50の回転速度、即ち、フォーカスレンズ16の移動速度に対応する電圧値を示しており、その電圧値がフォーカスモータ駆動回路52に与えられると、フォーカスモータ駆動回路52によって電圧増幅され、その増幅された電圧が駆動電圧としてフォーカスモータ50に印加される。これによって、フォーカスモータ50の回転速度がCPU54によって制御される。
【0025】
また、フォーカスレンズ位置検出器56によってフォーカスレンズ16の現在位置が検出され、その検出信号がCPU54に与えられるようになっている。従って、CPU54の処理において、上述のようにフォーカスモータ50の回転速度を制御することにより、フォーカスレンズ16の動作速度を所望の速度に制御することができ、また、フォーカスレンズ位置検出器56からフォーカスレンズ16の現在位置を読み取りながらフォーカスモータ50の回転速度を制御することにより、フォーカスレンズ16の設定位置を所望の位置に制御することができるようになっている。
【0026】
一方、オートフォーカス制御は、上記ピント状態検出用撮像素子32A、32Bからの映像信号に基づいて行われるようになっており、一対のピント状態検出用撮像素子32A、32Bで撮像された画像(映像)は、1画面を構成する複数の走査線(水平ライン)にそって各画素値を順次伝送する映像信号として出力され、焦点評価値生成部58に入力される。焦点評価値生成部58の構成、処理については後述するが、焦点評価値生成部58において、各ピント状態検出用撮像素子32A、32Bから入力された映像信号から、各ピント状態検出用撮像素子32A、32Bで撮像された各画像のコントラスト(鮮鋭度)の高低を示す焦点評価値が生成され、それらの生成された焦点評価値がCPU54に与えられるようになっている。尚、ピント状態検出用撮像素子32Aからの映像信号に基づいて生成された焦点評価値を、チャンネルA(chA)の焦点評価値といい、ピント状態検出用撮像素子32Bからの映像信号に基づいて生成された焦点評価値を、チャンネルB(chB)の焦点評価値という。CPU54では、詳細を後述するように、焦点評価値生成部58から取得したchAとchBの焦点評価値を取得し、その取得した焦点評価値に基づいて、撮影レンズ10のピント状態(前ピン、後ピン、合焦)を検出すると共に、撮影レンズ10のピント状態が合焦となるようにフォーカスレンズ16の位置を制御する。
【0027】
続いて、上記焦点評価値生成部58の構成及び処理について図4の構成図で説明する。尚、chAとchBの焦点評価値は、同様に構成された処理部により生成されるため、図4にはchAについての処理部の構成のみを示し、chBについての処理部の構成及び説明を省略する。同図に示すようにピント状態検出用撮像素子32Aから出力された映像信号は、焦点評価値生成部58に入力されると、まず、A/D変換器80によりデジタル信号に変換される。尚、各ピント状態検出用撮像素子32Aからの映像信号は、画像を構成する各画素の輝度値を示す輝度信号であるものとする。A/D変換器80によりデジタル信号に変換された映像信号は、続いて2つのラインa、bに分岐される。ラインaは、水平方向の焦点評価値(水平方向焦点評価値)を生成するためのラインであり、ラインbは、垂直方向の焦点評価値(垂直方向焦点評価値)を生成するためのラインである。水平方向焦点評価値は、ピント状態検出用撮像素子32Aからの映像信号によって形成される画像の水平方向に対するコントラストを示し、垂直方向焦点評価値は、ピント状態検出用撮像素子32Aからの映像信号によって形成される画像の垂直方向に対するコントラストを示す。尚、ピント状態検出用撮像素子32Aから出力される映像信号は、一般に知られている通り、画像の上端から下端まで水平方向に順に走査した画素の信号(輝度値)を、走査した順に時系列で伝送する形態をとるものとする。
【0028】
ラインaに分岐された映像信号は、まず、ハイパスフィルタ(HPF)84Aに入力され、HPF84Aにより映像信号の高域周波数成分が抽出される。抽出された高域周波数成分の信号は、続いてゲート回路86Aに入力される。ゲート回路86Aでは、ピント状態検出用撮像素子32Aにより撮像された画像の1画面分(1フィールド分)の信号のうち所定のフォーカスエリア内(例えば、画面中央部分)の画素に対応する信号のみが抽出される。ゲート回路86Aによって抽出された信号は、続いて積算回路88Aに入力され、積算回路88Aによって1画面分の信号が積算される。これにより、フォーカスエリア内における映像信号の高域周波数成分の値の総和が求められる。このように積算回路88Aで得られた値は、フォーカスエリア内における画像の水平方向に対する鮮鋭度(コントラストの高低)を示す焦点評価値であり、積算回路88Aで得られた焦点評価値はチャンネルA(chA)の水平方向焦点評価値としてCPU54に与えられる。
【0029】
一方、ラインbに分岐された映像信号は、まず、メモリ82Bに入力される。メモリ82Bは、例えば、図5に示すように1画面分(1フィールド分)の映像信号で構成される画像の画素に対応して水平方向に720、垂直方向に243の配列を持つ2次元メモリであり、メモリ82Bに入力した映像信号の各画素の信号(輝度値)が対応する画素のメモリに順に記憶される。そして、メモリ82Bに記憶された各画素の信号は、例えば画面の左端から右端まで垂直方向に順に走査されて走査された順に時系列でメモリ82Bから出力される。メモリ82Bから出力された映像信号は、続いて、ハイパスフィルタ(HPF)84Bに入力され、HPF84Bによってその高域周波数成分が抽出された後、ゲート回路86Bに入力される。そして、ゲート回路86Aと一致するフォーカスエリア内の画素に対応する信号のみが抽出され、積算回路88Bによって1画面分の信号が積算される。これにより、フォーカスエリア内における映像信号の高周波成分の値の総和が求められる。このように積算回路88Bで得られた値は、フォーカスエリア内における画像の垂直方向に対する鮮鋭度(コントラストの高低)を示す焦点評価値であり、積算回路88Bで得られた焦点評価値はチャンネルA(chA)の垂直方向焦点評価値としてCPU54に与えられる。
【0030】
以上のように構成された焦点評価値生成部58によりchAとchBの水平方向焦点評価値と垂直方向焦点評価値が生成され、それらの値がCPU54に与えられる。
【0031】
次にCPU54におけるオートフォーカスの処理について説明する。CPU54は、chA及びchBからそれぞれ得られた水平方向焦点評価値を比較し、又は、chA及びchBからそれぞれ得られた垂直方向焦点評価値を比較することによって、映像用撮像素子の撮像面(ピント面P)に対する撮影レンズ10のピント状態(前ピン、後ピン、合焦)を検出する。
【0032】
ここで、まず、chA及びchBの水平方向焦点評価値又は垂直方向焦点評価値のいずれか一方の焦点評価値に基づいてピント状態を検出する原理を図6を用いて説明する。尚、本説明では、水平方向焦点評価値又は垂直方向焦点評価値のいずれに一方の方向に対する焦点評価値を単に焦点評価値という。
【0033】
図6は、横軸に撮影レンズ10のフォーカスレンズ16の位置(フォーカス位置)、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。図中点線で示す曲線Cは、映像用撮像素子(又は映像用撮像素子と共役の位置に配置された撮像素子)からの映像信号により焦点評価値を求めたと仮定した場合にその焦点評価値をフォーカス位置に対して示したものであり、図中実線で示す曲線A、Bは、それぞれピント状態検出用撮像素子32A、32Bから得られるchAとchBの焦点評価値をフォーカス位置に対して示したものである。同図において、曲線Cの焦点評価値が最大(極大)となる位置F3が合焦位置を示している。
【0034】
撮影レンズのフォーカス位置が同図のF1に設定された場合、chAの焦点評価値VA1は、曲線Aの位置F1に対応する値となり、chBの焦点評価値VB1は、曲線Bの位置F1に対応する値となる。そして、この場合、chAの焦点評価値VA1の方が、chBの焦点評価値VB1よりも大きくなる。このことから、フォーカス位置が合焦位置(F3)よりも至近側に設定された状態、すなわち、前ピンの状態であることが分かる。
【0035】
一方、撮影レンズのフォーカス位置が同図のF2に設定された場合、chAの焦点評価値VA2は、曲線Aの位置F2に対応する値となり、chBの焦点評価値VB2は、曲線Bの位置F2に対応する値となる。そして、この場合、chAの焦点評価値VA2の方が、chBの焦点評価値VB2よりも小さくなる。このことから、フォーカス位置が合焦位置(F3)よりも無限遠側に設定された状態、すなわち、後ピンの状態であることが分かる。
【0036】
これに対して、撮影レンズ10のフォーカス位置がF3、すなわち合焦位置に設定された場合、chAの焦点評価値VA3は、曲線Aの位置F3に対応する値となり、chBの焦点評価値VB3は、曲線Bの位置F3に対応する値となる。このとき、chAの焦点評価値VA3とchBの焦点評価値VB3は等しくなる。このことから、フォーカス位置が合焦位置(F3)に設定された状態であることが分かる。
【0037】
このように、焦点評価値生成部58から得られるchAとchBの焦点評価値により、撮影レンズ10の現在のピント状態が前ピン、後ピン、合焦のいずれの状態であるかを検出することができる。
【0038】
従って、焦点評価値生成部58から得られるchAとchBの焦点評価値に基づいてフォーカスレンズ16の位置を制御することにより、フォーカスレンズ16を合焦位置に移動させることができる。即ち、chAとchBの焦点評価値が、前ピンであると判断される状態の場合には、フォーカスレンズ16を無限遠方向に移動させ、後ピンであると判断される状態の場合には、フォーカスレンズ16を至近方向に移動させ、合焦であると判断される状態となった場合には、フォーカスレンズ16をその位置で停止させることによって、フォーカスレンズ16を合焦位置に移動させることができる。
【0039】
次にchA及びchBの水平方向焦点評価値及び垂直方向焦点評価値の両方を用いてフォーカスレンズ16を合焦位置に移動させる際のCPU54の処理手順について図7のフローチャートを用いて説明する。まず、CPU54は、焦点評価値生成部58からchAの水平方向焦点評価値FH1及び垂直方向焦点評価値FV1を取得する(ステップS10)。また、焦点評価値生成部58からchBの水平方向焦点評価値FH2及び垂直方向焦点評価値FV2を取得する(ステップS12)。
【0040】
次にCPU54は、次の条件式、
【0041】
【数1】
FH1>FH2
が成り立ち、且つ、次の条件式、
【0042】
【数2】
|FH1−FH2|>閾値
が成り立つか否かを判定する(ステップS14)。尚、条件式の閾値は、|FH1−FH2|がそれ以下であれば合焦と判断される値を示す。以下の判定処理における閾値もこれと同様である。このステップS14でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも至近側にあるため、CPU54は、フォーカス(フォーカスレンズ16)を無限遠側に移動させる(ステップS16)。そして、ステップS10に戻る。
【0043】
ステップS14でNOと判定した場合には、続いて、次の条件式、
【0044】
【数3】
FH1<FH2
が成り立ち、且つ、次の条件式、
【0045】
【数4】
|FH1−FH2|>閾値
が成り立つか否かを判定する(ステップS18)。このステップS14でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも無限遠側にあるため、CPU54は、フォーカスを至近側に移動させる(ステップS20)。そして、ステップS10に戻る。
【0046】
ステップS18においてNOと判定した場合、即ち、水平方向焦点評価値によるピント状態の検出においては合焦と判断される場合には、続いて、次の条件式、
【0047】
【数5】
FV1>FV2
が成り立ち、且つ、次の条件式、
【0048】
【数6】
|FV1−FV2|>閾値
が成り立つか否かを判定する(ステップS22)。このステップS22でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも至近側にあるため、CPU54は、フォーカスを無限遠側に移動させる(ステップS24)。そして、ステップS10に戻る。
【0049】
ステップS22でNOと判定した場合には、続いて、次の条件式、
【0050】
【数7】
FV1<FV2
が成り立ち、且つ、次の条件式、
【0051】
【数8】
|FV1−FV2|>閾値
が成り立つか否かを判定する(ステップS26)。このステップS26でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも無限遠側にあるため、CPU54は、フォーカスを至近側に移動させる(ステップS20)。そして、ステップS10に戻る。
【0052】
ステップS26でNOと判定した場合には、水平方向及び垂直方向のいずれに関しても焦点評価値が合焦の状態を示しているため、フォーカスを動かすことなく、ステップS10に戻る。
【0053】
以上のように、水平方向及び垂直方向の画像のコントラストを示す水平方向焦点評価値及び垂直方向焦点評価値の両方が合焦状態を示すようにフォーカスを制御することにより、例えば、一方向にのみコントラストが高い被写体(例えば横縞、縦縞)に対しても適切にピントを合わせることができるようになる。
【0054】
以上、上記図7のフローチャートに示した処理では、水平方向焦点評価値と垂直方向焦点評価値に基づくフォーカス制御を順に行うようにしたが、図8のフローチャートに示すようにchAとchBの焦点評価値の差がいずれの方向に関して大きいかを判断し、差が大きい方向に関する焦点評価値に基づいてフォーカスを制御するようにしてもよい。図8のフローチャートの処理を説明すると、まず、CPU54は、焦点評価値生成部58からchAの水平方向焦点評価値FH1及び垂直方向焦点評価値FV1を取得する(ステップS40)。また、焦点評価値生成部58からchBの水平方向焦点評価値FH2及び垂直方向焦点評価値FV2を取得する(ステップS42)。
【0055】
次にCPU54は、|FH1−FH2|>|FV1−FV2|か否かを判定する(ステップS44)。このときYESと判定した場合には、次の条件式、
【0056】
【数9】
FH1>FH2
が成り立ち、且つ、次の条件式、
【0057】
【数10】
|FH1−FH2|>閾値
が成り立つか否かを判定する(ステップS46)。このステップS46でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも至近側にあるため、CPU54は、フォーカス(フォーカスレンズ16)を無限遠側に移動させる(ステップS48)。そして、ステップS40に戻る。
【0058】
ステップS46でNOと判定した場合には、続いて、次の条件式、
【0059】
【数11】
FH1<FH2
が成り立ち、且つ、次の条件式、
【0060】
【数12】
|FH1−FH2|>閾値
が成り立つか否かを判定する(ステップS50)。このステップS50でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも無限遠側にあるため、CPU54は、フォーカスを至近側に移動させる(ステップS20)。そして、ステップS40に戻る。
【0061】
ステップS50においてNOと判定した場合には、閾値≧|FH1−FH2|>|FV1−FV2|が成り立ち、水平方向及び垂直方向のいずれに関しても焦点評価値が合焦の状態を示しているため、フォーカスを動かすことなく、ステップS40に戻る。
【0062】
ステップS44においてNOと判定した場合には、続いて、次の条件式、
【0063】
【数13】
FV1>FV2
が成り立ち、且つ、次の条件式、
【0064】
【数14】
|FV1−FV2|>閾値
が成り立つか否かを判定する(ステップS54)。このステップS54でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも至近側にあるため、CPU54は、フォーカスを無限遠側に移動させる(ステップS56)。そして、ステップS40に戻る。
【0065】
ステップS54でNOと判定した場合には、続いて、次の条件式、
【0066】
【数15】
FV1<FV2
が成り立ち、且つ、次の条件式、
【0067】
【数16】
|FV1−FV2|>閾値
が成り立つか否かを判定する(ステップS58)。このステップS58でYESと判定した場合には、図6で説明したように現在のフォーカス位置は合焦位置よりも無限遠側にあるため、CPU54は、フォーカスを至近側に移動させる(ステップS60)。そして、ステップS40に戻る。
【0068】
ステップS58でNOと判定した場合には、閾値≧|FV1−FV2|>|FH1−FH2|が成り立ち、水平方向及び垂直方向のいずれに関しても焦点評価値が合焦の状態を示しているため、フォーカスを動かすことなく、ステップS40に戻る。
【0069】
尚、上記実施の形態では、AF用として2つのピント状態検出用撮像素子32A、32Bから2つの焦点評価値を取得してAF制御を行う場合について説明したが、これに限らず、AF用の撮像素子が1つ又は3つ以上の場合においても本発明を適用できる。即ち、本発明は、コントラスト方式を採用するオートフォーカスの制御に適用できる。
【0070】
また、上記実施の形態では、本発明をテレビカメラシステムに適用した場合を例に説明したが、本発明はこれに限らず、ビデオカメラや静止画を撮影するスチルカメラにも適用することができる。
【0071】
【発明の効果】
以上説明したように本発明に係るオートフォーカスシステムによれば、撮影画像の水平方向及び垂直方向の両方向に対して画像の鮮鋭度(コントラスト)を示す焦点評価値を生成し、水平方向及び垂直方向の両方向の焦点評価値に基づいて両方向に対して合焦となるように撮影レンズのフォーカスを制御するようにしたため、水平方向及び垂直方向のいずれか一方向のコントラストが低い被写体を撮影する場合であっても確実にピントを合わせることができる。
【図面の簡単な説明】
【図1】図1は、本発明が適用されたテレビカメラシステムの光学系の構成を示したブロック図である。
【図2】図2は、映像用撮像素子に入射する被写体光の光軸と一対のピント状態検出用撮像素子に入射する被写体光の光軸を同一直線上に表示した図である。
【図3】図3は、オートフォーカス制御に関連する制御系の構成を示したブロック図である。
【図4】図4は、焦点評価値生成部の構成を示したブロック図である。
【図5】図5は、焦点評価値生成部におけるメモリの説明に使用した説明図である。
【図6】図6は、横軸に撮影レンズのフォーカス位置、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。
【図7】図7は、レンズ装置のCPUにおけるオートフォーカス制御の処理手順について一実施の形態を示したフローチャートである。
【図8】図8は、レンズ装置のCPUにおけるオートフォーカス制御の処理手順について一実施の形態を示したフローチャートである。
【符号の説明】
10…撮影レンズ、12…カメラ本体、14…撮像部、16…フォーカスレンズ(群)、18…ズームレンズ(群)、20…アイリス、22A…前側リレーレンズ、22B…後側リレーレンズ、24…ハーフミラー、26…リレーレンズ、28…ピント状態検出部、30A…第1プリズム、30B…第2プリズム、32A、32B…ピント状態検出用撮像素子、50…フォーカスモータ、52…フォーカスモータ駆動回路、54…CPU、56…フォーカスレンズ位置検出器、58…焦点評価値生成部、80…A/D変換器、82B…メモリ、84A、84B…ハイパスフィルタ(HPF)、86A、86B…ゲート回路、88A、88B…積算回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an autofocus system, and more particularly to a contrast autofocus system based on a video signal.
[0002]
[Prior art]
Generally, an autofocus of a video camera or the like is based on a contrast method. This contrast method generates a focus evaluation value by integrating high frequency components of video signals within a certain range (focus area) of video signals obtained from an image sensor, and the focus evaluation value is maximum (maximum). The focus adjustment is automatically performed so that Thereby, the best focus (focusing) that maximizes the sharpness (contrast) of the image captured by the image sensor is obtained.
[0003]
Conventionally, there has been proposed a method of detecting a focus state (front focus, rear focus, focus) of a photographing lens using a plurality of image sensors arranged at positions having different optical path lengths. According to this, at the current focus position, for example, the focus evaluation value when the focus is moved back and forth can be simultaneously known from the video signals obtained from the plurality of image sensors, and from the information, the current focus state can be obtained. Can be detected. Further, it is also possible to automatically adjust the focus of the photographing lens so as to focus on the basis of the detected focus state (for example, see Patent Documents 1 to 4).
[0004]
[Patent Document 1]
Japanese Patent Application No. 2001-168246
[0005]
[Patent Document 2]
Japanese Patent Application No. 2001-168247
[0006]
[Patent Document 3]
Japanese Patent Application 2001-168248
[0007]
[Patent Document 4]
Japanese Patent Application 2001-168249
[0008]
[Problems to be solved by the invention]
By the way, usually, a video signal is scanned in a horizontal direction from the upper end to the lower end of an image of each frame, and transmitted in a time-series manner in the order of scanning the signal of each pixel. Therefore, the focus evaluation value generated by extracting and integrating the high frequency components from the video signal is a value indicating the contrast of the image in the horizontal direction. Therefore, when the contrast of the subject is high in the vertical direction but low in the horizontal direction (for example, a pattern of horizontal stripes), there is a problem that the focus cannot be normally adjusted.
[0009]
The present invention has been made in view of such circumstances, and in an autofocus of a contrast method, an autofocus system that can reliably focus on an object having high contrast only in one direction, particularly in a vertical direction. The purpose is to provide.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 obtains a focus evaluation value indicating a sharpness of an image formed by a video signal based on a video signal obtained by an imaging unit, and calculates the focus evaluation value. In an autofocus system that controls the focus of the photographing lens based on the image signal and automatically focuses the photographing lens, extracting a high frequency component in a horizontal direction of an image formed by the video signal, Horizontal focus evaluation value generating means for generating a focus evaluation value indicating the sharpness of the image in the horizontal direction based on the component, and extracting a high frequency component in a vertical direction of the image formed by the video signal, Vertical focus evaluation value generating means for generating a focus evaluation value indicating the sharpness of an image in the vertical direction based on the frequency component of the frequency band, and the horizontal focus evaluation Horizontal focus determining means for determining whether or not focusing is performed based on the focus evaluation value generated by the generating means; and focusing or not based on the focus evaluation value generated by the vertical focus evaluation value generating means. The focus of the photographic lens is controlled such that the focus is determined by both the vertical focus determiner, the horizontal focus determiner, and the vertical focus determiner. An autofocus system comprising: a focus control unit.
[0011]
Further, the invention according to claim 2 is the invention according to claim 1, further comprising a plurality of imaging means for imaging subject light incident on the imaging lens at positions having different optical path lengths, wherein the horizontal focus evaluation value is provided. Generating means and the vertical focus evaluation value generating means generate a focus evaluation value corresponding to each imaging means based on each video signal from the plurality of imaging means; and By comparing the focus evaluation values corresponding to the respective imaging units generated by the directional focus evaluation value generation unit, it is determined whether or not the subject is in focus, and the focus for obtaining the focus when it is determined that the subject is not in focus. Is determined by comparing the focus evaluation values corresponding to the respective imaging units generated by the horizontal focus evaluation value generation unit. In addition to the determination, when it is determined that the focus is not in focus, the operation direction of focus for obtaining focus is determined, and the focus control unit is determined by the horizontal focus determination unit or the vertical focus determination unit. Controlling the focus so that both of the horizontal focus determination means and the vertical focus determination means determine the focus based on the focus operation direction for obtaining the focus. It is characterized by.
[0012]
According to the present invention, a focus evaluation value indicating the sharpness (contrast) of an image is generated in both the horizontal direction and the vertical direction of a captured image, and the focus evaluation value is calculated based on the focus evaluation values in both the horizontal direction and the vertical direction. The focus of the photographic lens is controlled so that it is in focus with respect to the subject, so even when shooting a subject with low contrast in one of the horizontal and vertical directions, it is possible to focus reliably. it can.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.
[0014]
FIG. 1 is a block diagram showing a configuration of an optical system of a television camera system to which the present invention is applied. The television camera system shown in FIG. 1 includes a lens device having a photographic lens 10, a camera body 12, and the like. The camera body 12 captures an image for reproduction (for broadcast, etc.), and An image sensor (hereinafter, referred to as an image sensor for video) for outputting as a video signal or recording on a recording medium, a required circuit, and the like are mounted.
[0015]
The lens device provided with the taking lens 10 is detachably attached to the camera body 12 and mainly includes an optical system (taking lens 10) and a control system (described later). The photographing lens 10 includes a focus lens (group) 16, a zoom lens (group) 18 including a variable power system and a correction system (not shown), an iris 20, a front relay lens 22 A, and a rear relay along the optical axis O. A relay lens (relay optical system) including the lens 22B and the like are arranged.
[0016]
A half mirror 24 is disposed between the front relay lens 22A and the rear relay lens 22B of the relay optical system to split the subject light for focus state detection from the subject light for video. The half mirror 24 is installed at an angle of approximately 45 degrees with respect to the optical axis O of the photographing lens 10, and reflects, for example, 1/3 of the amount of subject light passing through the front relay lens 22 </ b> A at a right angle, Branches from the subject light for video.
[0017]
The subject light transmitted through the half mirror 24 is emitted from the rear end side of the photographing lens 10 as subject light for video, and then enters the imaging unit 14 of the camera body 12. Although the configuration of the imaging unit 14 is omitted, the subject light incident on the imaging unit 14 is separated into three colors of red light, green light, and blue light by, for example, a color separation optical system. Incident on the image pickup surface. As a result, a color image for broadcast is captured. Note that the focus plane P in the figure shows a position optically equivalent to the imaging plane of each imaging element on the optical axis O of the photographing lens 10.
[0018]
On the other hand, the subject light reflected by the half mirror 24 travels along the optical axis O ′ perpendicular to the optical axis O as subject light for focus state detection, and enters the relay lens 26. Then, the light is condensed by the relay lens 26 and enters the focus state detection unit 28.
[0019]
The focus state detection unit 28 includes two prisms 30A and 30B constituting a light splitting optical system, and a pair of image sensors 32A and 32B for focus state detection (hereinafter, referred to as focus state detection image sensors). I have.
[0020]
As described above, the subject light reflected by the half mirror 24 travels along the optical axis O ', and first enters the first prism 30A. Then, the light is equally divided into reflected light and transmitted light on the half mirror surface M of the first prism 30A. Of these, the reflected light is incident on the imaging surface of one focus state detection image sensor 32A, and the transmitted light is incident on the other focus state detection image sensor 32B. At this time, approximately 1/6 of the total subject light incident on the imaging lens 10 is incident on the imaging surfaces of the focus state detection imaging elements 32A and 32B.
[0021]
FIG. 2 is a diagram illustrating the optical axis of the subject light incident on the image pickup device of the camera body 12 and the optical axis of the subject light incident on the pair of focus state detection image pickup devices 32A and 32B on the same straight line. . As shown in the figure, the optical path length of the subject light incident on one of the focus state detection image pickup devices 32A is set shorter than the optical path length of the subject light incident on the other focus state detection image pickup device 32B. The optical path length of the subject light incident on the imaging plane (focus plane P) of the imaging element for use is set to be an intermediate length therebetween. That is, the pair of focus state detection imaging elements 32A and 32B (the imaging planes thereof) are respectively arranged at positions equidistant (d) from the imaging plane (focus plane P) of the video imaging element.
[0022]
With the pair of focus state detection image pickup devices 32A and 32B arranged as described above, the subject light incident on the imaging lens 10 is imaged at a position equidistant from the image pickup surface (focus plane P) of the image pickup device. It is supposed to be. Note that the pair of focus state detection imaging devices 32A and 32B capture images captured when the imaging surface is disposed at a position equidistant in the front-rear direction with respect to the imaging surface of the video imaging device. The relationship between the optical path lengths of the focus state detection imaging devices 32A and 32B and the video imaging device is not necessarily limited to the case shown in FIG. The focus state detection image pickup devices 32A and 32B acquire a video signal for focus state detection (autofocus control) as described later, and need not be a color image pickup apparatus. In the embodiment, it is assumed that the CCD captures a black-and-white image.
[0023]
Next, a control system related to autofocus control in the lens device will be described. FIG. 3 is a block diagram showing a configuration of a control system related to the autofocus control. The focus lens 16 is connected to a focus motor 50 as shown in FIG. 3, and when the focus motor 50 is driven, the focus lens 16 moves in the optical axis direction to change the focus. A drive voltage is applied to the focus motor 50 from a focus motor drive circuit 52, and a control signal from the CPU 54 is applied to the focus motor drive circuit 52.
[0024]
The control signal from the CPU 54 indicates, for example, a rotation speed of the focus motor 50, that is, a voltage value corresponding to the moving speed of the focus lens 16, and when the voltage value is given to the focus motor drive circuit 52, the focus motor 50 The voltage is amplified by the drive circuit 52, and the amplified voltage is applied to the focus motor 50 as a drive voltage. Thus, the rotation speed of the focus motor 50 is controlled by the CPU 54.
[0025]
Further, the current position of the focus lens 16 is detected by the focus lens position detector 56, and the detection signal is given to the CPU 54. Therefore, in the processing of the CPU 54, by controlling the rotation speed of the focus motor 50 as described above, the operating speed of the focus lens 16 can be controlled to a desired speed. By controlling the rotational speed of the focus motor 50 while reading the current position of the lens 16, the set position of the focus lens 16 can be controlled to a desired position.
[0026]
On the other hand, the autofocus control is performed based on the video signals from the focus state detection image pickup devices 32A and 32B, and the image (video image) captured by the pair of focus state detection image pickup devices 32A and 32B is used. ) Is output as a video signal for sequentially transmitting each pixel value along a plurality of scanning lines (horizontal lines) constituting one screen, and is input to the focus evaluation value generation unit 58. Although the configuration and processing of the focus evaluation value generation unit 58 will be described later, the focus evaluation value generation unit 58 converts each of the focus state detection image sensors 32A and 32B from the video signal input thereto. , 32B, the focus evaluation values indicating the level of the contrast (sharpness) of each image captured are generated, and the generated focus evaluation values are given to the CPU 54. Note that the focus evaluation value generated based on the video signal from the focus state detection imaging device 32A is referred to as the focus evaluation value of channel A (chA), and is based on the video signal from the focus state detection imaging device 32B. The generated focus evaluation value is referred to as a focus evaluation value of channel B (chB). The CPU 54 obtains the focus evaluation values of chA and chB obtained from the focus evaluation value generation unit 58 as described later in detail, and based on the obtained focus evaluation values, the focusing state of the imaging lens 10 (front focus, front focus, (In-focus, focus) is detected, and the position of the focus lens 16 is controlled so that the focus state of the photographing lens 10 is in focus.
[0027]
Next, the configuration and processing of the focus evaluation value generation unit 58 will be described with reference to the configuration diagram of FIG. Since the focus evaluation values of chA and chB are generated by similarly configured processing units, FIG. 4 shows only the configuration of the processing unit for chA, and the configuration and description of the processing unit for chB are omitted. I do. As shown in the figure, when the video signal output from the focus state detection image sensor 32A is input to the focus evaluation value generation unit 58, it is first converted into a digital signal by the A / D converter 80. It is assumed that the video signal from each focus state detecting image sensor 32A is a luminance signal indicating the luminance value of each pixel constituting the image. The video signal converted to a digital signal by the A / D converter 80 is subsequently branched into two lines a and b. Line a is a line for generating a horizontal focus evaluation value (horizontal focus evaluation value), and line b is a line for generating a vertical focus evaluation value (vertical focus evaluation value). is there. The horizontal focus evaluation value indicates the contrast in the horizontal direction of the image formed by the video signal from the focus state detection image sensor 32A, and the vertical focus evaluation value is determined by the video signal from the focus state detection image sensor 32A. 5 shows the contrast in the vertical direction of an image to be formed. As is generally known, a video signal output from the focus state detecting image sensor 32A is obtained by sequentially scanning a signal (luminance value) of a pixel sequentially scanned in a horizontal direction from an upper end to a lower end of an image in the scanning order. It is assumed that the data is transmitted in the form of transmission.
[0028]
The video signal branched to the line a is first input to a high-pass filter (HPF) 84A, and a high frequency component of the video signal is extracted by the HPF 84A. The extracted signal of the high frequency component is subsequently input to the gate circuit 86A. In the gate circuit 86A, only a signal corresponding to a pixel in a predetermined focus area (for example, a center portion of the screen) among signals of one screen (one field) of an image captured by the focus state detection imaging element 32A. Is extracted. The signal extracted by the gate circuit 86A is subsequently input to the integrating circuit 88A, and the signal for one screen is integrated by the integrating circuit 88A. Thus, the sum of the values of the high frequency components of the video signal in the focus area is obtained. The value obtained by the integrating circuit 88A in this manner is a focus evaluation value indicating the sharpness (high or low of the contrast) in the horizontal direction of the image in the focus area, and the focus evaluating value obtained by the integrating circuit 88A is channel A (ChA) is given to the CPU 54 as the horizontal focus evaluation value.
[0029]
On the other hand, the video signal branched to the line b is first input to the memory 82B. The memory 82B is, for example, a two-dimensional memory having an array of 720 in the horizontal direction and 243 in the vertical direction corresponding to pixels of an image composed of video signals for one screen (one field) as shown in FIG. The signal (luminance value) of each pixel of the video signal input to the memory 82B is sequentially stored in the memory of the corresponding pixel. Then, the signal of each pixel stored in the memory 82B is sequentially scanned in the vertical direction from the left end to the right end of the screen, for example, and is output from the memory 82B in a time series in the order of the scanning. The video signal output from the memory 82B is subsequently input to a high-pass filter (HPF) 84B, and the high-frequency component is extracted by the HPF 84B, and then input to the gate circuit 86B. Then, only the signal corresponding to the pixel in the focus area that matches the gate circuit 86A is extracted, and the signal for one screen is integrated by the integration circuit 88B. Thus, the sum of the values of the high frequency components of the video signal in the focus area is obtained. The value obtained by the integrating circuit 88B in this manner is a focus evaluation value indicating the sharpness (high or low of the contrast) in the vertical direction of the image in the focus area, and the focus evaluating value obtained by the integrating circuit 88B is the channel A This is given to the CPU 54 as the vertical focus evaluation value of (chA).
[0030]
The focus evaluation value generation unit 58 configured as described above generates the horizontal focus evaluation value and the vertical focus evaluation value of chA and chB, and these values are given to the CPU 54.
[0031]
Next, an autofocus process in the CPU 54 will be described. The CPU 54 compares the horizontal focus evaluation values obtained from chA and chB, respectively, or compares the vertical focus evaluation values obtained from chA and chB, respectively, to thereby obtain the imaging plane (focus) of the image pickup device for video. The focus state (front focus, rear focus, focus) of the photographing lens 10 with respect to the surface P) is detected.
[0032]
Here, first, the principle of detecting the focus state based on one of the horizontal focus evaluation value and the vertical focus evaluation value of chA and chB will be described with reference to FIG. In this description, a focus evaluation value in one of the horizontal focus evaluation value and the vertical focus evaluation value is simply referred to as a focus evaluation value.
[0033]
FIG. 6 is a diagram showing the state of the focus evaluation value with respect to the focus position when a certain subject is photographed, with the horizontal axis representing the position (focus position) of the focus lens 16 of the photographing lens 10 and the vertical axis representing the focus evaluation value. is there. A curve C indicated by a dotted line in the figure indicates a focus evaluation value when it is assumed that a focus evaluation value is obtained from a video signal from a video imaging device (or an imaging device arranged at a position conjugate with the video imaging device). Curves A and B shown by solid lines in the figure show focus evaluation values of chA and chB obtained from the focus state detection imaging elements 32A and 32B with respect to the focus position. Things. In the same figure, a position F3 where the focus evaluation value of the curve C is maximum (maximum) indicates a focus position.
[0034]
If the focus position of the photographing lens is set to F1 in the figure, the focus evaluation value V A1 of the chA becomes a value corresponding to the position F1 of the curve A, the focus evaluation value V B1 of chB, the position of the curve B F1 Becomes the value corresponding to. In this case, towards the focus evaluation value V A1 of chA is larger than the focus evaluation value V B1 of chB. This indicates that the focus position is set closer to the focus position (F3), that is, the front focus state.
[0035]
On the other hand, when the focus position of the photographing lens is set to F2 in the figure, the focus evaluation value V A2 of the chA becomes a value corresponding to the position F2 of the curve A, the focus evaluation value V B2 of chB is the curve B The value corresponds to the position F2. In this case, towards the focus evaluation value V A2 of chA is smaller than the focus evaluation value V B2 of chB. This indicates that the focus position is set on the infinity side of the focus position (F3), that is, the rear focus state.
[0036]
In contrast, when the focus position of the taking lens 10 is F3, i.e. is set to focus position, the focus evaluation value V A3 of the chA becomes a value corresponding to the position F3 of the curve A, the focus evaluation value V of chB B3 is a value corresponding to the position F3 of the curve B. In this case, the focus evaluation value V A3 and focus evaluation value V B3 of the chB of chA becomes equal. This indicates that the focus position is set to the focus position (F3).
[0037]
As described above, whether the current focus state of the photographing lens 10 is the front focus state, the rear focus state, or the in-focus state is detected based on the focus evaluation values of chA and chB obtained from the focus evaluation value generation unit 58. Can be.
[0038]
Therefore, by controlling the position of the focus lens 16 based on the chA and chB focus evaluation values obtained from the focus evaluation value generation unit 58, the focus lens 16 can be moved to the in-focus position. That is, when the focus evaluation values of chA and chB are determined to be the front focus, the focus lens 16 is moved toward infinity, and when the focus evaluation values are determined to be the back focus, When the focus lens 16 is moved in the close-up direction and the focus is determined to be in focus, the focus lens 16 is stopped at that position to move the focus lens 16 to the focus position. it can.
[0039]
Next, the processing procedure of the CPU 54 when the focus lens 16 is moved to the in-focus position using both the horizontal focus evaluation value and the vertical focus evaluation value of chA and chB will be described with reference to the flowchart of FIG. First, the CPU 54 acquires the horizontal focus evaluation value FH1 and the vertical focus evaluation value FV1 of chA from the focus evaluation value generation unit 58 (step S10). Further, the horizontal focus evaluation value FH2 and the vertical focus evaluation value FV2 of chB are obtained from the focus evaluation value generation unit 58 (step S12).
[0040]
Next, the CPU 54 calculates the following conditional expression:
[0041]
(Equation 1)
FH1> FH2
Holds, and the following conditional expression:
[0042]
(Equation 2)
It is determined whether or not | FH1-FH2 |> threshold holds (step S14). The threshold value of the conditional expression indicates a value determined to be in focus if | FH1−FH2 | is less than or equal to the value. The same applies to threshold values in the following determination processing. If YES is determined in this step S14, the CPU 54 moves the focus (focus lens 16) to infinity because the current focus position is closer to the in-focus position than described above with reference to FIG. (Step S16). Then, the process returns to step S10.
[0043]
If NO is determined in step S14, then the following conditional expression
[0044]
[Equation 3]
FH1 <FH2
Holds, and the following conditional expression:
[0045]
(Equation 4)
It is determined whether or not | FH1-FH2 |> threshold holds (step S18). If YES is determined in this step S14, the CPU 54 moves the focus to the closest side because the current focus position is on the infinity side from the in-focus position as described in FIG. 6 (step S20). . Then, the process returns to step S10.
[0046]
If NO is determined in step S18, that is, if it is determined that the focus state is detected in the focus state detection based on the horizontal focus evaluation value, then the following conditional expression:
[0047]
(Equation 5)
FV1> FV2
Holds, and the following conditional expression:
[0048]
(Equation 6)
It is determined whether or not | FV1-FV2 |> threshold holds (step S22). If YES is determined in this step S22, the CPU 54 moves the focus to the infinity side because the current focus position is closer to the in-focus position than the in-focus position as described with reference to FIG. 6 (step S24). . Then, the process returns to step S10.
[0049]
If NO is determined in step S22, then the following conditional expression
[0050]
(Equation 7)
FV1 <FV2
Holds, and the following conditional expression:
[0051]
(Equation 8)
It is determined whether or not | FV1-FV2 |> threshold holds (step S26). If YES is determined in this step S26, as described with reference to FIG. 6, the current focus position is on the infinity side from the in-focus position, so the CPU 54 moves the focus to the closest side (step S20). . Then, the process returns to step S10.
[0052]
If NO is determined in step S26, the focus evaluation value indicates a focused state in both the horizontal direction and the vertical direction, and therefore, the process returns to step S10 without moving the focus.
[0053]
As described above, by controlling the focus so that both the horizontal focus evaluation value and the vertical focus evaluation value indicating the contrast of the image in the horizontal direction and the vertical direction indicate the focus state, for example, only in one direction It is possible to appropriately focus on an object having a high contrast (for example, horizontal stripes and vertical stripes).
[0054]
As described above, in the processing shown in the flowchart of FIG. 7, the focus control based on the horizontal focus evaluation value and the vertical focus evaluation value is performed in order. However, as shown in the flowchart of FIG. It may be configured to determine in which direction the value difference is large and control the focus based on the focus evaluation value in the direction where the difference is large. 8, the CPU 54 first acquires the horizontal focus evaluation value FH1 and the vertical focus evaluation value FV1 of chA from the focus evaluation value generation unit 58 (step S40). Also, the horizontal focus evaluation value FH2 and the vertical focus evaluation value FV2 of chB are acquired from the focus evaluation value generation unit 58 (step S42).
[0055]
Next, the CPU 54 determines whether or not | FH1−FH2 |> | FV1−FV2 | (step S44). If YES is determined at this time, the following conditional expression:
[0056]
(Equation 9)
FH1> FH2
Holds, and the following conditional expression:
[0057]
(Equation 10)
It is determined whether or not | FH1-FH2 |> threshold holds (step S46). If YES is determined in this step S46, the CPU 54 moves the focus (the focus lens 16) to the infinity side because the current focus position is closer to the in-focus position than the in-focus position as described in FIG. (Step S48). Then, the process returns to step S40.
[0058]
If NO is determined in the step S46, then the following conditional expression:
[0059]
[Equation 11]
FH1 <FH2
Holds, and the following conditional expression:
[0060]
(Equation 12)
It is determined whether or not | FH1-FH2 |> threshold holds (step S50). If YES is determined in this step S50, the CPU 54 moves the focus to the closest distance side (step S20) because the current focus position is on the infinity side of the in-focus position as described in FIG. . Then, the process returns to step S40.
[0061]
If NO is determined in step S50, the threshold ≧ | FH1-FH2 |> | FV1-FV2 | holds, and the focus evaluation value indicates a focused state in both the horizontal direction and the vertical direction. The process returns to step S40 without moving the focus.
[0062]
If NO is determined in the step S44, then the following conditional expression:
[0063]
(Equation 13)
FV1> FV2
Holds, and the following conditional expression:
[0064]
[Equation 14]
It is determined whether or not | FV1-FV2 |> threshold holds (step S54). If YES is determined in this step S54, the CPU 54 moves the focus to infinity because the current focus position is closer to the in-focus position than the in-focus position as described in FIG. 6 (step S56). . Then, the process returns to step S40.
[0065]
If NO is determined in step S54, the following conditional expression
[0066]
[Equation 15]
FV1 <FV2
Holds, and the following conditional expression:
[0067]
(Equation 16)
It is determined whether or not | FV1−FV2 |> threshold holds (step S58). If YES is determined in this step S58, the CPU 54 moves the focus to the closest side because the current focus position is on the infinity side from the in-focus position as described in FIG. 6 (step S60). . Then, the process returns to step S40.
[0068]
If NO is determined in step S58, the threshold ≧ | FV1−FV2 |> | FH1−FH2 | holds, and the focus evaluation value indicates a focused state in both the horizontal direction and the vertical direction. The process returns to step S40 without moving the focus.
[0069]
In the above-described embodiment, a case has been described where AF control is performed by acquiring two focus evaluation values from the two focus state detection imaging elements 32A and 32B for AF. However, the present invention is not limited to this. The present invention can be applied to a case where one or three or more imaging elements are provided. That is, the present invention can be applied to the control of the autofocus employing the contrast method.
[0070]
Further, in the above-described embodiment, the case where the present invention is applied to a television camera system has been described as an example. However, the present invention is not limited to this, and can be applied to a video camera and a still camera that shoots a still image. .
[0071]
【The invention's effect】
As described above, according to the autofocus system according to the present invention, the focus evaluation value indicating the sharpness (contrast) of the image is generated in both the horizontal direction and the vertical direction of the captured image, and the focus evaluation value is generated in the horizontal direction and the vertical direction. Since the focus of the taking lens is controlled so that focusing is performed in both directions based on the focus evaluation values in both directions, the subject in which the contrast in one of the horizontal direction and the vertical direction is low is photographed. Even if there is, the focus can be surely adjusted.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an optical system of a television camera system to which the present invention has been applied.
FIG. 2 is a diagram illustrating an optical axis of subject light incident on a video imaging device and an optical axis of subject light incident on a pair of focus state detection imaging devices on the same straight line.
FIG. 3 is a block diagram illustrating a configuration of a control system related to autofocus control.
FIG. 4 is a block diagram illustrating a configuration of a focus evaluation value generation unit.
FIG. 5 is an explanatory diagram used for describing a memory in a focus evaluation value generation unit.
FIG. 6 is a diagram illustrating a state of a focus evaluation value with respect to a focus position when a certain subject is photographed, with a horizontal axis indicating a focus position of a photographing lens and a vertical axis indicating a focus evaluation value.
FIG. 7 is a flowchart illustrating an embodiment of a processing procedure of autofocus control in a CPU of the lens device.
FIG. 8 is a flowchart illustrating an embodiment of a processing procedure of autofocus control in a CPU of the lens device.
[Explanation of symbols]
Reference numeral 10: photographing lens, 12: camera body, 14: imaging unit, 16: focus lens (group), 18: zoom lens (group), 20: iris, 22A: front relay lens, 22B: rear relay lens, 24 ... Half mirror, 26 relay lens, 28 focus state detection unit, 30A first prism, 30B second prism, 32A, 32B image sensor for focus state detection, 50 focus motor, 52 focus motor drive circuit, 54, CPU, 56, focus lens position detector, 58, focus evaluation value generator, 80, A / D converter, 82B, memory, 84A, 84B, high-pass filter (HPF), 86A, 86B, gate circuit, 88A , 88B ... Integration circuit

Claims (2)

撮像手段により得られる映像信号に基づいて該映像信号により形成される画像の鮮鋭度を示す焦点評価値を求め、該焦点評価値に基づいて撮影レンズのフォーカスを制御し、該撮影レンズのピント合わせを自動で行うオートフォーカスシステムにおいて、
前記映像信号により形成される画像の水平方向に対する高域周波数成分を抽出し、該高域周波数成分に基づいて水平方向に対する画像の鮮鋭度を示す焦点評価値を生成する水平方向焦点評価値生成手段と、
前記映像信号により形成される画像の垂直方向に対する高域周波数成分を抽出し、該高域周波数成分に基づいて垂直方向に対する画像の鮮鋭度を示す焦点評価値を生成する垂直方向焦点評価値生成手段と、
前記水平方向焦点評価値生成手段により生成された焦点評価値に基づいて合焦か否かを判定する水平方向合焦判定手段と、
前記垂直方向焦点評価値生成手段により生成された焦点評価値に基づいて合焦か否かを判断する垂直方向合焦判定手段と、
前記水平方向合焦判定手段と前記垂直方向合焦判定手段のいずれにおいても合焦と判定される状態となるように前記撮影レンズのフォーカスを制御するフォーカス制御手段と、
を備えたことを特徴とするオートフォーカスシステム。
A focus evaluation value indicating the sharpness of an image formed by the video signal is obtained based on the video signal obtained by the imaging means, and the focus of the photographic lens is controlled based on the focus evaluation value to focus the photographic lens. In an auto focus system that automatically performs
Horizontal focus evaluation value generating means for extracting a high frequency component in the horizontal direction of an image formed by the video signal and generating a focus evaluation value indicating the sharpness of the image in the horizontal direction based on the high frequency component When,
Vertical focus evaluation value generating means for extracting a high frequency component in the vertical direction of an image formed by the video signal and generating a focus evaluation value indicating the sharpness of the image in the vertical direction based on the high frequency component When,
Horizontal focus determination means for determining whether or not to perform focusing based on the focus evaluation value generated by the horizontal focus evaluation value generation means;
A vertical focus determining unit that determines whether or not focusing is performed based on the focus evaluation value generated by the vertical focus evaluation value generating unit;
Focus control means for controlling the focus of the photographic lens so that both the horizontal focus determination means and the vertical focus determination means are in focus.
An auto focus system comprising:
前記撮影レンズに入射した被写体光を光路長の異なる位置で撮像する複数の撮像手段を備え、
前記水平方向焦点評価値生成手段及び前記垂直方向焦点評価値生成手段は、前記複数の撮像手段からの各映像信号に基づいて各撮像手段に対応した焦点評価値を生成し、
前記水平方向合焦判定手段は、前記水平方向焦点評価値生成手段により生成された前記各撮像手段に対応した焦点評価値を比較することによって合焦か否かを判定すると共に、合焦でないと判定した場合に合焦を得るためのフォーカスの動作方向を判定し、
前記垂直方向合焦判定手段は、前記水平方向焦点評価値生成手段により生成された前記各撮像手段に対応した焦点評価値を比較することによって合焦か否かを判定すると共に、合焦でないと判定した場合に合焦を得るためのフォーカスの動作方向を判定し、
前記フォーカス制御手段は、前記水平方向合焦判定手段又は前記垂直方向合焦判定手段によって判定された合焦を得るためのフォーカスの動作方向に基づいて、前記水平方向合焦判定手段と前記垂直方向合焦判定手段のいずれにおいても合焦と判定される状態となるようにフォーカスを制御することを特徴とする請求項1のオートフォーカスシステム。
A plurality of imaging means for imaging the subject light incident on the shooting lens at different positions of the optical path length,
The horizontal focus evaluation value generation unit and the vertical focus evaluation value generation unit generate a focus evaluation value corresponding to each imaging unit based on each video signal from the plurality of imaging units,
The horizontal direction focus determination unit determines whether or not focus is achieved by comparing focus evaluation values corresponding to the respective imaging units generated by the horizontal direction focus evaluation value generation unit. If it is determined, the direction of focus operation for obtaining focus is determined,
The vertical focus determination means determines whether or not focus is achieved by comparing focus evaluation values corresponding to the respective imaging means generated by the horizontal focus evaluation value generation means. If it is determined, the direction of focus operation for obtaining focus is determined,
The focus control unit is configured to control the horizontal focus determination unit and the vertical direction based on a focus operation direction for obtaining focus determined by the horizontal focus determination unit or the vertical focus determination unit. 2. The auto-focus system according to claim 1, wherein the focus is controlled so that any of the focus determining means determines that the focus is achieved.
JP2002319258A 2002-11-01 2002-11-01 Autofocus system Pending JP2004151608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002319258A JP2004151608A (en) 2002-11-01 2002-11-01 Autofocus system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002319258A JP2004151608A (en) 2002-11-01 2002-11-01 Autofocus system

Publications (1)

Publication Number Publication Date
JP2004151608A true JP2004151608A (en) 2004-05-27

Family

ID=32462157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002319258A Pending JP2004151608A (en) 2002-11-01 2002-11-01 Autofocus system

Country Status (1)

Country Link
JP (1) JP2004151608A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195023A (en) * 2005-01-12 2006-07-27 Sony Corp Imaging apparatus
EP2091233A2 (en) 2008-02-12 2009-08-19 Ricoh Company, Limited Imaging apparatus
JP2015012442A (en) * 2013-06-28 2015-01-19 ソニー株式会社 Imaging apparatus, imaging method, image generation apparatus, image generation method, and program
KR101590873B1 (en) 2009-11-18 2016-02-02 삼성전자주식회사 Digital imaging apparatus and controlling method of the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195023A (en) * 2005-01-12 2006-07-27 Sony Corp Imaging apparatus
JP4661225B2 (en) * 2005-01-12 2011-03-30 ソニー株式会社 Imaging device
EP2091233A2 (en) 2008-02-12 2009-08-19 Ricoh Company, Limited Imaging apparatus
KR101590873B1 (en) 2009-11-18 2016-02-02 삼성전자주식회사 Digital imaging apparatus and controlling method of the same
JP2015012442A (en) * 2013-06-28 2015-01-19 ソニー株式会社 Imaging apparatus, imaging method, image generation apparatus, image generation method, and program

Similar Documents

Publication Publication Date Title
JP3975395B2 (en) Camera system
JP5089154B2 (en) Auto focus system
JP2002365517A (en) Device for detecting state of focusing of photographic lens
JP4045483B2 (en) Focus status detection device
JP4334784B2 (en) Autofocus device and imaging device using the same
JP2002365518A (en) Device for detecting focusing state of photographic lens
JP2002372661A (en) Photographic lens
JP2004085675A (en) Automatic focus system
JP2003270517A (en) Focus state detector
JP4612814B2 (en) Automatic focusing apparatus, control method therefor, and imaging apparatus
JP2004151608A (en) Autofocus system
JP2004085673A (en) Autofocus system
JP4032877B2 (en) Auto focus system
JP4189647B2 (en) Auto focus system
JP2004038114A (en) Auto-focus camera
JPH04345279A (en) Automatic focusing device for still video camera
JP2006215285A (en) Autofocus system
JP2009109792A (en) Autofocusing device and camera using it
JPH099132A (en) Automatic focusing device and camera
JP2005156736A (en) Auto focus system
JP2004212458A (en) Autofocus system
JP2005227447A (en) Autofocus camera
JP2004117488A (en) Camera system
JP2004085674A (en) Autofocus system
JP2004117489A (en) Lens system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081128