JP2005062237A - Automatic focus system - Google Patents

Automatic focus system Download PDF

Info

Publication number
JP2005062237A
JP2005062237A JP2003207326A JP2003207326A JP2005062237A JP 2005062237 A JP2005062237 A JP 2005062237A JP 2003207326 A JP2003207326 A JP 2003207326A JP 2003207326 A JP2003207326 A JP 2003207326A JP 2005062237 A JP2005062237 A JP 2005062237A
Authority
JP
Japan
Prior art keywords
focus
imaging
imaging surface
lens
optical path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003207326A
Other languages
Japanese (ja)
Inventor
Tadashi Sasaki
正 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2003207326A priority Critical patent/JP2005062237A/en
Publication of JP2005062237A publication Critical patent/JP2005062237A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic focus system for improving the response performance of an automatic focus for a moving subject and preventing a fall in focusing precision. <P>SOLUTION: In the optical path length difference type automatic focus on two imaging faces, at first, a focus position is set so that it is the best image formation position at a position being an intermediate optical path length to the two imaging planes on the basis of a video signal captured from the two imaging planes having an optical path length difference. Then, the focus position is corrected so that the position of the imaging plane for a real image for reproduction is the best image formation position. In addition, CPU 30 of a lens device controls a focus lens FL by a contrast system by acquiring the video signal captured from the two imaging planes from a camera body. In this way, the lens device can focus at high precision to the imaging plane for the real image, can enlarge the optical path length difference of the two imaging planes without lowering focusing precision, and can improve the response performance of the focus to the moving subject. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明はオートフォーカスシステムに係り、特にコントラスト方式のオートフォーカスであって、光路長差方式のオートフォーカスを採用したオートフォーカスシステムに関する。
【0002】
【従来の技術】
放送用テレビカメラでの採用されるオートフォーカス(AF)としてはコントラスト方式が一般的である。コントラスト方式のAFでは、カメラで得られた映像信号から高域周波数成分の信号が抽出され、その抽出された信号に基づいてコントラストの高低を評価する焦点評価値が求められる。そして、その焦点評価値がピーク(極大)となるように例えば山登り方式と呼ばれる方法により撮影レンズのフォーカス(フォーカスレンズ群)が制御される。
【0003】
また、コントラスト方式のAFでは、フォーカスを微小に変動させるワブリングによってピント状態(前ピン、後ピン、又は、合焦)を検出し、フォーカスの動作方向等を決めているが、ワブリングを行うとそれによる焦点変動が画面上で認識されてしまう可能性があり、また、高速で移動する被写体に対して正確にピントを合わせることができない等の特に放送用の撮影では好ましくない欠点があった。
【0004】
このような欠点を解消する方法として、例えば特許文献1に示されているようなシステムを用いることが考えられる。これによれば、入射する被写体光に対して光路長差を有する2つの撮像面が近接して配置され、各撮像面によって撮像された各画像のコントラスト(焦点評価値)が検出される。これらのコントラストを比較することによってワブリングを行うことなくピント状態が検出され、これに基づいて撮影レンズのフォーカスがベストピントとなるように制御される。
【0005】
尚、特許文献1では1つの撮像素子の撮像面を1水平ラインごとに所定光路長差分だけ光軸方向の前後にずらすことによって光路長差を有する2つの撮像面を1つの撮像素子によって配置できるようにしているが、2つの別体の撮像素子を用いて光路長差を有する2つの撮像面を配置することもできる。この場合には、撮影レンズに入射した被写体光を各撮像素子の撮像面に分割する手段が撮影レンズの光学系内や撮影レンズを通過した後のカメラ本体の光学系内等に配置されることになる。また、特許文献1では、ピント状態を検出するための撮像素子と、表示用又は記録用(以下、再生用という)としての本来の画像(映像)を撮像するための撮像素子とは同一のものであるが、これらは別々の撮像素子とすることもできる。更に、2つの撮像素子を用いて光路長差を有する2つの撮像面を配置する場合には、一方を本来の画像を撮像するための撮像素子とし、他方をピント状態を検出するための専用の撮像素子とすることもできる。
【0006】
【特許文献1】
特公平7−60211号公報
【0007】
【発明が解決しようとする課題】
ところで、特許文献1のように2つの撮像面で撮像された画像のコントラストを比較する場合にそれらのコントラスト(焦点評価値)が一致するようにフォーカスを制御すると、最良結像位置はそれらの2つの撮像面の中間となる。一方、それらの2つの撮像面のうちいずれか一方又は両方の撮像面がピント状態検出用の画像を撮像するための撮像面であるだけでなく、再生用の本来の画像を撮像するための撮像面でもある場合には、2つの撮像面の中間を最良結像位置としたときに本来の画像を撮像するための撮像面でも十分な合焦精度が得られるようにする必要がある。そのため、特許文献1では2つの撮像面を光路長差が焦点深度以下となるように配置している。
【0008】
しかしながら、2つの撮像面の光路長差を焦点深度以下にすると2つの撮像面の光路長差があまりに小さくなり、被写体の変化に対して十分な応答速度でフォーカスを制御することができないという問題がある。即ち、2つの撮像面から得られる画像のコントラストが一致するようにフォーカスを自動で制御する場合にはそれらのコントラストの差又は比等に応じてフォーカスの動作方向や動作速度を決定することにより、コントラストの差が小さくなる方向に、且つ、コントラストの差が小さくなるほど動作速度が遅くなるようにフォーカスを動作させるという方法が用いられる。
【0009】
一方、フォーカスの位置を変化させた場合に合焦点付近で現れるコントラストの変化は、被写体が高速で移動している程小さくなる。従って、被写体が高速で移動している程、各撮像面により得られる画像のコントラストの差も生じ難くなる。特に、2つの撮像面の光路長差が小さいほどコントラストの差の生じ難さが顕著となる。
【0010】
従って、引用文献1のように2つの撮像面の光路長差をあまりにも小さくすると、静止している被写体に対しては良好にフォーカス制御が行われるとしても、高速で移動している被写体に対してはピントが大きくずれている場合でもコントラストの差がほとんど検出されず、被写体の変化に対して十分な応答速度でフォーカスが追従しないという不具合が生じる。
【0011】
また、近年では、HD(High Definition)システムが使用されるようになってきており、このようなシステムでは焦点深度も浅く2つの撮像面の光路長差もより小さくする必要があるため上述の問題は顕著となる。
【0012】
このような問題を解決する方法として、2つの撮像面の光路長差を焦点深度以下に限定することなく大きくすることが考えられる。しかしながら、この場合には、2つの撮像面から得られた画像のコントラストが一致して合焦状態と判断したときでも、撮像面での合焦精度が低くベストピントの画像が得られないという問題が生じる。
【0013】
本発明はこのような事情に鑑みてなされたもので、移動している被写体に対するオートフォーカスの応答性能を向上させると共に、合焦精度の低下を防止するオートフォーカスシステムを提供することを目的とする。
【0014】
【課題を解決するための手段】
前記目的を達成するために、請求項1に記載の発明は、撮影光学系に入射した被写体光を、第1の被写体光と第2の被写体光とに分割する光分割手段と、再生用の画像を取得するための撮像面であって前記第1の被写体光を撮像する第1の撮像面と、前記第2の被写体光を撮像する第2の撮像面であって、前記第1の撮像面に対して光路長差を有する位置に配置された第2の撮像面と、前記第1の撮像面により撮像されて得られた映像信号と、前記第2の撮像面により撮像されて得られた映像信号とに基づいて、前記第1の撮像面までの光路長と前記第2の撮像面までの光路長との中間の光路長の位置が最良結像位置となるように前記撮影光学系のフォーカス位置を制御するフォーカス制御手段と、前記第1の撮像面の位置が最良結像位置となるように前記フォーカス制御手段により設定されたフォーカス位置を補正するフォーカス補正手段と、を備えたことを特徴としている。
【0015】
また、請求項2に記載の発明は、請求項1に記載の発明において、前記フォーカス補正手段がフォーカス位置を補正した後において、前記第1の撮像面により得られる映像信号に基づいて該映像信号が示す画像のコントラストの高低を評価する第1の焦点評価値を求めると共に、前記第2の撮像面により得られる映像信号に基づいて該映像信号が示す画像のコントラストの高低を評価する第2の焦点評価値を求め、該求めた第1の焦点評価値と第2の焦点評価値との比が前記フォーカス位置の補正直後の値から所定値以上変化したことを再実行条件として該再実行条件を満たすか否かを判定手段と、前記判定手段により前記再実行条件が満たされたと判定された場合には、前記フォーカス制御手段によるフォーカス位置の制御を再実行させる再実行指示手段と、を備えたことを特徴としている。
【0016】
また、請求項3に記載の発明は、請求項2に記載の発明において、前記判定手段により前記再実行条件が満たされていないと判定された場合には、前記第1の焦点評価値と第2の焦点評価値との比が前記フォーカス位置の補正直後の値となるようにフォーカス位置を制御する第2フォーカス制御手段を備えたことを特徴としている。
【0017】
本発明によれば、まず、光路長差を有する2つの撮像面により得られる映像信号に基づいて、それらの2つの撮像面に対して中間の光路長となる位置で最良結像位置となるようにフォーカス位置を設定する。その後、再生用の本来の画像を撮像する撮像面の位置が最良結像位置となるようにフォーカス位置を補正する。従って、2つの撮像面による光路長差方式のオートフォーカスにおいて、本来の画像を撮像する撮像面に対して高い精度で合焦させることができると共に、合焦精度を低下させることなく2つの撮像面の光路長差を大きくすることが可能となり、移動している被写体等に対してフォーカスの応答性能を向上させることができるようになる。
【0018】
【発明の実施の形態】
以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。
【0019】
図1に示すテレビカメラは、レンズ交換可能なカメラ本体10と、カメラ本体10に装着されるレンズ装置12とから構成される。尚、レンズ装置12には、固定及び可動の各種レンズ群やアイリス等の光学部品から構成される撮影レンズ14(光学系)と、撮影レンズ14の可動のレンズ(群)やアイリスを電動で制御するための図示しない制御装置(制御系)が含まれる。
【0020】
カメラ本体10内には、2つの撮像素子(2次元CCD)20、22が配置される共に、入射した被写体光を2つの被写体光に分割するハーフミラー等の光分割光学系24が配置されている。撮影レンズ14を通過してカメラ本体10内に入射した被写体光は、光分割光学系24により2つの被写体光に分割された後、分割された被写体光のうち一方は、撮像素子20の撮像面に入射し、他方は、撮像素子22の撮像面に入射するようになっている。
【0021】
撮像素子20は再生用の本来の画像(映像)を撮像するために配置された撮像素子であり、この撮像素子20により光電変換されて図示しない信号処理回路の処理により得られた映像信号は、例えば、外部映像信号出力端子から外部機器に出力される。また、撮像素子20から得られた映像信号は後述のようにレンズ装置12にも送られピント状態の検出に使用される。尚、撮像素子20から得られる映像信号がカラー信号の場合には例えば輝度信号がピント状態の検出に使用される。
【0022】
一方、撮像素子22は、ピント状態を検出するために専用に配置された撮像素子であり、この撮像素子22により光電変換されて得られた映像信号(例えば輝度信号)は、撮像素子20から得られた映像信号と共にレンズ装置12に送られピント状態の検出に使用される。
【0023】
尚、同図においては、1つの撮像素子20により本来の画像を撮像するいわゆる単板式のカメラを示しているが、赤色(R)、緑色(G)、青色(B)ごとの3つの撮像素子により本来の画像を撮像するいわゆる3板式のカメラであってもよく、同図に示す撮像素子20は、光学的に等価な距離にあるR、G、Bごとの3つの撮像素子を1つ撮像素子で示したものと解してもよい。その場合には、撮影レンズ14を通過してカメラ本体に入射した被写体光をR、G、Bの光に分光する色分解光学系が同図の光分割光学系24の位置に配置され、色分解光学系により各色の波長に分光された被写体光がそれぞれの波長に対応する撮像素子の撮像面に入射する構成となる。また、このとき、例えば、色分解光学系にピント状態検出用の被写体光を分岐する手段を設け、これによって分岐した被写体光を撮像素子22の撮像面に入射させるようにしておく。また、詳細を後述するように本実施の形態におけるピント状態検出には光路長差をもって配置した2つの撮像面から得られた2つの輝度信号が用いられ、3板式の場合にはそのうち1つの輝度信号を、本来の画像を撮像するR、G、Bの撮像素子のうちいずれか1つの撮像素子から取得してもよいし、R、G、Bの3つの撮像素子から得た信号から生成してもよい。また、ピント状態を検出するための専用の撮像素子22や撮像素子22の撮像面に被写体光を分岐する手段等は、カメラ本体10ではなく、レンズ装置12に配置してもよい。
【0024】
ここで、撮像素子20の撮像面と撮像素子22の撮像面を同一光軸上に表した図を図2に示す。同図に示すように、一方の撮像素子20の撮像面20Aに入射する被写体光の光路長は、他方の撮像素子22の撮像面22Aに入射する被写体光の光路長よりも短くなるように各撮像素子20、22の撮像面が光路長差をもって配置されている。これによって、撮影レンズ14に入射した被写体光が光路長差を有する2つの撮像面によって撮像されるようになっている。ただし、これらの撮像面20A、22Aの位置は逆の関係であってもよい。また、同図において破線で示す撮像面Xは、撮像面20Aと撮像面22Aの中間に位置し、撮像面20Aまでの光路長と撮像面22Aまでの光路長とが等しくなる位置、即ち、各撮像面20A、22Aまでの光路長が撮像面20Aと撮像面20Bとの光路長差の1/2となる位置に配置された撮像面を示している。この撮像面Xは、実際に配置されているものではなく、詳細を後述のように2つの映像信号からピント状態を検出する際に基準となる撮像面の位置を示している。
【0025】
図3は、上記レンズ装置12の構成を示したブロック図である。レンズ装置12における撮影レンズ14には、可動のレンズ群として、ピント合わせのために光軸方向に駆動されるフォーカスレンズ(群)FLや、像倍率(焦点距離)を変更するために光軸方向に駆動されるズームレンズ(群)ZL等が配置されている。また、絞り値を変更するために開閉駆動されるアイリスIが配置されている。
これらのフォーカスレンズFL、ズームレンズZL、アイリスIは、それぞれフォーカス用モータFM、ズーム用モータZM、アイリス用モータIMに連結されており、各モータFM、ZM、IMによって駆動されるようになっている。
【0026】
各モータFM、ZM、IMは、それぞれフォーカス用アンプFA、ズーム用アンプZA、アイリス用アンプIAに接続されており、レンズ装置12に搭載されたCPU30からD/A変換器32を介して各アンプFA、ZA、IAに駆動信号が与えられると、その駆動信号に応じた電圧が各モータFM、ZM、IMに印加され、印加電圧に応じた速度で各モータFM、ZM、IMが駆動されるようになっている。
【0027】
従って、CPU30は、各アンプFA、ZA、IAに出力する駆動信号の電圧値によりフォーカスレンズFL、ズームレンズZL、アイリスIを所望の動作速度で制御することができるようになっている。また、フォーカスレンズFL、ズームレンズZL、アイリスIの現在位置を示す位置情報がそれぞれポテンショメータFP、ZP、IPからA/D変換器34を介してCPU30に与えられるようになっており、CPU30は、それらの現在位置を参照しながら動作速度を制御することにより、フォーカスレンズFL、ズームレンズZL、アイリスIの位置も制御することができるようになっている。
【0028】
一方、レンズ装置12には、レンズアクセサリー(付属装置)としてフォーカスをマニュアル操作するためのフォーカスデマンド36やズームをマニュアル操作するためのズームデマンド38などのレンズコントローラを接続できるようになっている。同図に示すフォーカスデマンド36はデジタル式のレンズコントローラであり、そのフォーカスデマンド36をレンズ装置12に接続すると、フォーカスデマンド36とレンズ装置12のCPU30との間がSCI(シリアルコミュニケーションインターフェース)40、42により通信接続され、シリアル通信により各種信号がやり取りされるようになっている。これにより、例えば、フォーカスデマンド36からCPU30に対して、所定のフォーカス操作部材(例えばフォーカスリング)のマニュアル操作に基づいてフォーカスの目標位置を示す指令信号が与えられる。マニュアルフォーカスモード時においてCPU30は、その指令信号に基づいてフォーカスレンズFLの位置を制御し、フォーカスをその指令信号により与えられた目標位置に設定する。
【0029】
同図に示すズームデマンド38はアナログ式のレンズコントローラであり、そのズームデマンド38をレンズ装置12に接続すると、例えば、ズーム操作部材のマニュアル操作に基づいてズームの目標速度を示す指令信号がA/D変換器34を介してCPU30に与えられる。CPU30は、その指令信号に基づいてズームレンズZLの動作速度を制御し、ズームをその指令信号により与えられた目標速度で移動させる。
【0030】
また、レンズ装置12には、マニュアルフォーカスモードとオートフォーカスモードとを切り替えるAFスイッチS1が設けられている。CPU30は、このAFスイッチS1がオフの場合には、マニュアルフォーカスモードの処理を実行し、AFスイッチS1がオンされた場合には、オートフォーカスモードの処理を実行する。マニュアルフォーカスモードの処理では上述のようにフォーカスデマンド36からの指令信号に基づいてフォーカスレンズFLを制御する。
【0031】
一方、オートフォーカスモードの処理では、処理回路50A〜56A、及び、処理回路50B〜56Bにより取得されるピント情報に基づいてフォーカスレンズFLを制御し、自動ピント調整を行う。
【0032】
処理回路50A〜56Aは、カメラ本体10の撮像素子20から得られた映像信号(輝度信号)からその画像のコントラストの高低を示す焦点評価値を生成する回路であり、処理回路50B〜56Bは、カメラ本体10の撮像素子22から得られた映像信号(輝度信号)からその画像のコントラストの高低を示す焦点評価値を生成する回路である。処理回路50A〜56Aと処理回路50B〜56Bとは各映像信号に対する処理内容が一致しているため以下、処理回路50A〜56Aについてのみ説明する。
【0033】
同図に示すようにカメラ本体10の撮像素子20により得られた映像信号がカメラ本体10からレンズ装置12に与えられると、その映像信号はまずA/D変換器50Aによりデジタル信号に変換される。続いてデジタルフィルター52Aによって映像信号から高域周波数成分の信号のみが抽出され、その抽出された高域周波数成分の信号から撮影範囲内(画面上)に設定される所定のフォーカス範囲内の信号のみがゲート回路54Aにより抽出される。ゲート回路54Aにより抽出された信号は、続いて加算回路56Aにより1画像分(インターレース方式の映像信号において1フィールド分)ごとに積算される。加算回路56Aの積算によって得られた信号は、フォーカス範囲内の被写体に対する合焦の程度(コントラストの高低)を示す値であり、この値は焦点評価値としてCPU30に逐次読み取られる。尚、このようにして撮像素子20からの映像信号により得られる焦点評価値をチャンネル(ch)Aの焦点評価値といい、同様に撮像素子22からの映像信号に対する処理回路50B〜56Bの処理により得られる焦点評価値をchBの焦点評価値という。
【0034】
以上の図3に示したレンズ装置12の各処理部の全てを必ずしもレンズ装置12に配置する必要はなく、カメラ本体10を含めたシステム全体のいずれかの部分に配置されていればよい。例えば、処理回路50A〜56A、50B〜56Bをカメラ本体10に配置するようにしてもよいし、後述のように処理回路50A〜56A、50B〜56Bから得られた焦点評価値に基づいてフォーカスレンズFLの位置を制御するCPU30の処理をカメラ本体10側で行ってもよい。
【0035】
次に、レンズ装置12のCPU30におけるオートフォーカス(AF)の処理について説明する。上記のようにしてchAとchBの焦点評価値を取得すると、それらの焦点評価値に基づいて撮影レンズ14の現在のピント状態を知ることができる。そこでまず、その原理について説明する。図4は、横軸に撮影レンズ14のフォーカスレンズFLの位置(フォーカス位置)、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。図中実線で示す曲線A、Bは、それぞれ撮像素子20、22から得られるchAとchBの焦点評価値をフォーカス位置に対して示したものである。一方、図中点線で示す曲線Cは、撮像素子20と撮像素子22の各撮像面20A、22Aの中間に撮像面Xを配置したと仮定した場合(図2参照)に、その撮像面Xから得られる映像信号により焦点評価値を求めたときのグラフを示したものである。
【0036】
まず、曲線Cの焦点評価値が最大(極大)となる位置F0を合焦位置として、撮像面Xに対するピント状態を検出する。撮影レンズ14のフォーカス位置が同図のF1に設定された場合、chAの焦点評価値VA1は、曲線Aの位置F1に対応する値となり、chBの焦点評価値VB1は、曲線Bの位置F1に対応する値となる。そして、この場合、chAの焦点評価値VA1の方が、chBの焦点評価値VB1よりも大きくなる。このことから、フォーカス位置が合焦位置(F0)よりも至近側に設定された状態、すなわち、前ピンの状態であることが分かる。
【0037】
一方、撮影レンズ14のフォーカス位置が同図のF2に設定された場合、chAの焦点評価値VA2は、曲線Aの位置F2に対応する値となり、chBの焦点評価値VB2は、曲線Bの位置F2に対応する値となる。そして、この場合、chAの焦点評価値VA2の方が、chBの焦点評価値VB2よりも小さくなる。このことから、フォーカス位置が合焦位置(F0)よりも無限遠側に設定された状態、すなわち、後ピンの状態であることが分かる。
【0038】
これに対して、撮影レンズ14のフォーカス位置がF0、すなわち合焦位置に設定された場合、chAの焦点評価値VA0は、曲線Aの位置F0に対応する値となり、chBの焦点評価値VB0は、曲線Bの位置F0に対応する値となる。このとき、chAの焦点評価値VA0とchBの焦点評価値VB0は等しくなる。このことから、フォーカス位置が合焦位置(F0)に設定された合焦状態であることが分かる。
【0039】
このように、chAとchBの焦点評価値により、撮影レンズ14の現在のピント状態が撮像面Xに対して前ピン、後ピン、合焦のいずれの状態であるかを検出することができる。尚、ここで検出するピント状態は、再生用の画像を撮像する撮像素子20の撮像面20Aに対するピント状態ではない。例えば、chAとchBの焦点評価値に基づいて上述のようにピント状態を検出し、合焦状態と判断した場合にそのときの最良結像位置は、撮像素子20の撮像面20Aと撮像素子22の撮像面22Aとの中間にある撮像面Xの位置となる。
【0040】
続いて、レンズ装置12のCPU30におけるAFの処理の概要を説明する。
chAとchBの焦点評価値が一致していない場合、CPU30は、chAとchBの焦点評価値に基づいてフォーカスレンズFLの位置を制御し、フォーカスレンズFLをまず撮像面Xに対して合焦状態となる位置に移動させる。即ち、撮像面Xに対して前ピンであると判断される状態の場合には、フォーカスレンズFLを無限遠方向に移動させ、後ピンであると判断される状態の場合には、フォーカスレンズFLを至近方向に移動させる。そして、chAとchBの焦点評価値が一致して撮像面Xに対して合焦であると判断される状態となった場合には、フォーカスレンズFLをその位置で停止させる。これによって撮影レンズ14のフォーカスが撮像面Xに対して合焦状態となる。このようにしてフォーカスレンズFLを合焦位置に設定した後、合焦状態、即ち、chAとchBの焦点評価値が一致している状態が規定時間以上継続しない場合には、上記処理を繰り返す。これによって例えば被写体が移動している場合などに合焦位置が変動する場合にはそれに追従してフォーカスレンズFLが移動する。
【0041】
ここで、フォーカスレンズFLを合焦位置に移動させる際の具体的な制御方法の一例を説明しておく。カメラ本体10から逐次得られるchAとchBの焦点評価値をAFV_A、AFV_Bとすると、CPU30は、まず、これらの比AFV=AFV_A/AFV_Bを求める。図4で説明したことから分かるように、焦点評価値の比AFVが1の場合には撮像面Xに対して合焦状態にあり、もし、この焦点評価値の比AFVの値が1より大きい場合には、撮像面Xに対してピント状態が前ピンの状態にある。この場合には、フォーカスレンズFLの移動方向を無限遠側に設定する。また、このときのフォーカスレンズFLの移動速度を例えば、C・(AFV−1)に設定する。尚、係数Cは定数である。そして、このように設定した動作を実行させるための指示(駆動信号)を図3に示したフォーカス用アンプFAに出力する。
これによって、フォーカスレンズFLがAFV=1となる方向に向かってAFVが大きいほど高速で移動し、AFVが1に近づくと減速してAFV=1となる合焦位置で停止する。
【0042】
一方、焦点評価値の比AFVの値が1より小さい場合には、撮像面Xに対してピント状態が後ピンの状態にある。この場合には、フォーカスレンズFLの移動方向を至近側に設定する。また、このときのフォーカスレンズFLの移動速度を例えば、C・(1/AFV−1)に設定する。これによって、フォーカスレンズFLが1/AFV=1(AFV=1)となる方向に向かって1/AFVが大きいほど高速で移動し、1/AFVが1に近づくと減速して1/AFV=1となる合焦位置で停止する。
【0043】
ところで、このようにchAとchBの焦点評価値の比又は差等をパラメータとしてフォーカスレンズFLの移動速度を調整しながら合焦位置に停止させるようにした場合に、撮像素子20の撮像面20Aと撮像素子22の撮像面22Aとの光路長差が小さいと、高速で移動している被写体に対してフォーカスレンズFLが十分な応答速度で追従しないという問題が生じる。図5は、撮像面20Aと撮像面22Aの光路長差を例えば撮影レンズ14の焦点深度以下となるように小さくした場合において、被写体が高速で移動しているときの焦点評価値のグラフを示した図である。一方、図6は、本実施の形態の場合であって図5における撮像面20Aと撮像面22Aの光路長差よりも大きい場合において、被写体が高速で移動しているときの焦点評価値のグラフを示した図である。これらの図に示すように被写体が高速で移動している場合にはコントラストが低くなり焦点評価値のピーク点付近での傾斜も緩やかになる。そのため、図5のグラフから分かるように、撮像面20Aと撮像面22Aの光路長差があまりに小さいと、chAとchBの焦点評価値に差が生じ難くなり、例えば、フォーカスレンズFLが合焦位置から至近側に大きくずれていても、上記C・(AFV−1)等の式により求められるフォーカスレンズFLの移動速度も極めて遅くなる。仮に係数Cの値を大きな値に設定しておけばフォーカスレンズFLの移動速度を全般的に高速化することができるが、移動している被写体が停止した場合や始めから被写体が静止している場合等にはフォーカスレンズFLの移動速度が速すぎるために合焦位置での停止動作が不安定になるという問題が生じる。従って、高速で移動している被写体に対して十分な速度でフォーカスレンズFLを追従させることができない。
【0044】
これに対して図6のグラフから分かるように、本実施の形態のように撮像面20Aと撮像面22Aの光路長差を大きくすれば、被写体が高速で移動している場合であってもchAとchBの焦点評価値の差が十分な大きさとなり、高速で移動する被写体に対して十分な速度でフォーカスレンズFLを追従させることができる。
【0045】
一方、撮像面20Aと撮像面22Aの光路長差を小さくし、焦点深度以下に制限することは、上述のように撮像面Xに対して合焦状態となるようにフォーカスレンズFLの位置を制御することによって本来の画像を撮像する撮像面20Aに対しても合焦状態が得られるという点で利点がある。本実施の形態のようにフォーカスレンズFLの応答性能を良くするために撮像面20Aと撮像面22Aの光路長差を大きくした場合には、撮像面Xに対して合焦状態となるようにフォーカスレンズFLを制御しても本来の画像を撮像する撮像素子20の撮像面20Aに対して合焦状態とならない。しかしながら、高速で移動している被写体のコントラストは低いため、被写体が高速で移動している場合には撮像素子20の撮像面20Aに対して合焦状態となっていなくても再生した映像上での違和感はほとんどない。これに対して静止している被写体に対しては、撮像素子20の撮像面20Aに対して合焦状態にする必要があるが、この点について次に説明する制御により解消される。
【0046】
上述のようにフォーカスレンズFLを撮像面Xに対して合焦状態となる合焦位置に設定した場合において、その後、フォーカスレンズFLを動かすことなくその合焦状態が規定時間以上継続したときには、被写体が静止していると判断することができる。この場合、CPU30は、フォーカスレンズFLを動かして最良結像位置を撮像面Xから撮像素子20の撮像面20Aまで変位させる。即ち、撮像素子20の撮像面20Aと撮像素子22の撮像面22Aとの光路長差の2分の1に相当する量だけフォーカスレンズFLを至近方向に移動させる。これによって、被写体が静止している場合、又は、移動していた被写体が停止した場合等に高い合焦精度が必要になると、本来の画像を撮像する撮像素子20の撮像面20Aに対して合焦状態となるようにフォーカスレンズFLの位置が補正される。従って、上述のようにフォーカスレンズFLの応答性能を良くするために撮像素子20の撮像面20Aと撮像素子22の撮像面22Aの光路長差を大きくした場合に、撮像面Xに対して合焦状態となるようにフォーカスレンズFLを制御しただけでは撮像面20Aに対して合焦状態とならない不具合が解消される。
【0047】
次に、CPU30の具体的な処理手順を図7のフローチャートを用いて説明する。まず、CPU30は、パラメータCOUNTを0に設定する(ステップS10)。次にchAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得する(ステップS12、14)。そして、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bの比を求め、その値をAFVとする(ステップS16)。即ち、AFV=AFV_A/AFV_Bとする。
【0048】
続いて、CPU30は、AFV=1の条件を満たすか否かを判定する(ステップS18)。即ち、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bとが一致するか否かを判定し、撮像面Xに対して合焦状態か否かを判定する。NOと判定した場合には、AFV<1の条件を満たすか否かを判定する(ステップS20)。
YESと判定した場合には撮像面Xに対して後ピンの状態にあることからフォーカスレンズFLを至近方向に移動させる(ステップS22)。一方、NOと判定した場合には撮像面Xに対して前ピンの状態にあることからフォーカスレンズFLを無限遠方向に移動させる(ステップS24)。ステップS22又はステップS24の処理の後、ステップS10に戻り、上記処理を繰り返す。
【0049】
ステップS18においてYES、即ち、撮像面Xに対して合焦状態となっていると判定した場合には、パラメータCOUNTの値を1増加させる(ステップS26)。即ち、COUNT=COUNT+1とする。そして、所定値n(整数)に対してCOUNT<nの条件を満たすか否かを判定する(ステップS28)。YESと判定した場合にはステップS12に戻る。もし、ステップS18においてn回連続してYESと判定されると、ステップS28においてNOと判定される。即ち、撮像面Xに対して合焦状態となる位置にフォーカスレンズFLを設定してからn回連続してステップS18でYESと判定するのに要する所定時間の間、合焦状態が維持された場合には、ステップS28においてNOと判定される。この判定処理によって被写体が静止しているか否かが判断される。
【0050】
ステップS28でNOと判定すると、CPU30は、撮像素子20の撮像面20Aと撮像素子22の撮像面22Aの光路長差の1/2に相当する分だけ至近方向へのフォーカスレンズFLの移動を指示する(ステップS30)。そして、移動が終了したか否かを判定する(ステップS32)。フォーカスレンズFLが撮像面20Aに対して合焦状態となる位置まで移動すると、ステップS32でYESと判定され、フォーカスレンズFLがその位置で停止する。
【0051】
ステップS32でYESと判定した場合、CPU30は、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得する(ステップS34、36)。そして、焦点評価値の比AFVR=AFV_A/AFV_Bを求め、その比AFVRを記憶する(ステップS38)。
【0052】
続いて、CPU30は、chAの焦点評価値AFV_AとchBの焦点評価値AFV_Bを取得し(ステップS40、42)、その比AFV=AFV_A/AFV_Bを求める(ステップS44)。そして、ステップS44で求めた焦点評価値の比AFVとステップS38で求めた焦点評価値の比AFVRとが一致しているか否かを判定する(ステップS46)。これによって、被写体に変化がないか否かを検出する。YESと判定した場合、即ち、被写体に変化がないと判定した場合には、ステップS40からの処理を繰り返す。一方、NOと判定した場合、即ち、被写体に変化が生じた場合には、ステップS10に戻り、最初の処理から再度実行する。
【0053】
尚、上記フローチャートの処理では、ステップS38で求めたAFVRの値に対してステップS44で求めたAFVの値が変化した場合に、ステップS10からの処理、即ち、撮像面Xに対して合焦状態となるようにフォーカスレンズFLの位置を制御する処理が行われるが、AFVRの値に対してAFVの値が所定値以上変化した場合にステップ10からの処理を行うようにしてもよい。また、AFVRの値に対するAFVの値の変化量が所定値より小さい場合には、ステップS10からの処理を行うのではなく、AFVの値を検出しながらフォーカスレンズFLを移動させ、AFVの値がAFVRの値に一致するようにフォーカスレンズFLの位置を制御してもよい。
【0054】
以上、上記実施の形態では、テレビカメラシステムに本発明を適用する場合について説明したが、本発明はこれに限らず民生用のムービカメラ等のオートフォーカス機能が搭載されたシステムで適用できる。
【0055】
【発明の効果】
以上説明したように本発明に係るオートフォーカスシステムによれば、本来の画像を撮像する撮像面に対して高い精度で合焦させることができると共に、合焦精度を低下させることなく2つの撮像面の光路長差を大きくすることが可能となり、移動している被写体等に対してフォーカスの応答性能を向上させることができるようになる。
【図面の簡単な説明】
【図1】図1は、本発明が適用されるテレビカメラシステムの全体構成を示した図である。
【図2】図2は、ピント状態検出用の映像信号を取得するために配置された2つの撮像素子の撮像面を同一光軸上に表した図である。
【図3】図3は、レンズ装置の内部構成を示したブロック図である。
【図4】図4は、ピント状態の検出原理の説明に用いた説明図である。
【図5】図5は、2つの撮像面の光路長差が小さい場合の焦点評価値のグラフを示した図である。
【図6】図6は、2つの撮像面の光路長差が図5に比べて大きい場合の焦点評価値のグラフを示した図である。
【図7】図7は、レンズ装置のCPUの処理手順を示したフローチャートである。
【符号の説明】
10…カメラ本体、12…レンズ装置、14…撮影レンズ、20、22…撮像素子、24…光分割光学系、20A、22A…撮像面、FL…フォーカスレンズ(群)、FM…フォーカス用モータ、FA…フォーカス用アンプ、30…CPU、FP…ポテンショメータ、50A、50B…A/D変換器、52A、52B…デジタルフィルター、54A、54B…ゲート回路、56A、56B…加算回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an autofocus system, and more particularly, to an autofocus system that employs contrast-type autofocus and adopts optical path length difference autofocus.
[0002]
[Prior art]
A contrast method is generally used as an autofocus (AF) employed in a broadcast television camera. In contrast AF, a high frequency component signal is extracted from a video signal obtained by a camera, and a focus evaluation value for evaluating the level of contrast is obtained based on the extracted signal. Then, the focus (focus lens group) of the photographing lens is controlled by a method called a hill-climbing method, for example, so that the focus evaluation value becomes a peak (maximum).
[0003]
In contrast AF, the focus state (front pin, rear pin, or in-focus) is detected by wobbling that fluctuates the focus slightly, and the operating direction of the focus is determined. There is a possibility that the variation in focus due to the movement may be recognized on the screen, and there is a disadvantage that is not preferable particularly in broadcasting photography such as being unable to focus accurately on a subject moving at high speed.
[0004]
As a method for solving such a drawback, for example, it is conceivable to use a system as disclosed in Patent Document 1. According to this, two imaging surfaces having a difference in optical path length with respect to incident subject light are arranged close to each other, and the contrast (focus evaluation value) of each image captured by each imaging surface is detected. By comparing these contrasts, the focus state is detected without wobbling, and based on this, the focus of the photographing lens is controlled to be the best focus.
[0005]
In Patent Document 1, two image pickup surfaces having optical path length differences can be arranged by one image pickup device by shifting the image pickup surface of one image pickup device forward and backward in the optical axis direction by a predetermined optical path length difference for each horizontal line. However, it is also possible to arrange two imaging surfaces having an optical path length difference using two separate imaging elements. In this case, means for dividing the subject light incident on the photographic lens into the imaging surface of each imaging element is disposed in the optical system of the photographic lens or in the optical system of the camera body after passing through the photographic lens. become. In Patent Document 1, the image pickup device for detecting the focus state is the same as the image pickup device for picking up an original image (video) for display or recording (hereinafter referred to as reproduction). However, they can also be separate image sensors. Furthermore, when two image pickup surfaces having optical path length differences are arranged using two image pickup devices, one is used as an image pickup device for picking up an original image, and the other is used for detecting a focus state. An imaging device can also be used.
[0006]
[Patent Document 1]
Japanese Patent Publication No. 7-60211
[0007]
[Problems to be solved by the invention]
By the way, when the contrasts of images captured on two imaging surfaces are compared as in Patent Document 1, if the focus is controlled so that the contrasts (focus evaluation values) match, the best imaging position is the two of them. Between the two imaging surfaces. On the other hand, one or both of the two imaging surfaces are not only imaging surfaces for capturing an image for detecting a focus state, but also imaging for capturing an original image for reproduction. If it is also a plane, it is necessary to obtain sufficient focusing accuracy even on the imaging plane for capturing the original image when the middle of the two imaging planes is the best imaging position. Therefore, in Patent Document 1, the two imaging surfaces are arranged so that the optical path length difference is equal to or less than the depth of focus.
[0008]
However, if the optical path length difference between the two imaging planes is less than the depth of focus, the optical path length difference between the two imaging planes becomes too small, and the focus cannot be controlled with a sufficient response speed with respect to changes in the subject. is there. That is, when the focus is automatically controlled so that the contrasts of the images obtained from the two imaging surfaces coincide with each other, by determining the operation direction and operation speed of the focus according to the difference or ratio of the contrast, A method is used in which the focus is operated in such a way that the contrast difference becomes smaller and the operation speed becomes slower as the contrast difference becomes smaller.
[0009]
On the other hand, when the focus position is changed, the change in contrast that appears in the vicinity of the focal point becomes smaller as the subject moves at a higher speed. Therefore, as the subject moves at a higher speed, a difference in contrast between images obtained by the respective imaging surfaces is less likely to occur. In particular, the smaller the difference in optical path length between the two imaging surfaces, the more difficult the difference in contrast occurs.
[0010]
Therefore, if the optical path length difference between the two imaging surfaces is made too small as in Cited Document 1, even if the focus control is performed well for a stationary subject, the subject moving at a high speed Therefore, even when the focus is greatly deviated, a difference in contrast is hardly detected, and there is a problem that the focus does not follow at a sufficient response speed with respect to a change in the subject.
[0011]
In recent years, HD (High Definition) systems have come to be used. In such systems, since the depth of focus is shallow and the optical path length difference between the two imaging planes needs to be smaller, the above-described problem. Becomes prominent.
[0012]
As a method for solving such a problem, it is conceivable to increase the optical path length difference between the two imaging surfaces without being limited to the depth of focus or less. However, in this case, even when the contrasts of the images obtained from the two imaging surfaces coincide with each other and it is determined that the image is in focus, there is a problem that the best focusing image is not obtained on the imaging surface and the best focus image cannot be obtained. Occurs.
[0013]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide an autofocus system that improves the autofocus response performance with respect to a moving subject and prevents a reduction in focusing accuracy. .
[0014]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is directed to a light splitting means for splitting the subject light incident on the photographing optical system into the first subject light and the second subject light; An image pickup surface for acquiring an image, which is a first image pickup surface for picking up the first subject light, and a second image pickup surface for picking up the second subject light, the first image pickup A second imaging surface disposed at a position having an optical path length difference with respect to the surface, a video signal obtained by imaging with the first imaging surface, and an image obtained by imaging with the second imaging surface. The imaging optical system is configured so that the position of the optical path length intermediate between the optical path length to the first imaging surface and the optical path length to the second imaging surface is the best imaging position based on the obtained video signal. A focus control means for controlling the focus position of the first imaging surface, and the position of the first imaging surface being the best imaging position Is characterized by comprising, a focus correction means for correcting the set focus position by the focus control means so that.
[0015]
According to a second aspect of the present invention, in the first aspect of the present invention, the video signal is based on the video signal obtained by the first imaging surface after the focus correction unit corrects the focus position. A first focus evaluation value for evaluating the contrast level of the image indicated by the second image is obtained, and the contrast level of the image indicated by the video signal is evaluated based on the video signal obtained by the second imaging surface. A re-execution condition is obtained by obtaining a focus evaluation value, and a re-execution condition that a ratio between the obtained first focus evaluation value and the second focus evaluation value is changed by a predetermined value or more from a value immediately after the correction of the focus position. When it is determined by the determining means and the re-execution condition is satisfied by the determining means, the focus position control by the focus control means is re-executed. It is characterized by comprising an execution instruction means.
[0016]
According to a third aspect of the present invention, in the second aspect of the present invention, when the determination unit determines that the re-execution condition is not satisfied, the first focus evaluation value and the first focus evaluation value The second focus control means is provided for controlling the focus position so that the ratio of the focus evaluation value of 2 to the value immediately after the correction of the focus position.
[0017]
According to the present invention, first, based on a video signal obtained by two imaging surfaces having an optical path length difference, the best imaging position is set at a position having an intermediate optical path length with respect to the two imaging surfaces. Set the focus position to. Thereafter, the focus position is corrected so that the position of the imaging surface that captures the original image for reproduction becomes the best imaging position. Therefore, in the autofocus of the optical path length difference method using the two image pickup surfaces, the two image pickup surfaces can be focused with high accuracy with respect to the image pickup surface for picking up the original image without reducing the focus accuracy. It is possible to increase the difference in the optical path lengths, thereby improving the focus response performance for a moving subject or the like.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.
[0019]
The television camera shown in FIG. 1 includes a camera body 10 with interchangeable lenses and a lens device 12 attached to the camera body 10. The lens device 12 electrically controls a photographic lens 14 (optical system) composed of various fixed and movable lens groups and optical components such as an iris, and a movable lens (group) and iris of the photographic lens 14 by electric control. A control device (control system) (not shown) is included.
[0020]
In the camera body 10, two image pickup devices (two-dimensional CCDs) 20 and 22 are disposed, and a light splitting optical system 24 such as a half mirror that splits incident subject light into two subject light is disposed. Yes. The subject light that has entered the camera body 10 after passing through the photographing lens 14 is divided into two subject lights by the light splitting optical system 24, and one of the divided subject lights is an imaging surface of the image sensor 20. The other is incident on the imaging surface of the image sensor 22.
[0021]
The image sensor 20 is an image sensor arranged to capture an original image (video) for reproduction, and a video signal obtained by photoelectric conversion by the image sensor 20 and processed by a signal processing circuit (not shown) For example, it is output from an external video signal output terminal to an external device. Further, the video signal obtained from the image sensor 20 is also sent to the lens device 12 as will be described later, and is used to detect the focus state. When the video signal obtained from the image sensor 20 is a color signal, for example, a luminance signal is used to detect a focus state.
[0022]
On the other hand, the image sensor 22 is an image sensor that is arranged exclusively for detecting the focus state. A video signal (for example, a luminance signal) obtained by photoelectric conversion by the image sensor 22 is obtained from the image sensor 20. Together with the received video signal, it is sent to the lens device 12 and used to detect the focus state.
[0023]
In the figure, a so-called single-plate camera that captures an original image by one image sensor 20 is shown, but three image sensors for red (R), green (G), and blue (B) are shown. 3 may be a so-called three-plate camera that captures an original image, and the image sensor 20 shown in FIG. 1 captures one image sensor for each of R, G, and B at an optically equivalent distance. You may understand that it was shown with the element. In that case, a color separation optical system that splits subject light that has passed through the photographing lens 14 and entered the camera body into R, G, and B light is disposed at the position of the light splitting optical system 24 in FIG. The subject light split into the wavelengths of the respective colors by the resolving optical system is incident on the imaging surface of the imaging device corresponding to each wavelength. At this time, for example, a means for branching subject light for focus state detection is provided in the color separation optical system, and the subject light branched thereby is made incident on the imaging surface of the image sensor 22. As will be described in detail later, two luminance signals obtained from two imaging planes arranged with a difference in optical path length are used for focus state detection in the present embodiment. The signal may be acquired from any one of the R, G, and B image sensors that capture the original image, or may be generated from signals obtained from the three R, G, and B image sensors. May be. In addition, the dedicated image sensor 22 for detecting the focus state, a unit for branching the subject light to the imaging surface of the image sensor 22, and the like may be arranged in the lens device 12 instead of the camera body 10.
[0024]
Here, FIG. 2 shows a diagram in which the imaging surface of the imaging device 20 and the imaging surface of the imaging device 22 are represented on the same optical axis. As shown in the drawing, the optical path length of the subject light incident on the imaging surface 20A of one imaging element 20 is shorter than the optical path length of the subject light incident on the imaging surface 22A of the other imaging element 22. The imaging surfaces of the imaging elements 20 and 22 are arranged with an optical path length difference. As a result, the subject light incident on the photographing lens 14 is imaged by the two imaging surfaces having the optical path length difference. However, the positions of the imaging surfaces 20A and 22A may be reversed. In addition, the image pickup surface X indicated by a broken line in the figure is located between the image pickup surface 20A and the image pickup surface 22A, and the optical path length to the image pickup surface 20A is equal to the optical path length to the image pickup surface 22A, that is, each The imaging surfaces arranged at positions where the optical path lengths to the imaging surfaces 20A and 22A are ½ of the optical path length difference between the imaging surfaces 20A and 20B are shown. This imaging plane X is not actually arranged, and shows the position of the imaging plane that becomes a reference when detecting the focus state from two video signals as will be described in detail later.
[0025]
FIG. 3 is a block diagram showing the configuration of the lens device 12. The photographic lens 14 in the lens device 12 includes a focus lens (group) FL driven in the optical axis direction for focusing as a movable lens group, and an optical axis direction for changing the image magnification (focal length). A zoom lens (group) ZL driven by the Also, an iris I that is driven to open and close to change the aperture value is arranged.
The focus lens FL, the zoom lens ZL, and the iris I are connected to the focus motor FM, the zoom motor ZM, and the iris motor IM, respectively, and are driven by the motors FM, ZM, and IM. Yes.
[0026]
The motors FM, ZM, and IM are connected to the focus amplifier FA, the zoom amplifier ZA, and the iris amplifier IA, respectively, and each amplifier is connected from the CPU 30 mounted on the lens device 12 via the D / A converter 32. When a drive signal is given to FA, ZA, IA, a voltage corresponding to the drive signal is applied to each motor FM, ZM, IM, and each motor FM, ZM, IM is driven at a speed corresponding to the applied voltage. It is like that.
[0027]
Therefore, the CPU 30 can control the focus lens FL, the zoom lens ZL, and the iris I at a desired operation speed based on the voltage values of the drive signals output to the amplifiers FA, ZA, and IA. Position information indicating the current position of the focus lens FL, the zoom lens ZL, and the iris I is supplied from the potentiometers FP, ZP, and IP to the CPU 30 via the A / D converter 34, respectively. By controlling the operation speed while referring to these current positions, the positions of the focus lens FL, zoom lens ZL, and iris I can also be controlled.
[0028]
On the other hand, a lens controller such as a focus demand 36 for manually operating the focus and a zoom demand 38 for manually operating the zoom can be connected to the lens device 12 as a lens accessory (attached device). The focus demand 36 shown in the figure is a digital lens controller. When the focus demand 36 is connected to the lens device 12, the SCI (serial communication interface) 40, 42 is connected between the focus demand 36 and the CPU 30 of the lens device 12. And various signals are exchanged by serial communication. Thereby, for example, a command signal indicating the target position of the focus is given from the focus demand 36 to the CPU 30 based on a manual operation of a predetermined focus operation member (for example, a focus ring). In the manual focus mode, the CPU 30 controls the position of the focus lens FL based on the command signal, and sets the focus to the target position given by the command signal.
[0029]
A zoom demand 38 shown in the figure is an analog lens controller. When the zoom demand 38 is connected to the lens device 12, for example, a command signal indicating a zoom target speed based on a manual operation of a zoom operation member is A / It is given to the CPU 30 via the D converter 34. The CPU 30 controls the operating speed of the zoom lens ZL based on the command signal, and moves the zoom at the target speed given by the command signal.
[0030]
In addition, the lens device 12 is provided with an AF switch S1 for switching between a manual focus mode and an autofocus mode. The CPU 30 executes a manual focus mode process when the AF switch S1 is off, and executes an autofocus mode process when the AF switch S1 is on. In the manual focus mode process, the focus lens FL is controlled based on the command signal from the focus demand 36 as described above.
[0031]
On the other hand, in the auto focus mode process, the focus lens FL is controlled based on the focus information acquired by the processing circuits 50A to 56A and the processing circuits 50B to 56B to perform automatic focus adjustment.
[0032]
The processing circuits 50A to 56A are circuits that generate focus evaluation values indicating the level of contrast of the image from the video signal (luminance signal) obtained from the image sensor 20 of the camera body 10, and the processing circuits 50B to 56B are This is a circuit that generates a focus evaluation value indicating the level of contrast of an image from a video signal (luminance signal) obtained from the image sensor 22 of the camera body 10. Since the processing contents of the processing circuits 50A to 56A and the processing circuits 50B to 56B match each video signal, only the processing circuits 50A to 56A will be described below.
[0033]
As shown in the figure, when a video signal obtained by the imaging device 20 of the camera body 10 is given from the camera body 10 to the lens device 12, the video signal is first converted into a digital signal by the A / D converter 50A. . Subsequently, only the signal of the high frequency component is extracted from the video signal by the digital filter 52A, and only the signal within a predetermined focus range set within the shooting range (on the screen) from the extracted signal of the high frequency component is extracted. Is extracted by the gate circuit 54A. The signal extracted by the gate circuit 54A is then integrated for each image (for one field in the interlaced video signal) by the adder circuit 56A. The signal obtained by the integration of the adder circuit 56A is a value indicating the degree of focus on the subject within the focus range (contrast level), and this value is sequentially read by the CPU 30 as a focus evaluation value. The focus evaluation value obtained from the video signal from the image sensor 20 in this way is referred to as the focus evaluation value of the channel (ch) A. Similarly, the processing circuits 50B to 56B process the video signal from the image sensor 22. The obtained focus evaluation value is referred to as a chB focus evaluation value.
[0034]
All the processing units of the lens device 12 shown in FIG. 3 are not necessarily arranged in the lens device 12, and may be arranged in any part of the entire system including the camera body 10. For example, the processing circuits 50A to 56A and 50B to 56B may be arranged in the camera body 10, or a focus lens based on the focus evaluation values obtained from the processing circuits 50A to 56A and 50B to 56B as will be described later. The processing of the CPU 30 that controls the position of the FL may be performed on the camera body 10 side.
[0035]
Next, auto focus (AF) processing in the CPU 30 of the lens apparatus 12 will be described. When the focus evaluation values of chA and chB are acquired as described above, the current focus state of the photographic lens 14 can be known based on the focus evaluation values. First, the principle will be described. FIG. 4 is a diagram illustrating the state of the focus evaluation value with respect to the focus position when a certain subject is imaged, with the horizontal axis indicating the position (focus position) of the focus lens FL of the photographing lens 14 and the vertical axis indicating the focus evaluation value. is there. Curves A and B indicated by solid lines in the figure indicate the chA and chB focus evaluation values obtained from the image sensors 20 and 22, respectively, with respect to the focus position. On the other hand, a curved line C indicated by a dotted line in the figure indicates that the imaging surface X is assumed when the imaging surface X is arranged between the imaging surfaces 20A and 22A of the imaging device 20 and the imaging device 22 (see FIG. 2). The graph when a focus evaluation value is calculated | required with the obtained video signal is shown.
[0036]
First, the focus state with respect to the imaging surface X is detected with the position F0 where the focus evaluation value of the curve C is maximized (maximum) as the in-focus position. When the focus position of the photographic lens 14 is set to F1 in the figure, the chA focus evaluation value V A1 Is a value corresponding to the position F1 of the curve A, and the focus evaluation value V of chB B1 Is a value corresponding to the position F1 of the curve B. In this case, the chA focus evaluation value V A1 Is the focus evaluation value V of chB B1 Bigger than. From this, it can be seen that the focus position is set closer to the in-focus position (F0), that is, the state of the front pin.
[0037]
On the other hand, when the focus position of the photographic lens 14 is set to F2 in FIG. A2 Is a value corresponding to the position F2 of the curve A, and the focus evaluation value V of chB B2 Is a value corresponding to the position F2 of the curve B. In this case, the chA focus evaluation value V A2 Is the focus evaluation value V of chB B2 Smaller than. From this, it can be seen that the focus position is set to the infinity side from the focus position (F0), that is, the state of the rear pin.
[0038]
On the other hand, when the focus position of the photographic lens 14 is set to F0, that is, the in-focus position, the chA focus evaluation value V A0 Is a value corresponding to the position F0 of the curve A, and the focus evaluation value V of chB B0 Is a value corresponding to the position F0 of the curve B. At this time, the focus evaluation value V of chA A0 And chB focus evaluation value V B0 Are equal. From this, it can be seen that the in-focus state is set to the in-focus position (F0).
[0039]
In this way, it is possible to detect whether the current focus state of the photographic lens 14 is a front pin, a rear pin, or an in-focus state with respect to the imaging plane X, based on the chA and chB focus evaluation values. Note that the focus state detected here is not a focus state with respect to the imaging surface 20A of the imaging element 20 that captures an image for reproduction. For example, when the focus state is detected as described above based on the focus evaluation values of chA and chB, and the focus state is determined, the best imaging positions at that time are the imaging surface 20A and the imaging element 22 of the imaging element 20. This is the position of the imaging plane X in the middle of the imaging plane 22A.
[0040]
Next, an outline of AF processing in the CPU 30 of the lens apparatus 12 will be described.
When the focus evaluation values of chA and chB do not match, the CPU 30 controls the position of the focus lens FL based on the focus evaluation values of chA and chB, and the focus lens FL is first focused on the imaging plane X. Move to the position. In other words, when the state is determined to be the front pin with respect to the imaging surface X, the focus lens FL is moved in the infinity direction, and when the state is determined to be the rear pin, the focus lens FL Move in the close direction. When the focus evaluation values of chA and chB match to determine that the imaging surface X is in focus, the focus lens FL is stopped at that position. As a result, the focus of the photographing lens 14 is brought into focus with respect to the imaging surface X. After the focus lens FL is set to the in-focus position in this way, the above process is repeated when the in-focus state, that is, the state where the chA and chB focus evaluation values match does not continue for a predetermined time or longer. Thereby, for example, when the in-focus position fluctuates when the subject is moving, the focus lens FL moves following the focus position.
[0041]
Here, an example of a specific control method for moving the focus lens FL to the in-focus position will be described. When the focus evaluation values of chA and chB obtained sequentially from the camera body 10 are AFV_A and AFV_B, the CPU 30 first obtains the ratio AFV = AFV_A / AFV_B. As can be seen from FIG. 4, when the focus evaluation value ratio AFV is 1, the imaging surface X is in focus, and the focus evaluation value ratio AFV is greater than 1. In this case, the focus state with respect to the imaging surface X is the front pin state. In this case, the moving direction of the focus lens FL is set to the infinity side. Further, the moving speed of the focus lens FL at this time is set to C · (AFV−1), for example. The coefficient C is a constant. Then, an instruction (drive signal) for executing the operation set as described above is output to the focus amplifier FA shown in FIG.
As a result, the focus lens FL moves faster as the AFV becomes larger in the direction in which AFV = 1, and when the AFV approaches 1, it decelerates and stops at the in-focus position where AFV = 1.
[0042]
On the other hand, when the value of the focus evaluation value ratio AFV is smaller than 1, the focus state is the rear focus state with respect to the imaging surface X. In this case, the moving direction of the focus lens FL is set to the close side. Further, the moving speed of the focus lens FL at this time is set to, for example, C · (1 / AFV−1). Thus, the focus lens FL moves faster as 1 / AFV becomes larger in the direction of 1 / AFV = 1 (AFV = 1), and decelerates when 1 / AFV approaches 1, and 1 / AFV = 1. Stop at the in-focus position.
[0043]
By the way, when the focus lens FL is stopped at the in-focus position while adjusting the moving speed of the focus lens FL using the ratio or difference between the focus evaluation values of chA and chB as a parameter, the imaging surface 20A of the image sensor 20 is If the difference in optical path length from the imaging surface 22A of the imaging element 22 is small, there arises a problem that the focus lens FL does not follow the subject moving at a high speed with a sufficient response speed. FIG. 5 shows a graph of the focus evaluation value when the subject is moving at high speed when the optical path length difference between the imaging surface 20A and the imaging surface 22A is reduced so as to be equal to or less than the focal depth of the photographing lens 14, for example. It is a figure. On the other hand, FIG. 6 is a graph of the focus evaluation value when the subject is moving at high speed in the case of the present embodiment and when the difference between the optical path lengths of the imaging surface 20A and the imaging surface 22A in FIG. FIG. As shown in these figures, when the subject is moving at a high speed, the contrast is low and the inclination near the peak point of the focus evaluation value is also gentle. Therefore, as can be seen from the graph of FIG. 5, if the difference in optical path length between the imaging surface 20A and the imaging surface 22A is too small, a difference in the focus evaluation values of chA and chB hardly occurs. The moving speed of the focus lens FL obtained by the above equation such as C · (AFV-1) is extremely slow even if it is greatly deviated from the distance to the close side. If the coefficient C is set to a large value, the moving speed of the focus lens FL can be generally increased. However, when the moving subject stops or the subject is stationary from the beginning. In some cases, the moving speed of the focus lens FL is too fast, which causes a problem that the stopping operation at the in-focus position becomes unstable. Therefore, the focus lens FL cannot follow the subject moving at a high speed at a sufficient speed.
[0044]
On the other hand, as can be seen from the graph of FIG. 6, if the optical path length difference between the imaging surface 20A and the imaging surface 22A is increased as in the present embodiment, the chA even when the subject is moving at high speed. And the focus evaluation value of chB are sufficiently large, and the focus lens FL can follow the subject moving at high speed at a sufficient speed.
[0045]
On the other hand, reducing the optical path length difference between the imaging surface 20A and the imaging surface 22A and limiting it to the focal depth or less controls the position of the focus lens FL so as to be in focus with respect to the imaging surface X as described above. By doing so, there is an advantage in that an in-focus state can be obtained also on the image pickup surface 20A for picking up an original image. When the optical path length difference between the imaging surface 20A and the imaging surface 22A is increased in order to improve the response performance of the focus lens FL as in the present embodiment, the focus is set so that the imaging surface X is in focus. Even if the lens FL is controlled, the image pickup surface 20A of the image pickup device 20 that picks up the original image is not brought into focus. However, since the contrast of the subject moving at high speed is low, when the subject is moving at high speed, even if the subject is not in focus with respect to the imaging surface 20A of the imaging device 20, the reproduced image is displayed. There is almost no sense of incongruity. On the other hand, a stationary subject needs to be brought into focus with respect to the imaging surface 20A of the imaging device 20, but this point is solved by the control described below.
[0046]
As described above, when the focus lens FL is set to the in-focus position at which the imaging surface X is in focus, when the focus state continues for a specified time or longer without moving the focus lens FL, the subject Can be determined to be stationary. In this case, the CPU 30 moves the focus lens FL to displace the best imaging position from the imaging surface X to the imaging surface 20A of the imaging element 20. That is, the focus lens FL is moved in the closest direction by an amount corresponding to one half of the optical path length difference between the imaging surface 20A of the imaging device 20 and the imaging surface 22A of the imaging device 22. As a result, when high focusing accuracy is required, for example, when the subject is stationary or when the moving subject is stopped, the imaging surface 20A of the imaging element 20 that captures the original image is aligned. The position of the focus lens FL is corrected so as to be in focus. Therefore, when the optical path length difference between the imaging surface 20A of the imaging device 20 and the imaging surface 22A of the imaging device 22 is increased in order to improve the response performance of the focus lens FL as described above, the focusing is performed with respect to the imaging surface X. By simply controlling the focus lens FL so as to be in the state, the problem that the imaging surface 20A is not brought into focus is solved.
[0047]
Next, a specific processing procedure of the CPU 30 will be described using the flowchart of FIG. First, the CPU 30 sets the parameter COUNT to 0 (step S10). Next, the chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B are acquired (steps S12 and S14). Then, the ratio between the focus evaluation value AFV_A for chA and the focus evaluation value AFV_B for chB is obtained, and this value is set as AFV (step S16). That is, AFV = AFV_A / AFV_B.
[0048]
Subsequently, the CPU 30 determines whether or not the condition of AFV = 1 is satisfied (step S18). That is, it is determined whether or not the chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B match, and it is determined whether or not the imaging surface X is in focus. If NO is determined, it is determined whether or not the condition of AFV <1 is satisfied (step S20).
If YES is determined, the focus lens FL is moved in the closest direction because it is in the rear pin state with respect to the imaging surface X (step S22). On the other hand, if NO is determined, the focus lens FL is moved in the direction of infinity because it is in the state of the front pin with respect to the imaging surface X (step S24). After the process of step S22 or step S24, the process returns to step S10 and the above process is repeated.
[0049]
If YES in step S18, that is, if it is determined that the imaging surface X is in focus, the value of the parameter COUNT is increased by 1 (step S26). That is, COUNT = COUNT + 1. Then, it is determined whether or not a condition of COUNT <n is satisfied for a predetermined value n (integer) (step S28). When it determines with YES, it returns to step S12. If YES is determined n times consecutively in step S18, NO is determined in step S28. That is, the in-focus state is maintained for a predetermined time required to determine “YES” in step S18 continuously n times after setting the focus lens FL at a position where the in-focus state with respect to the imaging surface X is set. In that case, NO is determined in step S28. This determination process determines whether the subject is stationary.
[0050]
If NO is determined in step S28, the CPU 30 instructs the focus lens FL to move in the closest direction by an amount corresponding to ½ of the optical path length difference between the imaging surface 20A of the imaging device 20 and the imaging surface 22A of the imaging device 22. (Step S30). Then, it is determined whether or not the movement has ended (step S32). When the focus lens FL moves to a position where it is in focus with respect to the imaging surface 20A, it is determined YES in step S32, and the focus lens FL stops at that position.
[0051]
If YES is determined in step S32, the CPU 30 acquires the chA focus evaluation value AFV_A and the chB focus evaluation value AFV_B (steps S34 and S36). Then, a focus evaluation value ratio AFVR = AFV_A / AFV_B is obtained, and the ratio AFVR is stored (step S38).
[0052]
Subsequently, the CPU 30 acquires the focus evaluation value AFV_A for chA and the focus evaluation value AFV_B for chB (steps S40 and S42), and obtains the ratio AFV = AFV_A / AFV_B (step S44). Then, it is determined whether or not the focus evaluation value ratio AFV obtained in step S44 matches the focus evaluation value ratio AFVR obtained in step S38 (step S46). Thus, it is detected whether or not the subject has changed. When it determines with YES, ie, when it determines with there being no change in a to-be-photographed object, the process from step S40 is repeated. On the other hand, if it is determined NO, that is, if a change occurs in the subject, the process returns to step S10 and is executed again from the first process.
[0053]
In the processing of the above flowchart, when the AFV value obtained in step S44 changes with respect to the AFVR value obtained in step S38, the processing from step S10, that is, the in-focus state with respect to the imaging surface X is performed. The process for controlling the position of the focus lens FL is performed so that the process from step 10 may be performed when the AFV value changes by a predetermined value or more with respect to the AFVR value. If the change amount of the AFV value with respect to the AFVR value is smaller than the predetermined value, the focus lens FL is moved while detecting the AFV value, instead of performing the processing from step S10, and the AFV value is changed. The position of the focus lens FL may be controlled so as to match the value of AFVR.
[0054]
In the above embodiment, the case where the present invention is applied to a television camera system has been described. However, the present invention is not limited to this and can be applied to a system equipped with an autofocus function such as a consumer movie camera.
[0055]
【The invention's effect】
As described above, according to the autofocus system of the present invention, the two imaging surfaces can be focused with high accuracy on the imaging surface that captures the original image without reducing the focusing accuracy. It is possible to increase the difference in the optical path lengths, thereby improving the focus response performance for a moving subject or the like.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a television camera system to which the present invention is applied.
FIG. 2 is a diagram showing imaging surfaces of two imaging elements arranged to acquire a video signal for focus state detection on the same optical axis.
FIG. 3 is a block diagram showing an internal configuration of the lens apparatus.
FIG. 4 is an explanatory diagram used for explaining the principle of detecting a focus state.
FIG. 5 is a graph showing a focus evaluation value when the optical path length difference between two imaging surfaces is small.
6 is a graph showing a focus evaluation value graph when the optical path length difference between two imaging surfaces is larger than that in FIG. 5;
FIG. 7 is a flowchart showing the processing procedure of the CPU of the lens apparatus.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Camera body, 12 ... Lens apparatus, 14 ... Shooting lens, 20, 22 ... Imaging element, 24 ... Light splitting optical system, 20A, 22A ... Imaging surface, FL ... Focus lens (group), FM ... Focusing motor, FA: Focus amplifier, 30: CPU, FP: Potentiometer, 50A, 50B ... A / D converter, 52A, 52B ... Digital filter, 54A, 54B ... Gate circuit, 56A, 56B ... Adder circuit

Claims (3)

撮影光学系に入射した被写体光を、第1の被写体光と第2の被写体光とに分割する光分割手段と、
再生用の画像を取得するための撮像面であって前記第1の被写体光を撮像する第1の撮像面と、
前記第2の被写体光を撮像する第2の撮像面であって、前記第1の撮像面に対して光路長差を有する位置に配置された第2の撮像面と、
前記第1の撮像面により撮像されて得られた映像信号と、前記第2の撮像面により撮像されて得られた映像信号とに基づいて、前記第1の撮像面までの光路長と前記第2の撮像面までの光路長との中間の光路長の位置が最良結像位置となるように前記撮影光学系のフォーカス位置を制御するフォーカス制御手段と、
前記第1の撮像面の位置が最良結像位置となるように前記フォーカス制御手段により設定されたフォーカス位置を補正するフォーカス補正手段と、を備えたことを特徴とするオートフォーカスシステム。
Light dividing means for dividing subject light incident on the photographing optical system into first subject light and second subject light;
A first imaging surface for capturing an image for reproduction, the first imaging surface capturing the first subject light;
A second imaging surface that images the second subject light, the second imaging surface disposed at a position having an optical path length difference with respect to the first imaging surface;
Based on the video signal obtained by imaging with the first imaging surface and the video signal obtained by imaging with the second imaging surface, the optical path length to the first imaging surface and the first Focus control means for controlling the focus position of the photographing optical system so that the position of the optical path length intermediate to the optical path length to the imaging surface of 2 is the best imaging position;
An autofocus system, comprising: a focus correction unit that corrects a focus position set by the focus control unit so that the position of the first imaging surface is the best imaging position.
前記フォーカス補正手段がフォーカス位置を補正した後において、前記第1の撮像面により得られる映像信号に基づいて該映像信号が示す画像のコントラストの高低を評価する第1の焦点評価値を求めると共に、前記第2の撮像面により得られる映像信号に基づいて該映像信号が示す画像のコントラストの高低を評価する第2の焦点評価値を求め、該求めた第1の焦点評価値と第2の焦点評価値との比が前記フォーカス位置の補正直後の値から所定値以上変化したことを再実行条件として該再実行条件を満たすか否かを判定手段と、
前記判定手段により前記再実行条件が満たされたと判定された場合には、前記フォーカス制御手段によるフォーカス位置の制御を再実行させる再実行指示手段と、を備えたことを特徴とする請求項1のオートフォーカスシステム。
After the focus correction unit corrects the focus position, a first focus evaluation value for evaluating the contrast level of the image indicated by the video signal is obtained based on the video signal obtained by the first imaging surface; Based on the video signal obtained by the second imaging surface, a second focus evaluation value for evaluating the level of contrast of the image indicated by the video signal is obtained, and the obtained first focus evaluation value and second focus are obtained. A determination means for determining whether or not the re-execution condition is satisfied with a re-execution condition that a ratio with the evaluation value has changed by a predetermined value or more from a value immediately after the correction of the focus position;
The re-execution instructing unit that re-executes control of the focus position by the focus control unit when the determination unit determines that the re-execution condition is satisfied. Autofocus system.
前記判定手段により前記再実行条件が満たされていないと判定された場合には、前記第1の焦点評価値と第2の焦点評価値との比が前記フォーカス位置の補正直後の値となるようにフォーカス位置を制御する第2フォーカス制御手段を備えたことを特徴とする請求項2のオートフォーカスシステム。When the determination unit determines that the re-execution condition is not satisfied, the ratio between the first focus evaluation value and the second focus evaluation value becomes a value immediately after the correction of the focus position. 3. The autofocus system according to claim 2, further comprising second focus control means for controlling the focus position.
JP2003207326A 2003-08-12 2003-08-12 Automatic focus system Pending JP2005062237A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003207326A JP2005062237A (en) 2003-08-12 2003-08-12 Automatic focus system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003207326A JP2005062237A (en) 2003-08-12 2003-08-12 Automatic focus system

Publications (1)

Publication Number Publication Date
JP2005062237A true JP2005062237A (en) 2005-03-10

Family

ID=34363843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003207326A Pending JP2005062237A (en) 2003-08-12 2003-08-12 Automatic focus system

Country Status (1)

Country Link
JP (1) JP2005062237A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025595A (en) * 2005-07-21 2007-02-01 Fujinon Corp Automatic focusing device
JP2007322482A (en) * 2006-05-30 2007-12-13 Nuflare Technology Inc Focusing device, focusing method, and inspection device
JP2012128298A (en) * 2010-12-17 2012-07-05 Samsung Electronics Co Ltd Imaging apparatus and imaging method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025595A (en) * 2005-07-21 2007-02-01 Fujinon Corp Automatic focusing device
JP2007322482A (en) * 2006-05-30 2007-12-13 Nuflare Technology Inc Focusing device, focusing method, and inspection device
JP2012128298A (en) * 2010-12-17 2012-07-05 Samsung Electronics Co Ltd Imaging apparatus and imaging method

Similar Documents

Publication Publication Date Title
JP3975395B2 (en) Camera system
JP5089154B2 (en) Auto focus system
JPH0933791A (en) Lens driving device and image pickup device
JP2006330272A (en) Imaging apparatus
US7633545B2 (en) Focus detecting system
JP2010243843A (en) Autofocus system
JP2004085675A (en) Automatic focus system
JP2004085673A (en) Autofocus system
JP2007065593A (en) Autofocus system
JP2005062237A (en) Automatic focus system
JP4032877B2 (en) Auto focus system
JP2006215285A (en) Autofocus system
JP4066244B2 (en) Auto focus system
JP4692425B2 (en) Auto focus system
JP2004258085A (en) Autofocus system
JPH0933792A (en) Lens driving device and image pickup device
JP2006064970A (en) Automatic focusing system
JP2003270518A (en) Autofocus system
JP5475417B2 (en) Image sensor characteristic adjustment method and characteristic adjustment apparatus
JP2005156736A (en) Auto focus system
JP2004212458A (en) Autofocus system
JP2005156737A (en) Auto focus system
JP2004258088A (en) Autofocus system
JP2008225239A (en) Autofocus system
JP2004085674A (en) Autofocus system