JP2004117492A - Autofocus system - Google Patents

Autofocus system Download PDF

Info

Publication number
JP2004117492A
JP2004117492A JP2002277041A JP2002277041A JP2004117492A JP 2004117492 A JP2004117492 A JP 2004117492A JP 2002277041 A JP2002277041 A JP 2002277041A JP 2002277041 A JP2002277041 A JP 2002277041A JP 2004117492 A JP2004117492 A JP 2004117492A
Authority
JP
Japan
Prior art keywords
focus
video signal
processing
signal
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002277041A
Other languages
Japanese (ja)
Inventor
Tadashi Sasaki
佐々木 正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Priority to JP2002277041A priority Critical patent/JP2004117492A/en
Priority to US10/642,143 priority patent/US7345706B2/en
Priority to DE10338246A priority patent/DE10338246A1/en
Priority to FR0310096A priority patent/FR2843809B1/en
Publication of JP2004117492A publication Critical patent/JP2004117492A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autofocus system realizing the reduction of the scale of a circuit and power consumption by performing all or a part of autofocus processing using a plurality of imaging devices arranged at positions set at different optical path length by a single processing part in a time-division manner. <P>SOLUTION: The autofocus system is provided with three imaging devices A, B and C having different optical path length for the autofocus control of a television camera or the like. Required processing is performed to video signals outputted from the respective imaging devices in the time-division manner by an A/D converter 100, an HPF 52, a gate circuit 54 and an adder 56 so as to obtain a focus evaluated value showing the contrast of an image. A CPU 82 performs focusing by controlling a focus based on the focus evaluated value. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明はオートフォーカスシステムに係り、特に光路長が異なる位置に撮像面が配置された複数の撮像素子を用いてコントラスト方式のオートフォーカスを行うオートフォーカスシステムに関する。
【0002】
【従来の技術】
従来、光路長の異なる位置に撮像面を有する複数の撮像素子を用いて撮影レンズのピント状態(前ピン、後ピン、合焦)を検出する方法が提案されている(例えば、特許文献1、特許文献2、特許文献3、特許文献4参照)。例えば、映像用の画像を撮像する撮像素子(映像用撮像素子)に対して同一撮影範囲の画像を撮像する2つのピント状態検出用撮像素子を、それぞれ映像用撮像素子よりも光路長が長くなる位置と短くなる位置に配置する。そして、これらのピント状態検出用撮像素子によって撮像された画像(映像信号)から高域周波数成分を抽出し、これに基づいて、ピント状態検出用撮像素子の各撮像面に対する合焦の程度(画像のコントラスト)を示す焦点評価値を求め、比較する。これによって、焦点評価値の大小関係から映像用撮像素子の撮像面におけるピント状態の情報(ピント情報)、即ち、前ピン、後ピン、合焦のどの状態にあるかが検出される。このようなピント状態の検出方法を適用することによってオートフォーカスのための合焦検出を行うことができ、また、合焦か否かを判断できるだけでなく前ピンか後ピンかも判断できるため、合焦に対する反応速度も速いという利点がある。
【0003】
【特許文献1】
特願2001−168246
【0004】
【特許文献2】
特願2001−168247
【0005】
【特許文献3】
特願2001−168248
【0006】
【特許文献4】
特願2001−168249
【0007】
【発明が解決しようとする課題】
ところで、上記焦点評価値は、複数のピント状態検出用撮像素子からの映像信号に対してそれぞれ同一の処理を施すことによって求められる。しかしながら、その処理を各映像信号に対応して設けた処理回路で並列で行うようにすると、各撮像素子から同一時刻の画像が得られ、蛍光灯等のフリッカがある場合や、画面上で動く被写体からのピント情報に関しても高い精度で処理できる反面、回路のサイズや消費電力が大きくなる欠点があった。
【0008】
本発明はこのような事情に鑑みてなされたもので、光路長が異なる位置に撮像面を有する複数の撮像素子を用いてコントラスト方式のオートフォーカスを行うオートフォーカスシステムにおいて、各撮像素子の映像信号からピント情報を得るための処理部の小型化及び省電力化を図ると共に、低コスト化を図るオートフォーカスシステムを提供することを目的とする。
【0009】
【課題を解決するための手段】
前記目的を達成するために、請求項1に記載の発明は、撮影レンズに入射した被写体光を光路長の異なる位置に配置された複数の撮像素子により撮像して各撮像素子により得られた映像信号に基づいて前記撮影レンズのフォーカスを制御してピント合わせを自動で行うフォーカス制御手段を備えたオートフォーカスシステムにおいて、前記各撮像素子からの各映像信号に対して施される同一の処理の全て又は一部を各映像信号ごとに時分割で処理する単一の処理部を備えたことを特徴としている。
【0010】
また、請求項2に記載の発明は、請求項1に記載の発明において、前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの映像信号のうち少なくとも前記AF枠内の映像信号に対する処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴としている。
【0011】
また、請求項3に記載の発明は、請求項1に記載の発明において、前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの前記AF枠内の映像信号のうち一部の映像信号の処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴としている。
【0012】
また、請求項4に記載の発明は、請求項2又は請求項3に記載の発明において、前記各撮像素子からの映像信号を記憶する記憶手段を備え、前記処理部は、各撮像素子から同一時刻に出力された映像信号を前記記憶手段から読み出して処理することを特徴としている。
【0013】
また、請求項5に記載の発明は、請求項3に記載の発明において、処理する対象の映像信号の切替えは、水平同期信号を基準に行うことを特徴としている。
【0014】
また、請求項6に記載の発明は、請求項5に記載の発明において、前記各撮像素子からの映像信号の垂直同期信号が一定時間分ずれるようにしたことを特徴としている。
【0015】
本発明によれば、光路長の異なる位置に配置された複数の撮像素子を用いたオートフォーカスの処理の全て又は一部を単一の処理部で時分割で行うようにしたため、回路規模を小さくすることができ、また、消費電力を低減することができるようになる。
【0016】
【発明の実施の形態】
以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。
【0017】
図1は、本発明が適用されたテレビカメラシステムの構成を示した構成図である。同図に示すテレビカメラシステムは、カメラ本体10と、交換可能な撮影レンズ12等からなり、カメラ本体10には、記録再生用の映像を撮影し、所定形式の映像信号を出力又は記録媒体に記録するための撮像素子(映像用撮像素子)や所要の回路等が内蔵されている。一方、撮影レンズ12は、カメラ本体10の前面側に着脱自在に装着され、同図に示すように撮影レンズ12の光学系には、一般的に知られているように前端側から固定フォーカスレンズF′、移動可能なフォーカスレンズF、変倍系と補正系とからなるズームレンズZ、アイリスI、前側リレーレンズR1と後側リレーレンズR2とからなるリレーレンズ(リレー光学系)等が配置される。尚、図中の各レンズの構成は簡略化しており、複数のレンズから成るレンズ群を1つのレンズで示したものもある。
【0018】
また、同図に示すようにリレー光学系の前側リレーレンズR1と後側リレーレンズR2との間の被写体光の光路上には撮影レンズ12の光軸Oに対して略45度に傾斜し、ピント状態検出用の被写体光を映像用の被写体光から分岐するためのハーフミラー24が配置される。
【0019】
撮影レンズ12の前端側から入射した被写体光のうちハーフミラー24で分岐される光束以外、即ち、ハーフミラー24を透過した映像用の被写体光は、撮影レンズ12の後端側から射出され、カメラ本体10の撮像部20に入射する。撮像部20の構成については省略するが、撮像部20に入射した被写体光は、例えば色分解光学系により、赤色光、緑色光、青色光の3色に分解され、各色ごとの撮像素子(映像用撮像素子)の撮像面に入射する。これによって放映用のカラー映像が撮影される。尚、図中のピント面22は、各映像用撮像素子の撮像面に対して光学的に等価な位置を撮影レンズ12の光軸O上に示したものである。
【0020】
一方、ハーフミラー24で反射した被写体光は、ピント状態検出用の被写体光として光軸Oに対して略垂直な光軸O′に沿ってピント状態検出用の撮像部26に導かれる。ここで、前側リレーレンズR1と後側リレーレンズR2の間では被写体光は略平行光の状態であり、ハーフミラー24で反射した被写体光は、後側リレーレンズR2と同様の性質を有する集光のためのリレーレンズR3を通過してピント状態検出用の撮像部26に入射する。
【0021】
図2は、ピント状態検出用の撮像部26の構成を示した構成図である。同図に示すように撮像部26は、光分割光学系を構成する3つのプリズムP1、P2、P3とピント状態検出用の3つの撮像素子(2次元CCD)A、B、Cから構成される。尚、撮像素子A、B、Cをカメラ本体10に搭載された映像用撮像素子と特に区別していう場合にはピント状態検出用撮像素子A、B、Cというものとする。
【0022】
上述のようにハーフミラー24で反射し、光軸O′に沿って進行した被写体光は、まず、第1プリズムP1に入射し、第1プリズムP1のハーフミラー面40で反射光と透過光に分割される。このうち反射光は、撮像素子Cの撮像面に入射する。一方、透過光は、第2プリズムP2に入射し、第2プリズムP2のハーフミラー面42で更に反射光と透過光に分割される。このうち反射光は撮像素子Bに入射される。一方、透過光は第3プリズムP3を通過して撮像素子Aに入射する。尚、撮像素子A、B、Cのそれぞれに入射する被写体光の光量が等しくなるように第1プリズムP1のハーフミラー面40及び第2プリズムP2のハーフミラー面42で被写体光が分割される。また、これらの撮像素子A、B、Cはカラー映像を撮像するものである必要はなく、本実施の形態では白黒画像を撮像するCCDであるものとする。
【0023】
各撮像素子A、B、Cに入射する被写体光の光軸(各撮像素子の光軸)を同一直線上で示すと、図3に示すように、各撮像素子A、B、Cに入射するまでの被写体光に対して撮像素子Bの光路長が最も短く、撮像素子Cの光路長が最も長くなっており、撮像素子Aの光路長は撮像素子Bと撮像素子Cの光路長の中間の長さとなっている。即ち、撮像素子Aの撮像面に対して前後の等距離の位置に撮像素子Bと撮像素子Cの撮像面が平行に配置される。また、撮像素子Aの撮像面は、カメラ本体10のピント面22(図1参照)と共役の関係にあり、撮影レンズ12に入射した被写体光に対する光路長がカメラ本体10の映像用撮像素子の撮像面と一致している。尚、撮像素子Aは、映像用撮像素子の撮像面を結像面とする物体面と撮像素子Aの撮像面を結像面とする物体面とが一致するように配置されており、必ずしも映像用撮像素子の撮像面と光路長が一致している場合に限らない。また、被写体光を撮像素子A、B、Cに分割する光分割光学系は、上述のようなプリズムP1〜P3を使用した構成に限らない。
【0024】
以上のように構成された光学系により、撮影レンズ12に入射した被写体光のうちハーフミラー24で分岐された被写体光が、カメラ本体10のピント面22と共役の位置の近傍に配置された光路長の異なる3つの撮像素子A、B、Cにより撮像される。
【0025】
次に、ピント状態検出に基づくオートフォーカスの制御について概略を説明する。図1に示すようにピント状態検出用撮像素子A、B、Cにより撮像された画像(映像信号)は、信号処理部28に取り込まれる。信号処理部28は、後述のように各撮像素子A、B、Cから取得した映像信号の高周波成分に基づいてカメラ本体10のピント面22に対して撮影レンズ12のピント状態が合焦となるフォーカスレンズFの位置(フォーカス位置)を求める。そして、そのフォーカス位置へのフォーカスレンズFの移動を指令する制御信号をフォーカスモータ駆動回路30に出力する。フォーカスモータ駆動回路30は、図示しないフォーカスモータを駆動し、ギア等からなる動力伝達機構32を介してフォーカスレンズFを移動させ、フォーカスレンズFを信号処理部28によって指示されたフォーカス位置に設定する。このような処理が連続的に行われることによってオートフォーカスの制御が行われる。
【0026】
続いて、信号処理部28の構成及びピント状態検出の処理について説明する。図4は、信号処理部28の構成を示したブロック図である。尚、図4に示す信号処理部28の構成は、信号処理部28での処理内容を説明するための基本的構成を示したもので、便宜上、図4の構成を従来構成といい、本発明に係る構成については後述する。同図に示すようにピント状態検出用撮像素子A、B、Cで撮像された被写体の画像は所定形式の映像信号として出力され、それぞれ各撮像素子A、B、Cに対して個別に配置されたA/D変換器50、60、70、ハイパスフィルタ(HPF)52、62、72、ゲート回路54、64、74、及び、加算器56、66、76を通じて画像の鮮鋭度(画像のコントラスト)を示す焦点評価値の信号に変換されてCPU82に入力されるようになっている。
【0027】
焦点評価値を求めるまでの処理を撮像素子Aに対して配置された回路で説明すると、撮像素子Aから出力された映像信号は、例えば、同期信号発生回路80から与えられる約1/15.75kHzの水平同期信号と約1/60Hzの垂直同期信号が付加された各画素の輝度を示す輝度信号であり、その映像信号は、A/D変換器50によってデジタル信号に変換された後、ハイパスフィルタ(HPF)52に入力され、その映像信号の高域周波数成分が抽出される。HPF52で抽出された高域周波数成分の信号は次にゲート回路54に入力され、1画面分(1フィールド分)の映像信号のうち、オートフォーカスの対象となる所定のAF枠内(例えば、画面中央部分)の画素に対応する信号のみがゲート回路54によって抽出される。尚、AF枠は、例えば図5に示すように画面(撮影レンズ12の画角)の中央部に設定される。そして、ゲート回路54によって抽出された1画面分におけるAF枠内の信号の値が加算器56によって加算される。
【0028】
これにより、AF枠内における映像信号の高域周波数成分の値の総和が求められ、その加算器56によって得られた値は、AF枠内における画像の鮮鋭度の高低を示す焦点評価値としてCPU82によって読み取られる。
【0029】
尚、同図に示す同期信号発生回路80から各種同期信号が撮像素子A、B、C、CPU82等の各回路に与えられ、各回路の処理の同期が図られている。また、以下の説明において撮像素子A、B、Cから得られた焦点評価値をそれぞれチャンネル(ch)A、B、Cの焦点評価値という。また、信号処理部28にはCPU82によってデータの読出し/書込み可能なEEPROM84等が配置されている。
【0030】
CPU82は、上述のようにしてchA、B、Cの焦点評価値を読み取ると、それらの焦点評価値に基づいて、カメラ本体10のピント面22に対する撮影レンズ12の現在のピント状態を検出する。図6は、横軸に撮影レンズ12のフォーカス位置、縦軸に焦点評価値をとり、ある被写体を撮影した際のフォーカス位置に対する焦点評価値の様子を示した図である。図中実線で示す曲線aは、カメラ本体10のピント面22と共役の位置にあるピント状態検出用撮像素子Aから得られるchAの焦点評価値をフォーカス位置に対して示したものであり、図中点線で示す曲線b、cは、それぞれピント状態検出用撮像素子B、Cから得られるchB、chCの焦点評価値をフォーカス位置に対して示したものである。
【0031】
同図において、曲線aに示すchAの焦点評価値が最大(極大)となるフォーカス位置F3が合焦位置であるが、今、撮影レンズ12のフォーカス位置が図中F1の位置に設定されているとする。この場合、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F1に対応する値である。このとき、少なくともchBの焦点評価値の方がchCの焦点評価値よりも大きいことから、合焦位置であるフォーカス位置F3よりフォーカス位置が至近側に設定された状態、即ち、前ピンの状態であることが分かる。
【0032】
一方、撮影レンズ12のフォーカス位置が図中F2の位置に設定されているとすると、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F2に対応する値である。この場合、少なくともchCの焦点評価値の方がchBの焦点評価値よりも大きいことから、合焦位置であるフォーカス位置F3よりフォーカス位置が無限遠側に設定された状態、即ち、後ピンの状態であることが分かる。
【0033】
撮影レンズ12のフォーカス位置が図中F3の合焦位置に設定されているとすると、chA、chB、chCのそれぞれの焦点評価値は、曲線a、b、cによりフォーカス位置F3に対応する値である。このとき、chBの焦点評価値とchCの焦点評価値とが等しいことから、フォーカス位置が合焦位置F3に設定された状態、即ち、合焦の状態であることが分かる。
【0034】
このように、撮像素子A、B、Cのそれぞれから得られるchA、chB、chCのそれぞれの焦点評価値に基づいて、撮影レンズ12の現在のフォーカス位置におけるピント状態が前ピン、後ピン、合焦のいずれかを検出することができる。そして、本実施の形態では、3つの撮像素子A、B、Cから得られるchA、chB、chCの焦点表価値に基づいて合焦となるフォーカス位置を以下のように検出する。
【0035】
上記図6において、chA、chB、chCのそれぞれの焦点評価値分布を示す曲線a、b、cは、略同一形状となることから、あるフォーカス位置におけるchB、chCの焦点評価値は、そのフォーカス位置から所定のシフト量分だけ変位させたフォーカス位置におけるchAの焦点評価値を示している。例えば、図7に示すchAの焦点評価値の曲線aにおいて、フォーカス位置が図中F4に設定されているものとする。このとき、chAの焦点評価値は、曲線a上の点Pの値を示す。一方、chBの焦点評価値は、フォーカス位置F4よりも無限遠側に所定シフト量分だけ変位させたフォーカス位置F5における曲線a上の点Pの値を示し、chCの焦点評価値は、フォーカス位置F4よりも至近側に所定シフト量分だけ変位させたフォーカス位置F6における曲線a上の点Pの値を示す。尚、フォーカス位置F4とフォーカス位置F5との差、即ち、chBの焦点評価値についてのシフト量は、例えば、図5において、曲線bの最大点のフォーカス位置と曲線aと最大点のフォーカス位置の差に等しく、また、フォーカス位置F4とフォーカス位置F6との差、即ち、chCの焦点評価値についてのシフト量は、図6において、曲線cの最大点のフォーカス位置と曲線aと最大点のフォーカス位置の差に等しい。
【0036】
一方、曲線aは所定関数(例えば2次曲線)で近似することができる。従って、各chA、chB、chCの3点P、P、Pにおける焦点評価値から曲線aを具体的に特定することができ、その曲線aにおいて焦点評価値が最大となる合焦位置F3を求めることができる。
【0037】
図4のCPU82は、以上のようにchA、B、Cの焦点評価値に基づいて合焦となるフォーカス位置を求めると、そのフォーカス位置となるように、フォーカスモータ駆動回路30に制御信号を送信し、フォーカスレンズFを移動させる。
【0038】
次に、図4に示した信号処理部28の従来構成に対して本発明が適用された信号処理部28の構成について説明する。図8は、本発明が適用された信号処理部28の構成の第1の形態を示した構成図である。尚、図8において、図4の従来構成と同一符号を付したブロックは図4と同一又は類似の処理を行うブロックである。図8の第1の形態を図4の従来構成と比較して説明すると、従来構成では、ピント状態検出用撮像素子A、B、Cからの映像信号(以下、chA、chB、chCの映像信号という)をそれぞれ個別の回路で並列処理してchA、chB、chCの焦点評価値を求めるようにしたが、図8の第1の形態では、共通の処理部(回路)がchA、chB、chCの映像信号を時分割で処理するようになっている。
【0039】
即ち、chA、chB、chCの映像信号は、3つのチャンネルを有するA/D変換器100に入力される。A/D変換器100は、垂直同期信号により1フィールドごとにチャンネルを切り替えてchA、chB、chCの映像信号をA/D変換処理し、そのデジタル信号に変換したchA、chB、chCの映像信号を1フィールド分ずつ順にHPF52に出力する。尚、本形態では、chA、chB、chCの映像信号における垂直同期信号のタイミングは一致しているものとする。
【0040】
例えば、A/D変換器100は、ある垂直同期信号(第1の垂直同期信号)から次の垂直同期信号(第2の垂直同期信号)までの期間でchAの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力すると、次に、第2の垂直同期信号から次の垂直同期信号(第3の垂直同期信号)までの期間でchBの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。続いて、第3の垂直同期信号から次の垂直同期信号(第4の垂直同期信号)までの期間でchCの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。このように第1の垂直同期信号から第4の垂直同期信号までの間のチャンネルの切り替えを繰り返すことによって、デジタル信号に変換されたchA、chB、chCの映像信号が1フィールド分ずつHPF52に出力される。尚、A/D変換器100において垂直同期信号は同期信号発生回路80から直接取得してもよいし、各撮像素子A、B、Cから入力される映像信号から取得してもよい。
【0041】
このようにA/D変換器100からHPF52に出力されたchA、chB、chCの映像信号は、図4の従来構成で説明したのと同様にHPF52により高域周波数成分が抽出され、ゲート回路54によりAF枠内(図5参照)の信号のみが抽出され出力される。そして、加算器56でゲート回路54から出力された1フィールド分の信号が加算される。これによって、CPU82には、chA、chB、chCの焦点評価値がA/D変換器100で処理されるチャンネルの順に1フィールドごとに切り替えて与えられる。
【0042】
このように共通の処理部によって時分割で各チャンネルの映像信号を処理することによって信号処理部28の回路規模や消費電力を小さくすることができる。特に回路規模が大きいHPF52を各チャンネルの処理に共用したことの効果が大きい。
【0043】
図9は、本発明が適用された信号処理部28の構成の第2の形態を示した構成図である。尚、図4の従来構成及び図8の第1の形態と同一符号を付したブロックは図4及び図8と同一又は類似の処理を行うブロックである。図9の第2の形態では、HPF52から後段の処理は図8の第1の形態におけるHPF52から後段の処理と一致している。一方、図9の第2の形態では、各撮像素子A、B、Cから出力されたchA、chB、chCの映像信号は、図4の従来構成と同様にそれぞれ個別に設けられたA/D変換器50、60、70によりデジタル信号に変換される。そしてその後、同時刻に撮像素子A、B、Cから出力された例えば1フィールド分の映像信号がそれぞれSRAM(Static Random Access Memory)102、104、106に記憶される。各SRAM102、104、106に記憶された1フィールド分の映像信号は、それぞれ所定の順序でHPF52に出力される。
【0044】
例えば、初めにSRAM102に記憶されたchAの1フィールド分の映像信号がHPF52に出力され、続いてSRAM104に記憶されたchBの1フィールド分の映像信号がHPF52に出力される。そして次に、SRAM106に記憶されたchCの1フィールド分の映像信号がHPF52に出力される。このように各撮像素子A、B、Cから同時刻に出力された映像信号をメモリに記憶しておくことにより、各撮像素子A、B、Cで同時刻に撮像されて得られた映像信号に基づくchA、chB、chCの焦点評価値を取得することができる。即ち、図8の第1の形態では、各撮像素子A、B、Cから出力されるリアルタイムの映像信号を時分割で処理するため、各撮像素子A、B、Cで同一時刻に撮像された画像に対する焦点評価値を取得することはできないが、図9の第2の形態では各撮像素子A、B、Cで同一時刻に撮像された画像に対する焦点評価値を取得することができる。
【0045】
尚、図8の第1の形態及び図9の第2の形態において、1フィールドごとにチャンネルを切り替えて1つの処理部で映像信号を処理するようにしたが、焦点評価値を求める際に少なくとも必要な範囲の映像信号、即ち、AF枠内(図5参照)の映像信号に対する処理が終了するごとにチャンネルを切り替えるようにしてもよい。また、1つの処理部で時分割処理する処理内容は第1、第2の形態と異なる場合であってもよく、映像信号に対して施す処理の全て又は一部を1つの処理部で時分割処理する場合であれば本発明を適用できる。特にHPF52の処理だけを1つの処理部で時分割処理し、それ以外の処理は、チャンネルごとの個別の処理部で行うようにしても効果がある。
【0046】
図10は、本発明が適用された信号処理部28の構成の第3の形態を示した構成図である。尚、図4の従来構成及び図8の第1の形態と同一符号を付したブロックは図4及び図8と同一又は類似の処理を行うブロックである。図8の第1の形態におけるA/D変換器100は、chA、chB、chCの映像信号を1フィールドごとに切り替えてA/D変換処理していたが、図10の第3の形態におけるA/D変換器100は、chA、chB、chCの映像信号を1水平走査期間ごとに切り替えてA/D変換処理する。例えば、ある水平同期信号(第1の水平同期信号)から次の水平同期信号(第2の水平同期信号)までの期間でchAの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力すると、次に、第2の水平同期信号から次の水平同期信号(第3の水平同期信号)までの期間でchBの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。続いて、第3の水平同期信号から次の水平同期信号(第4の水平同期信号)までの期間でchCの映像信号をアナログ信号からデジタル信号に変換してHPF52に出力する。このように第1の水平同期信号から第4の水平同期信号までの間のチャンネルの切り替えを繰り返すことによって、デジタル信号に変換されたchA、chB、chCの映像信号が1水平走査期間分ずつHPF52に出力される。
【0047】
A/D変換器100から1水平走査期間分ずつ出力されたchA、chB、chCの映像信号は、図4の従来構成で説明したのと同様にHPF52により高域周波数成分が抽出され、ゲート回路54によりAF枠内(図5参照)の信号のみが抽出され出力される。そして、chAの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器56に入力され、chBの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器66に入力される。chCの映像信号に対して処理が施されてゲート回路54から出力された信号は加算器76に入力される。これにより、ゲート回路54から出力された1フィールド分の信号が加算器56、66、76のそれぞれで加算され、加算器56ではchAの焦点評価値、加算器66ではchBの焦点評価値、加算器76ではchCの焦点評価値が求められる。そして、各加算器56、66、76でそれぞれ求められたchA、chB、chCの焦点評価値が毎フィールドごとにCPU82に与えられる。
【0048】
このように共通の処理部によって1水平走査期間ごとに時分割で各チャンネルの映像信号を処理することもでき、第1の形態等と同様に信号処理部28の回路規模を小さくすることができる。
【0049】
尚、第3の形態のように1水平走査期間ごとに時分割で各チャンネルの映像信号を処理する場合、chA、chB、chCの映像信号に対して実際に処理される水平走査線の位置が異なる。そこで、これを防止するために、A/D変換器100で処理するチャンネルの順序に合わせて、各撮像素子A、B、Cの垂直同期信号の時間を1水平走査期間ずつずらすようにして、いずれのチャンネルの映像信号についても同一の水平走査線位置に対して処理が施されるようにしてもよい。即ち、時分割処理のために、あるチャンネルの映像信号に対して他のチャンネルの映像信号の処理が遅れる時間分だけその映像信号の垂直同期信号のタイミングを遅らせることにより、時分割処理において処理される走査線位置と処理されない走査線位置とがチャンネルごとに異ならないようにしてもよい。
【0050】
図11は、本発明が適用された信号処理部28の構成の第4の形態を示した構成図である。尚、図9の第2の形態及び図10の第3の形態と同一符号を付したブロックは図9及び図10と同一又は類似の処理を行うブロックである。図11の第4の形態では、HPF52から後段の処理は図10の第3の実施の形態におけるHPF52から後段の処理と一致している。一方、図11の第4の形態では、各撮像素子A、B、Cから出力されたchA、chB、chCの映像信号は、図9の第2の形態と同様(図4の従来構成と同様)にそれぞれ個別に設けられたA/D変換器50、60、70によりデジタル信号に変換される。そしてその後、同時刻に撮像素子A、B、Cから出力された1水平走査期間分の映像信号がそれぞれSRAM102、104、106に記憶される。各SRAM102、104、106に記憶された1水平走査期間分の映像信号は、それぞれ所定の順序でHPF52に出力される。尚、各撮像素子A、B、Cの垂直同期信号のタイミングは一致しているものとする。
【0051】
例えば、初めにSRAM102に記憶されたchAの1水平走査期間分の映像信号がHPF52に出力され、続いてSRAM104に記憶されたchBの1水平走査期間分の映像信号がHPF52に出力される。そして次に、SRAM106に記憶されたchCの1水平走査期間分の映像信号がHPF52に出力される。このように各撮像素子A、B、Cから同時刻に出力された映像信号をメモリに記憶しておくことにより、各撮像素子A、B、Cで同時刻に撮像されて得られた映像信号であって、同一水平走査線位置の映像信号に基づくchA、chB、chCの焦点評価値を取得することができる。
【0052】
尚、図10の第3の形態及び図11の第4の形態において、1水平走査期間ごとにチャンネルを切り替えて1つの処理部で映像信号を処理するようにしたが、焦点評価値を求める際に少なくとも必要な範囲の映像信号、即ち、AF枠内(図5参照)の映像信号に対する処理が終了するごとにチャンネルを切り替えるようにしてもよい。また、1つの処理部で時分割処理する処理内容は第3、第4の形態と異なる場合であってもよく、映像信号に対して施す処理の全て又は一部を1つの処理部で時分割処理する場合であれば本発明を適用できる。特にHPF52の処理だけを1つの処理部で時分割処理し、それ以外の処理は、チャンネルごとの個別の処理部で行うようにしても効果がある。
【0053】
以上、上記実施の形態では、ピント状態検出用の撮像素子を3つ備えた場合の信号処理部28の構成に本発明を適用した場合について説明したが、本発明は、ピント状態検出用の撮像素子が3つの場合に限らず複数の場合に適用できる。
【0054】
【発明の効果】
以上説明したように本発明に係るオートフォーカスシステムによれば、光路長の異なる位置に配置された複数の撮像素子を用いたオートフォーカスの処理の全て又は一部を単一の処理部で時分割で行うようにしたため、回路規模を小さくすることができ、また、消費電力を低減することができるようになる。
【図面の簡単な説明】
【図1】図1は、本発明が適用されたテレビカメラシステムの構成を示した構成図である。
【図2】図2は、ピント状態検出用の撮像部の構成を示した構成図である。
【図3】図3は、ピント状態検出用撮像素子を同一光軸上で示した図である。
【図4】図4は、ピント状態検出の処理を行う信号処理部の構成を示したブロック図である。
【図5】図5は、画面に対してAF枠の例を示した図である。
【図6】図6は、ある被写体を撮影した際のフォーカス位置に対する各ピント状態検出用の撮像素子における焦点評価値の様子を示した図である。
【図7】図7は、3つのピント状態検出用撮像素子によるピント状態検出の処理の説明に使用した説明図である。
【図8】図8は、本発明が適用された信号処理部の構成の第1の形態を示した構成図である。
【図9】図9は、本発明が適用された信号処理部の構成の第2の形態を示した構成図である。
【図10】図10は、本発明が適用された信号処理部の構成の第3の形態を示した構成図である。
【図11】図11は、本発明が適用された信号処理部の構成の第4の形態を示した構成図である。
【符号の説明】
10…カメラ本体、12…撮影レンズ、F…フォーカスレンズ、R1…前側リレーレンズ、R2…後側リレーレンズ、R3…リレーレンズ、24…ハーフミラー、26…撮像部、A、B、C…撮像素子、28…信号処理部、30…フォーカスモータ駆動回路、50、60、70、100…A/D変換器、52、62、72…ハイパスフィルタ(HPF)、54、64、74…ゲート回路、56、66、76…加算器、80…同期信号発生回路、82…CPU、102、104、106…SRAM
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an autofocus system, and more particularly, to an autofocus system that performs autofocus by a contrast method using a plurality of image sensors having imaging surfaces arranged at positions having different optical path lengths.
[0002]
[Prior art]
Conventionally, there has been proposed a method of detecting a focus state (front focus, rear focus, focus) of a photographing lens by using a plurality of image pickup devices having image pickup surfaces at positions having different optical path lengths (for example, Patent Document 1, See Patent Documents 2, 3, and 4). For example, an optical path length of two focus state detection imaging elements that capture images in the same shooting range with respect to an imaging element that captures a video image (video imaging element) is longer than that of the video imaging element. Place it in a position that is shorter than the position. Then, high-frequency components are extracted from the images (video signals) captured by the focus state detection imaging devices, and based on the extracted high frequency components, the degree of focusing (image quality) on each imaging surface of the focus state detection imaging devices is determined. Are determined and compared. As a result, information on the focus state (focus information) on the imaging surface of the video imaging element, that is, which of the front focus, the rear focus, and the focus state is detected from the magnitude relationship of the focus evaluation values. By applying such a focus state detection method, it is possible to perform focus detection for autofocus, and it is possible to determine whether the subject is in focus or not, and to determine whether the subject is in focus before or after focus. There is an advantage that the reaction speed to the burning is fast.
[0003]
[Patent Document 1]
Japanese Patent Application No. 2001-168246
[0004]
[Patent Document 2]
Japanese Patent Application No. 2001-168247
[0005]
[Patent Document 3]
Japanese Patent Application 2001-168248
[0006]
[Patent Document 4]
Japanese Patent Application 2001-168249
[0007]
[Problems to be solved by the invention]
By the way, the focus evaluation value is obtained by performing the same processing on video signals from a plurality of focus state detecting image sensors. However, if the processing is performed in parallel by a processing circuit provided corresponding to each video signal, an image at the same time is obtained from each image sensor, and there is a case where there is flicker such as a fluorescent lamp, or the image moves on the screen. Although focus information from a subject can be processed with high accuracy, there is a disadvantage in that the circuit size and power consumption increase.
[0008]
The present invention has been made in view of such circumstances, and in an autofocus system that performs autofocusing of a contrast method using a plurality of imaging devices having imaging surfaces at positions having different optical path lengths, a video signal of each imaging device is provided. It is an object of the present invention to provide an auto-focus system for reducing the size and power consumption of a processing unit for obtaining focus information from the camera and reducing the cost.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, an image obtained by capturing a subject light incident on a photographing lens by a plurality of image sensors arranged at positions having different optical path lengths and obtaining the images by the respective image sensors. In an auto-focus system including a focus control unit that controls focus of the photographing lens based on a signal and automatically performs focusing, all of the same processing performed on each video signal from each of the imaging elements is performed. Alternatively, a single processing unit for processing a part of each video signal in a time-division manner is provided.
[0010]
Further, according to a second aspect of the present invention, in the first aspect of the present invention, the processing unit includes a frame for specifying a range to be focused within an angle of view of the photographing lens as an AF frame. A video signal to be processed is switched to a video signal from another image sensor every time processing of at least a video signal in the AF frame among video signals from one image sensor is completed.
[0011]
Further, according to a third aspect of the present invention, in the first aspect of the present invention, the frame that specifies a range to be focused within the angle of view of the photographing lens is set as an AF frame, and the processing unit includes one frame. Each time the processing of some of the video signals in the AF frame from one image sensor is completed, the video signal to be processed is switched to a video signal from another image sensor.
[0012]
According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the image processing apparatus further includes a storage unit configured to store a video signal from each of the imaging elements, and the processing unit performs the same processing on each of the imaging elements. The video signal output at the time is read out from the storage means and processed.
[0013]
According to a fifth aspect of the present invention, in the third aspect of the invention, the switching of the video signal to be processed is performed based on a horizontal synchronization signal.
[0014]
According to a sixth aspect of the present invention, in the fifth aspect of the invention, the vertical synchronizing signal of the video signal from each of the image sensors is shifted by a predetermined time.
[0015]
According to the present invention, all or part of autofocus processing using a plurality of image sensors arranged at positions having different optical path lengths is performed by a single processing unit in a time-division manner, so that the circuit scale is reduced. And power consumption can be reduced.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.
[0017]
FIG. 1 is a configuration diagram showing a configuration of a television camera system to which the present invention is applied. The television camera system shown in FIG. 1 includes a camera body 10, an interchangeable photographing lens 12, and the like. The camera body 10 captures a video for recording and reproduction, and outputs a video signal of a predetermined format to a recording medium. An image sensor (image sensor for video) for recording, a required circuit, and the like are built in. On the other hand, the taking lens 12 is detachably mounted on the front side of the camera body 10, and as shown in the figure, the optical system of the taking lens 12 has a fixed focus lens from the front end side as generally known. F ', a movable focus lens F, a zoom lens Z including a variable power system and a correction system, an iris I, and a relay lens (relay optical system) including a front relay lens R1 and a rear relay lens R2 are arranged. You. Note that the configuration of each lens in the drawing is simplified, and a lens group including a plurality of lenses may be represented by one lens.
[0018]
Also, as shown in the figure, on the optical path of the subject light between the front relay lens R1 and the rear relay lens R2 of the relay optical system, the inclination is substantially 45 degrees with respect to the optical axis O of the photographing lens 12, A half mirror 24 is provided to split the subject light for focus state detection from the subject light for video.
[0019]
Of the subject light incident from the front end side of the photographing lens 12, other than the light beam branched by the half mirror 24, that is, the subject light for video transmitted through the half mirror 24 is emitted from the rear end side of the photographing lens 12, The light enters the imaging unit 20 of the main body 10. Although the configuration of the imaging unit 20 is omitted, the subject light incident on the imaging unit 20 is separated into three colors of red light, green light, and blue light by, for example, a color separation optical system. Incident on the imaging surface of the imaging device for imaging). As a result, a color image for broadcast is captured. The focus plane 22 in the figure shows a position optically equivalent to the imaging plane of each imaging element on the optical axis O of the photographing lens 12.
[0020]
On the other hand, the subject light reflected by the half mirror 24 is guided to the focus state detecting imaging unit 26 along the optical axis O ′ substantially perpendicular to the optical axis O as the focus state detecting subject light. Here, the subject light is in a substantially parallel state between the front relay lens R1 and the rear relay lens R2, and the subject light reflected by the half mirror 24 is condensed having the same properties as the rear relay lens R2. Through the relay lens R3 for the focus state and enters the imaging unit 26 for focus state detection.
[0021]
FIG. 2 is a configuration diagram illustrating a configuration of the imaging unit 26 for detecting a focus state. As shown in the figure, the imaging unit 26 includes three prisms P1, P2, and P3 that constitute a light splitting optical system, and three imaging elements (two-dimensional CCDs) A, B, and C for detecting a focus state. . When the imaging devices A, B, and C are particularly distinguished from the video imaging device mounted on the camera body 10, they are referred to as focus state detection imaging devices A, B, and C.
[0022]
The subject light reflected by the half mirror 24 and traveling along the optical axis O 'as described above first enters the first prism P1 and is reflected and transmitted by the half mirror surface 40 of the first prism P1. Divided. The reflected light is incident on the imaging surface of the imaging device C. On the other hand, the transmitted light enters the second prism P2, and is further divided into reflected light and transmitted light by the half mirror surface 42 of the second prism P2. The reflected light is incident on the image sensor B. On the other hand, the transmitted light passes through the third prism P3 and enters the image sensor A. The subject light is split by the half mirror surface 40 of the first prism P1 and the half mirror surface 42 of the second prism P2 such that the amounts of the subject light incident on the image pickup devices A, B, and C are equal. Further, these imaging devices A, B, and C need not be those that capture color images, and are assumed to be CCDs that capture monochrome images in the present embodiment.
[0023]
When the optical axis of the subject light incident on each of the image sensors A, B, and C (the optical axis of each image sensor) is shown on the same straight line, the light enters each of the image sensors A, B, and C as shown in FIG. The optical path length of the image sensor B is the shortest, the optical path length of the image sensor C is the longest, and the optical path length of the image sensor A is intermediate between the optical path lengths of the image sensors B and C. Length. That is, the image pickup surfaces of the image pickup device B and the image pickup device C are arranged in parallel at the same distance before and after the image pickup surface of the image pickup device A. The imaging surface of the imaging device A has a conjugate relationship with the focus surface 22 (see FIG. 1) of the camera body 10, and the optical path length for the subject light incident on the imaging lens 12 is different from that of the video imaging device of the camera body 10. It matches the imaging plane. Note that the image sensor A is arranged so that the object surface of the image sensor of the image pickup device whose image plane is the image forming surface coincides with the object surface of the image sensor A of the image sensor that forms the image surface. The present invention is not limited to the case where the imaging surface of the imaging element for use and the optical path length match. Further, the light splitting optical system that splits the subject light into the image pickup devices A, B, and C is not limited to the configuration using the prisms P1 to P3 as described above.
[0024]
With the optical system configured as described above, the subject light split by the half mirror 24 out of the subject light incident on the photographing lens 12 is transmitted along the optical path arranged near a position conjugate with the focus plane 22 of the camera body 10. Images are picked up by three image sensors A, B and C having different lengths.
[0025]
Next, an outline of the control of the autofocus based on the focus state detection will be described. As illustrated in FIG. 1, images (video signals) captured by the focus state detection imaging elements A, B, and C are captured by the signal processing unit 28. The signal processing unit 28 focuses the focusing state of the photographing lens 12 on the focusing surface 22 of the camera body 10 based on the high-frequency components of the video signals acquired from the image sensors A, B, and C, as described later. The position (focus position) of the focus lens F is obtained. Then, a control signal for instructing movement of the focus lens F to the focus position is output to the focus motor drive circuit 30. The focus motor drive circuit 30 drives a focus motor (not shown), moves the focus lens F via a power transmission mechanism 32 including gears and the like, and sets the focus lens F to a focus position specified by the signal processing unit 28. . Autofocus control is performed by performing such processing continuously.
[0026]
Subsequently, a configuration of the signal processing unit 28 and a process of detecting a focus state will be described. FIG. 4 is a block diagram showing a configuration of the signal processing unit 28. The configuration of the signal processing unit 28 shown in FIG. 4 shows a basic configuration for explaining the processing content of the signal processing unit 28. For convenience, the configuration of FIG. The configuration according to will be described later. As shown in the figure, the image of the subject imaged by the focus state detection imaging devices A, B, and C is output as a video signal of a predetermined format, and is individually arranged for each of the imaging devices A, B, and C. A / D converters 50, 60, 70, high-pass filters (HPF) 52, 62, 72, gate circuits 54, 64, 74, and adders 56, 66, 76 for image sharpness (image contrast) And is input to the CPU 82.
[0027]
The processing up to obtaining the focus evaluation value will be described using a circuit arranged for the image sensor A. The video signal output from the image sensor A is, for example, approximately 1 / 15.75 kHz provided from the synchronization signal generation circuit 80. Is a luminance signal indicating the luminance of each pixel to which the horizontal synchronizing signal and the vertical synchronizing signal of about 1/60 Hz are added. The video signal is converted into a digital signal by the A / D converter 50, and then converted to a high-pass filter. (HPF) 52, and a high frequency component of the video signal is extracted. The signal of the high-frequency component extracted by the HPF 52 is next input to the gate circuit 54, and the video signal of one screen (one field) is within a predetermined AF frame to be subjected to autofocus (for example, a screen). Only the signal corresponding to the pixel in the (center portion) is extracted by the gate circuit 54. The AF frame is set at the center of the screen (angle of view of the photographing lens 12), for example, as shown in FIG. Then, the value of the signal in the AF frame for one screen extracted by the gate circuit 54 is added by the adder 56.
[0028]
As a result, the sum of the values of the high frequency components of the video signal in the AF frame is obtained, and the value obtained by the adder 56 is used as a focus evaluation value indicating the degree of sharpness of the image in the AF frame by the CPU 82. Read by.
[0029]
It should be noted that various synchronization signals are given from the synchronization signal generation circuit 80 shown in FIG. 9 to the respective circuits such as the imaging devices A, B, C, and the CPU 82, so that the processing of each circuit is synchronized. In the following description, the focus evaluation values obtained from the imaging devices A, B, and C are referred to as the focus evaluation values of the channels (ch) A, B, and C, respectively. In the signal processing unit 28, an EEPROM 84 and the like from which data can be read / written by the CPU 82 are arranged.
[0030]
Upon reading the focus evaluation values of chA, B, and C as described above, the CPU 82 detects the current focus state of the photographing lens 12 with respect to the focus surface 22 of the camera body 10 based on the focus evaluation values. FIG. 6 is a diagram showing the state of the focus evaluation value with respect to the focus position when a certain subject is photographed, with the horizontal axis representing the focus position of the photographing lens 12 and the vertical axis representing the focus evaluation value. A curve a shown by a solid line in the figure shows a focus evaluation value of chA obtained from the focus state detecting imaging element A at a position conjugate with the focus surface 22 of the camera body 10 with respect to the focus position. Curves b and c shown by the middle dotted lines show the focus evaluation values of chB and chC obtained from the focus state detection imaging elements B and C, respectively, with respect to the focus position.
[0031]
In the figure, the focus position F3 at which the focus evaluation value of chA indicated by the curve a is maximum (maximum) is the focus position, but the focus position of the photographing lens 12 is now set to the position of F1 in the figure. And In this case, the respective focus evaluation values of chA, chB, and chC are values corresponding to the focus position F1 by the curves a, b, and c. At this time, since at least the focus evaluation value of chB is larger than the focus evaluation value of chC, the focus position is set closer to the focus position F3 that is the focus position, that is, in the state of the front focus. You can see that there is.
[0032]
On the other hand, assuming that the focus position of the photographing lens 12 is set to the position of F2 in the figure, the focus evaluation values of chA, chB, and chC are values corresponding to the focus position F2 by curves a, b, and c. is there. In this case, since at least the focus evaluation value of chC is larger than the focus evaluation value of chB, the state where the focus position is set to the infinity side from the focus position F3 which is the focus position, that is, the state of the back focus It turns out that it is.
[0033]
Assuming that the focus position of the taking lens 12 is set to the focus position of F3 in the figure, the focus evaluation values of chA, chB, and chC are values corresponding to the focus position F3 by curves a, b, and c. is there. At this time, since the focus evaluation value of chB and the focus evaluation value of chC are equal, it is understood that the focus position is set to the focus position F3, that is, the focus state.
[0034]
As described above, based on the focus evaluation values of chA, chB, and chC obtained from each of the imaging devices A, B, and C, the focus state of the imaging lens 12 at the current focus position is set to the front focus, the rear focus, and the focus position. Any of the impatience can be detected. Then, in the present embodiment, the focus position at which focusing is performed is detected as follows based on the focal point values of chA, chB, and chC obtained from the three imaging elements A, B, and C.
[0035]
In FIG. 6, the curves a, b, and c indicating the distributions of the focus evaluation values of chA, chB, and chC have substantially the same shape. The focus evaluation value of chA at the focus position displaced by a predetermined shift amount from the position is shown. For example, in the curve a of the focus evaluation value of chA shown in FIG. 7, it is assumed that the focus position is set to F4 in the figure. At this time, the focus evaluation value of chA is the point P on the curve a. A Shows the value of On the other hand, the focus evaluation value of chB is the point P on the curve a at the focus position F5 displaced by a predetermined shift amount toward infinity from the focus position F4. B The focus evaluation value of chC is the point P on the curve a at the focus position F6 displaced by the predetermined shift amount to the close side from the focus position F4. C Shows the value of Note that the difference between the focus position F4 and the focus position F5, that is, the shift amount for the focus evaluation value of chB is, for example, the focus position of the maximum point of the curve b and the focus position of the curve a and the maximum position of the curve a in FIG. The difference between the focus position F4 and the focus position F6, that is, the shift amount for the focus evaluation value of chC is equal to the difference between the focus position of the maximum point of the curve c and the focus position of the curve a and the maximum point of the curve a in FIG. Equal to position difference.
[0036]
On the other hand, the curve a can be approximated by a predetermined function (for example, a quadratic curve). Therefore, three points P of each chA, chB, chC A , P B , P C , The curve a can be specifically specified from the focus evaluation value, and the in-focus position F3 at which the focus evaluation value becomes maximum in the curve a can be obtained.
[0037]
When the CPU 82 of FIG. 4 obtains the focus position at which focusing is performed based on the focus evaluation values of chA, B, and C as described above, it transmits a control signal to the focus motor drive circuit 30 so that the focus position is obtained. Then, the focus lens F is moved.
[0038]
Next, the configuration of the signal processing unit 28 in which the present invention is applied to the conventional configuration of the signal processing unit 28 shown in FIG. 4 will be described. FIG. 8 is a configuration diagram showing a first embodiment of the configuration of the signal processing unit 28 to which the present invention is applied. In FIG. 8, blocks denoted by the same reference numerals as those in the conventional configuration in FIG. 4 are blocks that perform the same or similar processing as in FIG. The first embodiment of FIG. 8 will be described in comparison with the conventional configuration of FIG. 4. In the conventional configuration, the video signals from the focus state detection imaging elements A, B, and C (hereinafter, video signals of chA, chB, and chC). Are processed in parallel by individual circuits to calculate the focus evaluation values of chA, chB, and chC. However, in the first embodiment of FIG. 8, the common processing units (circuits) are chA, chB, and chC. Are processed in a time-division manner.
[0039]
That is, the video signals of chA, chB, and chC are input to the A / D converter 100 having three channels. The A / D converter 100 performs A / D conversion processing on the chA, chB, and chC video signals by switching the channel for each field according to the vertical synchronization signal, and converts the chA, chB, and chC video signals into digital signals. Are sequentially output to the HPF 52 one field at a time. In this embodiment, it is assumed that the timings of the vertical synchronizing signals in the video signals of chA, chB, and chC match.
[0040]
For example, the A / D converter 100 converts the chA video signal from an analog signal to a digital signal in a period from a certain vertical synchronization signal (first vertical synchronization signal) to the next vertical synchronization signal (second vertical synchronization signal). And outputs it to the HPF 52, and then converts the chB video signal from an analog signal to a digital signal in the period from the second vertical synchronization signal to the next vertical synchronization signal (third vertical synchronization signal). Output to the HPF 52. Subsequently, during the period from the third vertical synchronizing signal to the next vertical synchronizing signal (fourth vertical synchronizing signal), the video signal of chC is converted from an analog signal to a digital signal and output to the HPF 52. By repeating the switching of the channels from the first vertical synchronization signal to the fourth vertical synchronization signal in this manner, the chA, chB, and chC video signals converted into digital signals are output to the HPF 52 one field at a time. Is done. In the A / D converter 100, the vertical synchronizing signal may be obtained directly from the synchronizing signal generation circuit 80, or may be obtained from video signals input from the respective image sensors A, B, and C.
[0041]
The high frequency components of the chA, chB, and chC video signals output from the A / D converter 100 to the HPF 52 are extracted by the HPF 52 in the same manner as described in the conventional configuration of FIG. As a result, only signals within the AF frame (see FIG. 5) are extracted and output. Then, the signal for one field output from the gate circuit 54 is added by the adder 56. As a result, the CPU 82 is given the focus evaluation values of chA, chB, and chC by switching the channels processed by the A / D converter 100 on a field-by-field basis.
[0042]
As described above, by processing the video signal of each channel in a time-division manner by the common processing unit, the circuit scale and power consumption of the signal processing unit 28 can be reduced. Particularly, the effect of sharing the large-scale HPF 52 for the processing of each channel is great.
[0043]
FIG. 9 is a configuration diagram showing a second form of the configuration of the signal processing unit 28 to which the present invention is applied. Note that blocks denoted by the same reference numerals as those in the conventional configuration in FIG. 4 and the first embodiment in FIG. 8 are blocks that perform the same or similar processing as in FIGS. 4 and 8. In the second embodiment of FIG. 9, the processing after the HPF 52 is the same as the processing after the HPF 52 in the first embodiment of FIG. On the other hand, in the second embodiment of FIG. 9, the video signals of chA, chB, and chC output from the respective image pickup devices A, B, and C are individually provided A / D signals similarly to the conventional configuration of FIG. The digital signals are converted by the converters 50, 60, 70. Thereafter, for example, video signals for one field output from the imaging devices A, B, and C at the same time are stored in SRAMs (Static Random Access Memory) 102, 104, and 106, respectively. The video signal for one field stored in each of the SRAMs 102, 104, and 106 is output to the HPF 52 in a predetermined order.
[0044]
For example, first, the video signal for one field of chA stored in the SRAM 102 is output to the HPF 52, and then the video signal for one field of chB stored in the SRAM 104 is output to the HPF 52. Next, the video signal for one field of chC stored in the SRAM 106 is output to the HPF 52. By storing the video signals output from the respective imaging devices A, B, and C at the same time in the memory in this manner, the video signals obtained by the imaging devices A, B, and C being captured at the same time are obtained. , The focus evaluation values of chA, chB, and chC can be obtained. That is, in the first embodiment of FIG. 8, since the real-time video signals output from the image sensors A, B, and C are processed in a time-division manner, images are captured by the image sensors A, B, and C at the same time. Although a focus evaluation value for an image cannot be obtained, a focus evaluation value for an image captured at the same time by each of the imaging elements A, B, and C can be obtained in the second embodiment of FIG.
[0045]
In the first embodiment of FIG. 8 and the second embodiment of FIG. 9, the channel is switched for each field and the video signal is processed by one processing unit. The channel may be switched each time the processing for the video signal in the necessary range, that is, the video signal in the AF frame (see FIG. 5) is completed. Further, the content of the time-division processing performed by one processing unit may be different from that of the first and second embodiments, and all or a part of the processing performed on the video signal is performed by the one processing unit. The present invention can be applied to the case of processing. In particular, there is an effect that only the processing of the HPF 52 is time-divisionally processed by one processing unit, and the other processing is performed by the individual processing unit for each channel.
[0046]
FIG. 10 is a configuration diagram showing a third mode of the configuration of the signal processing unit 28 to which the present invention is applied. Note that blocks denoted by the same reference numerals as those in the conventional configuration in FIG. 4 and the first embodiment in FIG. 8 are blocks that perform the same or similar processing as in FIGS. 4 and 8. The A / D converter 100 according to the first embodiment of FIG. 8 performs the A / D conversion process by switching the video signals of chA, chB, and chC for each field, but the A / D converter 100 according to the third embodiment of FIG. The / D converter 100 performs A / D conversion processing by switching the video signals of chA, chB, and chC every one horizontal scanning period. For example, when a video signal of chA is converted from an analog signal to a digital signal and output to the HPF 52 during a period from a certain horizontal synchronization signal (first horizontal synchronization signal) to the next horizontal synchronization signal (second horizontal synchronization signal). Next, during a period from the second horizontal synchronizing signal to the next horizontal synchronizing signal (third horizontal synchronizing signal), the chB video signal is converted from an analog signal to a digital signal and output to the HPF 52. Subsequently, during a period from the third horizontal synchronizing signal to the next horizontal synchronizing signal (fourth horizontal synchronizing signal), the video signal of chC is converted from an analog signal to a digital signal and output to the HPF 52. By repeating the switching of the channels from the first horizontal synchronization signal to the fourth horizontal synchronization signal in this manner, the video signals of chA, chB, and chC converted into the digital signals are supplied to the HPF 52 by one horizontal scanning period. Is output to
[0047]
As for the chA, chB, and chC video signals output from the A / D converter 100 for each horizontal scanning period, high-frequency components are extracted by the HPF 52 in the same manner as described in the conventional configuration of FIG. 54 extracts and outputs only signals within the AF frame (see FIG. 5). Then, the signal output from the gate circuit 54 after processing the video signal of chA is input to the adder 56, and the signal output from the gate circuit 54 after processing the video signal of chB and output Is input to the adder 66. The signal output from the gate circuit 54 after processing the video signal of chC is input to the adder 76. As a result, the signals for one field output from the gate circuit 54 are added by the adders 56, 66, and 76 respectively. The adder 56 adds the focus evaluation value of chA, and the adder 66 adds the focus evaluation value of chB. In the device 76, the focus evaluation value of chC is obtained. The focus evaluation values of chA, chB, and chC obtained by the adders 56, 66, and 76 are provided to the CPU 82 for each field.
[0048]
As described above, the video signal of each channel can be processed in a time-division manner for each horizontal scanning period by the common processing unit, and the circuit scale of the signal processing unit 28 can be reduced as in the first embodiment. .
[0049]
When the video signals of the respective channels are processed in a time-division manner for each horizontal scanning period as in the third embodiment, the positions of the horizontal scanning lines actually processed for the video signals of chA, chB, and chC are determined. different. Therefore, in order to prevent this, the time of the vertical synchronizing signal of each of the imaging devices A, B, and C is shifted by one horizontal scanning period in accordance with the order of channels processed by the A / D converter 100. The processing may be performed on the same horizontal scanning line position for the video signal of any channel. In other words, for the time-division processing, the timing of the vertical synchronization signal of the video signal is delayed by the time corresponding to the delay of the processing of the video signal of another channel with respect to the video signal of a certain channel. The scanning line positions that are not processed and the scanning line positions that are not processed may not be different for each channel.
[0050]
FIG. 11 is a configuration diagram showing a fourth mode of the configuration of the signal processing unit 28 to which the present invention is applied. Note that blocks denoted by the same reference numerals as those in the second embodiment in FIG. 9 and the third embodiment in FIG. 10 are blocks that perform the same or similar processing as in FIGS. 9 and 10. In the fourth embodiment of FIG. 11, the processing subsequent to the HPF 52 is the same as the processing subsequent to the HPF 52 in the third embodiment of FIG. On the other hand, in the fourth embodiment of FIG. 11, the video signals of chA, chB, and chC output from the image sensors A, B, and C are similar to those of the second embodiment of FIG. 9 (similar to the conventional configuration of FIG. 4). ) Are converted into digital signals by A / D converters 50, 60, and 70 provided individually. Thereafter, the video signals for one horizontal scanning period output from the imaging devices A, B, and C at the same time are stored in the SRAMs 102, 104, and 106, respectively. The video signals for one horizontal scanning period stored in each of the SRAMs 102, 104, and 106 are output to the HPF 52 in a predetermined order. It is assumed that the timings of the vertical synchronizing signals of the respective image sensors A, B, and C match.
[0051]
For example, first, a video signal for one horizontal scanning period of chA stored in the SRAM 102 is output to the HPF 52, and subsequently, a video signal for one horizontal scanning period of chB stored in the SRAM 104 is output to the HPF 52. Next, the video signal for one horizontal scanning period of chC stored in the SRAM 106 is output to the HPF 52. By storing the video signals output from the respective imaging devices A, B, and C at the same time in the memory in this manner, the video signals obtained by the imaging devices A, B, and C being captured at the same time are obtained. Thus, the focus evaluation values of chA, chB, and chC based on the video signal at the same horizontal scanning line position can be obtained.
[0052]
In the third embodiment shown in FIG. 10 and the fourth embodiment shown in FIG. 11, the video signal is processed by one processing unit by switching the channel every one horizontal scanning period. The channel may be switched at least each time the processing for the video signal in the necessary range, that is, the video signal in the AF frame (see FIG. 5) is completed. Further, the content of the time-division processing performed by one processing unit may be different from those of the third and fourth embodiments, and all or a part of the processing performed on the video signal is performed by the one processing unit. The present invention can be applied to the case of processing. In particular, there is an effect that only the processing of the HPF 52 is time-divisionally processed by one processing unit, and the other processing is performed by an individual processing unit for each channel.
[0053]
As described above, in the above-described embodiment, the case where the present invention is applied to the configuration of the signal processing unit 28 when three focus state detecting image pickup devices are provided has been described. The present invention can be applied not only to the case where the number of elements is three, but also to the case where there are plural elements.
[0054]
【The invention's effect】
As described above, according to the autofocus system according to the present invention, all or part of autofocus processing using a plurality of image sensors arranged at positions with different optical path lengths is time-shared by a single processing unit. Therefore, the circuit scale can be reduced, and the power consumption can be reduced.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a configuration of a television camera system to which the present invention is applied.
FIG. 2 is a configuration diagram illustrating a configuration of an imaging unit for detecting a focus state;
FIG. 3 is a diagram illustrating an image sensor for focus state detection on the same optical axis;
FIG. 4 is a block diagram illustrating a configuration of a signal processing unit that performs focus state detection processing.
FIG. 5 is a diagram illustrating an example of an AF frame with respect to a screen.
FIG. 6 is a diagram illustrating a state of a focus evaluation value in an image sensor for detecting a focus state with respect to a focus position when a certain subject is photographed.
FIG. 7 is an explanatory diagram used for explaining a focus state detection process performed by three focus state detection imaging elements;
FIG. 8 is a configuration diagram showing a first embodiment of the configuration of a signal processing unit to which the present invention has been applied.
FIG. 9 is a configuration diagram showing a second form of the configuration of the signal processing unit to which the present invention is applied;
FIG. 10 is a configuration diagram showing a third mode of the configuration of the signal processing unit to which the present invention is applied;
FIG. 11 is a configuration diagram showing a fourth mode of the configuration of the signal processing unit to which the present invention is applied;
[Explanation of symbols]
10 camera body, 12 photographing lens, F focus lens, R1 front relay lens, R2 rear relay lens, R3 relay lens, 24 half mirror, 26 imaging section, A, B, C imaging Elements, 28 signal processing unit, 30 focus motor drive circuit, 50, 60, 70, 100 A / D converter, 52, 62, 72 high-pass filter (HPF), 54, 64, 74 gate circuit, 56, 66, 76 ... adder, 80 ... synchronization signal generation circuit, 82 ... CPU, 102, 104, 106 ... SRAM

Claims (6)

撮影レンズに入射した被写体光を光路長の異なる位置に配置された複数の撮像素子により撮像して各撮像素子により得られた映像信号に基づいて前記撮影レンズのフォーカスを制御してピント合わせを自動で行うフォーカス制御手段を備えたオートフォーカスシステムにおいて、
前記各撮像素子からの各映像信号に対して施される同一の処理の全て又は一部を各映像信号ごとに時分割で処理する単一の処理部を備えたことを特徴とするオートフォーカスシステム。
Automatically adjusting the focus by controlling the focus of the photographing lens based on video signals obtained by the plurality of image sensors arranged at positions having different optical path lengths of the subject light incident on the photographing lens based on the image signals obtained by the respective image sensors. In an autofocus system provided with a focus control means performed by
An autofocus system comprising a single processing unit for processing all or a part of the same processing performed on each video signal from each of the imaging elements in a time-division manner for each video signal. .
前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの映像信号のうち少なくとも前記AF枠内の映像信号に対する処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴とする請求項1のオートフォーカスシステム。When a frame that specifies a range to be focused within the angle of view of the photographing lens is set as an AF frame, the processing unit performs processing on at least a video signal in the AF frame among video signals from one image sensor. 2. The autofocus system according to claim 1, wherein a video signal to be processed is switched to a video signal from another image sensor every time the processing is completed. 前記撮影レンズの画角内においてピント合わせの対象とする範囲を特定する枠をAF枠として、前記処理部は、1つの撮像素子からの前記AF枠内の映像信号のうち一部の映像信号の処理が終了するごとに、処理する対象の映像信号を他の撮像素子からの映像信号に切り替えることを特徴とする請求項1のオートフォーカスシステム。The processing unit sets the frame that specifies the range to be focused within the angle of view of the photographing lens as an AF frame, and the processing unit may perform processing on some of the video signals in the AF frame from one image sensor. 2. The autofocus system according to claim 1, wherein a video signal to be processed is switched to a video signal from another image sensor every time the processing is completed. 前記各撮像素子からの映像信号を記憶する記憶手段を備え、前記処理部は、各撮像素子から同一時刻に出力された映像信号を前記記憶手段から読み出して処理することを特徴とする請求項2又は3のオートフォーカスシステム。3. The image processing apparatus according to claim 2, further comprising a storage unit configured to store a video signal from each of the imaging elements, wherein the processing unit reads out the video signal output from each of the imaging elements at the same time from the storage unit and processes the video signal. Or 3 autofocus system. 処理する対象の映像信号の切替えは、水平同期信号を基準に行うことを特徴とする請求項3のオートフォーカスシステム。4. The autofocus system according to claim 3, wherein the switching of the video signal to be processed is performed based on a horizontal synchronization signal. 前記各撮像素子からの映像信号の垂直同期信号が一定時間分ずれるようにしたことを特徴とする請求項5のオートフォーカスシステム。6. The autofocus system according to claim 5, wherein a vertical synchronizing signal of a video signal from each of said image sensors is shifted by a predetermined time.
JP2002277041A 2002-08-23 2002-09-24 Autofocus system Pending JP2004117492A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002277041A JP2004117492A (en) 2002-09-24 2002-09-24 Autofocus system
US10/642,143 US7345706B2 (en) 2002-08-23 2003-08-18 Auto focus system
DE10338246A DE10338246A1 (en) 2002-08-23 2003-08-20 Autofocus System
FR0310096A FR2843809B1 (en) 2002-08-23 2003-08-22 AUTOMATIC FOCUSING SYSTEM WITH SENSITIVITY CORRECTION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002277041A JP2004117492A (en) 2002-09-24 2002-09-24 Autofocus system

Publications (1)

Publication Number Publication Date
JP2004117492A true JP2004117492A (en) 2004-04-15

Family

ID=32272747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002277041A Pending JP2004117492A (en) 2002-08-23 2002-09-24 Autofocus system

Country Status (1)

Country Link
JP (1) JP2004117492A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7636122B2 (en) 2004-08-10 2009-12-22 Fujinon Corporation Focus control apparatus for auto-focusing on a subject in an area specified within a range of a camera image picked up by a television camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7636122B2 (en) 2004-08-10 2009-12-22 Fujinon Corporation Focus control apparatus for auto-focusing on a subject in an area specified within a range of a camera image picked up by a television camera

Similar Documents

Publication Publication Date Title
JP3975395B2 (en) Camera system
KR20070086061A (en) Image processing and image processing program of image processing
US20110050856A1 (en) Stereoscopic imaging apparatus
JP5089154B2 (en) Auto focus system
JP2002365519A (en) Device for detecting state of focusing
JP2002365517A (en) Device for detecting state of focusing of photographic lens
JP2009124313A (en) Electronic camera
JP2002296492A (en) Adapter for detecting focus state of photographing lens
JP4045483B2 (en) Focus status detection device
US7345706B2 (en) Auto focus system
JP3091628B2 (en) Stereoscopic video camera
US7576796B2 (en) Auto focus system
JP2002372661A (en) Photographic lens
JP2002365518A (en) Device for detecting focusing state of photographic lens
JP2001133679A (en) Electronic camera and automatic focusing method
JP2003279846A (en) Focus state detector for photographing lens
JP4612814B2 (en) Automatic focusing apparatus, control method therefor, and imaging apparatus
JP2003270517A (en) Focus state detector
JP2005037490A (en) Digital camera
JP2004117492A (en) Autofocus system
JP4692425B2 (en) Auto focus system
JP2004120015A (en) Imaging apparatus
JP2003279842A (en) Focus state detector for photographing lens
JPH099132A (en) Automatic focusing device and camera
JP2004117488A (en) Camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050608

A977 Report on retrieval

Effective date: 20070501

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070921