JP2663451B2 - Automatic focusing device - Google Patents
Automatic focusing deviceInfo
- Publication number
- JP2663451B2 JP2663451B2 JP62228147A JP22814787A JP2663451B2 JP 2663451 B2 JP2663451 B2 JP 2663451B2 JP 62228147 A JP62228147 A JP 62228147A JP 22814787 A JP22814787 A JP 22814787A JP 2663451 B2 JP2663451 B2 JP 2663451B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- gate
- circuit
- focus detection
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Description
【発明の詳細な説明】
(発明の利用分野)
本発明は、二次元撮像素子により被写体像を映像信号
に変換し、この映像信号に基づいてレンズの焦点合せを
行う自動合焦装置の改良に関するものである。
(発明の背景)
ビデオカメラでは、映像信号の高周波成分により撮影
画面の精細度を検出し、その精細度(高周波成分)が最
大になるようにレンズの位置制御を行うことにより、カ
メラを合焦状態に自動制御する方式が知られている。具
体的には、被写体像のエッジでは映像信号が急激に変化
し、映像信号の高周波成分が増加する。そして、この高
周波成分が増すほど、その被写体像について合焦状態に
近いことになる。
ここで、従来のこの種の自動合焦装置の概略構成を第
12図に示す。第12図において、レンズ1により撮像素子
2の撮像面に被写体像が形成され、該撮像素子2によっ
てそれが電気信号(映像信号)に変えられる。次段に配
置されるプリアンプ3は撮像素子2からの映像信号を増
幅し、プロセス回路4及びバンドパスフィルタ(BPF)
5へ出力する。この信号を受けることによりプロセス回
路4は所定の信号処理を行って標準TV信号(ビデオ信
号)として出力する。一方バンドパスフィルタ5はプリ
アンプ3からの出力より高周波成分を抽出し、これを、
1画面(1フィールド又は1フレーム)分の信号のう
ち、合焦検出を行う領域の信号のみを選択し、通過させ
るゲート回路6へ出力する。検波回路7はゲート回路6
よりの出力を検波し、その領域での高周波成分の多い点
で最大振幅値、すなわちピーク値を示す信号を形成す
る。この検波回路7の出力信号はレンズ1の合焦度を代
表しており、それが大きくなる程合焦状態に近づく。モ
ータ駆動回路8は、撮影画面毎の検波回路7の出力値に
従いモータ9を駆動し、レンズ1を合焦状態に自動制御
する。
ところで、前述した従来の自動合焦装置において、ゲ
ート回路6での映像信号通過領域、すなわち合焦検出領
域は、画面の中央部に固定して設定されているため、主
要被写体が多少動いたり、カメラが動いたりして画面内
における主要被写体の位置変化が生じた場合、画面中央
に位置する他の被写体にピントを合せてしまうといった
危険性があった。
(発明の目的)
本発明の目的は、上述した問題を解決し、主要被写体
の画面内における位置変化が生じたとしても、該主要被
写体について継続して合焦させ得る自動合焦装置を提供
することである。
(発明の特徴)
上記目的を達成するために、本発明は、撮影画面内に
指定された合焦検出領域で得られる映像信号に基づいて
光学系の合焦状態を自動制御する自動合焦装置におい
て、撮影画面内において、所定の追尾領域をその位置が
移動可能となるように設定する領域設定手段と、前記追
尾領域の内外に相当する前記映像信号中の輝度信号成分
をそれぞれ抽出し、該輝度信号成分のレベルの差が大き
くなる方向に前記追尾領域を移動する領域制御手段と、
前記追尾領域の移動位置に前記合焦検出領域を設定する
合焦領域設定手段と、前記合焦検出領域内に相当する前
記映像信号により焦点状態を検出する焦点検出手段とを
備えたことを特徴とする。
(発明の実施例)
以下、本発明を図示の実施例に基づいて詳細に説明す
る。尚、以下の各実施例では、第2図に示すように、撮
影画面を水平方向にn等分し、垂直方向にm等分して、
n×mの区画に区分する。そして、複数の区画を合焦検
出領域として、その領域内で合焦信号を形成する。
第1図は本発明の第1の実施例を示すブロック図であ
り、第12図と同じ部分は同一符号を付してある。
第1図において、撮像素子2よりプリアンプ3を介し
て出力された撮像信号(輝度成分)がゲートA回路11に
入力すると、該ゲートA回路11はゲートAパルス発生回
路55からのゲートパルスに従った1フィールド内の指定
領域の映像信号を得、積分回路21へ印加する。また、反
転ゲートA回路12はインバータ60によって反転されたゲ
ートAパルス発生回路55からのゲートパルスに従った、
1フィールド内の前記ゲートA回路11による指定領域と
は反対の指定領域(画面全体から先の指定領域を除いた
領域)の映像信号を得、積分回路22へ印加する。前述の
ようにゲートA回路11,反転ゲートA回路12によって指
定された領域のみの映像信号が入力する積分回路21,22
ではその映像信号の積分を行い、その領域内における輝
度成分の平均値を求めた後、面積補正回路101,102によ
って正規化される。これは各指定領域の内外の面積が異
なるため、この各領域内の平均値をそのまま比較するこ
とは出来ないからである。これら信号が入力する引算回
路31では前記面積補正回路101,102を介して入力する前
記積分回路21,22よりの輝度成分の平均値の差情報を算
出し、この差情報を絶対値回路36へ出力する。絶対値回
路36は入力する差情報の絶対値を取り、この絶対値を比
較器41及び最大値検出回路46へ出力する。
以下同様に、プリアンプ3を介する映像信号が入力す
ることにより、ゲートB回路13,ゲートC回路15,ゲート
D回路17,ゲートE回路19はそれぞれゲートBパルス発
生回路56、ゲートCパルス発生回路57,ゲートDパルス
発生回路58、ゲートEパルス発生回路59からのそれぞれ
のゲートパルスに従った1フィールド内の指定領域の映
像信号を得、積分回路23,25、27,29へ印加する。また、
反転ゲートB回路14,反転ゲートC回路16,反転ゲートD
回路18,反転ゲートE回路20はインバータ61,62,63,64に
よって反転されたそれぞれのゲートパルスに従った、1
フィールド内の先の指定領域とは反対の指定領域の映像
信号をそれぞれ得、積分回路24,26,28、30へ印加する。
前述のような映像信号が入力する積分回路23〜30ではそ
れぞれの映像信号の積分を行い、各領域における輝度成
分の平均値を求めた後、面積補正回路103〜110で正規化
される。これら信号が入力する引算回路32,33,34,35で
は輝度成分の平均値の差情報を算出し、これら差情報を
絶対値回路37,38,39,40へ出力する。前記絶対値回路37
〜40は入力する差情報の絶対値を取り、これら絶対値を
比較器42,43,44、45及び最大値検出回路46へ出力する。
上記の動作により、撮影画面を二つの領域に区分する
境界線となる5つのゲートA〜Eのそれぞれの内側と外
側の各領域の輝度成分の平均値の差の絶対値が最大値検
出回路46に入力したことになる。このような信号を受け
る最大値検出回路46は、これら5つの入力のうちの最大
の入力を検出し、最大入力に相当するゲートA〜Eのい
ずれで得られた絶対値が最大となったかを示す情報(こ
れは主要被写体の画面内の位置に対応するものである)
をセレクタ48に出力する。セレクタ48は、Dフリップフ
ロップ49及びゲートパルス位置シフト回路50,51,52,53
の各出力、すなわちゲートA〜Eの分割画面内でのそれ
ぞれの位置を示す位置情報を入力とするもので、前記最
大値検出回路46によって指示された情報に対応する位置
情報を検出し、Dフリップフロップ49に出力する。Dフ
リップフロップ49は入力された位置情報をゲートAの内
側の領域(区画位置)を示す情報として出力するもの
で、1フィールド毎に新たな情報を出力する。ゲートパ
ルス位置シフト回路50〜53は前記Dフリップフロップ49
より入力するゲートAの位置情報を、それぞれ右、左、
上、下に1区画シフトして出力する。これによって、ゲ
ートA及びこれを中心としてシフトされるゲートB,C,D,
Eの関係は第3図に示すようになる。前記Dフリップフ
ロップ49の出力は前述したように1フレーム毎に更新さ
れる情報であるため、例えば第3図のゲートDがセレク
タ48によって選択された場合、次の1フィールドでは該
ゲートDの位置に相当する情報がDフリップフロップ49
より第3図のゲートAに相当する位置情報に変更されて
出力される。また、ゲートAのパルス位置情報はゲート
パルス発生回路55のみならずゲートパルス発生回路54に
も入力されており、よって常にゲート回路10によって設
定される合焦検出領域の位置は前記ゲートAの位置に等
しくなる。但し、合焦検出領域の広さは必ずしもゲート
Aの内側の領域の広さと同じである必要はなく、その中
心が同一(ここで言う同一とは、ほぼ同一を含むものと
する)であれば良い。
このように該実施例においては、ゲートA〜Eの中で
その内外の平均輝度差の最も大きいゲートに合焦検出領
域を設定すような制御が行われるわけだが、ここで各ゲ
ートA〜Eの内外の輝度差と主要被写体との関係につい
て説明する。撮影画面内において、被写体の部分には輝
度成分が多く分布しており、それ以外の部分は輝度成分
が少ない。従って、ある指定領域においてその内外の輝
度成分の平均値の差が最大となる時、被写体はその指定
領域内にほぼ位置する状態にあるということができる。
すなわち、ゲートA〜Eそれぞれの内外の平均輝度差が
最大となっているゲートが最も被写体を中心でとらえて
いると判定することができるわけであり、その最も被写
体を中心にとらえているゲートの中心に、合焦検出領域
の中心を位置させることにより、常に主要被写体に合焦
検出領域を対応させることができるわけである。
前述のようにゲートAの内側の領域の位置を示すゲー
トパルスがゲートパルス発生回路54より送られてくるこ
とにより、第1図のゲート回路10はそのゲートパルスに
従った1フィールド内の指定領域の映像信号を通過さ
せ、検波回路7はその映像信号を検波し、その領域での
輝度成分の絶対値信号のピーク値をホールドし、モータ
駆動回路8は前記ピーク値に従ったモータ9の駆動を行
う。これにより、レンズ1が合焦状態に自動制御される
事になる。
なお、比較器41〜45に入力した絶対値はしきい値Vth
と比較され、この結果全ての絶対値がしきい値Vthより
低い場合には、追尾不能であることを示すローレベルの
信号がオアゲート47より出力される。この追尾不能信号
発生により、例えば該装置は合焦検出領域を中央固定の
広いものとする如き制御を行うことになる。
以上のような構成にすることにより、5つのゲートA
〜Eのうち、内側と外側の各領域で得られる輝度成分の
平均値の差の絶対値の最も大きいものが次のフィールド
でのゲートAとなるべく更新されてゆき、該ゲートAの
内側の領域の中心とその中心を同一とする位置に、つま
り例えば第4図に示す様に主要被写体の画面内での位置
変化に伴って合焦検出領域が移動せられるので、主要被
写体が画面内で動いたとしても、常にそれを追従して該
主要被写体にピントを合せ続けることが可能となる。
前記実施例では、バンドパスフィルタ5を通過する前
の、撮像素子2よりプリアンプ3を介して得られた映像
信号、すなわち輝度成分に基づいて主要被写体の画面内
での位置変化を検出し、それに対応させて合焦検出領域
の位置を決めるようにしているが、実際には輝度成分の
帯域は広く、主要被写体の位置が変化してその一部の周
波数帯域に変化があったとしても、輝度成分の平均値を
とった状態では変化が相殺されて表れない可能性があ
る。従って第5図に示すように、各ゲート内外の領域に
おいて抽出する主要被写体の変化を検出する基となる信
号成分を、バンドパスフィルタ5の出力側から取り出
し、輝度成分の高域側となる高周波成分を用いるように
しても良い。すなわち被写体の細部、輪郭部分は高周波
成分が多く分布しているため、輝度成分のように広い帯
域における平均値では相殺されて表れなかった主要被写
体の変化が高周波成分を取り出して比較することによっ
て検出可能となることが考えられ、この方式も極めて有
効である。
なお、第5図においては、ゲートA回路11から反転ゲ
ートE回路20までにて高周波成分を抽出する回路部分の
み示し、他の構成については省略しているが、図示以外
の部分は第1図と全く同様であり、その動作も同様であ
る。
前述の第1図実施例では、ゲートA〜Eをシフトさせ
て画面内での主要被写体の位置を検出し、これに合焦検
出領域を合せて前記主要被写体にピントを合せ続けるよ
うにしているが、画面内での該主要被写体の大きさが異
なった場合、正確にピントを合せることが困難となるこ
とが予想される。この点に鑑み、広さの異なるゲートF,
Gを形成し、主要被写体の大きさをも考慮した制御を行
うことのできる第3の実施例を第6図に示す。該図にお
いても第12図と同じ部分は同一符号を付してある。
第6図において、撮像素子2よりプリアンプ3を介し
て輝度信号がゲートF回路66に入力すると、該ゲートF
回路66はマイクロコンピュータ79によって指示された位
置にゲートパルスを作るゲートFパルス発生回路81から
のゲートパルスに従った1フィールド内の指定領域の輝
度信号を得、積分回路70,面積補正回路111へ印加する。
また、反転ゲートF回路67はインバータ83によって反転
されたゲートFパルス発生回路81からのゲートパルスに
従った、1フィールド内の前記ゲートF回路66による指
定領域とは反対の指定領域の輝度信号を得、積分回路7
1,面積補正回路112へ印加する。同様に、ゲートG回路6
8はマイクロコンピュータ79によって指示された位置に
ゲートパルスを作るゲートGパルス発生回路82からのゲ
ートパルスに従った1フィールド内の指定領域の輝度信
号を得、積分回路72,面積補正回路113へ印加し、反転ゲ
ートG回路69はインバータ84によって反転されたゲート
Gパルス発生回路82からのゲートパルスに従った、1フ
ィールド内の前記ゲートG回路68による指定領域とは反
対の指定領域の輝度信号を得、積分回路73,面積補正回
路114へと印加する。ここで、前述のようにして指定さ
れる領域、つまり画面を2つの領域に区分する境界線と
なるゲートF,Gによって振り分けられる内側の領域と外
側の領域は、第7図に示すように中心が等しく、その広
さ(区画数)が異なるものとする。また、各ゲートA〜
Eの内外の輝度成分の平均値をその内外の指定領域の面
積で正規化するのは、第1図実施例と同様各指定領域の
面積がそれぞれ異なるため、その各領域内の平均値をそ
のまま比較することは出来ないからである。
引算回路74及び75では前記積分回路70,71及び72,73に
て積分され、前記面積補正回路111,112及び113,114にて
正規化された輝度成分の平均値の差情報を算出し、この
差情報を絶対値回路76及び77へ出力する。絶対値回路76
及び77は入力する差情報の絶対値を取り、これら絶対値
をA/D変換回路78を介してマイクロコンピュータ79へ出
力する。
次に前記マイクロコンピュータ79での動作を第8図
(A)〜(C)のフローチャートを用いて説明する。
先ず、前記A/D変換回路78よりの信号をFデータ,Gデ
ータとして読み込み、これをF1,G1という変数に取り込
む(ステップ1)。次にゲートF,Gを1区画分右方向へ
シフト(これはゲートFパルス発生回路81、ゲートGパ
ルス発生回路82を介して行う)させ(ステップ2)、次
のフィールドでのFデータ,Gデータを読み込んでこれを
F2,G2という変数に取り込む(ステップ3)。そしてそ
れぞれの値が、F2>F1又はG2>G1の関係にあるか否かを
判断し(ステップ4)、このような関係にあると判断し
た場合(右へシフトさせた位置に主要被写体が移動して
いると推定できるような場合)は、ステップ6で第8図
(C)に示すサブルーチンへと移行する。サブルーチ
ンは主要被写体の大きさに応じて合焦検出領域の広さ
を選択するルーチンであり、そのステップ6-1で、F1>
G1であるか否かを判断し、F1>G1であれば主要被写体は
ゲートF側にてより適確にとらえられていることが分か
る。従って、この場合はステップ6-3へと進んで第9図
(A)に示すように広い方の合焦検出領域を選択する。
また、F1>G1でなければ主要被写体はゲートG側にて適
確にとらえられており、この場合はステップ6-2へと進
んで第9図(B)に示すように狭い方の合焦検出領域を
選択する。尚合焦検出領域の設定は、ゲートパルス発生
回路80を介して行われる。
また、前記ステップ4において、F2>F1又はG2>G1の
条件を満たしていなかった場合(主要被写体は位置変化
せず、元の位置にそのまま居るような場合)はステップ
5へ進み、第8図(B)に示すサブルーチンへと移行
する。サブルーチンも主要被写体の大きさに応じて合
焦検出領域の広さを選択するルーチンであり、そのステ
ップ5-1で、F2>G2であるか否かを判断し、F2>G2であ
れば主要被写体はゲートF側にてより適確にとらえられ
ていることが分かる。従って、この場合はステップ5-3
へと進んで広い方の合焦検出領域を選択する。また、F2
>G2でなければ主要被写体はゲートG側にてより適確に
とらえられており、この場合はステップ5-2へと進んで
狭い方の合焦検出領域を選択する。その後ステップ7へ
と進み、ゲートF,Gを1区画分左方向へシフトさせ、つ
まり1つ前の状態に戻し、ステップ8で合焦検出領域の
位置を前記ゲートF或はゲートGに合せる。以下同様に
して、ステップ9からステップ16までにおいて次の2フ
ィールドで1区画分上方向にシフトさせた場合の結果に
応じたゲート位置に合焦検出領域を合せ、ステップ17か
らステップ24までにおいてさらに次の2フィールドで1
区画分左方向にシフトさせた場合の結果に応じたゲート
位置に合焦検出領域を合せ、ステップ9からステップ16
までにおいて次の2フィールドで1区画分下方向にシフ
トさせた場合の結果に応じたゲート位置に合焦検出領域
を合せる。尚ステップ13,21,29ではステップ5にて行わ
れるサブルーチンと同様の動作が行われ、ステップ14,2
2,30ではステップ6にて行われるサブルーチンと同様の
動作が行われる。以後同様に動作が繰り返される。
前述のようにゲートF,Gを画面内においてシフトさ
せ、各ゲートの内外の輝度差が大きくなる方へ合焦検出
領域を動かす、つまり画面内での被写体の位置変化に応
じて合焦検出領域を追尾させ、且つゲートF,Gの内外の
輝度差が大なる方を選択するようにいているため、主要
被写体の画面内での位置及びその大きさに対応した合焦
検出領域が設定されることになる。ここで、この大きさ
判定は、前述の主要被写体の位置変化を判断する場合と
同様の考えからなるものである。すなわち輝度成分は被
写体部分において多く分布しているため、大小2つのゲ
ートF,Gにおいてそのそれぞれのゲートの内外の平均輝
度差が、F>Gであった場合は、ゲートGの内外におい
て輝度差が小さく被写体の変化が少ないと見ることがで
きるから、ゲートGの内外とも類似した被写体か、或は
両方とも被写体が存在しないかの何れであるが、この場
合はゲートFの内外の輝度差がゲートGより大きいた
め、ゲートFについては被写体がその内部に存在すると
見ることができる。つまりこの結果、画面内での主要被
写体の位置変化のみならず、該主要被写体の大きさをも
判別していることになる。尚全てのゲート内外とも被写
体が存在しない場合には、何れのゲート内外でも輝度成
分が得られないので、このことを判別することができ
る。
従ってこの場合、マイクロコンピュータ79からゲート
パルス発生回路80へは、主要被写体の画面内での大きさ
に対応する方のゲートF或はゲートGを示す信号と、主
要被写体の位置に対応したゲートF或はゲートGを示す
信号が出力されることになる。
ゲート回路65は、前述のマイクロコンピュータ79の指
示に応じたパルスを発生するゲートパルス発生回路80か
らのゲートパルスに従った指定領域内の映像信号を通過
させることになる。これにより、様々の大きさの主要被
写体が画面内で動いたような場合であっても、常にそれ
に追従して該主要被写体により確実にピントを合せ続け
ることが可能となる。
第10図は本発明の第4の実施例を示すブロック図であ
り、比較的広い帯域を有し、種々の被写体に対して適応
範囲の広い輝度成分を検出して合焦検出領域を設定する
方式と、輝度成分の平均値では差となって表れないよう
な被写体の変化を検出可能な高周波成分を検出して合焦
検出領域を設定する方式とを、その時の状況に応じて適
している方を自動的に選択することができるようにした
ものである。第6図実施例と同じ部分は同一符号を付し
てある。第6図実施例とことなる部分は、ゲートF回路
66から反転ゲートG回路69までに供給する信号を、バン
ドパスフィルタ5の入力側から(輝度成分を)取り出す
場合と出力側(高周波成分を)取り出す場合とをアナロ
グスイッチSWの切換えにより選択できるようにしている
ところである。又、ここでのマイクロコンピュータ79は
被写体の大きさ及び画面内での位置を検出し、これに合
焦検出領域を合せるべく制御を行うと共に、前記アナロ
グスイッチSWの切換え制御をも行う機能を有しているも
のとする。
以下、第11図のフローチャートを用いて動作説明を行
う。合焦検出動作が開始されると、ステップ1-1におい
て、先ずアナログスイッチSWを輝度成分を取り出すべく
バンドパスフィルタ5の入力側、すなわち接点Y側に切
換え、その時のゲートF,Gの内外で検出された輝度成分
の平均値の差に基づく値をそれぞれ変数FY,GYに読み込
む(ステップ1-2)。続いてアナログスイッチSWを高周
波成分を取り出すべくバンドパスフィルタ5の出力側、
すなわち接点H側に切換え(ステップ1-3)、その時の
ゲートF,Gの内外で検出された高周波成分の平均値の差
に基づく値をそれぞれ変数FH,GHに読み込む(ステップ
1-4)。次にステップ1-5に移行して変数FH,GH,FY,GY
のうちのどれが最大であるかを判別し、仮に変数FH又は
GHが最大であれば、ステップ1-8に進み、変数F1,G1に
それぞれ変数FH,GHの内容を格納した後、ステップ2へ
と進む。また前記ステップ1-5において変数FY又はGYが
最大であれば、ステップ1-6に進み、前記アナログスイ
ッチSWを接点Yに切換えて輝度成分による検出モードと
し、ステップ1-7で変数F1,G1にそれぞれ変数FY,GYの内
容を格納した後、ステップ2へと進む。
以後ステップ2からステップ32までの動作は、前述の
第6図での動作と同様であるので、以後の説明は省略す
る。
第1図乃至第11図実施例によれば、各ゲートの内側と
外側の各領域で得られる映像信号の輝度成分或はその高
域側の高周波成分の差の絶対値を求め、このうちの最大
の値をもつゲートの内側の領域の位置に合焦検出領域を
移動させるようにしているため、主要被写体が画面内で
動いたとしても、該主要被写体を自動的に追尾でき、該
主要被写体にピントを常に合せ続けることが可能とな
る。
また、第6図及び第10図実施例の場合、第1図実施例
のように4方向同時に比較する事は出来ないが、1方向
づつ4回に分けて比較する様な構成にしているので、少
ないハードウエア量でほぼ同一の機能を付加することが
できる。さらに、異なる広さの内外領域とするゲートF,
Gの両方により輝度成分或は高周波成分の平均値の差の
絶対値を得るようにしているので、その時の主要被写体
の位置のみならずその大きさをも検出することができ、
様々な大きさの被写体に対して、追尾しながら高い確率
でピントを合せ続けることが可能となる。つまり、従来
の自動合焦装置においては、合焦検出領域を画面の中で
広めの一定領域に設定したタイプのものと、画面中心に
やや狭めの一定領域に設定したタイプとがあるが、前者
のタイプにおいては、別の被写体が合焦検出領域内に入
ってきたり、カメラが動いて他の被写体が合焦検出領域
内に入ってきたりして、主要被写体とは異なる被写体に
ピントを合せてしまうことがあり、一方後者のタイプに
おいては、前述した主要被写体でない被写体が合焦検出
領域内に入ってくる可能性は低くなるが、目的とする主
要被写体が合焦検出領域から出てしまう可能性が高ま
り、合焦動作の再起動が頻繁に生じることになりがちで
あり、このようなことを排除しつつ、主要被写体に追従
してピントを合せ続けることができる。さらに、第10図
実施例のように、輝度成分と高周波成分のいずれの成分
を用いた方が有利であるかを判別してアナログスイッチ
SWをその対応する側へ切換え、合焦検出領域を設定する
ようにすることにより、その時の撮影環境や被写体条件
等にかかわらず高い確率でピントを合わせ続けることが
可能となる。
(発明と実施例の対応)
本実施例において、ゲートA回路11から追尾反転ゲー
トE回路20まで及びゲートAパルス発生回路55から追尾
ゲートEパルス発生回路59まで、及びゲートF回路66か
ら追尾反転ゲートG回路69まで及びゲートAパルス発生
回路55から追尾ゲートEパルス発生回路59までが本発明
の領域設定手段に、積分回路21から絶対値回路40まで及
び面積補正回路101〜110、及び積分回路70からA/D変換
回路78まで及び面積補正回路111〜114、最大値検出回路
46、及びマイクロコンピュータ79が領域制御手段に、ゲ
ートパルス発生回路80が合焦領域設定手段に、それぞれ
相当する。
(発明の効果)
以上説明したように、本発明によれば、撮影画面内に
指定された合焦検出領域で得られる映像信号に基づいて
光学系の合焦状態を自動制御する自動合焦装置におい
て、撮影画面内において、所定の追尾領域をその位置が
移動可能となるように設定する領域設定手段と、前記追
尾領域の内外に相当する前記映像信号中の輝度信号成分
をそれぞれ抽出し、該輝度信号成分のレベルの差が大き
くなる方向に前記追尾領域を移動する領域制御手段と、
前記追尾領域の移動位置に前記合焦検出領域を設定する
合焦領域設定手段と、前記合焦検出領域内に相当する前
記映像信号により焦点状態を検出する焦点検出手段とを
備えたので、主要被写体の画面内における位置変化が生
じたとしても、該主要被写体について継続して合焦させ
ることができる。また、追尾領域内外の輝度信号成分の
レベル差が大きくなるように追尾領域を移動するように
したので、背景にかかわらず主要被写体を正確にとらえ
続けることができ、正確な追尾動作及び焦点検出動作を
行うことができる。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in an automatic focusing device that converts a subject image into a video signal by a two-dimensional image sensor and focuses a lens based on the video signal. Things. (Background of the Invention) In a video camera, a camera is focused by detecting the definition of a shooting screen based on a high-frequency component of a video signal and controlling the position of a lens so that the definition (high-frequency component) is maximized. A method for automatically controlling the state is known. Specifically, the video signal changes rapidly at the edge of the subject image, and the high-frequency component of the video signal increases. Then, as the high frequency component increases, the subject image is closer to the focused state. Here, a schematic configuration of a conventional automatic focusing apparatus of this type is described as follows.
Figure 12 shows. In FIG. 12, a subject image is formed on an image pickup surface of an image pickup device 2 by a lens 1, and the image is converted into an electric signal (video signal) by the image pickup device 2. The preamplifier 3 arranged in the next stage amplifies the video signal from the image sensor 2, and the process circuit 4 and the band pass filter (BPF)
Output to 5 Upon receiving this signal, the process circuit 4 performs predetermined signal processing and outputs it as a standard TV signal (video signal). On the other hand, the band pass filter 5 extracts a high frequency component from the output from the preamplifier 3, and
Of the signals for one screen (one field or one frame), only the signals in the region where focus detection is to be performed are selected and output to the gate circuit 6 that passes the signals. The detection circuit 7 is a gate circuit 6
Is detected, and a signal showing a maximum amplitude value, that is, a peak value is formed at a point where a high frequency component is large in the region. The output signal of the detection circuit 7 represents the degree of focusing of the lens 1, and the greater the value, the closer the focusing state is. The motor drive circuit 8 drives the motor 9 according to the output value of the detection circuit 7 for each photographing screen, and automatically controls the lens 1 to be in focus. By the way, in the above-described conventional automatic focusing apparatus, the video signal passing area in the gate circuit 6, that is, the focus detection area is fixedly set at the center of the screen, so that the main subject moves slightly, When the position of the main subject in the screen changes due to movement of the camera, there is a risk that another subject located at the center of the screen will be focused. (Object of the Invention) An object of the present invention is to solve the above-mentioned problem, and to provide an automatic focusing device capable of continuously focusing on a main subject even when a position of the main subject changes in a screen. That is. (Features of the Invention) In order to achieve the above object, the present invention provides an automatic focusing device that automatically controls a focusing state of an optical system based on a video signal obtained in a focusing detection area specified in a shooting screen. In the shooting screen, in a shooting screen, an area setting means for setting a predetermined tracking area so that the position can be moved, and a luminance signal component in the video signal corresponding to the inside and outside of the tracking area is extracted, and Area control means for moving the tracking area in a direction in which the level difference between the luminance signal components increases,
A focus area setting unit configured to set the focus detection area at a movement position of the tracking area; and a focus detection unit configured to detect a focus state based on the video signal corresponding to the focus detection area. And Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments. In each of the following embodiments, as shown in FIG. 2, the shooting screen is equally divided into n parts in the horizontal direction and m parts in the vertical direction.
It is divided into nxm sections. Then, a plurality of sections are set as focus detection areas, and a focus signal is formed within the area. FIG. 1 is a block diagram showing a first embodiment of the present invention, and the same parts as those in FIG. 12 are denoted by the same reference numerals. In FIG. 1, when an imaging signal (luminance component) output from the imaging device 2 via the preamplifier 3 is input to the gate A circuit 11, the gate A circuit 11 follows a gate pulse from the gate A pulse generation circuit 55. The video signal of the designated area in one field is obtained and applied to the integration circuit 21. Further, the inversion gate A circuit 12 follows the gate pulse from the gate A pulse generation circuit 55 inverted by the inverter 60,
A video signal in a designated area (an area excluding the designated area from the entire screen) opposite to the designated area by the gate A circuit 11 in one field is obtained and applied to the integrating circuit 22. As described above, the integration circuits 21 and 22 to which the video signal of only the area specified by the gate A circuit 11 and the inversion gate A circuit 12 are input.
Then, the video signal is integrated, the average value of the luminance component in the area is obtained, and the average value is normalized by the area correction circuits 101 and 102. This is because the inside and outside areas of each designated area are different, and the average value in each area cannot be directly compared. The subtraction circuit 31 to which these signals are input calculates difference information of the average value of the luminance components from the integration circuits 21 and 22 input through the area correction circuits 101 and 102, and outputs the difference information to the absolute value circuit 36. I do. The absolute value circuit 36 takes the absolute value of the input difference information, and outputs this absolute value to the comparator 41 and the maximum value detection circuit 46. Similarly, when a video signal is input via the preamplifier 3, the gate B circuit 13, the gate C circuit 15, the gate D circuit 17, and the gate E circuit 19 become the gate B pulse generation circuit 56 and the gate C pulse generation circuit 57, respectively. In accordance with the respective gate pulses from the gate D pulse generation circuit 58 and the gate E pulse generation circuit 59, a video signal in a designated area in one field is obtained and applied to the integration circuits 23, 25, 27, and 29. Also,
Inverting gate B circuit 14, inverting gate C circuit 16, inverting gate D
The circuit 18 and the inverting gate E circuit 20 follow the respective gate pulses inverted by the inverters 61, 62, 63 and 64, and
A video signal in a designated area opposite to the designated area in the field is obtained and applied to the integration circuits 24, 26, 28, and 30.
The integration circuits 23 to 30 to which the above-described video signals are input integrate the respective video signals, obtain an average value of the luminance component in each area, and then normalize by the area correction circuits 103 to 110. The subtraction circuits 32, 33, 34, and 35 to which these signals are input calculate difference information between the average values of the luminance components, and output the difference information to the absolute value circuits 37, 38, 39, and 40. Absolute value circuit 37
40 take the absolute values of the input difference information and output these absolute values to the comparators 42, 43, 44, 45 and the maximum value detection circuit 46. By the above-described operation, the absolute value of the difference between the average values of the luminance components of the inside and outside of each of the five gates A to E, which are the boundaries dividing the photographing screen into two regions, is determined by the maximum value detection circuit 46. Will be entered. The maximum value detection circuit 46 receiving such a signal detects the maximum input of these five inputs, and determines which of the gates A to E corresponding to the maximum input has the maximum absolute value. Information to indicate (this corresponds to the position of the main subject in the screen)
Is output to the selector 48. The selector 48 includes a D flip-flop 49 and gate pulse position shift circuits 50, 51, 52, 53
, I.e., position information indicating the position of each of the gates A to E in the divided screen as inputs. The position information corresponding to the information specified by the maximum value detection circuit 46 is detected. Output to flip-flop 49. The D flip-flop 49 outputs the input position information as information indicating an area (partition position) inside the gate A, and outputs new information for each field. The gate pulse position shift circuits 50 to 53 are provided with the D flip-flop 49.
Input the position information of the gate A from the right, left,
The output is shifted one section upward and downward. As a result, the gate A and the gates B, C, D,
The relationship of E is as shown in FIG. Since the output of the D flip-flop 49 is information updated every frame as described above, for example, when the gate D in FIG. 3 is selected by the selector 48, the position of the gate D in the next one field is determined. Is equivalent to D flip-flop 49
The output is changed to the position information corresponding to the gate A in FIG. In addition, the pulse position information of the gate A is input not only to the gate pulse generation circuit 55 but also to the gate pulse generation circuit 54. Therefore, the position of the focus detection area always set by the gate circuit 10 is the position of the gate A. Is equal to However, the size of the focus detection area does not necessarily need to be the same as the area inside the gate A, and the center may be the same (the same here means almost the same). As described above, in this embodiment, control is performed such that the focus detection area is set to the gate having the largest average luminance difference between the gates A to E among the gates A to E. The relationship between the inner and outer luminance differences and the main subject will be described. In the photographing screen, a large amount of the luminance component is distributed in the portion of the subject, and the other portions have a small amount of the luminance component. Therefore, when the difference between the average values of the luminance components inside and outside of the specified area is maximum, it can be said that the subject is in a state substantially located in the specified area.
In other words, it can be determined that the gate having the largest average luminance difference between the inside and outside of each of the gates A to E captures the subject at the center, and the gate of the gate that captures the subject at the center is the most. By positioning the center of the focus detection area at the center, the focus detection area can always correspond to the main subject. As described above, when the gate pulse indicating the position of the area inside the gate A is sent from the gate pulse generating circuit 54, the gate circuit 10 in FIG. The detection circuit 7 detects the video signal, holds the peak value of the absolute value signal of the luminance component in the area, and the motor drive circuit 8 drives the motor 9 according to the peak value. I do. As a result, the lens 1 is automatically controlled to be in focus. The absolute value input to the comparators 41 to 45 is equal to the threshold value Vth
As a result, if all absolute values are lower than the threshold value Vth, a low-level signal indicating that tracking is impossible is output from the OR gate 47. By the generation of the tracking impossible signal, for example, the apparatus performs control such that the focus detection area is fixed at the center and wide. With the above configuration, five gates A
~ E, the one having the largest absolute value of the difference between the average values of the luminance components obtained in each of the inner and outer areas is updated as much as possible to become the gate A in the next field, and the area inside the gate A is updated. Since the focus detection area is moved to a position where the center is the same as that of the center, that is, as shown in FIG. 4, for example, as the position of the main subject changes in the screen, the main subject moves in the screen. Even if this is the case, it is possible to always keep track of the main subject by following it. In the above embodiment, the position change of the main subject in the screen is detected based on the video signal obtained from the image sensor 2 via the preamplifier 3 before passing through the bandpass filter 5, that is, the luminance component. Although the position of the focus detection area is determined correspondingly, the band of the luminance component is actually wide, and even if the position of the main subject changes and there is a change in some frequency bands, the luminance In the state where the average value of the components is taken, there is a possibility that the change is offset and does not appear. Therefore, as shown in FIG. 5, a signal component serving as a basis for detecting a change in a main subject to be extracted in regions inside and outside the gates is extracted from the output side of the band-pass filter 5 and a high-frequency component corresponding to a high-frequency side of a luminance component is extracted. Components may be used. In other words, since the high frequency components are distributed in many details and contours of the subject, changes in the main subject that were not reflected in the average value in a wide band such as the luminance component were detected by extracting the high frequency components and comparing them. It is considered possible, and this method is also very effective. In FIG. 5, only a circuit portion for extracting high-frequency components from the gate A circuit 11 to the inverting gate E circuit 20 is shown, and other components are omitted, but portions other than those shown in FIG. And the operation is also the same. In the above-described FIG. 1 embodiment, the positions of the main subject in the screen are detected by shifting the gates A to E, and the focus detection area is adjusted to this to keep the main subject in focus. However, if the size of the main subject in the screen is different, it is expected that it will be difficult to accurately focus. In view of this point, gates F of different sizes,
FIG. 6 shows a third embodiment in which G is formed and control can be performed in consideration of the size of the main subject. In this figure, the same parts as those in FIG. 12 are denoted by the same reference numerals. In FIG. 6, when a luminance signal is input from the image pickup device 2 to the gate F circuit 66 via the preamplifier 3, the gate F
The circuit 66 obtains a luminance signal of a designated area in one field according to the gate pulse from the gate F pulse generation circuit 81 which generates a gate pulse at a position designated by the microcomputer 79, and sends the signal to the integration circuit 70 and the area correction circuit 111. Apply.
The inverting gate F circuit 67 outputs a luminance signal in a designated area opposite to the designated area by the gate F circuit 66 in one field according to the gate pulse from the gate F pulse generating circuit 81 inverted by the inverter 83. Gain and integration circuit 7
1, applied to the area correction circuit 112. Similarly, the gate G circuit 6
Numeral 8 obtains a luminance signal of a designated area in one field according to the gate pulse from the gate G pulse generating circuit 82 for generating a gate pulse at a position designated by the microcomputer 79, and applies the luminance signal to the integrating circuit 72 and the area correcting circuit 113. The inverting gate G circuit 69 outputs a luminance signal in a designated area opposite to the designated area by the gate G circuit 68 in one field according to the gate pulse from the gate G pulse generating circuit 82 inverted by the inverter 84. Then, it is applied to the integration circuit 73 and the area correction circuit 114. Here, the area designated as described above, that is, the inner area and the outer area which are divided by the gates F and G, which are the boundaries dividing the screen into two areas, are centered as shown in FIG. Are equal, and the areas (the number of sections) are different. In addition, each gate A ~
The reason why the average value of the luminance components inside and outside of E is normalized by the area of the designated area inside and outside that is that the area of each designated area is different from that of the embodiment of FIG. This is because they cannot be compared. The subtraction circuits 74 and 75 calculate difference information of the average value of the luminance component integrated by the integration circuits 70, 71 and 72, 73 and normalized by the area correction circuits 111, 112 and 113, 114. To the absolute value circuits 76 and 77. Absolute value circuit 76
And 77 take the absolute values of the input difference information and output these absolute values to the microcomputer 79 via the A / D conversion circuit 78. Next, the operation of the microcomputer 79 will be described with reference to the flowcharts of FIGS. 8 (A) to 8 (C). First, the signal from the A / D conversion circuit 78 is read as F data and G data, and these are taken into variables F1 and G1 (step 1). Next, the gates F and G are shifted rightward by one section (this is performed via the gate F pulse generation circuit 81 and the gate G pulse generation circuit 82) (step 2), and the F data and G in the next field are shifted. Read the data and
The variables F2 and G2 are fetched (step 3). Then, it is determined whether or not the respective values have a relationship of F2> F1 or G2> G1 (step 4). When it is determined that such a relationship exists (the main subject moves to a position shifted to the right) If it can be estimated that this is the case, the process proceeds to the subroutine shown in FIG. The subroutine is a routine for selecting the size of the focus detection area in accordance with the size of the main subject.
It is determined whether or not G1 is satisfied. If F1> G1, it is understood that the main subject is more accurately captured on the gate F side. Accordingly, in this case, the process proceeds to step 6-3 to select a wider focus detection area as shown in FIG. 9 (A).
If F1> G1, the main subject is properly captured on the gate G side. In this case, the process goes to step 6-2 to focus on the narrower one as shown in FIG. 9 (B). Select the detection area. The setting of the focus detection area is performed via the gate pulse generation circuit 80. If the condition of F2> F1 or G2> G1 is not satisfied in step 4 (the case where the main subject does not change its position and remains at the original position), the process proceeds to step 5 and FIG. The process proceeds to a subroutine shown in FIG. The subroutine is also a routine for selecting the size of the focus detection area according to the size of the main subject. In step 5-1 it is determined whether or not F2> G2. It can be seen that the subject is more accurately captured on the gate F side. Therefore, in this case, step 5-3
The process proceeds to and selects the wider focus detection area. Also, F2
If not> G2, the main subject is more accurately captured on the gate G side. In this case, the process proceeds to step 5-2 to select a narrower focus detection area. Thereafter, the process proceeds to step 7, in which the gates F and G are shifted leftward by one section, that is, returned to the previous state. In step 8, the position of the focus detection area is adjusted to the gate F or the gate G. Similarly, in steps 9 to 16, the focus detection area is adjusted to the gate position corresponding to the result of shifting upward by one section in the next two fields, and further in steps 17 to 24. 1 in the next two fields
The in-focus detection area is adjusted to the gate position corresponding to the result of the shift to the left by the section, and steps 9 to 16 are performed.
The focus detection area is adjusted to the gate position according to the result of shifting down by one section in the next two fields up to. In steps 13, 21, and 29, the same operation as the subroutine performed in step 5 is performed.
In steps 2 and 30, the same operation as the subroutine performed in step 6 is performed. Thereafter, the operation is similarly repeated. As described above, the gates F and G are shifted in the screen, and the focus detection area is moved to a direction where the luminance difference between the inside and the outside of each gate is increased. , And selects the direction in which the luminance difference between the inside and outside of the gates F and G is large, so that the focus detection area corresponding to the position of the main subject on the screen and its size is set. Will be. Here, this size determination is based on the same idea as the above-described determination of the position change of the main subject. That is, since the luminance component is largely distributed in the subject portion, if the average luminance difference between the inside and outside of each of the two large and small gates F and G is F> G, the luminance difference inside and outside the gate G Is small and there is little change in the subject, so that either the subject is similar inside or outside the gate G or both do not have the subject. In this case, the luminance difference between the inside and outside of the gate F is small. Since it is larger than the gate G, it can be seen that the subject exists inside the gate F. That is, as a result, not only the position change of the main subject in the screen but also the size of the main subject is determined. If no subject exists inside or outside all the gates, no luminance component can be obtained inside or outside any of the gates, so this can be determined. Therefore, in this case, the microcomputer 79 sends to the gate pulse generation circuit 80 a signal indicating the gate F or the gate G corresponding to the size of the main subject in the screen and the gate F corresponding to the position of the main subject. Alternatively, a signal indicating the gate G is output. The gate circuit 65 passes the video signal in the designated area according to the gate pulse from the gate pulse generation circuit 80 that generates a pulse according to the instruction of the microcomputer 79 described above. Thus, even if a main subject of various sizes moves in the screen, it is possible to always follow the main subject and to surely keep focusing on the main subject. FIG. 10 is a block diagram showing a fourth embodiment of the present invention, which has a relatively wide band, detects a luminance component having a wide adaptation range for various subjects, and sets a focus detection area. The method and the method of setting a focus detection area by detecting a high-frequency component capable of detecting a change in a subject that does not appear as a difference in the average value of the luminance components are suitable for the situation at that time. One can be automatically selected. The same parts as those in FIG. 6 are denoted by the same reference numerals. The part different from the embodiment of FIG.
A signal supplied from 66 to the inverting gate G circuit 69 can be selected by switching an analog switch SW between a case where a luminance component is extracted from the input side of the bandpass filter 5 and a case where a high frequency component is extracted from the output side. I am doing it. Further, the microcomputer 79 here has a function of detecting the size of the subject and the position in the screen, performing control so as to adjust the focus detection area to the size, and also performing switching control of the analog switch SW. It is assumed that Hereinafter, the operation will be described with reference to the flowchart of FIG. When the focus detection operation is started, in step 1-1, first, the analog switch SW is switched to the input side of the band-pass filter 5, that is, the contact Y side, in order to extract a luminance component, and inside and outside the gates F and G at that time. The values based on the difference between the average values of the detected luminance components are read into variables FY and GY, respectively (step 1-2). Subsequently, the analog switch SW is set to the output side of the band-pass filter 5 to extract the high-frequency component.
That is, it is switched to the contact H side (step 1-3), and values based on the difference between the average values of the high-frequency components detected inside and outside the gates F and G at that time are read into variables FH and GH, respectively (step 1-4). Next, proceed to step 1-5 to change the variables FH, GH, FY, GY
Is determined to be the largest, and if the variable FH or
If GH is the maximum, the process proceeds to step 1-8, where the contents of the variables FH and GH are stored in the variables F1 and G1, respectively, and then the process proceeds to step 2. If the variable FY or GY is the maximum in step 1-5, the process proceeds to step 1-6, in which the analog switch SW is switched to the contact Y to set the detection mode based on the luminance component. After the contents of the variables FY and GY have been stored in Thereafter, the operations from step 2 to step 32 are the same as the operations in FIG. 6 described above, and the description thereof will not be repeated. According to the embodiment shown in FIG. 1 to FIG. 11, the absolute value of the difference between the luminance component of the video signal obtained in each area inside and outside each gate or the high frequency component on the high frequency side thereof is obtained. Since the focus detection area is moved to the position of the area inside the gate having the maximum value, even if the main subject moves on the screen, the main subject can be automatically tracked and the main subject can be tracked. It is possible to always keep focusing on. In the case of FIGS. 6 and 10, the four directions cannot be compared at the same time as in the embodiment of FIG. 1, but the structure is such that the comparison is made four times for each direction. Almost the same functions can be added with a small amount of hardware. In addition, gates F, which have inner and outer regions of different sizes,
Since the absolute value of the difference between the average value of the luminance component and the high frequency component is obtained by both G, it is possible to detect not only the position of the main subject at that time but also its size,
It is possible to keep focusing on a subject of various sizes with a high probability while tracking the subject. That is, in the conventional automatic focusing apparatus, there are a type in which the focus detection area is set to a wide fixed area in the screen and a type in which the focus detection area is set to a slightly narrow fixed area in the center of the screen. In the case of the type, another object comes into the focus detection area, or the camera moves and another object comes into the focus detection area, and focuses on an object different from the main object. In the latter type, on the other hand, the possibility that a subject other than the main subject described above enters the focus detection area is reduced, but the target main subject may move out of the focus detection area. Therefore, the focus operation is likely to be restarted frequently, and it is possible to keep focusing on the main subject while eliminating such a situation. Further, as shown in FIG. 10, the analog switch is determined by determining which of the luminance component and the high frequency component is more advantageous.
By switching the SW to the corresponding side and setting the focus detection area, it is possible to continue focusing with a high probability regardless of the shooting environment and subject conditions at that time. (Correspondence between the Invention and Embodiment) In this embodiment, from the gate A circuit 11 to the tracking inversion gate E circuit 20, from the gate A pulse generation circuit 55 to the tracking gate E pulse generation circuit 59, and from the gate F circuit 66 to the tracking inversion. Areas from the integrating circuit 21 to the absolute value circuit 40, the area correcting circuits 101 to 110, and the integrating circuit include the gate G circuit 69 and the gate A pulse generating circuit 55 to the tracking gate E pulse generating circuit 59. From 70 to A / D conversion circuit 78 and area correction circuits 111 to 114, maximum value detection circuit
The microcomputer 46 and the microcomputer 79 correspond to the area control means, and the gate pulse generating circuit 80 corresponds to the focusing area setting means. (Effects of the Invention) As described above, according to the present invention, an automatic focusing device that automatically controls a focusing state of an optical system based on a video signal obtained in a focusing detection area specified in a shooting screen. In the shooting screen, in a shooting screen, an area setting means for setting a predetermined tracking area so that the position can be moved, and a luminance signal component in the video signal corresponding to the inside and outside of the tracking area is extracted, and Area control means for moving the tracking area in a direction in which the level difference between the luminance signal components increases,
A focus area setting means for setting the focus detection area at a movement position of the tracking area; and a focus detection means for detecting a focus state by the video signal corresponding to the focus detection area. Even if the position of the subject in the screen changes, the main subject can be continuously focused. In addition, since the tracking area is moved so that the level difference between the luminance signal components inside and outside the tracking area increases, the main subject can be kept accurate regardless of the background, and accurate tracking operation and focus detection operation can be performed. It can be performed.
【図面の簡単な説明】
第1図は本発明の第1の実施例を示すブロック図、第2
図は撮影画面の区分状態を示す図、第3図は第1図実施
例における追尾用のゲートを示す図、第4図は追尾用の
ゲートの合焦検出領域との関係を説明する図、第5図は
本発明の第2の実施例の一部分を示すブロック図、第6
図は本発明の第3の実施例を示すブロック図、第7図は
異なる広さの追尾用のゲートを示す図、第8図(A)〜
(C)はそのフローチャート、第9図(A)(B)は第
6図実施例における合焦検出領域の広さ決定を説明する
図、第10図は本発明の第4の実施例を示すブロック図、
第11図はそのフローチャート、第12図は従来の自動合焦
装置のブロック図である。
1……レンズ、2……撮像素子、5……バンドパスフィ
ルタ、7……検波回路、8……モータ駆動回路、9……
モータ、10……ゲート回路、11……ゲートA回路、12…
…反転ゲートA回路、13……追尾ゲートB回路、14……
追尾反転ゲートB回路、15……追尾ゲートC回路、16…
…追尾反転ゲートC回路、17……追尾ゲートD回路、18
……追尾反転ゲートD回路、19……追尾ゲートE回路、
20……追尾反転ゲートE回路、21〜30……積分回路、31
〜35……引算回路、36〜40……絶対値回路、46……最大
値検出回路、48……セレクタ、49……Dフリップフロッ
プ、54……パルス発生回路、55〜59……ゲートA〜Eパ
ルス発生回路、65……ゲート回路、66……追尾ゲートF
回路、67……追尾反転ゲートF回路、68……追尾ゲート
G回路、69……追尾反転ゲートG回路、71〜73……積分
回路、74,75……引算回路、76,77……絶対値回路、78…
…A/D変換回路、79……マイクロコンピュータ、80……
ゲートパルス発生回路、81……ゲートFパルス発生回
路、82……ゲートGパルス発生回路、101〜114……面積
補正回路。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a first embodiment of the present invention, and FIG.
FIG. 3 is a diagram showing a divided state of a photographing screen, FIG. 3 is a diagram showing a tracking gate in the embodiment of FIG. 1, FIG. 4 is a diagram for explaining a relationship between the tracking gate and a focus detection area, FIG. 5 is a block diagram showing a part of the second embodiment of the present invention, and FIG.
FIG. 7 is a block diagram showing a third embodiment of the present invention, FIG. 7 is a diagram showing tracking gates having different widths, and FIGS.
9 (C) is a flowchart thereof, FIGS. 9 (A) and 9 (B) are diagrams for explaining the determination of the size of the focus detection area in the embodiment of FIG. 6, and FIG. 10 shows a fourth embodiment of the present invention. Block Diagram,
FIG. 11 is a flowchart, and FIG. 12 is a block diagram of a conventional automatic focusing apparatus. 1 ... Lens 2 ... Imaging element 5 ... Band pass filter 7 ... Detection circuit 8 ... Motor drive circuit 9 ...
Motor, 10 gate circuit, 11 gate A circuit, 12
... Inverting gate A circuit, 13 ... Tracking gate B circuit, 14 ...
Tracking inversion gate B circuit, 15 ... Tracking gate C circuit, 16 ...
... Tracking inverted gate C circuit, 17 ... Tracking gate D circuit, 18
…… Tracking inversion gate D circuit, 19 …… Tracking gate E circuit,
20: Tracking inversion gate E circuit, 21 to 30: Integration circuit, 31
... 35 Subtraction circuit, 36-40 Absolute value circuit, 46 ... Maximum value detection circuit, 48 ... Selector, 49 ... D flip-flop, 54 ... Pulse generation circuit, 55-59 ... Gate A to E pulse generation circuit, 65 gate circuit, 66 tracking gate F
Circuit, 67: Tracking inverting gate F circuit, 68: Tracking gate G circuit, 69: Tracking inverting gate G circuit, 71 to 73: Integration circuit, 74, 75 ... Subtraction circuit, 76, 77 ... Absolute value circuit, 78…
... A / D conversion circuit, 79 ... Microcomputer, 80 ...
Gate pulse generation circuit, 81: Gate F pulse generation circuit, 82: Gate G pulse generation circuit, 101 to 114: Area correction circuit.
フロントページの続き (72)発明者 山田 邦彦 神奈川県川崎市高津区下野毛770番地 キヤノン株式会社玉川事業所内 (56)参考文献 特開 昭60−256113(JP,A)Continuation of front page (72) Inventor Kunihiko Yamada 770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa Inside the Tamagawa Office of Canon Inc. (56) References JP-A-60-256113 (JP, A)
Claims (1)
像信号に基づいて光学系の合焦状態を自動制御する自動
合焦装置において、 撮影画面内において、所定の追尾領域をその位置が移動
可能となるように設定する領域設定手段と、 前記追尾領域の内外に相当する前記映像信号中の輝度信
号成分をそれぞれ抽出し、該輝度信号成分のレベルの差
が大きくなる方向に前記追尾領域を移動する領域制御手
段と、 前記追尾領域の移動位置に前記合焦検出領域を設定する
合焦領域設定手段と、 前記合焦検出領域内に相当する前記映像信号により焦点
状態を検出する焦点検出手段と、 を備えたことを特徴とする自動合焦装置。 2.前記領域制御手段は、前記追尾領域の内外に相当す
る前記映像信号成分の高域側である高周波成分のレベル
差が大きくなる方向に前記追尾領域を移動するように構
成されていることを特徴とする特許請求の範囲第1項記
載の自動合焦装置。 3.前記領域設定手段は、互いに重なる少なくとも大小
2つの領域を設定し、前記領域制御手段は、前記大領域
内に相当する前記輝度信号成分のレベルと、前記小領域
内に相当する前記輝度信号成分のレベルとの差が大きく
なる方向に前記追尾領域を移動するように構成されてい
ることを特徴とする特許請求の範囲第1項記載の自動合
焦装置。(57) [Claims] In an automatic focusing device that automatically controls the focus state of the optical system based on the video signal obtained in the focus detection area specified in the shooting screen, the position can be moved in the predetermined tracking area within the shooting screen Area setting means for setting so as to extract a luminance signal component in the video signal corresponding to the inside and outside of the tracking area, and move the tracking area in a direction in which the level difference of the luminance signal component increases. Area control means for setting, a focus area setting means for setting the focus detection area at a movement position of the tracking area, and a focus detection means for detecting a focus state by the video signal corresponding to the focus detection area. An automatic focusing device comprising: 2. The area control means is configured to move the tracking area in a direction in which a level difference of a high frequency component on a high frequency side of the video signal component corresponding to the inside and outside of the tracking area increases. The automatic focusing device according to claim 1, wherein 3. The area setting means sets at least two large and small areas overlapping each other, and the area control means sets a level of the luminance signal component corresponding to the large area and a luminance signal component corresponding to the small area. 2. The automatic focusing apparatus according to claim 1, wherein the automatic focusing apparatus is configured to move the tracking area in a direction in which a difference from a level increases.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62228147A JP2663451B2 (en) | 1987-09-11 | 1987-09-11 | Automatic focusing device |
DE3844877A DE3844877C2 (en) | 1987-09-11 | 1988-09-09 | Device for automatic adjustment of the measuring range size |
GB8821241A GB2209901B (en) | 1987-09-11 | 1988-09-09 | Image sensing device |
DE3830794A DE3830794C2 (en) | 1987-09-11 | 1988-09-09 | Automatic focusing device |
DE3844876A DE3844876C2 (en) | 1987-09-11 | 1988-09-09 | Device for automatic tracking of a measuring range |
US07/634,329 US5128768A (en) | 1987-09-11 | 1990-12-26 | Automatic focusing device having a settable focus detection area |
US08/823,607 US6088060A (en) | 1987-09-11 | 1997-03-25 | Automatic focusing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62228147A JP2663451B2 (en) | 1987-09-11 | 1987-09-11 | Automatic focusing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6471382A JPS6471382A (en) | 1989-03-16 |
JP2663451B2 true JP2663451B2 (en) | 1997-10-15 |
Family
ID=16871965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62228147A Expired - Fee Related JP2663451B2 (en) | 1987-09-11 | 1987-09-11 | Automatic focusing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2663451B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1746459A1 (en) | 2005-07-21 | 2007-01-24 | Fujinon Corporation | Automatic focusing apparatus with focus tracking for moving object |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950003569B1 (en) * | 1990-04-19 | 1995-04-14 | 미쯔비시덴끼 가부시끼가이샤 | Photographic apparatus and automatic focusing control device using the same |
JP3500539B2 (en) * | 1993-02-25 | 2004-02-23 | 富士通株式会社 | Automatic focus adjustment method for infrared camera |
JP4504158B2 (en) * | 2004-10-29 | 2010-07-14 | オリンパス株式会社 | Camera, tracking device, tracking method, and tracking program |
JP2007011054A (en) * | 2005-06-30 | 2007-01-18 | Canon Inc | Imaging apparatus, control method for imaging apparatus and computer program |
JP4874669B2 (en) * | 2006-02-22 | 2012-02-15 | Hoya株式会社 | Autofocus unit and digital camera |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60256113A (en) * | 1984-05-31 | 1985-12-17 | Canon Inc | Automatic tracking device of camera |
-
1987
- 1987-09-11 JP JP62228147A patent/JP2663451B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1746459A1 (en) | 2005-07-21 | 2007-01-24 | Fujinon Corporation | Automatic focusing apparatus with focus tracking for moving object |
US7660518B2 (en) | 2005-07-21 | 2010-02-09 | Fujinon Corporation | Automatic focusing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JPS6471382A (en) | 1989-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR950003569B1 (en) | Photographic apparatus and automatic focusing control device using the same | |
JP3298072B2 (en) | Video camera system | |
US5877809A (en) | Method of automatic object detection in image | |
JPH09243904A (en) | Method for detecting compositional change of image | |
KR100423939B1 (en) | Autofocus control apparatus and method | |
US5396336A (en) | In-focus detecting device | |
US20190124264A1 (en) | Control apparatus, image capturing apparatus, control method, and computer-readable storage medium | |
US5442397A (en) | Image sensing apparatus | |
JP2663451B2 (en) | Automatic focusing device | |
JP2663452B2 (en) | Automatic focusing device | |
JP3167023B2 (en) | Focus adjustment device, blur detection device, motion detection device, and subject position detection device | |
JPH03149512A (en) | Focus control circuit | |
JP2605004B2 (en) | Automatic tracking device in camera | |
JPH05145827A (en) | Automatic focusing controller | |
JP2603212B2 (en) | Automatic tracking device in camera | |
JPH0560712B2 (en) | ||
JPH0698239A (en) | Automatic focusing controller | |
US11012609B2 (en) | Image pickup apparatus and its control method, and storage medium | |
JP2675807B2 (en) | Imaging device | |
JP2912649B2 (en) | Automatic focusing device | |
JP2605005B2 (en) | Automatic tracking device in camera | |
JP2698127B2 (en) | Auto focus video camera | |
JP2715441B2 (en) | Imaging device | |
JP2001305421A (en) | Automatic focusing device | |
JPS5925508B2 (en) | Automatic target tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |