JPH083579B2 - Automatic focusing device - Google Patents

Automatic focusing device

Info

Publication number
JPH083579B2
JPH083579B2 JP61161053A JP16105386A JPH083579B2 JP H083579 B2 JPH083579 B2 JP H083579B2 JP 61161053 A JP61161053 A JP 61161053A JP 16105386 A JP16105386 A JP 16105386A JP H083579 B2 JPH083579 B2 JP H083579B2
Authority
JP
Japan
Prior art keywords
sharpness
focus
image
value
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61161053A
Other languages
Japanese (ja)
Other versions
JPS6317413A (en
Inventor
貴子 渡辺
健 馬場
雄吉 丹羽
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP61161053A priority Critical patent/JPH083579B2/en
Priority claimed from US06/922,740 external-priority patent/US4804831A/en
Publication of JPS6317413A publication Critical patent/JPS6317413A/en
Priority claimed from US07/497,075 external-priority patent/US5055665A/en
Publication of JPH083579B2 publication Critical patent/JPH083579B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 <産業上の利用分野> 本発明はビデオカメラ等に好適な自動合焦装置に関す
る。
The present invention relates to an automatic focusing device suitable for video cameras and the like.
<従来の技術> 従来、ビデオカメラ等において、撮像素子より得られ
る画像信号より撮像面上の被写体像の鮮鋭度を検出し、
鮮鋭度が最も高くなるよう光学系を駆動することによ
り、焦点合わせを行う方式が知られている。この方式は
基本的にはハイパスフイルタあるいは微分回路等によっ
て抽出した画像信号の高周波成分の強度を像の鮮鋭度の
評価値とし、光学系を駆動して得られる結像状態の異な
る2つの像の鮮鋭度を比較することにより光学系の駆動
方向を決定し、鮮鋭度が最大となった位置で光学系を停
止するものである。
<Prior Art> Conventionally, in a video camera or the like, the sharpness of a subject image on an image pickup surface is detected from an image signal obtained from an image pickup element,
A method is known in which focusing is performed by driving an optical system so that the sharpness becomes the highest. This method basically uses the intensity of the high frequency component of the image signal extracted by a high-pass filter or a differentiating circuit as the evaluation value of the sharpness of the image, and drives the optical system to obtain two images with different imaging states. The drive direction of the optical system is determined by comparing the sharpness, and the optical system is stopped at the position where the sharpness is maximized.
<発明が解決しようとする問題点> 前述の方式では、鮮鋭度の最大となる位置で光学系を
停止すると例えば、被写体が前後に移動して鮮鋭度が変
化し、被写体像がぼけてもピントの合う方向の判断(被
写体が移動した方向の判断)がつかないため、一旦光学
系をどちらかに動かして、ピントの合う方向を求めるこ
とになる。これは1/2の確立でさらにぼける方向に駆動
することになり、前後に移動する被写体に追従した焦点
合わせの応答が低下するだけでなく、ビデオカメラやTV
カメラ等の連続して被写体を撮影する装置においては見
苦しい画像となる。
<Problems to be Solved by the Invention> In the above method, when the optical system is stopped at the position where the sharpness is maximized, for example, the subject moves back and forth and the sharpness changes, and even if the subject image is out of focus, the image is out of focus. Since it is not possible to determine the direction of focus (the direction of movement of the subject), it is necessary to move the optical system once to find the direction of focus. This means that driving with a probability of 1/2 further drives in the direction of blurring, which not only reduces the focusing response that follows the subject moving back and forth, but also the video camera and TV.
The image is unsightly in a device such as a camera that continuously captures an object.
この発明の目的は、一旦合焦と判断され、光学系が停
止した後で光学系を駆動しなくても被写体が前後に移動
したときのピントの方向の判断が可能で、高速に焦点合
わせを行なうことができる自動合焦装置を提供すること
にある。
The object of the present invention is to determine the focus direction when the subject is moved back and forth without having to drive the optical system after it has been determined to be in focus and the optical system has stopped, thus achieving high-speed focusing. An object of the present invention is to provide an automatic focusing device capable of performing.
<問題点を解決する手段> 本発明は上述の目的を達成するために、撮像光学系に
より撮像面に結像された被写体像の鮮鋭度を検出する検
出手段と、前記検出手段によつて検出される前記鮮鋭度
が大きくなる方向へ前記撮像光学系を駆動するととも
に、合焦範囲内で前記鮮鋭度が最大となる位置から所定
の方向にずらした位置に前記撮像光学系を停止させると
ともに前記方向を記憶する第1の制御手段と、前記撮像
光学系の停止後、前記撮像光学系を駆動する際、前記検
出手段により検出された前記鮮鋭度の情報と前記方向の
情報とから前記撮像光学系の駆動方向を決定する第2の
制御手段とを具備する。
<Means for Solving Problems> In order to achieve the above-mentioned object, the present invention detects the sharpness of a subject image formed on an imaging surface by an imaging optical system, and the detection means. While driving the imaging optical system in a direction in which the sharpness increases, while stopping the imaging optical system at a position shifted in a predetermined direction from a position where the sharpness is maximum within a focusing range, The first control means for storing a direction and the imaging optical system based on the sharpness information and the direction information detected by the detecting means when the imaging optical system is driven after the imaging optical system is stopped. Second control means for determining the driving direction of the system.
<作用> 上記構成に於いて撮像光学系の停止位置が鮮鋭度が最
大となる位置と異なるために、停止後の鮮鋭度が例えば
停止時の鮮鋭度より小さくなった時には、鮮鋭度が最大
となる位置の方向、大きくなった時には、最大となる位
置の逆方向がピントのあう方向であると判断して撮像光
学系の駆動方向を決定する。
<Operation> In the above configuration, since the stop position of the imaging optical system is different from the position where the sharpness is the maximum, when the sharpness after the stop becomes smaller than the sharpness at the stop, the sharpness becomes the maximum. When it becomes large, the direction opposite to the maximum position is determined to be the focusing direction, and the driving direction of the imaging optical system is determined.
<実施例> 初めに第1図(a),(b),(c)、第2図
(a),(b),(c)を用いて本発明の原理を説明す
る。
<Example> First, the principle of the present invention will be described with reference to FIGS. 1 (a), (b), (c) and FIGS. 2 (a), (b), (c).
ここで、各図の横軸xは撮影レンズの位置で、第1図
(a)、あるいは第2図(a)に示されている焦点深度
は撮像光学系によって決まり、撮像面上の被写体像がピ
ントがあっているといえる範囲を示す。縦軸qは被写体
像の鮮鋭度である。また、図に示されるように鮮鋭度は
ピントがあうにつれて大きくなり、一番ピントがあった
状態で最大値をとる。
Here, the horizontal axis x in each drawing is the position of the photographing lens, and the depth of focus shown in FIG. 1 (a) or FIG. 2 (a) is determined by the image pickup optical system. Indicates the range that can be said to be in focus. The vertical axis q is the sharpness of the subject image. Further, as shown in the figure, the sharpness increases as the subject is in focus, and takes the maximum value when the subject is in the most focused state.
焦点合わせは、第1図(a)に示すように、まず、撮
影レンズをピントの合う方向、すなわち、鮮鋭度が大き
くなる方向に動かしていき、焦点深度以内で、鮮鋭度が
最大となる位置を越えたところで停止する。このように
撮影レンズを鮮鋭度最大となる位置と異なる位置に停止
し、停止時の鮮鋭度を記憶しておくことによって、その
後、第1図(b)の点線で示すように、検出される鮮鋭
度が大きくなる方向に被写体が移動した時には、ピント
の合う方向は、鮮鋭度が最大であった位置の逆方向であ
ると判断できる。また、第1図(c)の点線で示すよう
に、検出される鮮鋭度が小さくなる方向に被写体が移動
した時には、ピントの方向は鮮鋭度が最大となった位置
の方向であると判断できる。
For focusing, as shown in FIG. 1 (a), first, the photographing lens is moved in a focusing direction, that is, a direction in which the sharpness increases, and a position where the sharpness becomes maximum within the depth of focus. Stop when you cross. In this way, the photographing lens is stopped at a position different from the position where the sharpness is maximum, and the sharpness at the time of stop is stored, and thereafter, it is detected as shown by the dotted line in FIG. 1 (b). When the subject moves in the direction in which the sharpness increases, it can be determined that the direction in focus is the direction opposite to the position where the sharpness was the maximum. Further, as shown by the dotted line in FIG. 1 (c), when the subject moves in a direction in which the detected sharpness decreases, it can be determined that the focus direction is the direction of the position where the sharpness is maximum. .
また、第2図(a)に示すように撮影レンズの停止位
置を鮮鋭度が最大となる位置を越えない位置としても、
鮮鋭度が第2図(b)、あるいは第2図(c)の点線で
示されるように被写体が移動した場合に、同様なピント
方向の判断が可能である。
Further, as shown in FIG. 2 (a), even if the stop position of the photographing lens is set to a position that does not exceed the position where the sharpness is maximum,
When the sharpness of the subject moves as shown by the dotted line in FIG. 2 (b) or FIG. 2 (c), the same focus direction can be determined.
ここで示した第1図(a),第2図(a)のように焦
点深度の範囲内で鮮鋭度が最大となる位置と異なる位置
に撮影レンズを停止させる方法には以下のようなものが
ある。
The method for stopping the taking lens at a position different from the position where the sharpness is maximum within the range of the depth of focus as shown in FIGS. 1 (a) and 2 (a) is as follows. There is.
第1の方法は第1図(a)のように、鮮鋭度が大きく
なる方向に撮影レンズを駆動していって、鮮鋭度が極大
となる位置を検出し、その位置から撮影レンズの焦点距
離、Fナンバーより算出される焦点深度相当の距離だ
け、撮影レンズの駆動を続けた後、停止させるものであ
る。
In the first method, as shown in FIG. 1 (a), the photographing lens is driven in the direction in which the sharpness increases, the position where the sharpness becomes maximum is detected, and the focal length of the photographing lens is detected from that position. , The photographing lens is driven for a distance corresponding to the depth of focus calculated from the F number, and then stopped.
第2の方法は、第2図(a)のように、鮮鋭度が大き
くなる方向に撮影レンズを駆動し、その際の鮮鋭度の変
化状態から鮮鋭度が最大となる位置を予測することによ
り、鮮鋭度が最大となる位置を越えずに焦点深度以内で
停止するものである。
In the second method, as shown in FIG. 2 (a), the photographing lens is driven in the direction in which the sharpness increases, and the position where the sharpness becomes maximum is predicted from the change state of the sharpness at that time. , It stops within the depth of focus without exceeding the position where the sharpness becomes maximum.
鮮鋭度が最大となる位置を予測するには、例えば、特
願昭61−46869号等に示された方法を用いることができ
る。
To predict the position where the sharpness is maximized, for example, the method disclosed in Japanese Patent Application No. 61-46869 can be used.
第3の方法は、被写体の輝度やコントラスト、パター
ン等に依存しない、被写体像の鮮鋭度評価方式を用いる
方法である。このような鮮鋭度評価方式の具体例は特願
昭60−245239号に示されており、これは被写体像のエツ
ジ部分の幅を検出することにより被写体のコントラスト
等によらず、被写体像のボケ具合のみを評価することが
できる。また、他の簡易的な評価方法としては画像信号
の高周波成分の強度を低周波成分で正規化するもの、あ
るいは特開昭61−7443号に示されたものなどがある。
The third method is a method of using a sharpness evaluation method for a subject image that does not depend on the brightness, contrast, pattern, etc. of the subject. A specific example of such a sharpness evaluation method is shown in Japanese Patent Application No. 60-245239, in which the width of the edge portion of the subject image is detected to detect the blur of the subject image regardless of the contrast of the subject. Only the condition can be evaluated. Further, as another simple evaluation method, there is a method of normalizing the intensity of the high frequency component of the image signal with a low frequency component, or a method disclosed in Japanese Patent Laid-Open No. 61-7443.
このような鮮鋭度評価方式を用いた場合には、検出さ
れた鮮鋭度は被写体像のボケ具合を直接表しているた
め、鮮鋭度が増加する方向に、撮影レンズを駆動し、鮮
鋭度が所定のしきい値を越えたところで、駆動を停止す
ることにより、第2図(a)のように焦点深度の範囲内
で鮮鋭度が最大となる位置の手前で撮影レンズを停止で
きる。
When such a sharpness evaluation method is used, the detected sharpness directly represents the degree of blurring of the subject image. Therefore, the photographing lens is driven in the direction in which the sharpness increases, and the sharpness is set to the predetermined level. By stopping the driving when the threshold value is exceeded, the taking lens can be stopped before the position where the sharpness becomes maximum within the range of the depth of focus as shown in FIG.
以下、以上の原理を用いた本発明の実施例について説
明する。また、実施例の説明の前に前述した第3の方法
の原理について図面を用いて詳述する。
Examples of the present invention using the above principle will be described below. Further, the principle of the above-mentioned third method will be described in detail with reference to the drawings before the description of the embodiments.
尚、本発明が鮮鋭度を検出する方法に限定されるもの
ではないことは勿論である。
It goes without saying that the present invention is not limited to the method of detecting the sharpness.
まず、第3図(a)(b)(c)乃至第4図(a)
(b)(c)を用いて上述の第3の方法の原理を説明す
る。第3図(a)のような白黒パターンから成るエツヂ
図形が被写体であったとする。x′は光学系の光軸と直
交方向の空間座標を示す。かかるエツヂ図形の像を光電
変換する撮像素子より得られる画像信号のレベルI
(x)は光学系が合焦の場合には第3図(b)のように
鋭いエツヂを持つが、非合焦の場合には第3図(c)の
ようになだらかなエツヂになる。なおxは第3図(a)
に示したx′に対応した撮像素子の撮像面上の座標であ
る。また画像信号は通常撮像素子の電気的走査によって
時系列信号として取り出されるが、説明の都合上、ここ
では撮像面上の座標xに関する信号とみなす。
First, FIG. 3 (a) (b) (c) to FIG. 4 (a)
The principle of the above third method will be described with reference to (b) and (c). It is assumed that an edge figure composed of a black and white pattern as shown in FIG. 3A is the subject. x'denotes spatial coordinates in the direction orthogonal to the optical axis of the optical system. The level I of the image signal obtained by the image pickup device for photoelectrically converting the edge image
(X) has a sharp edge as shown in FIG. 3 (b) when the optical system is in focus, but has a gentle edge as shown in FIG. 3 (c) when the optical system is out of focus. Note that x is in FIG. 3 (a).
It is a coordinate on the image pickup surface of the image pickup device corresponding to x ′ shown in FIG. Further, the image signal is usually extracted as a time-series signal by electrical scanning of the image pickup element, but for convenience of explanation, it is considered here as a signal related to the coordinate x on the image pickup surface.
第3図(b),(c)において、画像信号I(x)と
エツヂ部分の幅Δxは合焦状態で最も小さな値Δx0とな
り、非合焦になるにつれて増大する。Δxは光学系の錯
乱円径,撮像素子の解像力,画像信号処理回路の帯域幅
によって定まるが、後者の2つは光学系の合焦状態に無
関係であるから、画像信号のエツヂ部分の幅Δxを検出
することにより光学系の合焦・非合焦を判定できる。即
ちΔxx0なら合焦、Δx>Δx0なら非合焦であり、こ
の判定は被写体であるエツヂ図形の平均明るさ、或いは
コントラストによらない。換言すれば被写体のエツヂ部
分における幅を検出し、該幅が大きい場合には非合焦、
該幅が小さい場合には合焦と判断することができるわけ
である。
In FIGS. 3B and 3C, the image signal I (x) and the width Δx of the edge portion have the smallest value Δx 0 in the focused state, and increase as the focus is defocused. Δx is determined by the diameter of the circle of confusion of the optical system, the resolving power of the image sensor, and the bandwidth of the image signal processing circuit. The latter two are unrelated to the focus state of the optical system, and therefore the width Δx of the edge portion of the image signal. It is possible to determine whether the optical system is in focus or out of focus by detecting. That is, if Δxx 0, it is in focus, and if Δx> Δx 0, it is out of focus, and this determination does not depend on the average brightness or contrast of the edge figure as the subject. In other words, the width of the edge portion of the subject is detected, and when the width is large, out of focus,
If the width is small, it can be determined that the focus is achieved.
また、第4図(a)に示す一般的な被写体の場合で
も、人物や物体等の輪郭部分においては不連続な明るさ
の変化が生じており、その近傍では第3図のエツヂ図形
の場合と良く似た明るさ分布を持つ。従って第4図
(b),(c)のように画像を信号I(x)のエツヂ部
分の幅Δxを求め、既知の値Δx0、即ち光学系が合焦時
となった際のエツヂ部分の幅の大きさと比較することに
より合焦・非合焦が判断できる。尚、第5図のように微
細なパターンを持つ被写体においては、第5図(c)の
ように非合焦時においても2つのエツヂ部分からの寄与
が重なってΔxが増大せず、合焦検出ができない。従っ
て合焦検出を行えるためには第3図に示すように、エツ
ヂを形成する白・黒部分の幅LがΔx0に比して少し大き
いこと、例えばΔx0の2倍〜数倍程度必要である。Δx0
は光学系の最小錯乱円径程度の大きさであるから、Lは
全画面の大きさに比してかなり小さく、このようなエツ
ヂ部分はほとんどの被写体において存在している。従っ
てほとんどの場合は合焦検出を行うことが出来る。
Even in the case of the general subject shown in FIG. 4 (a), discontinuous brightness changes occur in the contour portion of a person or an object, and in the vicinity thereof, in the case of the edge figure shown in FIG. It has a brightness distribution very similar to. Therefore, as shown in FIGS. 4 (b) and 4 (c), the width Δx of the edge portion of the image of the signal I (x) is obtained, and the known value Δx 0 , that is, the edge portion when the optical system is in focus is obtained. Focusing / non-focusing can be determined by comparing with the width of the. For a subject having a fine pattern as shown in FIG. 5, the contributions from two edge portions do not overlap even when the subject is out of focus as shown in FIG. 5 (c), and Δx does not increase. Cannot be detected. Therefore, as to perform the focus detection is shown in FIG. 3, the width L of the white and black portions forming a Etsudji is slightly larger than the [Delta] x 0, for example, [Delta] x 2 times to several times required 0 Is. Δx 0
Is the size of the diameter of the smallest circle of confusion of the optical system, so L is considerably smaller than the size of the entire screen, and such edge portions are present in most subjects. Therefore, in most cases, focus detection can be performed.
そして、前述のエツヂ部分の幅Δxは、画像信号I
(x)よりエツヂ部分の輝度の勾配dI/dxと、第3図,
第4図に示すエツヂ部分における輝度差ΔIを算出し、
その比P=(dI/dx)/ΔIを算出することにより、間
接的にエツヂ部分の幅Δxを求めることができる。即ち
Pはエツヂ部分の幅Δxの逆数に相当し、エツヂ部分の
鋭さを表わす。ここで、エツヂ部分における輝度差ΔI
は第3図(b),(c)のように、光学系が多少非合焦
であっても合焦時と変わらない値を持つから、非合焦
時、即ち合焦時の画像信号の波形がわからない場合にお
いても検出可能であり、このΔIによって合焦・非合焦
によって鋭敏に変化するエツヂ部分の勾配dI/dxを正規
化することによって、エツヂ部分の幅Δxを求めること
が出来、更にかかる幅Δxは被写体の平均明るさやコン
トラストに依存せず、光学系の合焦・非合焦を判定でき
る。
The width Δx of the edge portion is equal to the image signal I
From (x), the luminance gradient dI / dx in the edge portion, and FIG.
The brightness difference ΔI in the edge portion shown in FIG. 4 is calculated,
By calculating the ratio P = (dI / dx) / ΔI, the width Δx of the edge portion can be indirectly obtained. That is, P corresponds to the reciprocal of the width Δx of the edge portion and represents the sharpness of the edge portion. Here, the brightness difference ΔI in the edge portion
As shown in FIGS. 3 (b) and 3 (c), even when the optical system is slightly out of focus, it has a value that is the same as in focus. Therefore, when the image signal is out of focus, that is, when the image signal is in focus, It can be detected even when the waveform is unknown, and the width Δx of the edge portion can be obtained by normalizing the gradient dI / dx of the edge portion that sharply changes due to focusing / non-focusing by this ΔI. Further, the width Δx does not depend on the average brightness and contrast of the subject, and the focus / non-focus of the optical system can be determined.
次に以上の原理に基づいて合焦検出を行う第3の方法
を詳述する。
Next, the third method for performing focus detection based on the above principle will be described in detail.
第6図は前述の第3の方法を実現するための装置の第
1の例のブロツク図を示す。
FIG. 6 shows a block diagram of a first example of a device for implementing the above-mentioned third method.
この実施例においては、前述のP=(dI/dx)/ΔI
を求めるに際して撮像面上の各点xについてP(x)=
(dI/dx)/ΔI(x)を求め、これを所定の閾値P01
/Δx0と比較することにより、ピントの合ったエツヂの
数を計数し、所定数以上あれば合焦と判断する。また、
ΔI(x)の算出は により行っている。ここでLは前述のように光学系の最
小錯乱円径の2〜数倍程度の大きさであり、従ってこの
積分は撮像素子の数画素〜10画素程度の領域で行う。か
かるΔI(x)は第3図(b),(c)に示したような
エツヂ部分に対してはそのエツヂの前後所定範囲におけ
る最高輝度と最低輝度の差ΔIを与えるが、第5図のよ
うな微細なパターンに対しては常にその最高輝度と最低
輝度の差より大きい値をとるため、結果的にP(x)の
値が小さくなるので誤って合焦と判断されることがな
い。
In this embodiment, the above P = (dI / dx) / ΔI
P (x) = for each point x on the imaging surface
(DI / dx) / ΔI (x) is obtained, and this is used as a predetermined threshold P 0 1
By comparing with / Δx 0 , the number of edges in focus is counted, and if the number is equal to or more than a predetermined number, it is determined to be in focus. Also,
Calculation of ΔI (x) It is done by. Here, L is about 2 to several times as large as the diameter of the minimum circle of confusion of the optical system as described above, and therefore this integration is performed in a region of several pixels to 10 pixels of the image pickup device. Such ΔI (x) gives the difference ΔI between the maximum luminance and the minimum luminance in a predetermined range before and after the edge to the edge portion as shown in FIGS. 3 (b) and 3 (c). Since such a fine pattern always has a value larger than the difference between the maximum brightness and the minimum brightness, the value of P (x) becomes small as a result, so that it is not erroneously determined to be in focus.
第6図において、1は撮像素子、2は撮像素子より得
られる画像信号I(t)を微分して、画像信号の勾配dI
/dtを求める微分あるいは差分回路、3は絶対値回路で
あり、4は前述のΔI(x)に対応する信号ΔI(t)
を算出する回路である。尚、tは撮像素子1から信号を
読み出す際における読み出し開始時からの時間を示す。
第7図にはΔI(t)算出回路4の構成を示す。第7図
において、14は時間Tだけ信号を遅延させる遅延回路、
15は減算回路、16は積分回路であり、この両回路により
入力信号 の遅延差信号 を積分することにより出力信号 を得る。第6図に示す6は を時間T/2程度遅延させる回路、5,7は対数回路、8は減
算回路であり、対数の差をとることにより を得る。
In FIG. 6, 1 is an image sensor, 2 is the image signal I (t) obtained from the image sensor, and the gradient dI of the image signal is obtained.
A differential or difference circuit for obtaining / dt, 3 is an absolute value circuit, and 4 is a signal ΔI (t) corresponding to the above-mentioned ΔI (x).
Is a circuit for calculating Note that t indicates the time from the start of reading when reading the signal from the image sensor 1.
FIG. 7 shows the configuration of the ΔI (t) calculation circuit 4. In FIG. 7, 14 is a delay circuit for delaying the signal by the time T,
15 is a subtraction circuit and 16 is an integration circuit. Delay difference signal Output signal by integrating Get. 6 shown in FIG. , A logarithmic circuit, 8 is a subtraction circuit, and the difference between the logarithms is taken. Get.
P(t)は予め与えられた前述の閾値P0と比較回路9
によって比較され、ワンシヨツト回路10はP(t)>P0
のときに比較回路9の出力に基づきパルスを発生し、そ
のパルス数がカウンタ11によって計数される。12は撮像
素子1の駆動クロツク及び全系のタイミング信号を発生
するタイミング発生回路であり、カウンタ11は垂直同期
信号によってリセツトされ、1フイールドあるいは1フ
レーム内の閾値P0をこえる鋭さを持つエツヂ部分の数を
計数し、計数値が所定値以上ならば合焦、その他のとき
は非合焦と判断される。閾値P0は固定でも良いが、光学
系の結像性能が絞り値やズーム状態によってかなり変動
する場合には、それらのパラメータを検出し、P0を最適
な値に設定する手段を設けることが望ましい。例えば絞
り値が大きくなるほど光学系の性能が悪化し、錯乱半径
が大きくなるときには、絞り値が大きくなるほど閾値P0
を小さくする。尚通常のNTSC信号の場合、微分ないしは
差分回路2の時定数は100nsec〜500nsec程度遅延回路14
の遅延時間Tは500nsec〜2μsec程度の値が適当であ
る。またΔI(t)の求め方を例えば と変更しても良い。この場合 が小さい部分はΔI(t)の値にほとんど寄与しなくな
るため、第4図(b)のように多少リツプルがのったエ
ツヂ部分に対しても第3図(b)のような理想的なエツ
ヂの場合と同様にエツヂ部の輝度差ΔIが算出できる。
この場合には第6図に示した絶対値回路3を2乗回路に
置換えれば良い。また、第6図の絶対値回路3とΔI
(t)算出回路4の間にリミツタを設け、 が所定値以下のときにはΔI(t)算出回路4の入力信
号を強制的に0とすることによっても同様の効果が得ら
れる。
P (t) is the previously given threshold P 0 and the comparison circuit 9
And the one-shot circuit 10 has P (t)> P 0
At this time, a pulse is generated based on the output of the comparison circuit 9, and the pulse number is counted by the counter 11. Reference numeral 12 is a timing generating circuit for generating the driving clock of the image pickup device 1 and the timing signals of the entire system, and the counter 11 is reset by the vertical synchronizing signal and has an edge portion having a sharpness exceeding a threshold P 0 within one field or one frame. Is counted, and if the count value is equal to or larger than a predetermined value, it is determined to be in focus, and otherwise, it is determined to be out of focus. The threshold P 0 may be fixed, but if the imaging performance of the optical system fluctuates considerably depending on the aperture value and zoom state, a means for detecting those parameters and setting P 0 to an optimum value should be provided. desirable. For example, as the aperture value increases, the performance of the optical system deteriorates, and when the radius of confusion increases, the threshold value P 0 increases as the aperture value increases.
To reduce. In the case of a normal NTSC signal, the time constant of the differentiation / difference circuit 2 is about 100 nsec to 500 nsec.
It is appropriate that the delay time T is about 500 nsec to 2 μsec. In addition, the method of obtaining ΔI (t) is, for example, You may change it. in this case Since the portion with a small value makes little contribution to the value of ΔI (t), it is ideal for the edge portion with some ripple as shown in FIG. 4 (b), as shown in FIG. 3 (b). Similar to the case of the edge, the brightness difference ΔI at the edge can be calculated.
In this case, the absolute value circuit 3 shown in FIG. 6 may be replaced with a squaring circuit. In addition, the absolute value circuit 3 and ΔI in FIG.
(T) A limiter is provided between the calculation circuits 4, When is less than or equal to a predetermined value, the same effect can be obtained by forcibly setting the input signal of the ΔI (t) calculating circuit 4 to zero.
また、ΔI(t)算出回路4によって算出されたΔI
(t)の値が小さい場合には、対数回路7に入力される の値には画像信号のノイズ成分によって誤差が含まれて
いるため、検出されるP(t)の精度が悪化する。これ
を除去するには、入力信号ΔI(t)が小さいほど出力
信号がlogΔI(t)より大きな方向にずれるように、
対数回路8の特性を変えて検出されるP(t)の値が小
さくなるようにすればよい。
In addition, ΔI calculated by the ΔI (t) calculation circuit 4
When the value of (t) is small, it is input to the logarithmic circuit 7. Since the value of includes an error due to the noise component of the image signal, the accuracy of the detected P (t) deteriorates. To eliminate this, the smaller the input signal ΔI (t), the more the output signal shifts in the direction larger than log ΔI (t).
The value of P (t) detected by changing the characteristic of the logarithmic circuit 8 may be reduced.
第8図は前述の第3の方法を実現するための装置の第
2の例のブロツク図であり、自動合焦装置に適用した場
合を示す。尚第8図においては、メモリのアドレスカウ
ンタやメモリ、A/D変換器の制御線等はわかりやすくす
るために省略されている。第8図において、撮像素子1
より得られる画像信号はゲート回路17によって制御信号
Gに応じて、画面の所定の検出領域に対応した部分のみ
通過させられる。18はハイパスフイルターであり、19は
検波回路、20は積分回路であり、1フレームあるいは1
フイールドにおける検出領域中の画像信号の高周波成分
の強度を検出する。21はA/D変換器であり、検出された
高周波成分の強度をA/D変換し、信号Bとしてマイクロ
プロセサ30に送出する。13は第6図に示したエツヂの鋭
さP(t)を算出する回路、22はピークホールド回路で
あり、1水平走査線中のP(t)の最大値Piを保持し、
1水平走査毎にレベルが切り換わる信号fHによりリセツ
トされる。ここでiは検出領域中の走査線の番号であ
る。23はA/D変換器であり、水平走査ごとのP(t)の
最大値PiをA/D変換し、メモリ24に順次記録していく。
メモリ24の内容は1フレームあるいは1フイールドの垂
直帰線期間内にマイクロプロセサ30によって読み出され
る。25〜29は被写体像の移動速度を算出するために設け
られており、特にビデオカメラの場合、手ぶれや被写体
の動きによって自動合焦装置が誤動作したり、あるいは
不安定になったりするのを防止するために設けられてい
る。即ち、手ぶれや被写体の移動によってピントの合っ
ていた被写体が一時的に画面の検出領域から出てしまう
と、非合焦と判断されてモータが駆動されてしまうし、
また被写体が検出領域内にとどまっていても振動したり
していると、撮像素子1の蓄積作用によって検出される
エツヂの鋭さP(t)が減少して合焦であるにもかかわ
らず、非合焦と判断してしまうという欠点が生じる。25
〜29はかかる欠点を解消するため、像の移動速度を検出
するために設けられた基本的な回路である、25は画像信
号を2値化することにより画像のパターンを抽出する2
値化回路、26はマルチプレクサ、27,28は画像のパター
ンを記憶するメモリであり、抽出されたパターンは1フ
レームあるいは1フイールドごとにレベルの切り換わる
信号fVに応じてマルチプレクサによりメモリ27,28に交
互に記録される。メモリ27,28には継続する2つのフレ
ームないしはフイールドの画像パターンが記録されてい
るから、速度検出回路29によってそのパターン間の相関
演算がなされ、1フレームないしは1フイールド間の像
の移動ベクトルVが算出され、マイクロプロセツサ30へ
送出される。尚、特願昭60−111472号では像の移動ベク
トルVを検出する具体的な手段が詳述されている。
FIG. 8 is a block diagram of a second example of an apparatus for realizing the above-mentioned third method, and shows a case where the apparatus is applied to an automatic focusing apparatus. In FIG. 8, the address counter of the memory, the memory, the control line of the A / D converter, etc. are omitted for clarity. In FIG. 8, the image sensor 1
The image signal obtained by the gate circuit 17 allows only a portion corresponding to a predetermined detection area of the screen to pass according to the control signal G. 18 is a high-pass filter, 19 is a detection circuit, 20 is an integration circuit, 1 frame or 1
The intensity of the high frequency component of the image signal in the detection area in the field is detected. Reference numeral 21 denotes an A / D converter, which A / D-converts the intensity of the detected high-frequency component and sends it as a signal B to the microprocessor 30. 13 is a circuit for calculating the edge sharpness P (t) shown in FIG. 6, 22 is a peak hold circuit, which holds the maximum value Pi of P (t) in one horizontal scanning line,
It is reset by the signal f H whose level is switched every horizontal scanning. Here, i is the number of the scanning line in the detection area. An A / D converter 23 A / D converts the maximum value P i of P (t) for each horizontal scan and sequentially records it in the memory 24.
The contents of the memory 24 are read by the microprocessor 30 within the vertical blanking period of one frame or one field. 25 to 29 are provided to calculate the moving speed of the subject image, especially in the case of a video camera, to prevent the automatic focusing device from malfunctioning or becoming unstable due to camera shake or subject movement It is provided to do so. In other words, if the subject that was in focus temporarily moves out of the detection area of the screen due to camera shake or movement of the subject, it is determined that the subject is out of focus and the motor is driven.
If the subject vibrates even if it stays within the detection area, the sharpness P (t) of the edge detected by the accumulation action of the image sensor 1 decreases and the object is in focus although it is in focus. The drawback is that it is determined to be in focus. twenty five
Numerals 29 to 29 are basic circuits provided to detect the moving speed of the image in order to solve such a defect. Numeral 25 is a binary circuit for extracting the image pattern by binarizing the image signal.
A digitization circuit, 26 is a multiplexer, and 27 and 28 are memories that store image patterns. The extracted patterns are stored in the memories 27 and 28 by the multiplexer according to the signal f V whose level is switched for each frame or field. Are recorded alternately. Since two consecutive frame or field image patterns are recorded in the memories 27 and 28, a correlation calculation between the patterns is performed by the speed detection circuit 29, and the movement vector V of the image during one frame or field is calculated. It is calculated and sent to the microprocessor 30. Incidentally, Japanese Patent Application No. 60-111472 describes in detail the specific means for detecting the movement vector V of the image.
31は光学系内のフオーカシングレンズを移動させるた
めのモータであり、マイクロプロセサ30からの信号VM
よってその速度及び方向が制御される。
Reference numeral 31 is a motor for moving the focusing lens in the optical system, the speed and direction of which are controlled by the signal V M from the microprocessor 30.
次にマイクロプロセサ30により実行されるフローにつ
いて第9図乃至第12図を用いて説明する。
Next, the flow executed by the microprocessor 30 will be described with reference to FIGS. 9 to 12.
第9図はエツヂの幅を評価する評価値q(以後、鮮鋭
度と呼ぶ)を検出し、高周波成分の強度B、像の移動ベ
クトルVを取り込むサブルーチンのフローチヤートであ
り、第10図は、本実施例の動作を説明するための図、第
11図は本実施例の自動合焦装置の動作の流れを示すフロ
ーチヤート、第12図は合焦が検出された際の自動合焦装
置の動作を示すフローチヤートである。まず、第9図に
示すサブルーチンについて説明する。
FIG. 9 is a flow chart of a subroutine for detecting an evaluation value q (hereinafter referred to as a sharpness) for evaluating the width of the edge, and taking in the intensity B of the high frequency component and the movement vector V of the image, and FIG. The figure for explaining the operation of the present embodiment,
FIG. 11 is a flow chart showing the flow of the operation of the automatic focusing device of this embodiment, and FIG. 12 is a flow chart showing the operation of the automatic focusing device when focus is detected. First, the subroutine shown in FIG. 9 will be described.
S−2において設定されている検出領域内の画像信号
を抽出するためにフレームの開始時点でゲート回路17に
制御信号Gを送出する。続いてS−3ではフレームの終
了時点でメモリ24に記録されるP1,……PNの値、A/D変換
器21より高周波成分の強度B、速度検出回路29より像の
移動ベクトルVを入力し、次いでS−4,S−5でエツヂ
の鋭さの評価値qを算出する。
The control signal G is sent to the gate circuit 17 at the start of the frame in order to extract the image signal in the detection area set in S-2. Subsequently, in S-3, the values of P 1 , ... P N recorded in the memory 24 at the end of the frame, the intensity B of the high frequency component from the A / D converter 21, and the movement vector V of the image from the speed detection circuit 29. Is input, and then the edge sharpness evaluation value q is calculated in S-4 and S-5.
かかるステツプS−3〜S−5においてはマイクロプ
ロセサ30は以下のような動作を行う。まずメモリ24の内
容P1,P2,……,PNを順次読み出し、更にA/D変換器21によ
り高周波成分の強度B、速度検出回路29により像の移動
ベクトルVを入力する。ここでNは検出領域中に含まれ
る走査線の数である。これらP1,P2,……NPNに対し、 をi=M+1〜N−Mについて算出し(S−4)、さら
にqiの最大値qを求める(S−5)。ここでMはM<N
なる整数である。Pkは第k走査線中で検出されたエツヂ
の鋭さP(t)の最大値のであるから、qiは連続するM
本の走査線各々におけるP(t)の最大値の平均であ
り、従って第3図(a)のように画面垂直方向にある程
度長さをもった最も鋭いエツヂ部分の鋭さがqとして算
出され、この鮮鋭度qを光学系の合焦状態の尺度として
使用する。換言すればS−4で得たエツヂの鋭さの最大
値、換言すれば最もエツヂの幅の小さい箇所のエツヂの
幅を検出することになる。
In steps S-3 to S-5, the microprocessor 30 operates as follows. First, the contents P 1 , P 2 , ..., P N of the memory 24 are sequentially read out, and the intensity B of the high frequency component is inputted by the A / D converter 21 and the moving vector V of the image is inputted by the velocity detecting circuit 29. Here, N is the number of scanning lines included in the detection area. For these P 1 , P 2 , ... N P N , Is calculated for i = M + 1 to NM (S-4), and the maximum value q of qi is calculated (S-5). Where M is M <N
Is an integer. Since Pk is the maximum value of the edge sharpness P (t) detected in the k-th scanning line, qi is the continuous M.
It is the average of the maximum values of P (t) in each of the scanning lines of the book. Therefore, as shown in FIG. 3A, the sharpness of the sharpest edge part having a certain length in the vertical direction of the screen is calculated as q, This sharpness q is used as a measure of the focused state of the optical system. In other words, the maximum value of the sharpness of the edge obtained in S-4, in other words, the width of the edge at the smallest edge width is detected.
なお通常のビデオカメラの場合、検出領域の走査線の
数Nは50〜100、平均をとる走査線の数Mは5〜10程度
が適当である。
In the case of an ordinary video camera, it is appropriate that the number N of scanning lines in the detection area is 50 to 100 and the number M of scanning lines to be averaged is approximately 5 to 10.
第10図は本実施例の動作を説明するための図面で、横
軸xはレンズ位置、縦軸は前述のqを表わすものであ
る。ここで、鮮鋭度qは前述した様にできるだけ被写体
の輝度やコントラストによらないものが望ましく、qL2
は合焦と非合焦の閾値、qL1はqL1>qL2となる値であ
る。そして、本実施例はピントが合ってから撮影レンズ
を焦点深度内でqが最大となる位置を越えず、qL1とqL2
の間の値となる位置に停止するものである。
FIG. 10 is a drawing for explaining the operation of this embodiment, in which the horizontal axis x represents the lens position and the vertical axis represents the above q. Here, it is desirable that the sharpness q does not depend on the brightness or contrast of the subject as much as possible, as described above, and q L2
Is a threshold for focusing and non-focusing, and q L1 is a value that satisfies q L1 > q L2 . In the present embodiment, after taking the focus, the photographing lens does not exceed the position where q becomes the maximum within the depth of focus, and q L1 and q L2
It stops at a position with a value between.
またq2は鮮鋭度qのノイズレベルである。Further, q 2 is a noise level of sharpness q.
次いで第11図を用いて自動合焦装置の動作の流れを説
明する。自動合焦装置の動作が開始されると(S−
7)、まず検出領域として標準域(通常画面の中央部
分)を設置し(S−8)即ち前述の第9図に示したS−
2においてゲート回路における制御信号Gに応じてゲー
ト回路17の動作する範囲を設定し、鮮鋭度qの値を第9
図に示したフローに基づいて算出し(S−9)、ノイズ
レベルq3と比較する(S−10)。q<q3ならば即ち評価
値qが所定値よりも小さい場合換言すれば被写体のうち
で最も狭いエツヂの幅においても像のボケによりかかる
エツヂが大きい場合にはS−11〜S−16により高周波成
分の強度Bが増大する方向にq>q3となるまで光学系を
駆動する。即ちqの値は光学系が合焦よりはずれるに従
い急激に減少するため、いわゆる大ボケ状態ではノイズ
の影響で検出不可能になる。第8図18〜21に示した回路
はこの場合のために設けられており、qの値が所定のノ
イズレベルを示すq3以下の場合には、画像信号の高周波
成分の強度Bの値を取りこみ、かかる強度Bに基づいて
山登り制御が行われる。即ちS−11で任意方向にモータ
が駆動し、次に得られたBの値を前の値と比較して(S
−13)、Bが減少したならばモータを逆転させ(S−1
4)、検出されるqの値がq3をこえるまでモータの駆動
を続け(S−15,S−16)、ある程度合焦に近づきq>q3
となれば即ち被写体のうちで最も狭いエツヂ部分の幅が
所定よりも狭くなった場合にはS−27へ移行する。
Next, the operation flow of the automatic focusing device will be described with reference to FIG. When the operation of the automatic focusing device is started (S-
7) First, a standard area (the central portion of the normal screen) is set as a detection area (S-8), that is, S- shown in FIG. 9 described above.
2, the operating range of the gate circuit 17 is set according to the control signal G in the gate circuit, and the value of the sharpness q is set to the ninth value.
Calculated based on the flow shown in FIG. (S-9), compared with the noise level q 3 (S-10). If q <q 3 , that is, if the evaluation value q is smaller than a predetermined value, in other words, if the edge caused by the image blur is large even in the narrowest edge width of the subject, S-11 to S-16 are used. The optical system is driven until q> q 3 in the direction in which the intensity B of the high frequency component increases. That is, the value of q decreases sharply as the optical system moves out of focus, so that it cannot be detected due to noise in the so-called large blur state. The circuits shown in FIGS. 18 to 21 are provided for this case. When the value of q is equal to or lower than q 3 which indicates a predetermined noise level, the value of the intensity B of the high frequency component of the image signal is changed. Taking in and hill climbing control is performed based on the strength B. That is, the motor is driven in an arbitrary direction in S-11, and the value of B obtained next is compared with the previous value (S
-13), if B decreases, rotate the motor in the reverse direction (S-1
4) continuing the driving of the motor the values of q being detected until more than q 3 (S-15, S -16), q> q 3 approaches focus somewhat if
In other words, when the width of the narrowest edge portion of the subject becomes narrower than the predetermined value, the process proceeds to S-27.
また一方S−10においてq>q3であた場合、即ち被写
体のうちで最も幅の狭いエツヂの幅が所定よりも小さい
場合にはS−11〜S−16に示す山登り制御を行わずS−
17〜S−26で鮮鋭度qが大きくなるように制御を行う。
On the other hand, if q> q 3 in S-10, that is, if the width of the narrowest edge of the subject is smaller than the predetermined value, the mountain climbing control shown in S-11 to S-16 is not performed and S-10 is performed. −
From 17 to S-26, control is performed so that the sharpness q becomes large.
まず所定量以上の移動ベクトルVが検出された場合に
はS−17において被写体の移動に追従して移動ベクトル
Vだけ検出領域が移動されるようマイクロプロセツサ30
はゲート回路17に制御信号Gを与える。続いてS−18に
おいては第9図に示すフローを実行し、鮮鋭度q、移動
ベクトルVを検出し、次いでS−19において移動ベクト
ルVに応じて鮮鋭度qを補正する。即ち像が水平方向に
速度VHで移動している場合、検出されるエツヂの幅はお
およそVHΔtだけ増大する。ここでΔtは撮像素子1の
蓄積時間である。従って算出した値qに対してこの分を
補正し、新たにqとする。q−20で、この時のqをq1
する。
First, when a movement vector V of a predetermined amount or more is detected, the microprocessor 30 is moved so that the detection area is moved by the movement vector V following the movement of the object in S-17.
Applies a control signal G to the gate circuit 17. Subsequently, in S-18, the flow shown in FIG. 9 is executed to detect the sharpness q and the movement vector V, and then in S-19, the sharpness q is corrected according to the movement vector V. That is, if the image is moving horizontally at velocity V H , the width of the detected edge will increase by approximately V H Δt. Here, Δt is the accumulation time of the image sensor 1. Therefore, the calculated value q is corrected by this amount and newly set to q. Let q-20 be q 1 at q-20.
次いで、撮影レンズのピント位置を制御するモータを
任意方向に駆動し(S−21)、検出されるqの値が増加
する方向へモータを駆動する(S−22,S−26)。尚S−
22〜S−24はS−17〜S−19と同様のステツプである。
Next, the motor for controlling the focus position of the photographing lens is driven in an arbitrary direction (S-21), and the motor is driven in a direction in which the detected value of q increases (S-22, S-26). S-
22 to S-24 are the same steps as S-17 to S-19.
S−27においてその時点におけるモータの駆動方向を
Aに記憶する。ここでAは撮影光学系が無限端より至近
端に向かうとき1、その逆のときを−1とする。
In S-27, the driving direction of the motor at that time is stored in A. Here, A is 1 when the photographing optical system goes from the infinite end to the closest end, and -1 when the opposite is the case.
S−28〜S−36は合焦を検出し、光学系の駆動を停止
させる過程である。S−28〜S−30によりqの値の検出
を行い、S−31においてはqの値が第10図に示した閾値
qL1より大きいか否かを判別し、大きい場合にはS−32
へ大きくない場合には、S−35へフローは分岐する。
S-28 to S-36 are processes for detecting focusing and stopping the driving of the optical system. The value of q is detected by S-28 to S-30. In S-31, the value of q is the threshold value shown in FIG.
q Determine whether it is larger than L1 or not, and if it is larger, S-32
If not, the flow branches to S-35.
S−35においては検出されたqの値が第10図に示した
閾値qL2より大きいか否かを判別し、大きい場合にはS
−37へ、大きくない場合にはS−36へ分岐する。
In S-35, it is judged whether or not the detected value of q is larger than the threshold value q L2 shown in FIG.
-37, and if not large, branch to S-36.
したがって、鮮鋭度qがqL1より小さく、qL2より大き
い時S−37において合焦とされる。また、鮮鋭度qがq
L1よりも大きい時には、S−32においてモータの駆動方
向Cを前述のフローで設定した駆動方向Aと逆の方向と
し、鮮鋭度qがqL2よりも小さい時には、S−36におい
てモータの駆動方向Cを前述で設定した駆動方向Aと同
じ方向とする。S−33においてC方向にモータを駆動
し、qの値がqL1或いはqL2に近づくほどモータ速度を遅
くなるように変更し、再びqの値の検出を行い、合焦と
判定されるまでS−28〜S−36のステツプをくり返す。
Therefore, when the sharpness q is smaller than q L1 and larger than q L2 , the image is focused at S-37. Also, the sharpness q is q
When it is larger than L1 , the driving direction C of the motor in S-32 is opposite to the driving direction A set in the above flow, and when the sharpness q is smaller than q L2 , the driving direction of the motor is S-36. Let C be the same direction as the drive direction A set above. At S-33, the motor is driven in the C direction, the motor speed is changed so that it becomes slower as the value of q approaches q L1 or q L2 , the value of q is detected again, and the focus is determined. Repeat steps S-28 to S-36.
以上のような手順により光学系が合焦状態に達した後
の自動焦点合わせのフローを第12図を用いて説明する。
A flow of automatic focusing after the optical system reaches the in-focus state by the above procedure will be described with reference to FIG.
まず、合焦状態となった場合には直ちにモータの駆動
を停止する(S−38)。次いで像が動いている場合には
それに応じて検出領域を変更し(S−39)、前述の第9
図に示す様に鮮鋭度qを検出し(S−40)、像の動きに
応じてqを補正する(S−41)。尚、像が動いてなけれ
ば検出領域の変更は行われない。そして、鮮鋭度qがq
L1より小さくqL2より大きい状態ではS−38〜S−45を
くり返し、モータは停止しつづける。
First, when the focus state is achieved, the drive of the motor is immediately stopped (S-38). Next, if the image is moving, the detection area is changed accordingly (S-39), and
As shown in the figure, the sharpness q is detected (S-40), and q is corrected according to the movement of the image (S-41). If the image does not move, the detection area is not changed. And the sharpness q is q
When it is smaller than L1 and larger than q L2 , S-38 to S-45 are repeated and the motor continues to stop.
この状態で被写体像と撮像光学系との間の距離が変化
し、鮮鋭度qがqL1より大きくなった場合にはS−43か
らS−44へフローは分岐し、前述のモータ駆動方向Aと
は逆の方向をモータ駆動方向Cとし(S−43)、S−44
において撮像光学系を合焦方向とは反対の非合焦となる
方向に移動する様モータを駆動する。
In this state, when the distance between the subject image and the imaging optical system changes and the sharpness q becomes larger than q L1 , the flow branches from S-43 to S-44, and the motor driving direction A The direction opposite to the motor drive direction C is defined as (S-43), S-44
In, the motor is driven so as to move the imaging optical system in the defocusing direction opposite to the focusing direction.
また、鮮鋭度qがqL2より小さくなった場合にはS−4
5からS−46へフローは分岐し、さらにS−46において
qが前述のq3よりも大きい場合には、S−47へフローは
分岐して、前述のモータ駆動方向Aと同じ方向をモータ
の駆動方向Cとして、S−44において、撮像光学系を合
焦方向に移動する様モータを駆動する。S−46において
qが前述のq3よりも小さい場合には、ぼけ量が大きい場
合あるいは被写体が他へ移った場合であるから再びスタ
ート(S−7)に戻って焦点合わせをやり直す。
When the sharpness q becomes smaller than q L2 , S-4
The flow branches from 5 to S-46, and when q is larger than the above-mentioned q 3 in S-46, the flow branches to S-47, and the same direction as the motor driving direction A described above is applied to the motor. In S-44 as the driving direction C, the motor is driven so as to move the imaging optical system in the focusing direction. If q is smaller than q 3 in S-46, it means that the blur amount is large or the subject has moved to another position. Therefore, the process returns to the start (S-7) and the focusing is performed again.
したがって本実施例においては、被写体が第5図に示
す様な被写体の場合であっても常に確実に合焦動作を行
わせることが出来る。
Therefore, in the present embodiment, even if the subject is the one as shown in FIG. 5, the focusing operation can always be surely performed.
本実施例において、撮像面上の被写体像が合焦になっ
て、撮像光学系を停止した後、光学系を駆動しないでも
ピントの合う方向の判断ができることにより、ビデオカ
メラ、TVカメラ等の連続して被写体を撮影する系におい
て、前後に動く被写体に対して追尾可能となり、ビデオ
カメラ等の自動合焦装置として好適である。
In the present embodiment, after the subject image on the imaging surface is in focus and the imaging optical system is stopped, it is possible to determine the in-focus direction without driving the optical system. In a system for photographing a subject, it becomes possible to track a subject moving back and forth, which is suitable as an automatic focusing device such as a video camera.
<発明の効果> 本発明に依れば合焦範囲内で鮮鋭度が最大となる位置
から所定の方向にずらして停止させ、該方向と鮮鋭度の
情報とから駆動方向を決定したので、従来の様に鮮鋭度
が最大となる位置に撮像光学系を駆動する方法に比して
駆動方向を直ちに決定することが出来る。
<Advantages of the Invention> According to the present invention, the driving direction is determined based on the direction and the sharpness information by shifting the position in the focusing range from the position where the sharpness is the maximum in a predetermined direction and stopping the movement. The driving direction can be immediately determined as compared with the method of driving the imaging optical system at the position where the sharpness is maximized as described above.
【図面の簡単な説明】[Brief description of drawings]
第1図,第2図は本発明の原理を説明するための図、 第3図(a),(b),(c)、第4図(a),
(b),(c)は鮮鋭度を検出するための本実施例の方
法を説明するための図、 第5図(a),(b),(c)は微細パターンを持つ被
写体を対象とした場合に合焦検出が困難であることを説
明するための図、 第6図は本発明の一実施例の構成を示す図、 第7図は第6図に示したΔI(+)回路4の構成を示す
図、 第8図は本発明の他の実施例の構成を示す図、 第9図は鮮鋭度qを検出するフローを示す図、 第10図は鮮鋭度qと閾値qL1,qL2との関係を示す図、 第11図,第12図はマイクロプロセツサ30の動作を説明す
るフローチヤートである。 1……撮像素子、 4……ΔI(t)算出回路、 30……マイクロプロセツサ。
1 and 2 are views for explaining the principle of the present invention, FIGS. 3 (a), (b), (c), FIG. 4 (a),
(B) and (c) are diagrams for explaining the method of the present embodiment for detecting sharpness, and FIGS. 5 (a), (b) and (c) are for a subject having a fine pattern. FIG. 6 is a diagram for explaining that it is difficult to detect the focus in such a case, FIG. 6 is a diagram showing a configuration of an embodiment of the present invention, and FIG. 7 is a ΔI (+) circuit 4 shown in FIG. FIG. 8 is a diagram showing a configuration of another embodiment of the present invention, FIG. 9 is a diagram showing a flow for detecting the sharpness q, and FIG. 10 is a sharpness q and a threshold q L1 , q A diagram showing the relationship with L2 , FIG. 11 and FIG. 12 are flow charts for explaining the operation of the microprocessor 30. 1 ... Image sensor, 4 ... ΔI (t) calculation circuit, 30 ... Microprocessor.

Claims (1)

    【特許請求の範囲】[Claims]
  1. 【請求項1】撮像光学系により撮像面に結像された被写
    体像の鮮鋭度を検出する検出手段と、 前記検出手段によつて検出される前記鮮鋭度が大きくな
    る方向へ前記撮像光学系を駆動するとともに、合焦範囲
    内で前記鮮鋭度が最大となる位置から所定の方向にずら
    した位置に前記撮像光学系を停止させるとともに前記方
    向を記憶する第1の制御手段と、 前記撮像光学系の停止後、前記撮像光学系を駆動する
    際、前記検出手段により検出された前記鮮鋭度の情報と
    前記方向の情報とから前記撮像光学系の駆動方向を決定
    する第2の制御手段と、 を具備したことを特徴とする自動合焦装置。
    1. A detection means for detecting the sharpness of a subject image formed on an imaging surface by an imaging optical system, and the imaging optical system in a direction in which the sharpness detected by the detection means increases. A first control unit that is driven and stops the image pickup optical system at a position displaced in a predetermined direction from a position where the sharpness is maximum within a focus range, and the image pickup optical system; When the image pickup optical system is driven after stopping, the second control means for determining the driving direction of the image pickup optical system from the information on the sharpness detected by the detecting means and the information on the direction. An automatic focusing device characterized by being provided.
JP61161053A 1986-07-09 1986-07-09 Automatic focusing device Expired - Fee Related JPH083579B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61161053A JPH083579B2 (en) 1986-07-09 1986-07-09 Automatic focusing device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP61161053A JPH083579B2 (en) 1986-07-09 1986-07-09 Automatic focusing device
US06/922,740 US4804831A (en) 1985-10-30 1986-10-24 Focus detecting apparatus independent of object image contrast
DE3636951A DE3636951C2 (en) 1985-10-30 1986-10-30
US07/497,075 US5055665A (en) 1985-10-30 1990-03-21 Focus detecting apparatus jointly employing outputs of plural diverse detectors

Publications (2)

Publication Number Publication Date
JPS6317413A JPS6317413A (en) 1988-01-25
JPH083579B2 true JPH083579B2 (en) 1996-01-17

Family

ID=15727712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61161053A Expired - Fee Related JPH083579B2 (en) 1986-07-09 1986-07-09 Automatic focusing device

Country Status (1)

Country Link
JP (1) JPH083579B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829667A (en) * 1994-07-18 1996-02-02 Fuji Photo Optical Co Ltd Automatic focusing method
CN102948142B (en) * 2010-05-26 2016-05-25 郑苍隆 Auto-focus image system
JP6900161B2 (en) * 2016-09-14 2021-07-07 キヤノン株式会社 Focus adjustment device and imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5114323A (en) * 1974-07-26 1976-02-04 Minolta Camera Kk
JPS5651164A (en) * 1979-10-03 1981-05-08 Hitachi Ltd Automatic focusing device

Also Published As

Publication number Publication date
JPS6317413A (en) 1988-01-25

Similar Documents

Publication Publication Date Title
JP2535845B2 (en) Automatic focusing device
US4804831A (en) Focus detecting apparatus independent of object image contrast
JP3175175B2 (en) Focus detection device
JP3902492B2 (en) Imaging device
JP4149528B2 (en) Automatic focus detection device
US8264591B2 (en) Method and system for generating focus signal
JP5446076B2 (en) Digital camera
US5055665A (en) Focus detecting apparatus jointly employing outputs of plural diverse detectors
GB2216743A (en) Image sensing apparatus
JPH0583614A (en) Electronic still camera
JP2004070038A (en) Auto-focusing system
JPH0754968B2 (en) Focus detection device
JPH0683387B2 (en) Focus detection device
JPH083579B2 (en) Automatic focusing device
JP3167023B2 (en) Focus adjustment device, blur detection device, motion detection device, and subject position detection device
US7486331B2 (en) Auto focus methods and auto focus devices for electronic cameras using the same
JP3093057B2 (en) Automatic focus detection device
JP2556671B2 (en) Focus detection device
JPH05145827A (en) Automatic focusing controller
JP2832029B2 (en) Automatic focusing device
JP2663451B2 (en) Automatic focusing device
JP3116422B2 (en) Camera control device
JP3134446B2 (en) Focus detection device
JP4574559B2 (en) Imaging device, focus position detection device, and focus position detection method
JP2721471B2 (en) Automatic focusing device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees