JPH05145822A - Moving body tracking device - Google Patents

Moving body tracking device

Info

Publication number
JPH05145822A
JPH05145822A JP3087687A JP8768791A JPH05145822A JP H05145822 A JPH05145822 A JP H05145822A JP 3087687 A JP3087687 A JP 3087687A JP 8768791 A JP8768791 A JP 8768791A JP H05145822 A JPH05145822 A JP H05145822A
Authority
JP
Japan
Prior art keywords
tracking
area
focus
memory
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3087687A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP3087687A priority Critical patent/JPH05145822A/en
Publication of JPH05145822A publication Critical patent/JPH05145822A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To use an idle area of an addition video signal memory for tracking for a memory of a frequency component for focus detection in order to suppress the increase in the memory in which the focus detection frequency signal is stored to increase the AF accuracy of the tracking object. CONSTITUTION:A photoelectric conversion element 12 converts a light distribution from an image pickup optical system 11 into a distribution of an electric signal and a frequency detection circuit 13 extracts a specific frequency from a picture element signal and a projection signal of the photoelectric conversion element 12. Then a focus detection circuit 16 outputs a drive signal to the drive circuit 14 based on a signal from the frequency detection circuit 13 and the information of the image pickup optical system 11 to detect the focus of the image pickup optical system 11. Furthermore, the focus detection circuit 16 reads a signal of a specific area of the photoelectric conversion element 12 based on the specific area designation signal from the tracking circuit 15 or the area designation circuit 18 and the specific area or the like is displayed on a display circuit 17.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は動体追尾装置に関し、
特にメモリを増加することなく追尾被写体のAF精度を
改善した動体追尾装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving body tracking device,
In particular, the present invention relates to a moving object tracking device that improves the AF accuracy of a tracking subject without increasing the memory.

【0002】[0002]

【従来の技術】近年、映像信号に基づいて動体追尾を行
うシステム映像信号に基いて動体追尾を行うシステム
が、種々提案されている。
2. Description of the Related Art In recent years, various systems have been proposed in which a moving body is tracked based on a video signal.

【0003】例えば、特願平02−104637には、
垂直、水平方向に映像信号を投影して、動体追尾を行い
ながら追尾用の信号の微分値を基に合焦点検出を行うシ
ステムが開示されている。図16(a)及び(b)は、
この概略を示したもので、簡単のために点光源で説明す
るものとする。図中、XSUMは垂直方向に投影した信
号を示し、YSUMは水平方向に投影した信号を示す。
MOSセンサを用いてXSUM、YSUMを容易に出力
できるように構成している。図16の(a)及び(b)
は、合焦時の像の移動をXSUM,YSUMにて検出す
るものである。
For example, in Japanese Patent Application No. 02-104637,
A system is disclosed in which a video signal is projected in the vertical and horizontal directions to perform focus detection based on a differential value of a tracking signal while tracking a moving object. 16 (a) and 16 (b),
This outline is shown, and for the sake of simplicity, a point light source will be described. In the figure, XSUM indicates a signal projected in the vertical direction, and YSUM indicates a signal projected in the horizontal direction.
The MOS sensor is used to easily output XSUM and YSUM. 16 (a) and 16 (b)
Is for detecting the movement of the image at the time of focusing with XSUM and YSUM.

【0004】映像信号を用いて、その周波数成分の変化
に注目し合焦点検出を行うシステムは、NHK技法第1
7巻第1号にて石田他により発表された“山登りサーボ
方式によるテレビカメラの自動焦点調整”の中で開示さ
れている。
The NHK technique No. 1 is a system for detecting the in-focus point by paying attention to the change in the frequency component using a video signal.
It is disclosed in "Automatic Focus Adjustment of Television Camera by Mountain Climbing Servo System", which was published by Ishida et al.

【0005】[0005]

【発明が解決しようとする課題】図17は、レンズデフ
ォーカスと周波数成分の電圧値を示したものである。同
図に於いて、合焦時は鮮鋭度が高い、つまり高周波成分
が大きいことを示し、逆に非合焦時は鮮鋭度が低下し、
エッジ部がぼける、つまり高周波成分が小さくなること
を示している。このように、特定周波数成分の変化に着
目し周波数成分のピーク位置へ撮影光学系を駆動するよ
うになっている。すなわち、このような合焦点検出のシ
ステムは、図18に示されるように、A/D変換器1、
メモリ2、追尾処理回路3、周波数検出回路4、A/D
変換器5、メモリ6及び合焦検出回路7を有して構成さ
れている。入力された同一の映像信号から、追尾用A/
D変換器1で上記信号をA/D変換し、メモリ2に格納
する。これと同時に、周波数検出回路4の周波数値をA
/D変換器5で変換してメモリ6に格納する。ところ
が、追尾処理の結果に基いて、周波数値の格納するメモ
リ6をアクセスし、合焦点検出を行ったのでは、メモリ
の規模が増大してしまうものであった。
FIG. 17 shows the voltage values of lens defocus and frequency components. In the figure, the sharpness is high at the time of focusing, that is, the high frequency component is large, and conversely, the sharpness is low at the time of non-focusing,
This indicates that the edge portion is blurred, that is, the high frequency component becomes small. In this way, focusing on the change in the specific frequency component, the photographing optical system is driven to the peak position of the frequency component. That is, as shown in FIG. 18, such a focus detection system has an A / D converter 1,
Memory 2, tracking processing circuit 3, frequency detection circuit 4, A / D
It has a converter 5, a memory 6 and a focus detection circuit 7. Tracking A / from the same input video signal
The signal is A / D converted by the D converter 1 and stored in the memory 2. At the same time, the frequency value of the frequency detection circuit 4 is set to A
The data is converted by the / D converter 5 and stored in the memory 6. However, if the memory 6 storing the frequency value is accessed based on the result of the tracking processing and the focus detection is performed, the scale of the memory is increased.

【0006】上記動体追尾時の映像信号の読出しに関し
ては、MOSセンサにより、追尾ブロック内の出力をX
方向とY方向に電流加算して読出す方式がある。また、
一度映像信号をデジタル値に変換して、デジタル信号処
理にて加算を行う方式もある。
Regarding the reading of the video signal at the time of tracking the moving object, the output in the tracking block is X-rayed by the MOS sensor.
There is a method of adding currents in the Y direction and the Y direction for reading. Also,
There is also a method of once converting a video signal into a digital value and performing addition by digital signal processing.

【0007】しかしながら、これらの方式は、投影信号
を使用して合焦点検出を行うため、検出精度は高くない
ものであった。
However, in these methods, since the focus detection is performed by using the projection signal, the detection accuracy is not high.

【0008】ところで、動体追尾と合焦点検出を同一セ
ンサにて行う場合、映像信号より動体位置を検出してか
ら、合焦点検出のための周波数検出を行う必要があり、
動体検出と周波数検出を時分割で行ったのでは、動体を
追尾しながら合焦点検出は困難なものである。つまり、
映像信号から周波数検出と動体追尾用の信号を同じ領域
から抽出したのでは、追尾物体がフォーカスエリアから
外れる場合があり、精度の高い合焦点検出ができない。
By the way, when moving object tracking and in-focus point detection are performed by the same sensor, it is necessary to detect a moving object position from a video signal and then perform frequency detection for in-focus point detection.
If the moving object detection and the frequency detection are performed by time division, it is difficult to detect the in-focus point while tracking the moving object. That is,
If the signals for frequency detection and moving object tracking are extracted from the same region from the video signal, the tracking object may be out of the focus area, and accurate focus detection cannot be performed.

【0009】図19(a)、(b)及び(c)は、時間
と追尾物体、フォーカスエリアの移動を示したものであ
る。同図(a)、(b)及び(c)は、それぞれ1フィ
ールドずつずれているものとする。同図(a)は、設定
時(t=t0)で、追尾物体(点線)とフォーカス(実
線)は同一領域となる。同図(b)は、追尾物体が動い
ている(t=t1 )ので、同時に追尾と合焦点検出を行
うと追尾物体とフォーカスの領域がずれてしまうことを
表している。更に、同図(c)は、追尾物体が画面垂直
方向の動きのみになった場合(t=t3 )で、追尾物体
とフォーカスの領域は一致している。したがって、同図
(a)から(b)への過程で合焦点検出の精度が落ち
る。
FIGS. 19A, 19B and 19C show movements of time, a tracking object and a focus area. It is assumed that the fields (a), (b) and (c) in the figure are shifted by one field. In the figure (a), at the time of setting (t = t 0 ), the tracking object (dotted line) and the focus (solid line) are in the same area. FIG. 6B shows that the tracking object is moving (t = t 1 ), so that if tracking and focus detection are performed at the same time, the tracking object and the focus area are misaligned. Further, FIG. 7C shows that the tracking object and the focus area coincide with each other when the tracking object moves only in the vertical direction of the screen (t = t 3 ). Therefore, the accuracy of focus detection decreases in the process from FIG.

【0010】また、合焦点検出の精度を上げるために、
映像信号に対応して、周波数信号を同時に持とうとする
と、記憶するメモリが膨大となりコストアップ等の問題
が発生する。
In order to improve the accuracy of in-focus point detection,
If it is attempted to simultaneously hold a frequency signal corresponding to a video signal, the amount of memory to be stored will become huge and problems such as cost increase will occur.

【0011】この発明は、メモリを増大させてコストア
ップが生じることなく、同一センサにて簡単な構成で動
体追尾と合焦点検出を同時に行うことのできる動体追尾
装置を提供することを目的とする。
It is an object of the present invention to provide a moving body tracking device capable of simultaneously performing moving body tracking and in-focus point detection with the same sensor with a simple structure without increasing the memory and increasing the cost. ..

【0012】[0012]

【課題を解決するための手段】すなわちこの発明は、撮
像光学系と、この撮像光学系を介した被写体像をイメー
ジ信号に変換するための光電変換素子と、この光電変換
素子の出力信号から特定周波数成分を抜き出す周波数検
出手段と、フォーカスエリアを設定するためのフォーカ
スエリア設定手段と、フォーカスエリアより広い追尾エ
リア内の上記光電変換素子の各行ごとに加算値を演算す
る加算手段と、上記フォーカスエリアを含む行の上記加
算値を各行ごとに記憶する第1記憶手段と、上記追尾エ
リア内の全行の上記加算値を記憶可能な容量を有し、相
関演算を行う領域について上記加算値を記憶すると共
に、空いている領域に上記特定周波数成分を記憶する第
2記憶手段と、上記第1及び第2記憶手段にそれぞれ記
憶された加算値に基いて相関演算を行い追尾を行う追尾
手段と、この追尾手段によって追尾されたフォーカスエ
リアについて上記第2記憶手段に記憶された特定周波数
成分に基いて合焦検出を行う合焦検出手段とを具備する
ことを特徴とする。
That is, the present invention specifies an image pickup optical system, a photoelectric conversion element for converting an object image through the image pickup optical system into an image signal, and an output signal of the photoelectric conversion element. Frequency detection means for extracting frequency components, focus area setting means for setting a focus area, addition means for calculating an addition value for each row of the photoelectric conversion elements in a tracking area wider than the focus area, and the focus area Having a capacity capable of storing the added value of all rows in the tracking area, and storing the added value for a region for performing a correlation calculation. And the second storage means for storing the specific frequency component in the vacant area, and the added value stored in each of the first and second storage means. A tracking means for performing a correlation calculation to perform tracking, and a focus detection means for performing focus detection on the focus area tracked by the tracking means based on the specific frequency component stored in the second storage means. It is characterized by

【0013】[0013]

【作用】この発明の動体追尾装置では、撮像光学系を介
して光電変換素子が被写体像をイメージ信号に変換し、
この光電変換素子の出力信号は周波数検出手段で特定周
波数成分が抜出される。また、フォーカスエリア設定手
段によりフォーカスエリアが設定され、このフォーカス
エリアより広い追尾エリア内の上記光電変換素子の各行
ごとに加算値が加算手段で演算される。そして、上記フ
ォーカスエリアを含む行の上記加算値が、各行ごとに第
1記憶手段に記憶され、一方、上記追尾エリア内の全行
の上記加算値を記憶可能な容量を有する第2記憶手段に
は、相関演算を行う領域について上記加算値が記憶され
ると共に、その空いている領域に上記特定周波数成分が
記憶される。追尾手段では、上記第1及び第2記憶手段
にそれぞれ記憶された加算値に基いて相関演算が行わ
れ、この追尾手段によって追尾されたフォーカスエリア
について、上記第2記憶手段に記憶された特定周波数成
分に基いて合焦検出手段で合焦検出が行われる。
In the moving body tracking device of the present invention, the photoelectric conversion element converts the subject image into an image signal via the image pickup optical system,
A specific frequency component is extracted from the output signal of the photoelectric conversion element by the frequency detecting means. Further, the focus area is set by the focus area setting means, and the addition value is calculated by the addition means for each row of the photoelectric conversion elements in the tracking area wider than the focus area. Then, the added value of the row including the focus area is stored in the first storage means for each row, and on the other hand, in the second storage means having a capacity capable of storing the added value of all the rows in the tracking area. Stores the added value in the area where the correlation calculation is performed, and also stores the specific frequency component in the empty area. In the tracking means, correlation calculation is performed based on the added values stored in the first and second storage means, and the specific area stored in the second storage means for the focus area tracked by the tracking means. Focus detection is performed by the focus detection means based on the component.

【0014】[0014]

【実施例】以下図面を参照して、この発明の実施例を説
明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】図1はこの発明の動体追尾装置の実施例で
概念を示すブロック図である。同図に於いて、撮影光学
系11は被写体からの光速を光電変換素子12に導くもの
で、この光電変換素子12は上記撮影光学系11からの光分
布を電気信号の分布に変換する。上記光電変換素子12の
画素信号、投影信号からは、周波数検出回路13にて特定
周波数が抜き出される。そして、合焦点検出回路16で
は、周波数検出回路13からの信号と駆動回路14を介して
得た撮影光学系11の情報(MTF特性、レンズ位置、絞
り、焦点距離etc)を基に、駆動回路14へ駆動信号を
出力し、撮影光学系11の合焦点を検出し、また追尾回路
15、またはエリア指定回路18からの特定エリア指定信号
に基いて光電変換素子12の特定エリアの信号を読出し、
更に表示回路17に特定エリア、合焦マーク等を表示させ
る。
FIG. 1 is a block diagram showing the concept of an embodiment of a moving object tracking device according to the present invention. In the figure, a photographing optical system 11 guides the speed of light from a subject to a photoelectric conversion element 12, and the photoelectric conversion element 12 converts the light distribution from the photographing optical system 11 into an electric signal distribution. The frequency detection circuit 13 extracts a specific frequency from the pixel signal and the projection signal of the photoelectric conversion element 12. Then, the focus detection circuit 16 drives the drive circuit based on the signal from the frequency detection circuit 13 and the information (MTF characteristic, lens position, aperture, focal length etc) of the photographing optical system 11 obtained through the drive circuit 14. A drive signal is output to 14, the focusing point of the photographing optical system 11 is detected, and a tracking circuit is also used.
15, or read the signal of the specific area of the photoelectric conversion element 12 based on the specific area designating signal from the area designating circuit 18,
Further, the display circuit 17 is caused to display a specific area, a focus mark and the like.

【0016】上記駆動回路14は、撮影光学系11の情報を
合焦点検出回路16へ出力し、合焦点検出回路16からの駆
動信号に基いて撮影光学系11を駆動する。また、追尾回
路15は、光電変換素子12からの投影信号に基いて動体の
位置を検出し、合焦点検出回路16と表示回路17に特定エ
リア指定信号を出力する。更に、表示回路17は、追尾回
路15及びエリア指定回路18からの特定エリアと合焦点検
出回路16からの合焦信号を表示するものであり、エリア
指定回路18は動体位置、フォーカスエリアを外部から設
定する回路である。
The drive circuit 14 outputs the information of the photographing optical system 11 to the focusing point detection circuit 16 and drives the photographing optical system 11 based on the drive signal from the focusing point detection circuit 16. Further, the tracking circuit 15 detects the position of the moving body based on the projection signal from the photoelectric conversion element 12, and outputs a specific area designation signal to the focusing point detection circuit 16 and the display circuit 17. Further, the display circuit 17 is for displaying the specific area from the tracking circuit 15 and the area designating circuit 18 and the focus signal from the focus detecting circuit 16, and the area designating circuit 18 displays the moving body position and the focus area from the outside. This is the circuit to set.

【0017】このような構成の動体追尾装置に於いて、
合焦点検出回路16は、図2に示されるように、追尾領域
19をフォーカスエリア20より大きく取り、周波数検出回
路13の特定周波数信号を追尾領域19の全体に於いて特定
周期でサンプルする。そして、このサンプルされた信号
をA/D変換し、フォーカスエリア20に対応する領域の
A/D変換信号を加算する。この加算信号は、図17に
示される周波数成分とする。上記追尾領域19及びフォー
カスエリア20は、動体移動に伴って画面内を移動するも
のである。
In the moving body tracking device having such a structure,
As shown in FIG. 2, the focus detection circuit 16 detects the tracking area.
19 is taken larger than the focus area 20, and the specific frequency signal of the frequency detection circuit 13 is sampled at a specific cycle in the entire tracking area 19. Then, the sampled signal is A / D converted, and the A / D converted signals of the area corresponding to the focus area 20 are added. This added signal has the frequency components shown in FIG. The tracking area 19 and the focus area 20 move within the screen as the moving body moves.

【0018】ここで、説明の簡単のために、1次元の追
尾領域19の特定周波数のデータを図3(a)及び(b)
に示す。追尾領域19の全領域に於いて、特定周波数成分
をフォーカスエリア20より小さいブロックとしてそのブ
ロックの位置情報と共に有している。これにより、図3
の(a)から同図(b)に追尾物体が移動しても、追尾
物体の位置を検出した後に、検出した位置に対応したフ
ォーカスエリアの領域の特定周波数成分を加算すること
ができる。更に、動体検出動作と信号読出しを略同時に
行い、動体検出に使用するメモリの一部を一時的に使
用、すなわち、初期に於いては、まだデータが入力され
てないメモリ領域を使用し、動体検出の相関を行った後
には、相関の低い部分をメモリ領域を繰返し使用する。
そして、そのメモリにブロックごとの特定周波数成分を
記憶する。
Here, for the sake of simplicity of explanation, the data of the specific frequency of the one-dimensional tracking region 19 is shown in FIGS. 3 (a) and 3 (b).
Shown in. In all areas of the tracking area 19, a specific frequency component is provided as a block smaller than the focus area 20 together with the position information of that block. As a result, FIG.
Even if the tracking object moves from (a) to (b) in the figure, after the position of the tracking object is detected, the specific frequency component of the area of the focus area corresponding to the detected position can be added. Furthermore, the moving object detection operation and the signal reading are performed almost at the same time, and a part of the memory used for moving object detection is temporarily used, that is, in the initial stage, a memory area in which no data is input is used, After the detection correlation is performed, the low correlation portion is repeatedly used in the memory area.
Then, the specific frequency component for each block is stored in the memory.

【0019】このようにして、動体を追尾し、常に追尾
したフォーカスエリアの特定周波数成分を用いて合焦点
検出を行い、且つメモリを殆ど増加させることなく、高
速、高精度化を図ることが可能になる。
In this way, it is possible to track a moving object, perform in-focus detection using a specific frequency component of the focus area that has always been tracked, and achieve high speed and high accuracy with almost no increase in memory. become.

【0020】次に、図1の回路の詳細について説明す
る。
Next, details of the circuit shown in FIG. 1 will be described.

【0021】光電変換素子12は、CCD等の固体撮像素
子にて構成されるもので、固体撮像素子の積分終了後映
像信号を読出す。また、周波数検出回路13は、複数のバ
ンドパスフィルタ(BPF)で構成され、複数のBPF
をそれぞれ撮像光学系11の条件により切換えて用い、合
焦点検出回路16へ信号を出力する。
The photoelectric conversion element 12 is composed of a solid-state image pickup device such as a CCD and reads out a video signal after the integration of the solid-state image pickup device is completed. Further, the frequency detection circuit 13 is composed of a plurality of bandpass filters (BPF) and has a plurality of BPFs.
Are switched depending on the conditions of the image pickup optical system 11 and used to output a signal to the focus detection circuit 16.

【0022】上記駆動回路14は、撮影光学系11の各種の
特性を合焦点検出回路16に出力すると共に、合焦点検出
回路16からの駆動信号を受けて撮影光学系を駆動する。
また、上記追尾回路15は、追尾領域19の信号をA/D変
換し、デジタル加算演算処理にて図16(a)及び
(b)に示されるような投影信号XSUM及びYSUM
を作り、動体位置を検出し位置信号を合焦点検出回路16
と表示回路17に出力する。また、フォーカスエリア20を
設定するエリア指定回路18は、ジョイスティック、ファ
ーストレリーズと兼用または、特願平2−235074
号にて開示されている方式を用いる。
The drive circuit 14 outputs various characteristics of the photographic optical system 11 to the focusing point detection circuit 16 and receives the drive signal from the focusing point detection circuit 16 to drive the photographic optical system.
Further, the tracking circuit 15 A / D-converts the signal in the tracking area 19 and projects the projection signals XSUM and YSUM as shown in FIGS. 16 (a) and 16 (b) by digital addition calculation processing.
To detect the position of the moving body and detect the position signal by the focus detection circuit 16
Is output to the display circuit 17. Further, the area designating circuit 18 for setting the focus area 20 is also used as a joystick or a fast release, or in Japanese Patent Application No. 2-235074.
The method disclosed in No.

【0023】上記合焦点検出回路16は、周波数検出回路
13の信号をA/D変換してフォーカスエリア内のデジタ
ル値を加算し、駆動回路14を駆動しながら加算値のピー
ク位置、つまり撮像光学系11の合焦位置を検出する。ま
た、BPFの切換え制御は、撮影光学系11の絞り、焦点
距離、MTF特性、撮影光学系11の位置等の光学情報に
より行う。上記表示回路17は、追尾回路15、エリア指定
回路18からのフォーカスエリア20の情報に基き、これら
の情報をファインダー内に表示する。更に、合焦点検出
回路16からの合焦状態信号にて、合焦状態を表示する。
The focusing point detection circuit 16 is a frequency detection circuit.
The signal of 13 is A / D converted and the digital values in the focus area are added. While driving the drive circuit 14, the peak position of the added value, that is, the focus position of the imaging optical system 11 is detected. The BPF switching control is performed by optical information such as the diaphragm of the photographing optical system 11, the focal length, the MTF characteristic, and the position of the photographing optical system 11. The display circuit 17 displays this information in the finder based on the information of the focus area 20 from the tracking circuit 15 and the area designating circuit 18. Furthermore, the focus state is displayed by the focus state signal from the focus detection circuit 16.

【0024】次に、合焦点検出回路16にて、特定周波数
を検出する部分の構成を図4に示す。
Next, FIG. 4 shows a configuration of a portion for detecting a specific frequency in the focus detection circuit 16.

【0025】この合焦点検出回路16は、周波数検出回路
13の信号をA/D変換するA/D変換回路 161と、A/
D変換回路 161のデータを記憶するメモリ回路 162と、
追尾回路15の追尾動体の位置信号、またはエリア指定回
路18からの信号に基いて合焦点検出用のフォーカスエリ
ア20、追尾領域19を設定し、動体位置を含むフォーカス
エリア20の周波数成分のみを加算する演算処理回路 163
にて構成される。
The focus detection circuit 16 is a frequency detection circuit.
A / D conversion circuit 161 for A / D converting 13 signals, and
A memory circuit 162 for storing the data of the D conversion circuit 161;
The focus area 20 for focus detection and the tracking area 19 are set based on the position signal of the tracking moving body of the tracking circuit 15 or the signal from the area designating circuit 18, and only the frequency component of the focus area 20 including the moving body position is added. Operation processing circuit 163
Composed of.

【0026】メモリ回路 162のメモリ構成と追尾領域1
9、フォーカスエリア20の関係は、図5に示されるよう
になっている。同図に於いて、t=t0 にて追尾被写体
をフォーカスエリア20にて捕らえ、t=t1 にて追尾被
写体を追尾する。t=t1 は、t=t0 の次の画像デー
タを取込む時間とする。メモリ回路 162は、メモリH
a、メモリVa、メモリHb、メモリVbで構成されて
いる。この場合、追尾領域19の画素数はNth*Nt
v、フォーカスエリア20の画素数はNfh*Nfvとす
ると、t=t0 のフォーカスエリア20のV、Hへの投影
信号を記憶するメモリHa、メモリVaは、それぞれN
fh、Nfvのメモリ数を有する。更に、t=t1 の追
尾領域19のV、Hへの投影信号を記憶するメモリHb、
メモリVbは、それぞれNth、Ntvのメモリ数を有
する。
Memory configuration of memory circuit 162 and tracking area 1
The relationship between 9 and the focus area 20 is as shown in FIG. In the figure, the tracking subject is captured in the focus area 20 at t = t 0 , and the tracking subject is tracked at t = t 1 . Let t = t 1 be the time to capture the image data next to t = t 0 . The memory circuit 162 is a memory H
a, a memory Va, a memory Hb, and a memory Vb. In this case, the number of pixels in the tracking area 19 is Nth * Nt.
v, and the number of pixels in the focus area 20 is Nfh * Nfv, the memory Ha and the memory Va for storing the projection signals onto the V and H of the focus area 20 at t = t 0 are N respectively.
The number of memories is fh and Nfv. Further, a memory Hb for storing projection signals on V and H of the tracking area 19 at t = t 1 ,
The memory Vb has Nth and Ntv memory numbers, respectively.

【0027】ここで、1画面内の追尾領域19の1画素の
信号をA(h,j)とし(但しhはH方向のパラメー
タ、jはV方向のパラメータ)、以下図6及び図7のフ
ローチャートを参照して、合焦点検出の動作を説明す
る。
Here, the signal of one pixel in the tracking area 19 in one screen is A (h, j) (where h is a parameter in the H direction and j is a parameter in the V direction). The operation of focus detection will be described with reference to the flowchart.

【0028】先ず、サブルーチンプログラムDFをスタ
ートさせる。次いで、ステップS1で、エリア設定回路
18にて動体位置設定とフォーカスエリア20内の周波数成
分量メモリF(0)、合焦点方向判定メモリSS、相関
値メモリSk0、各添え字i,j,hが、イニシャライ
ズ(F(0)=0,SS=0,Sk0=99,i=j=
h=1)される。ステップS2では、フォーカスエリア
20が上述したステップS1に基いて設定される。こうし
て、ステップS3にてフォーカスエリア20を中心として
フォーカスエリア20より大きな領域が追尾領域19として
設定される。
First, the subroutine program DF is started. Next, in step S1, the area setting circuit
At 18, the moving object position setting and the frequency component amount memory F (0) in the focus area 20, the focusing direction determination memory SS, the correlation value memory Sk0, and the subscripts i, j, and h are initialized (F (0) = 0, SS = 0, Sk0 = 99, i = j =
h = 1). In step S2, the focus area
20 is set based on step S1 described above. Thus, in step S3, a region centering on the focus area 20 and larger than the focus area 20 is set as the tracking region 19.

【0029】ステップS4では、フォーカスエリア20内
の追尾データ(V、H投影信号)がV、H各方向のメモ
リVa、Haに記憶される。そして、ステップS5に
て、フォーカスエリア20内の特定周波数が検出され、F
(0)へ記憶される。次いで、ステップS6で撮影光学
系11が正方向に駆動され、ステップS7で上記ステップ
S6の撮影光学系11の駆動方向メモリがFS=0とされ
る。
In step S4, the tracking data (V and H projection signals) in the focus area 20 are stored in the memories Va and Ha for the V and H directions, respectively. Then, in step S5, the specific frequency in the focus area 20 is detected, and F
It is stored in (0). Next, in step S6, the photographing optical system 11 is driven in the forward direction, and in step S7, the driving direction memory of the photographing optical system 11 in step S6 is set to FS = 0.

【0030】ここで、1度目の相関を示すフラグをWE
=0とする(ステップS8)。WEは、メモリVbのど
の領域が空いているかに関係するものである。次いで、
WE=0であるか否かが判定される(ステップS9)。
このステップS9にて、メモリ状態を示すフラグWEが
WE=1の場合、ステップS10に進んでフォーカスエリ
アブロックの周波数加算値が、新しく入力可能になった
メモリ領域PまたはQに入力されて、ステップS12に進
む。一方、WE=0の場合、ステップS11に進んで、追
尾領域19内の特定周波数成分が一定間隔にてサンプリン
グされ、A/D変換後フォーカスエリア20より小さなブ
ロックごとに、A/D変換された特定周波数が加算さ
れ、まだ新しい加算データが記憶されてないメモリVb
(V方向の下位の番地)に追尾相関のデータと混在が発
生する前まで記憶される。
Here, the flag indicating the first correlation is set to WE.
= 0 (step S8). WE is related to which area of the memory Vb is empty. Then
It is determined whether or not WE = 0 (step S9).
In step S9, if the flag WE indicating the memory state is WE = 1, the process proceeds to step S10, and the frequency addition value of the focus area block is input to the newly inputtable memory area P or Q. Proceed to S12. On the other hand, when WE = 0, the process proceeds to step S11, the specific frequency components in the tracking area 19 are sampled at a constant interval, and A / D converted for each block smaller than the focus area 20 after A / D conversion. Memory Vb in which the specific frequency is added and new addition data is not stored yet
The data of the tracking correlation is stored in (lower address in the V direction) before mixing occurs.

【0031】次いで、ステップS12にて、データが読出
されながらV方向に加算された(投影された)データ
が、メモリHb(h)に記憶される。ここで、hはH方
向1ラインの画素数1〜Nthでループするものであ
る。そして、ステップS13では、同様にH方向に加算さ
れた(投影された)データが、メモリVb(j)に記憶
される。その後、ステップS14で、1H読出し終了判定
(h=Nth)がなされる。このステップS14で、1H
読出しが終了してない場合、ステップS15に進んでH方
向の画素数hがインクリメントされた後、ステップS12
に戻る。
Next, at step S12, the data read out and added (projected) in the V direction are stored in the memory Hb (h). Here, h is a loop in which the number of pixels in one line in the H direction is 1 to Nth. Then, in step S13, the data similarly added (projected) in the H direction is stored in the memory Vb (j). Then, in step S14, the 1H read end determination (h = Nth) is made. In this step S14, 1H
If the reading has not been completed, the process proceeds to step S15, the number of pixels h in the H direction is incremented, and then step S12.
Return to.

【0032】上記ステップS14に於いて、1H読出しが
終了している場合、次のステップS16にて、読出された
ライン数の判定(j≧Nfv)がなされる。このステッ
プS16に於いてNfvラインが読出されてない場合は、
ステップS17に進んで、jがインクリメントされてhが
1にされた後、ステップS11へ戻る。一方、ステップS
16にて、Nfvラインが読出されている場合は、ステッ
プS18でiがイニシャライズ(i=1)される。次い
で、ステップS19でV方向メモリVa(i)、Vb(j
−Nfv+i)が、D0(i)、D1(i)に代入され
る。
When 1H reading is completed in step S14, the number of read lines is determined (j ≧ Nfv) in step S16. If the Nfv line has not been read in step S16,
In step S17, j is incremented and h is set to 1. Then, the process returns to step S11. On the other hand, step S
If the Nfv line is read at 16, i is initialized (i = 1) at step S18. Then, in step S19, the V-direction memories Va (i) and Vb (j
-Nfv + i) is substituted into D0 (i) and D1 (i).

【0033】そして、ステップS20に於いて、i=Nf
vの判定が行われ、i=Nfvでないならば、ステップ
S21に進んでiがインクリメントされ、その後ステップ
S19へ戻る。上記ステップS20にて、i=Nfvなら
ば、ステップS22の位置検出サブルーチンプログラムD
SにてV方向の位置が検出される。次いで、ステップS
23にて、1度目の相関を示すフラグWEが、WE=1と
される。
Then, in step S20, i = Nf
If v is determined and i = Nfv is not satisfied, the process proceeds to step S21, i is incremented, and then the process returns to step S19. If i = Nfv in step S20, the position detection subroutine program D in step S22.
The position in the V direction is detected by S. Then, step S
At 23, the flag WE indicating the first correlation is set to WE = 1.

【0034】ステップS24では、相関値Sk1、Sk0
の比較が行われ、Sk0>Sk1であれば、ステップS
25に進んでSk1がSk0に代入される。これは、新し
いデータの方が、相関が高いことを表しており、次の基
準とされる。そして、ステップS26では、追尾領域19内
のフォーカスエリア20より小さなブロックごとに特定周
波数が加算された値が代入されるメモリとして、Vb
(j−Nfv+1)に相当するブロックごとの周波数成
分が格納されているメモリ領域Pがクリアされる。一
方、上記ステップS24に於いて、Sk0>Sk1でない
ないらば、新しいデータの方が相関が低いことを表して
おり、追尾領域19内のフォーカスエリア20より小さなブ
ロックごとに特定周波数が加算された値が代入されるメ
モリとして、Vb(j)に相当するブロックごとの周波
数成分が格納されているメモリ領域Qがクリアされる。
At step S24, the correlation values Sk1 and Sk0
Are compared, and if Sk0> Sk1, step S
Proceeding to 25, Sk1 is substituted for Sk0. This indicates that the new data has a higher correlation and is used as the next criterion. Then, in step S26, as a memory into which a value obtained by adding the specific frequency to each block smaller than the focus area 20 in the tracking area 19 is substituted is set to Vb.
The memory area P in which the frequency component for each block corresponding to (j-Nfv + 1) is stored is cleared. On the other hand, if Sk0> Sk1 is not satisfied in step S24, it means that the new data has a lower correlation, and the specific frequency is added to each block smaller than the focus area 20 in the tracking area 19. As the memory into which the value is substituted, the memory area Q in which the frequency component of each block corresponding to Vb (j) is stored is cleared.

【0035】次に、ステップS28に於いて、追尾領域19
の読出し状況が検出される(j=Ntv)。このステッ
プS28にてデータが全て読出されてない場合は、ステッ
プS29に進んでjがインクリメントされ、ステップS9
に戻る。そして、このステップS29にて、メモリ状態を
示すフラグWEがWE=1の場合は、ステップS10に進
んで、フォーカスエリアブロックの周波数加算値が新し
く入力可能になったメモリ領域PまたはQに入力され
る。これに対して、上記ステップS28に於いて、追尾領
域19の全てのデータが読出されていれば、ステップS30
に進んでmがイニシャライズ(m=0)され、その後、
ステップS31でiがイニシャライズ(i=1)される。
次いで、ステップS32にて、Ha(i)、Hb(m+
i)がD0(i)、D1(i)に代入される。但し、m
=0〜Nth−Nfhとする。
Next, in step S28, the tracking area 19
The read status of is detected (j = Ntv). If all the data has not been read in step S28, the process proceeds to step S29, j is incremented, and step S9
Return to. Then, in step S29, if the flag WE indicating the memory state is WE = 1, the process proceeds to step S10, and the frequency addition value of the focus area block is input to the newly enabled memory area P or Q. It On the other hand, if all the data in the tracking area 19 is read in step S28, step S30
To m is initialized (m = 0), and then
In step S31, i is initialized (i = 1).
Then, in step S32, Ha (i), Hb (m +
i) is substituted into D0 (i) and D1 (i). However, m
= 0 to Nth-Nfh.

【0036】次に、ステップS33にて、i=Nfhの判
定が行われる。このステップS33に於いて、i=Nfh
でないないらば、ステップS34に進んでiがインクリメ
ントされた後、ステップS32へ戻る。また、上記ステッ
プS33にて、i=Nfhならば、ステップS35の位置検
出サブルーチンプログラムDSにて、H方向の位置が検
出される。
Next, in step S33, it is determined whether i = Nfh. In this step S33, i = Nfh
If not, the process proceeds to step S34, i is incremented, and then the process returns to step S32. If i = Nfh in step S33, the position in the H direction is detected by the position detection subroutine program DS in step S35.

【0037】次いで、ステップS36では、H方向全て相
関が終了したかが検出される(m=Nth−Hfh)。
このステップS36にて、H方向の相関がまだ終了してな
い場合(m=Nth−Nfhでない場合)は、ステップ
S37に進んで、H方向にmがインクリメントされた後、
ステップS31に戻る。一方、上記ステップS36にて、H
方向の相関が全て終了している場合(m=Nth−Nf
h)は、V、H両方向の相関値より追尾被写体の位置が
検出され、フォーカスエリア20が再設定される(ステッ
プS38)。その後、ステップS38で、フォーカスエリア
20が中心になるように、追尾領域19が設定され(ステッ
プS39)、ブロックごとに記憶された特定周波数情報を
基にして、上記ステップS38で再設定されたフォーカス
エリア20に対応したブロックのデータが加算され、F
(1)に代入される(ステップS40)。
Next, in step S36, it is detected whether the correlation in all the H directions is completed (m = Nth-Hfh).
In step S36, if the correlation in the H direction is not yet completed (m = Nth−Nfh is not satisfied), the process proceeds to step S37, where m is incremented in the H direction.
Return to step S31. On the other hand, in step S36, H
When all the correlations in the directions have ended (m = Nth−Nf
In h), the position of the tracking subject is detected from the correlation values in both V and H directions, and the focus area 20 is reset (step S38). Then, in step S38, the focus area
The tracking area 19 is set such that 20 is the center (step S39), and based on the specific frequency information stored for each block, the data of the block corresponding to the focus area 20 reset in the above step S38. Is added, F
It is substituted into (1) (step S40).

【0038】ステップS41では、追尾されたフォーカス
エリア20内の特定周波数成分F(0)とF(1)の比較
が行われる。このステップS41に於いて、F(1)>F
(0)ならば、図17に示される曲線を登っていること
を示すものであるから、ステップS42に進んで、F
(1)のデータがF(0)に入力される。次いで、ステ
ップS43にて、合焦点方向判定メモリSS状態が判定
(SS=2)される。ここで、SS=2でなければステ
ップS44に進んで、撮影光学系11が正方向に駆動され
る。そして、ステップS45にて合焦点方向判定メモリS
SがSS=1とされ、その後ステップS8に戻る。一
方、上記ステップS43で、SS=2であれば、後述する
ステップS47に進む。
In step S41, the specific frequency components F (0) and F (1) in the tracked focus area 20 are compared. In this step S41, F (1)> F
If it is (0), it means that the vehicle is climbing the curve shown in FIG.
The data of (1) is input to F (0). Then, in step S43, the focus state determination memory SS state is determined (SS = 2). Here, if SS = 2, the process proceeds to step S44, and the photographing optical system 11 is driven in the forward direction. Then, in step S45, the focus direction determination memory S
S is set to SS = 1, and then the process returns to step S8. On the other hand, if SS = 2 in step S43, the process proceeds to step S47 described later.

【0039】ところで、上記ステップS41に於いて、F
(1)≦F(0)の場合は、ステップS46に進んで、合
焦点方向判定メモリSSの判定が行われる。このステッ
プS46にて、SS=1またはSS=2でないならば、図
17に示される曲線を下っていることを示し、ステップ
S47にて撮影光学系11が負の方向へ駆動される。その
後、ステップS48で駆動方向メモリFSがFS=1とさ
れ、ステップS49にて合焦点方向判定メモリSSにSS
=2が代入された後、ステップS8へ戻る。
By the way, in the step S41, F
If (1) ≦ F (0), the process proceeds to step S46, and the determination of the focusing direction determination memory SS is performed. In this step S46, if SS = 1 or SS = 2 is not satisfied, it indicates that the curve goes down the curve shown in FIG. 17, and in step S47 the photographing optical system 11 is driven in the negative direction. After that, in step S48, the driving direction memory FS is set to FS = 1, and in step S49, the focus direction determination memory SS is set to SS.
After substituting = 2, the process returns to step S8.

【0040】上記ステップS46にて、合焦点方向判定メ
モリSSが、SS=1またはSS=2ならば、図17に
示される曲線のピーク位置を越えたことを示し、ステッ
プS50に進んで、撮影光学系11が駆動方向メモリFSの
値を基に合焦位置へ再駆動される。つまり、FS=1場
合は撮影光学系11が正の方向に、FS=0の場合は撮影
光学系11が負の方向に駆動される。次いで、ステップS
51にて、特定周波数成分F(0)がF(2)へ入力され
る。そして、ステップS52で、F(2)に所定値εを加
えたデータが、F(0)に代入される。その後、ステッ
プS53に於いて、割り込み判定が成され、割り込み(セ
カンドレリーズ等)がない場合はステップS8に戻り、
また割り込みが発生した場合は、サブルーチンプログラ
ムDFを脱出する。
In step S46, if the focusing direction judgment memory SS is SS = 1 or SS = 2, it indicates that the peak position of the curve shown in FIG. 17 has been exceeded, and the flow advances to step S50 to take an image. The optical system 11 is redriven to the in-focus position based on the value of the drive direction memory FS. That is, when FS = 1, the photographing optical system 11 is driven in the positive direction, and when FS = 0, the photographing optical system 11 is driven in the negative direction. Then, step S
At 51, the specific frequency component F (0) is input to F (2). Then, in step S52, the data obtained by adding the predetermined value ε to F (2) is substituted into F (0). Thereafter, in step S53, the interrupt determination is made, and if there is no interrupt (second release, etc.), the process returns to step S8,
When an interrupt occurs, the subroutine program DF is exited.

【0041】次に、追尾相関のサブルーチンプログラム
DSについて、図8を参照して説明する。
Next, the tracking correlation subroutine program DS will be described with reference to FIG.

【0042】サブルーチンプログラムDSをスタートさ
せ、ステップA1に於いて、D0(i)、D1(i)に
て相関演算が行われる。次いで、ステップA2にて、相
関値Sk1が検出、記憶される。そして、ステップA2
が終了すると、メインルーチンへ戻る。
The subroutine program DS is started, and in step A1, correlation calculation is performed at D0 (i) and D1 (i). Next, in step A2, the correlation value Sk1 is detected and stored. And step A2
When is completed, the process returns to the main routine.

【0043】図9は、追尾領域20内の映像信号1ライン
分の信号処理の様子を示したものである。同図(a)は
映像信号そのもので、この信号を画素毎にA/D変換し
て、V、Hの投影信号を作成する。jラインの場合、V
b(j)は、この面積に比例した値となる。また、同図
(b)は、同図(a)の信号をBPFに通した出力であ
る。BPF出力を、略画素ごとにA/D変換して一定間
隔ごとに、間隔内の信号を加算し、ブロック信号とす
る。ブロック信号は、メモリVbにて追尾相関に使用さ
れない領域に格納される。このシーケンスがラインごと
に順次行われる。
FIG. 9 shows a state of signal processing for one line of the video signal in the tracking area 20. FIG. 3A shows a video signal itself, which is A / D converted for each pixel to create V and H projection signals. For j line, V
b (j) has a value proportional to this area. Further, FIG. 11B shows an output obtained by passing the signal shown in FIG. The BPF output is A / D-converted for each pixel, and the signals within the fixed intervals are added to form a block signal. The block signal is stored in the area not used for tracking correlation in the memory Vb. This sequence is sequentially performed for each line.

【0044】図10は、図6のステップS11及びステッ
プS26でのメモリVbの使い方を示した図である。映像
信号は、光電変換素子12から順次スキャンして得られる
ので、H方向に加算した信号が最初にメモリVbに入力
され、またH方向にスキャンした信号よりブロックごと
に抜き出された特定周波数成分は、H方向に加算された
信号が入っていないメモリエリアへ入力される。H方向
に加算されたデータは、Nfvラインごとに相関演算さ
れ、相関の高いところ付近のデータのみ記憶されてい
く。更に、ブロックごとに得られる特定周波数成分のデ
ータも相関の高いところ付近のデータのみが記憶され
る。相関の低かったラインに対応した特定周波数を格納
したメモリ領域を、新しいデータ用のメモリ領域とす
る。
FIG. 10 is a diagram showing how to use the memory Vb in steps S11 and S26 of FIG. Since the video signal is obtained by sequentially scanning from the photoelectric conversion element 12, the signal added in the H direction is first input to the memory Vb, and the specific frequency component extracted for each block from the signal scanned in the H direction. Is input to the memory area that does not contain the signal added in the H direction. The data added in the H direction is subjected to the correlation calculation for each Nfv line, and only the data in the vicinity of the place where the correlation is high is stored. Further, as for the data of the specific frequency component obtained for each block, only the data in the vicinity of the high correlation are stored. The memory area in which the specific frequency corresponding to the line having a low correlation is stored is used as a memory area for new data.

【0045】図10の(a)は、初期の状態で、H方向
への加算値はVb(1)から順次格納され、ブロックご
との周波数信号は、メモリVbの終わりの番地からさか
のぼって格納される。図10の(b)は、途中の読出し
処理の場合(Sライン読出し時、読出しラインの加算信
号が格納されるメモリが、ブロックごとの周波数成分を
格納したメモリ領域に接近した場合)、SラインのH方
向の加算信号はVb(s)に格納される。また、今まで
記憶された周波数成分(メモリK)は、すでに相関演算
が終了したエリア(メモリJ)へデータが移動され、S
ラインのブロックごとの周波数成分が、その下の空いた
番地に格納される。
In the initial state of FIG. 10A, the added value in the H direction is sequentially stored from Vb (1), and the frequency signal for each block is stored backward from the end address of the memory Vb. It FIG. 10B shows the S line in the case of the reading process in the middle (when the memory in which the addition signal of the read line is stored approaches the memory area storing the frequency component of each block when the S line is read). The added signal in the H direction is stored in Vb (s). Further, the frequency component (memory K) stored so far is moved to an area (memory J) where the correlation calculation has already been completed, and S
The frequency component for each block of the line is stored in the vacant address below it.

【0046】更に、メモリVbについて、データの入力
の様子を図11(a)〜(f)及び図12(a)〜
(c)に示す。図5に示される追尾領域19の1Hの中を
n分割し、このn分割に対応した周波数成分が記憶され
る。周波数記憶に使用されるメモリは、(Nfv+1)
*n番地分である。図11(a)は、図6のフローチャ
ートのステップS16にて、j=Nfvの時を示し、図1
1(b)及び(c)は、それぞれj=Nfv+1、j=
Nfv+2の時を示す。追尾物体が中心付近に存在する
場合は、相関が低いのでフォーカスエリアブロック用メ
モリPが、図11の(b)及び(c)に現れる。すなわ
ち、j=Nfv+1の場合はj=1の周波数成分が記憶
されたn個のメモリがPとなり、j=Nfv+2の周波
数成分は、そのメモリPに記憶される。
Further, the state of data input to the memory Vb is shown in FIGS. 11 (a) to 11 (f) and 12 (a) to 12.
It shows in (c). The 1H of the tracking area 19 shown in FIG. 5 is divided into n, and the frequency component corresponding to this n division is stored. The memory used for frequency storage is (Nfv + 1)
* For n addresses. FIG. 11A shows the case where j = Nfv in step S16 of the flowchart of FIG.
1 (b) and (c) are j = Nfv + 1 and j =
The time of Nfv + 2 is shown. When the tracking object exists near the center, the correlation is low, so the focus area block memory P appears in (b) and (c) of FIG. 11. That is, in the case of j = Nfv + 1, the number of n memories storing the frequency component of j = 1 becomes P, and the frequency component of j = Nfv + 2 is stored in the memory P.

【0047】図11(d)は、相関が最も低くなったと
きであり、この時までは1つ前の不要メモリは、メモリ
Pとして扱われる。図11(e)及び(f)は、また相
関が低下していくので、新しく取込まれた周波数データ
は、メモリQとして扱われる。更に相関が進んでいく
(V方向に読出しが進んでいく)と、周波数記憶用のメ
モリと画素加算用のメモリが交差するようになる。図1
2の(a)に示されるように、周波数記憶用のメモリ領
域と、画素加算用メモリの番地が所定以内の差になった
とき、図12の(b)に示されるようにメモリ領域がシ
フトされる。同図(b)では、画素加算用メモリに記憶
された加算データのうち、最も相関の高かった画素加算
データを上位のメモリに移動させ、他の加算データのメ
モリがクリアされた後に、下位のメモリに周波数記憶用
メモリが移動される。更に、次のラインでは、メモリ領
域が移動された状態にて(図12の(c)に示され
る)、処理が行われる。
FIG. 11D shows the time when the correlation becomes the lowest, and by this time, the immediately preceding unnecessary memory is treated as the memory P. In FIGS. 11E and 11F, since the correlation decreases again, the newly fetched frequency data is treated as the memory Q. As the correlation further progresses (reading progresses in the V direction), the memory for frequency storage and the memory for pixel addition intersect. Figure 1
2 (a), when the difference between the memory area for frequency storage and the address of the pixel addition memory is within a predetermined range, the memory area shifts as shown in FIG. 12 (b). To be done. In the same figure (b), of the addition data stored in the pixel addition memory, the pixel addition data with the highest correlation is moved to the upper memory, and after the memories of the other addition data are cleared, The frequency storage memory is moved to the memory. Further, in the next line, the processing is performed with the memory area moved (shown in (c) of FIG. 12).

【0048】次に、図13を参照して、図8のサブルー
チンプログラムDSでの相関検出の様子を説明する。図
13の(a)にH0(i)、H1(i)が示される。H
0(i)とH1(i)の像のズレδ1を、H0(i)を
固定しH1(i)をシフトしながら Ss=Σ|H0(i)−H2(i−s)| を求める。その様子を図13の(b)に示す。Ssの値
が最も小さい時のずれ量を検出する。
Next, with reference to FIG. 13, the manner of correlation detection in the subroutine program DS of FIG. 8 will be described. H0 (i) and H1 (i) are shown in FIG. H
The shift δ1 between the images of 0 (i) and H1 (i) is determined as Ss = Σ | H0 (i) -H2 (is) | while fixing H0 (i) and shifting H1 (i). This is shown in FIG. 13 (b). The shift amount when the value of Ss is the smallest is detected.

【0049】図14は、表示回路17の表示の様子を示し
たものである。同図に於いて、ファインダ 171内に合
焦、前ピン、後ピンを表示するLED 172と、フォーカ
スエリア 173及び 174(図2のフォーカスエリア20に対
応)が表示されている。フォーカスエリア 173の位置が
イニシャライズ位置であり、追尾動作中または任意位置
にフォーカスエリアが設定されたときの位置がフォーカ
スエリア 174である。尚、追尾動作中または任意位置設
定されたフォーカスエリア 174が表示されている時は、
173の表示は消え、 174の表示だけとなる。
FIG. 14 shows a display state of the display circuit 17. In the figure, an LED 172 for displaying the focus, front focus, and rear focus, and focus areas 173 and 174 (corresponding to the focus area 20 in FIG. 2) are displayed in the viewfinder 171. The position of the focus area 173 is the initializing position, and the position when the focus area is set during the tracking operation or at the arbitrary position is the focus area 174. During tracking operation or when the focus area 174 set at an arbitrary position is displayed,
The 173 display disappears, leaving only the 174 display.

【0050】また、図15は、図14のフォーカスエリ
ア等の表示方式を示す。1次または2次結像面近傍に、
散乱型液晶21を用いてファインダ光学系22に像が導かれ
る。散乱型液晶21は、制御信号にてフォーカスエリア 1
73または 174の部分を着色表示するようになってい
る。。
Further, FIG. 15 shows a display system of the focus area and the like in FIG. Near the primary or secondary image plane,
An image is guided to the finder optical system 22 using the scattering type liquid crystal 21. The scattering type liquid crystal 21 has a focus area 1 according to the control signal.
The 73 or 174 part is colored. .

【0051】以上述べた実施例によれば、同一センサに
て追尾、合焦点検出を行うので、視差のない信号を得る
ことができ、またメモリを動体追尾と兼用するのでコス
ト、実装も有利である。
According to the above-described embodiment, since tracking and focusing point detection are performed by the same sensor, a signal without parallax can be obtained, and since the memory is also used for moving object tracking, cost and mounting are also advantageous. is there.

【0052】更に、動体追尾時に常に追尾中の物体を捕
らえ、追尾と同じ映像信号を用いて特定周波数成分を加
算するので、高速で精度の高い追尾機能を持つ合焦点検
出装置を提供する。
Further, since an object being tracked is always caught during tracking of a moving object and a specific frequency component is added by using the same video signal as the tracking, a focus detection device having a tracking function with high speed and high accuracy is provided.

【0053】また、同実施例では、センサにCCDを用
いたが非破壊でランダムアクセス可能なセンサ、例え
ば、SIT(Static InductionTransistor )型固体撮
像素子、CMD(Charge Modulation Device)型固体撮
像素子等を用いて、追尾動作と合焦点検出の積分時間を
変え、非破壊でそれぞれの信号を読み出すことで、A/
D変換を時分割で行ってもよい。
In the embodiment, a CCD is used as the sensor, but a non-destructive and randomly accessible sensor, for example, a SIT (Static Induction Transistor) type solid-state image sensor, a CMD (Charge Modulation Device) type solid-state image sensor, or the like is used. By changing the integration time of the tracking operation and the in-focus point detection and reading the respective signals nondestructively,
The D conversion may be performed in time division.

【0054】また、ディレイラインを用いて、A/D変
換を時分割で行ってもよい。
Further, A / D conversion may be performed in a time division manner by using a delay line.

【0055】[0055]

【発明の効果】以上のようにこの発明によれば、動体追
尾と合焦点検出を同一センサにて行うことが可能であ
り、記憶容量を殆ど増大させないので、コスト、実装面
で有利であり、且つ、動体追尾時に常に追尾エリアを検
出後に、追尾エリアにて合焦点検出を行うので高速に、
精度よく合焦点検出を行うことができる。
As described above, according to the present invention, it is possible to perform moving object tracking and in-focus point detection with the same sensor, and the storage capacity is hardly increased, which is advantageous in terms of cost and mounting. Moreover, since the focus area is always detected in the tracking area after detecting the tracking area when tracking the moving body,
Focus detection can be performed accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の動体追尾装置の実施例で概念を示す
ブロック図である。
FIG. 1 is a block diagram showing the concept in an embodiment of a moving object tracking device of the present invention.

【図2】追尾領域とフォーカスエリアを示した図であ
る。
FIG. 2 is a diagram showing a tracking area and a focus area.

【図3】1次元の追尾領域の特定周波数のデータ示した
図である。
FIG. 3 is a diagram showing data of specific frequencies in a one-dimensional tracking area.

【図4】合焦点検出回路の特定周波数を検出する部分の
構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a part for detecting a specific frequency of a focus detection circuit.

【図5】図4のメモリ回路のメモリ構成と追尾領域、フ
ォーカスエリアの関係を示した図である。
5 is a diagram showing a relationship between a memory configuration of the memory circuit of FIG. 4, a tracking area, and a focus area.

【図6】合焦点検出の動作を説明するフローチャートの
前半部分である。
FIG. 6 is the first half of a flowchart for explaining the operation of focus detection.

【図7】合焦点検出の動作を説明するフローチャートの
後半部分である。
FIG. 7 is the second half of the flowchart for explaining the operation of focus detection.

【図8】追尾相関のサブルーチンプログラムDSを示し
た図である。
FIG. 8 is a diagram showing a subroutine program DS for tracking correlation.

【図9】追尾領域内の映像信号1ライン分の信号処理の
様子を示した図である。
FIG. 9 is a diagram showing a state of signal processing for one line of a video signal in a tracking area.

【図10】図6のステップS11及びステップS26でのメ
モリVbの使い方を示した図である。
10 is a diagram showing how to use the memory Vb in step S11 and step S26 of FIG.

【図11】メモリVbのデータの入力の様子を示した図
である。
FIG. 11 is a diagram showing how data in a memory Vb is input.

【図12】メモリVbのデータの入力の様子を示した図
である。
FIG. 12 is a diagram showing how data in a memory Vb is input.

【図13】図8のサブルーチンプログラムDSでの相関
検出の様子を説明する図である。
FIG. 13 is a diagram for explaining how correlation detection is performed by the subroutine program DS of FIG.

【図14】表示回路の表示例を示した図である。FIG. 14 is a diagram showing a display example of a display circuit.

【図15】図14のフォーカスエリア等の表示方式を示
した図である。
15 is a diagram showing a display system of the focus area and the like in FIG.

【図16】従来の合焦点検出を行うシステムで、動体追
尾を行いながら追尾用の信号の微分値を基に合焦点検出
を行う例を説明する図である。
FIG. 16 is a diagram illustrating an example in which a conventional focus detection system performs focus detection based on a differential value of a tracking signal while performing moving object tracking.

【図17】レンズデフォーカスと周波数成分の電圧値を
示し図である。
FIG. 17 is a diagram showing lens defocus and voltage values of frequency components.

【図18】従来の合焦点検出のシステムの例を示したブ
ロック図である。
FIG. 18 is a block diagram showing an example of a conventional focus detection system.

【図19】時間と追尾物体、フォーカスエリアの移動を
示した図である。
FIG. 19 is a diagram showing time, movement of a tracking object, and movement of a focus area.

【符号の説明】[Explanation of symbols]

11…撮影光学系、12…光電変換素子、13…周波数検出回
路、14…駆動回路、15…追尾回路、16…合焦点検出回
路、17…表示回路、18…エリア指定回路、19…追尾領
域、20…フォーカスエリア、 161…A/D変換回路、 1
62…メモリ回路、163…演算処理回路。
11 ... Shooting optical system, 12 ... Photoelectric conversion element, 13 ... Frequency detection circuit, 14 ... Drive circuit, 15 ... Tracking circuit, 16 ... Focus detection circuit, 17 ... Display circuit, 18 ... Area designation circuit, 19 ... Tracking area , 20 ... Focus area, 161 ... A / D conversion circuit, 1
62 ... Memory circuit, 163 ... Arithmetic processing circuit.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮像光学系と、 この撮像光学系を介した被写体像をイメージ信号に変換
するための光電変換素子と、 この光電変換素子の出力信号から特定周波数成分を抜き
出す周波数検出手段と、 フォーカスエリアを設定するためのフォーカスエリア設
定手段と、 フォーカスエリアより広い追尾エリア内の上記光電変換
素子の各行ごとに加算値を演算する加算手段と、 上記フォーカスエリアを含む行の上記加算値を各行ごと
に記憶する第1記憶手段と、 上記追尾エリア内の全行の上記加算値を記憶可能な容量
を有し、相関演算を行う領域について上記加算値を記憶
すると共に、空いている領域に上記特定周波数成分を記
憶する第2記憶手段と、 上記第1及び第2記憶手段にそれぞれ記憶された加算値
に基いて相関演算を行い追尾を行う追尾手段と、 この追尾手段によって追尾されたフォーカスエリアにつ
いて上記第2記憶手段に記憶された特定周波数成分に基
いて合焦検出を行う合焦検出手段とを具備することを特
徴とする動体追尾装置。
1. An image pickup optical system, a photoelectric conversion element for converting a subject image through the image pickup optical system into an image signal, and frequency detection means for extracting a specific frequency component from an output signal of the photoelectric conversion element, A focus area setting means for setting the focus area, an addition means for calculating an addition value for each row of the photoelectric conversion elements in a tracking area wider than the focus area, and an addition value for a row including the focus area in each row. A first storage unit that stores the added value for each row, and a capacity that can store the added value of all rows in the tracking area. Second storage means for storing the specific frequency component, and tracking for performing correlation calculation based on the added values stored in the first and second storage means, respectively. Means a moving object tracking apparatus characterized by comprising the focus detection means for performing focus detection based on the specific frequency component stored in said second storage means for focus area that is tracked by the tracking means.
JP3087687A 1991-03-26 1991-03-26 Moving body tracking device Withdrawn JPH05145822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3087687A JPH05145822A (en) 1991-03-26 1991-03-26 Moving body tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3087687A JPH05145822A (en) 1991-03-26 1991-03-26 Moving body tracking device

Publications (1)

Publication Number Publication Date
JPH05145822A true JPH05145822A (en) 1993-06-11

Family

ID=13921843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3087687A Withdrawn JPH05145822A (en) 1991-03-26 1991-03-26 Moving body tracking device

Country Status (1)

Country Link
JP (1) JPH05145822A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018434A (en) * 2001-06-28 2003-01-17 Olympus Optical Co Ltd Imaging apparatus
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
US7414649B2 (en) 2002-12-27 2008-08-19 Casio Computer Co., Ltd. Camera apparatus that is controllable by an optical signal picked up in an image by the camera apparatus, and a method for operating the same
KR100975928B1 (en) * 2008-12-12 2010-08-13 삼성전기주식회사 Auto-focusing method
KR100975929B1 (en) * 2008-12-12 2010-08-13 삼성전기주식회사 Auto-focusing method
CN106488124A (en) * 2016-10-20 2017-03-08 努比亚技术有限公司 A kind of tracking lock microshot method and terminal

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018434A (en) * 2001-06-28 2003-01-17 Olympus Optical Co Ltd Imaging apparatus
US7414649B2 (en) 2002-12-27 2008-08-19 Casio Computer Co., Ltd. Camera apparatus that is controllable by an optical signal picked up in an image by the camera apparatus, and a method for operating the same
JP2007282188A (en) * 2006-03-15 2007-10-25 Nikon Corp Object tracker, object tracking method, object tracking program and optical equipment
US8433097B2 (en) 2006-03-15 2013-04-30 Nikon Corporation Subject tracking device, subject tracking method, subject tracking program product and optical device
KR100975928B1 (en) * 2008-12-12 2010-08-13 삼성전기주식회사 Auto-focusing method
KR100975929B1 (en) * 2008-12-12 2010-08-13 삼성전기주식회사 Auto-focusing method
CN106488124A (en) * 2016-10-20 2017-03-08 努比亚技术有限公司 A kind of tracking lock microshot method and terminal

Similar Documents

Publication Publication Date Title
US8605942B2 (en) Subject tracking apparatus, imaging apparatus and subject tracking method
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
US7358999B2 (en) Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JP5421829B2 (en) Imaging device
KR20080101778A (en) Image pickup apparatus equipped with function of detecting image shaking, control method of the image pickup apparatus, and recording medium recording control program of the image pickup apparatus
KR100211484B1 (en) Frame-shift detecting device and a video-recording apparatus
KR20060129422A (en) Autofocus controlling apparatus and method, recording medium, and program
JPH05257062A (en) Automatic focusing device
JPH0943507A (en) Electric still camera and focusing control method thereof
JPS60183879A (en) Focus detector
JP4693709B2 (en) Image processing apparatus and image processing method
JPH05145822A (en) Moving body tracking device
JP7289714B2 (en) FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT METHOD, AND PROGRAM
JP3278206B2 (en) Imaging device and method thereof
JP4935380B2 (en) Image tracking device and imaging device
JPH09181954A (en) Electronic still camera and method for focus-controlling the same
JPH11211974A (en) Image pickup device
JPH0646310A (en) Automatic focusing device
JP2006243609A (en) Autofocus device
JPH11258489A (en) Focus detecting device and its method and storage medium readable through computer
JPH0338976A (en) Display device for image pickup
JP3244863B2 (en) Automatic focusing device
JPH08194153A (en) Automatic zooming device
JPH07318787A (en) Automatic zoom device
JP2947037B2 (en) Video camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980514