JPH0614698B2 - Automatic tracking camera - Google Patents

Automatic tracking camera

Info

Publication number
JPH0614698B2
JPH0614698B2 JP58082757A JP8275783A JPH0614698B2 JP H0614698 B2 JPH0614698 B2 JP H0614698B2 JP 58082757 A JP58082757 A JP 58082757A JP 8275783 A JP8275783 A JP 8275783A JP H0614698 B2 JPH0614698 B2 JP H0614698B2
Authority
JP
Japan
Prior art keywords
image
subject
signal
view
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58082757A
Other languages
Japanese (ja)
Other versions
JPS59208983A (en
Inventor
宏安 大坪
敏夫 村上
敏郎 衣笠
芳明 持丸
徳孝 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Image Information Systems Inc
Hitachi Ltd
Original Assignee
Hitachi Ltd
Hitachi Video Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Video Engineering Co Ltd filed Critical Hitachi Ltd
Priority to JP58082757A priority Critical patent/JPH0614698B2/en
Publication of JPS59208983A publication Critical patent/JPS59208983A/en
Publication of JPH0614698B2 publication Critical patent/JPH0614698B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、目標とする被写体を自動的に追跡して撮像す
ることができるようにした自動追尾カメラに関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic tracking camera capable of automatically tracking and capturing a target subject.

〔発明の背景〕[Background of the Invention]

従来、移動する物体(以下、被写体という)を常時観測
するために、被写体の移動とともに撮像装置の向き、す
なわち、カメラ方向を自動的に変え、被写体を追跡、撮
像するようにした自動追尾カメラが知られている。かか
る自動追尾カメラにおいては、まず、被写体を認識する
必要があり、このために、従来では画像処理技術を用い
て被写体の撮像による画像(以下、被写体画像という)
のパターン認識を行なっていた。すなわち、被写体の形
状、色彩などから被写体の特徴を表わすパターンを抽出
し、かかるパターンと予じめ設定された基準パターンと
を比較して被写体を認識するようにしている。
Conventionally, in order to constantly observe a moving object (hereinafter, referred to as “subject”), an automatic tracking camera that automatically changes the direction of the imaging device, that is, the camera direction, along with the movement of the subject to track and image the subject has been proposed. Are known. In such an automatic tracking camera, it is necessary to recognize the subject first. For this reason, conventionally, an image obtained by picking up the subject using image processing technology (hereinafter referred to as the subject image)
Pattern recognition. That is, a pattern representing the characteristics of the subject is extracted from the shape and color of the subject, and the subject is recognized by comparing this pattern with a preset reference pattern.

したがって、このようなパターン認識を行なうために、
大型の電子計算機が用いられ、膨大なプログラムでもっ
て処理を行わなければならず、従来の自動追尾カメラは
必然的に大規模となり、また、非常に高価なものであっ
た。
Therefore, in order to perform such pattern recognition,
A large-scale computer is used, and the processing must be performed by a huge program, and the conventional automatic tracking camera is inevitably large-scaled and extremely expensive.

一方、近年、ビデオテープレコーダと相まってビデオカ
メラの普及が目覚ましく、産業用、家庭用して広く用い
られるようになってきた。しかも、かかるビデオカメラ
は、ユーザーが直接操作して所望の被写体を撮像するた
めに使用されるばかりでなく、監視装置のセンサとして
も利用されている。このように、ビデオカメラをセンサ
として利用する場合、ビデオカメラを固定して一定の視
野内を監視するようにすることも、それなりの意味があ
ることであるが、監視しようとする被写体が移動し、ビ
デオカメラの画角が制限されるような特定の無人監視装
置においては、ビデオカメラに移動する被写体を追跡し
て撮像する自動追尾機能をもたせる必要がある。
On the other hand, in recent years, a video camera has been remarkably popularized together with a video tape recorder, and has been widely used for industrial and home use. Moreover, such a video camera is used not only for the user to directly operate it to capture an image of a desired subject, but also as a sensor for a monitoring device. In this way, when using a video camera as a sensor, it is also meaningful to fix the video camera to monitor within a certain field of view, but the subject to be monitored may move. In a specific unmanned surveillance device in which the angle of view of the video camera is limited, it is necessary to provide the video camera with an automatic tracking function for tracking and imaging a moving subject.

しかし、先にも述べたように、従来の自動追尾カメラは
規模が大きく、非常に高価となるものであるから、産業
用、家庭用のビデオカメラに自動追尾機能をもたせるの
は、現実的に不可能であった。
However, as mentioned earlier, the conventional automatic tracking camera is large in scale and very expensive, so it is realistic to give an industrial or household video camera an automatic tracking function. It was impossible.

〔発明の目的〕[Object of the Invention]

本発明の目的は、上記従来技術の欠点を除き構成が大幅
に簡易化され、小型で安価な自動追尾カメラを提供する
にある。
An object of the present invention is to provide a small-sized and inexpensive automatic tracking camera which has a greatly simplified structure except for the above-mentioned drawbacks of the prior art.

〔発明の構成〕[Structure of Invention]

この目的を達成するために、本発明は、一定時間間隔の
画像間の差を検出して該画像間の差の重心を算出し、該
重心の移動量、移動方向から被写体画像の撮像画面に対
する移動量、移動方向を検出して撮像装置を制御し、該
被写体画像を該撮像画面の基準領域内に設定することが
できるようにした点に特徴がある。
In order to achieve this object, the present invention detects a difference between images at a constant time interval, calculates a center of gravity of the difference between the images, and calculates the center of gravity of the difference between the images from the moving amount and the moving direction of the center of the captured image of the subject image. It is characterized in that the amount of movement and the direction of movement are detected to control the imaging device so that the subject image can be set within the reference area of the imaging screen.

以下、本発明の実施例を図面について説明する。Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明による自動追尾カメラの一実施例を示す
ブロック図であって、1は被写体、2は撮像装置、3は
カメラ回路、4は信号処理部、5は制御部である。
FIG. 1 is a block diagram showing an embodiment of an automatic tracking camera according to the present invention, in which 1 is a subject, 2 is an imaging device, 3 is a camera circuit, 4 is a signal processing unit, and 5 is a control unit.

同図において、撮像装置2は移動する被写体1を撮像し
て画像信号に発生する。この画像信号はカメラ回路3に
供給されて増幅などの所定などの所定の処理がなされ、
信号処理部4に供給される。信号処理回路4は、供給さ
れた画像信号を処理して撮像装置2の撮像画面(撮像面
に投影される視野画面)における被写体1の画像、すな
わち、被写体画像の移動量および移動方向を表わす制御
信号を発生する。この制御信号は制御部5に供給され、
制御部5は撮像装置2を制御してそのカメラ方向を変化
させ、被写体画像が撮像画面の所定の領域(たとえば、
中央部)内にあるように追尾させる。
In the figure, an image pickup device 2 picks up an image of a moving subject 1 and generates an image signal. This image signal is supplied to the camera circuit 3 and subjected to predetermined processing such as amplification and the like,
It is supplied to the signal processing unit 4. The signal processing circuit 4 processes the supplied image signal to control the image of the subject 1 on the image pickup screen of the image pickup device 2 (the field of view projected on the image pickup surface), that is, the movement amount and the moving direction of the subject image. Generate a signal. This control signal is supplied to the control unit 5,
The control unit 5 controls the imaging device 2 to change its camera direction so that the subject image is in a predetermined area of the imaging screen (for example,
Track as if it were in the center.

第2図は第1図の信号処理部の一具体例を示すブロック
図であって、6は入力端子、7は分離回路、8はアナロ
グ−デジタル変換回路、9はフレームメモリ、10は減算
回路、11はフレームメモリ、12は演算装置、13は出力端
子である。
FIG. 2 is a block diagram showing a specific example of the signal processing unit of FIG. 1, in which 6 is an input terminal, 7 is a separation circuit, 8 is an analog-digital conversion circuit, 9 is a frame memory, and 10 is a subtraction circuit. , 11 is a frame memory, 12 is an arithmetic unit, and 13 is an output terminal.

同図において、カメラ回路3(第1図)からの画像信号
は入力端子6から分離回路7に供給され、輝度信号と色
信号とに分離される。分離回路7は、撮像装置2(第1
図)から得られる画像信号が一般にカラー映像信号であ
ることから設けられているが、輝度信号と色信号とは同
一処理がなされ、かつ、これらの信号が分離されて処理
されることが、本発明にとって特に重要な意味をなすも
のでないから、以下、画像信号として説明する。
In the figure, an image signal from the camera circuit 3 (FIG. 1) is supplied from an input terminal 6 to a separation circuit 7 and separated into a luminance signal and a color signal. The separation circuit 7 includes the imaging device 2 (first
It is provided because the image signal obtained from Fig. 2) is generally a color video signal, but the fact that the same processing is performed for the luminance signal and the color signal and these signals are processed separately Since it does not have a particularly important meaning to the invention, it will be described below as an image signal.

分離回路7からの画像信号はアナログ−デジタル変換回
路8に供給される。アナログ−デジタル変換回路8は、
画像信号を1フレーム当りM1×M2個の標本点を設定して
標本化してデジタル化する。
The image signal from the separation circuit 7 is supplied to the analog-digital conversion circuit 8. The analog-digital conversion circuit 8 is
The image signal is digitized by setting M 1 × M 2 sample points per frame.

すなわち、第3図(A)に示すように、フレームFの走査
線14中M2個の走査線について、夫々M1個の標本点を設定
し、画像信号の各標本点をデジタル化する。これは、1
フレームの全走査線数の1/M2本毎の走査線について、走
査線期間の1/M1期間毎に画像信号を標本化してデジタル
化すればよい。
That is, as shown in FIG. 3 (A), M 1 sample points are set for each of the M 2 scan lines in the scan lines 14 of the frame F, and each sample point of the image signal is digitized. This is 1
For every 1 / M 2 scanning lines of the total number of scanning lines in a frame, the image signal may be sampled and digitized every 1 / M 1 period of the scanning line period.

いま、標本点15の位置を(x,y)(但し、x,yは正
整数であって、1≦x≦M1,1≦y≦M2)とし、左上隅
の標本点の位置を(1,1)、右下隅の標本点の位置を
(M1,M2)とすると、デジタル化された画像信号はY
(x,y)でもって表わすことができる。
Now, the position of the sample point 15 is (x, y) (where x and y are positive integers and 1 ≦ x ≦ M 1 and 1 ≦ y ≦ M 2 ), and the position of the sample point at the upper left corner is (1,1), the position of the sample point in the lower right corner
If (M 1 , M 2 ), the digitized image signal is Y
It can be represented by (x, y).

アナログ−デジタル変換回路8からの画像信号は、減算
回路10とフレームメモリ9とに供給される。フレームメ
モリ9は1フレーム分の画像信号を記憶し、減算回路10
はフレームメモリ9に記憶された1フレーム分の画像信
号とこのフレームより一定時間間隔の他のフレームの画
像信号とを減算処理し、画像差信号を発生してフレーム
メモリ11に記憶させる。
The image signal from the analog-digital conversion circuit 8 is supplied to the subtraction circuit 10 and the frame memory 9. The frame memory 9 stores the image signals for one frame, and the subtraction circuit 10
Subtracts the image signal of one frame stored in the frame memory 9 from the image signal of another frame at a fixed time interval from this frame, generates an image difference signal and stores it in the frame memory 11.

ところで、被写体1(第1図)は移動するものであるか
ら、撮像画面に対する被写体画像の位置は時々刻々変化
し、このために、フレームメモリ9に記憶されたフレー
ムの画像信号とこれより一定時間間隔のフレームの画像
信号とは、被写体1の移動に応じて波形が異なり、この
結果、減算回路10から得られる画像差信号は、被写体1
の移動にともなう上記2つのフレームの画像間の差に応
じた信号である。
By the way, since the subject 1 (FIG. 1) is moving, the position of the subject image with respect to the imaging screen changes from moment to moment. For this reason, the image signal of the frame stored in the frame memory 9 and the constant time from this time. The waveform is different from the image signal of the frame of the interval according to the movement of the subject 1. As a result, the image difference signal obtained from the subtraction circuit 10 is the subject 1
Is a signal corresponding to the difference between the images of the above two frames due to the movement of the.

すなわち、第4図において、撮像装置2の撮像走査によ
り順次フレームが得られるが、いま、フレームF1,…
…,フレームFN-2,フレームFN-1,フレームFNのN
個のフレームを想定し、かつ、Aを被写体画像、Bを静
止体の画像とし、フレームFNの画像からフレームF1
画像を差し引くと、静止体Bの画像は相殺され、フレー
ムFNにおける被写体画像AとフレームF1における被写
体画像Aとの差画像A′のみからなる画像ΔFが得られ
る。フレームメモリ11に記憶される画像差信号は、かか
る画像ΔFに対応した信号である。フレームF1の画像
信号をY1(x,y)、フレームFNの画像信号をY
N(x,y)とすると、 YN(x,y)−Y1(x,y)=ΔY(x,y) が画像差信号である。なお、x,yは、第3図(A)の説
明で定義した値である。
That is, in FIG. 4, the frames are sequentially obtained by the imaging scan of the imaging device 2. Now, the frames F 1 , ...
..., frame F N-2, the frame F N-1, N of the frame F N
Assuming frames, and, A an object image, B was an image of the stationary body, Subtracting the images of frames F 1 from the image frame F N, the image of the stationary body B is canceled, the frame F N An image ΔF consisting of only the difference image A ′ between the subject image A and the subject image A in the frame F 1 is obtained. The image difference signal stored in the frame memory 11 is a signal corresponding to the image ΔF. The image signal of frame F 1 is Y 1 (x, y), and the image signal of frame F N is Y
Assuming that N (x, y), Y N (x, y) −Y 1 (x, y) = ΔY (x, y) is the image difference signal. Note that x and y are the values defined in the explanation of FIG.

この場合、減算回路10からの画像差信号は、絶対値を表
わす信号としてフレームメモリ11に記憶される。
In this case, the image difference signal from the subtraction circuit 10 is stored in the frame memory 11 as a signal representing an absolute value.

フレームメモリ11に記憶された画像差信号は、読み出さ
れてマイクロコンピュータなどからなる演算装置12に供
給される。
The image difference signal stored in the frame memory 11 is read and supplied to the arithmetic unit 12 including a microcomputer.

演算装置12は、まず、供給された画像差信号を用い、撮
像画面の基準点(たとえば、中心点)を原点として画像
差信号が表わす画像の重心点を算出する。
The arithmetic unit 12 first uses the supplied image difference signal to calculate the center of gravity of the image represented by the image difference signal with the reference point (for example, the center point) of the imaging screen as the origin.

そこで、まず、画像差信号ΔY(x,y)を所定の閾値
よりも大きければ1、小さければ0として2値化し、2
値化された画像信号を(x,y)とすると、重心位置
(xG,yG)は次式、すなわち、 によって算出される。
Therefore, first, the image difference signal ΔY (x, y) is binarized by setting 1 if it is larger than a predetermined threshold value and 0 if it is smaller than 2
If the binarized image signal is (x, y), the barycentric position (x G , y G ) is given by the following equation: Calculated by

ところで、撮像画面における被写体画像の移動量、移動
方向とこの被写体の移動にともなう画像差信号で表わさ
れる画像の重心点の移動量、移動方向との関係は、次の
ようになる。
By the way, the relationship between the moving amount and moving direction of the subject image on the imaging screen and the moving amount and moving direction of the center of gravity of the image represented by the image difference signal accompanying the movement of the subject is as follows.

1)重心点の移動量は被写体画像の移動量の1/2であ
る。
1) The amount of movement of the center of gravity is 1/2 of the amount of movement of the subject image.

2)重心点の移動方向は被写体画像の移動方向に一致す
る。
2) The moving direction of the center of gravity coincides with the moving direction of the subject image.

このことから、重心点の移動量、移動方向にもとづいて
被写体画像の移動量、移動方向を検出することができ
る。
From this, the moving amount and moving direction of the subject image can be detected based on the moving amount and moving direction of the center of gravity.

いま、撮像画面の中心点の位置を(x0,y0)とし、こ
の中心点(x0,y0)を原点とする座標を想定し、被写
体画像がこの原点を含む撮像画面の中心部の領域(以
下、基準領域という)に設定されたときのフレームF1
(第4図)の画像信号がフレームメモリ9(第2図)に
記憶されたものとすると、一定時間後のフレームF
N(第4図)の画像とフレームF1の画像との差の画像の
重心点の位置は(xG,yG)であるから、重心点は、 水平方向に、(xG−x0) 垂直方向に、(yG−y0) 移動したことなる。したがって、被写体画像は、 水平方向に、2×(xG−x0) 垂直方向に、2×(yG−y0) 移動したことになる。なお、水平方向とは走査線の方
向、垂直方向とは走査線に垂直な方向である。
Now, the position of the center point of the imaging plane and (x 0, y 0), the center point (x 0, y 0) assuming a coordinate whose origin, the subject image is the center of the imaging screen including the origin Frame F 1 when it is set to the area (hereinafter referred to as the reference area)
Assuming that the image signal of FIG. 4 is stored in the frame memory 9 (FIG. 2), the frame F after a certain time has passed.
Since the position of the center of gravity of the image of the difference between the image of N (FIG. 4) and the image of frame F 1 is (x G , y G ), the center of gravity is (x G −x 0 ) It means that (y G −y 0 ) has been moved in the vertical direction. Accordingly, the object image is in the horizontal direction, the 2 × (x G -x 0) vertical, 2 × (y G -y 0 ) will be moved. The horizontal direction is the direction of the scanning line, and the vertical direction is the direction perpendicular to the scanning line.

以上のようにして得られたデータにもとづいて、演算装
置12は制御信号を発生し、この制御信号は出力端子13か
ら制御部5(第1図)に供給される。
Based on the data obtained as described above, the arithmetic unit 12 generates a control signal, and this control signal is supplied from the output terminal 13 to the control unit 5 (FIG. 1).

このために、第1図において、撮像装置2は、被写体画
像が撮像画面の基準領域に設定されるように、制御され
てカメラ方向を変えられる。この信号処理部4は処理動
作を停止しており、カメラ方向が被写体に向けられて被
写体画像が撮像画面の基準領域に設定されると、信号処
理部4は上記の処理動作を再開する。
Therefore, in FIG. 1, the imaging device 2 is controlled and the camera direction can be changed so that the subject image is set in the reference area of the imaging screen. The signal processing unit 4 has stopped the processing operation, and when the camera direction is directed to the subject and the subject image is set to the reference area of the imaging screen, the signal processing unit 4 restarts the above-described processing operation.

このように、被写体の移動の計測と撮像装置1の制御と
が交互に繰り返されて自動追尾が行なわれる。
In this way, the measurement of the movement of the subject and the control of the image pickup apparatus 1 are alternately repeated to perform automatic tracking.

この実施例によると、パターン認識技術を用いることな
く、自動追尾を行なうことができて信号を処理するため
の回路とマイクロコンピュータなどの比較的小型の演算
装置でもって構成することができるし、また、被写体の
移動にともなう画像の変化分を処理対象とするものであ
るから、処理する情報量としては非常に少なく、演算処
理を迅速に行なうことができるとともに、使用されるフ
レームメモリも比較的小容量のものを用いることがで
き、応答速度が向上し、かつ、小型、軽量で安価なもの
となる。
According to this embodiment, it is possible to perform automatic tracking without using pattern recognition technology, and to configure with a circuit for processing signals and a relatively small arithmetic unit such as a microcomputer. The amount of information to be processed is very small because the amount of change in the image due to the movement of the subject is the processing target, the calculation processing can be performed quickly, and the frame memory used is relatively small. A device having a capacity can be used, the response speed is improved, and the device is small, lightweight and inexpensive.

なお、撮像画面の原点は必ずしも、その中心点とする必
要はなく、任意の点に設定することができ、したがっ
て、自動追尾によって設定される被写体画像は所望の位
置に設定するようにすることができる。
The origin of the image capturing screen does not necessarily have to be the center point of the image capturing screen, and can be set at any point. Therefore, the subject image set by automatic tracking can be set at a desired position. it can.

第5図は本発明による自動追尾カメラの他の実施例の説
明図であって、16は撮像画面、17,18は画角である。
FIG. 5 is an explanatory view of another embodiment of the automatic tracking camera according to the present invention, in which 16 is an image pickup screen and 17 and 18 are view angles.

この実施例は、画角を用いて被写体の移動を検知するも
のであって、基本構成としては、第1図、第2図と変わ
りはない。
In this embodiment, the movement of the object is detected using the angle of view, and the basic configuration is the same as in FIGS. 1 and 2.

第5図において、撮像装置2(第1図)の撮像画面16内
に2つの画角17,18を想定する。夫々の画角17,18の中心
点を撮像画面16の中心点に一致させ、小さい画角17を先
の基準領域となるように設定するとともに、画角18を所
望の大きさに設定する。したがって、被写体画像が常に
画角17内にあるように、自動追尾を行なう。また、画角
18は被写体が移動したか否かを判定するために用いられ
るものであって、画角17と画角18との間の領域(以下、
移動判定領域という)で画像差信号が生じた場合、被写
体が移動したと判定する。
In FIG. 5, two view angles 17 and 18 are assumed in the image pickup screen 16 of the image pickup apparatus 2 (FIG. 1). The center point of each of the field angles 17 and 18 is made to coincide with the center point of the imaging screen 16, the small field angle 17 is set to be the reference region, and the field angle 18 is set to a desired size. Therefore, automatic tracking is performed so that the subject image is always within the angle of view 17. Also, the angle of view
18 is used to determine whether or not the subject has moved, and is a region between the angle of view 17 and the angle of view 18 (hereinafter,
If an image difference signal occurs in the movement determination area), it is determined that the subject has moved.

第6図はこの実施例の動作を示すフローチャートであ
り、第2図、第5図、第6図により、この実施例の動作
を説明する。
FIG. 6 is a flow chart showing the operation of this embodiment, and the operation of this embodiment will be described with reference to FIGS. 2, 5, and 6.

先の実施例で説明したように、まず、フレームメモリ9
に1フレームの画像信号を記憶し(処理19)、一定時間
後の1フレームの画像信号との画像差信号を減算回路10
で得てフレームメモリ11に記憶する(処理20)。次に、
演算装置12は、フレームメモリ11の画角17,18間の移動
判定領域に対応したアドレスを読み出し、これらのアド
レス中に画像差信号が書き込まれているとき、すなわ
ち、“1”のデータがあるときにフラッグをセットする
(処理21)。
As described in the previous embodiment, first, the frame memory 9
The image signal of one frame is stored in (step 19), and the subtraction circuit 10 subtracts the image difference signal from the image signal of one frame after a fixed time.
Obtained and stored in the frame memory 11 (process 20). next,
The arithmetic unit 12 reads out the addresses corresponding to the movement determination area between the field angles 17 and 18 of the frame memory 11, and when the image difference signal is written in these addresses, that is, there is "1" data. Sometimes a flag is set (process 21).

次に、フラッグがセットされているか否かの判定を行な
い(判定22)、フラッグがセットされていなければ、被
写体の移動はないものとして処理20に戻る。この場合、
メモリ9は前に記憶された1フレームの画像信号をその
まま記憶しておき、さらに一定時間後の1フレームの画
像信号との画像差信号を得るようにする。
Next, it is determined whether or not the flag is set (determination 22). If the flag is not set, it is determined that the subject has not moved, and the process returns to the process 20. in this case,
The memory 9 stores the previously-stored one-frame image signal as it is, and further obtains an image difference signal from the one-frame image signal after a predetermined time.

フラッグがセットされていて判定22で「YES」という
判定がなされると、自動追尾動作を終了させる命令があ
るか否かの判定を行ない(判定23)、この命令がないと
きには画像18内について、先の実施例と同様の重心点の
算出、被写体画像の移動量および移動方向の検出、撮像
装置2(第1図)の制御によるカメラ方向の設定のため
の処理が行なわれ(処理24)、カメラ方向の設定が完了
すると、処理19に戻って再び同様の動作をなす。
If the flag is set and it is determined to be "YES" in determination 22, it is determined whether or not there is an instruction to end the automatic tracking operation (determination 23). If there is no such instruction, in image 18, The same processes as those for calculating the center of gravity, detecting the moving amount and moving direction of the subject image, and setting the camera direction under the control of the image pickup apparatus 2 (FIG. 1) are performed as in the previous embodiment (process 24). When the setting of the camera direction is completed, the process returns to step 19 and the same operation is performed again.

これら一連の動作が繰り返えされ、自動追尾動作を終了
させる命令があると、判定23で「YES」と判定されて
自動追尾動作は停止する。
When a series of these operations are repeated and there is an instruction to end the automatic tracking operation, it is determined to be “YES” in determination 23 and the automatic tracking operation is stopped.

この実施例では、画角18内の画像差信号を処理するもの
であるから、処理される情報量が、撮像画面全体にわた
る画像差信号を処理する場合よりも非常に少なくなり、
自動追尾動作がより迅速に行なわれるとともに、フレー
ムメモリ9,11(第2図)として、より容量が小さいも
のを用いることができる。また、画像差信号の処理範囲
が画角18内と小さな範囲に制限されるものであるから、
被写体画像の検出のための演算処理に対するノイズの影
響が大幅に軽減され、自動追尾の精度が大幅に向上す
る。
In this embodiment, since the image difference signal within the angle of view 18 is processed, the amount of information processed is much smaller than when processing the image difference signal over the entire imaging screen,
The automatic tracking operation is performed more quickly, and the frame memories 9 and 11 (FIG. 2) having a smaller capacity can be used. Also, since the processing range of the image difference signal is limited to a small range within the angle of view 18,
The influence of noise on the arithmetic processing for detecting the subject image is significantly reduced, and the accuracy of automatic tracking is greatly improved.

さらに、この実施例では、画角17,18間の移動判定領域
を受けて被写体画像の移動を検知し、被写体の移動が検
知されてからカメラ方向設定のための演算処理を行なう
ものであって、被写体に移動がないと判定されると、直
ちに、次のフレームがフレームメモリ9(第2図)に記
憶されているフレームとす画像差信号が検出されるもの
であるから、被写体画像が移動すると(すなわち、被写
体画像が画角17からはみ出すと)、直ちに、それが検知
され、自動追尾の応答特性が向上する。
Further, in this embodiment, the movement determination area between the angles of view 17 and 18 is received to detect the movement of the subject image, and after the movement of the subject is detected, the arithmetic processing for setting the camera direction is performed. As soon as it is determined that the subject has not moved, the image difference signal indicating that the next frame is the frame stored in the frame memory 9 (FIG. 2) is detected. Then (that is, when the subject image exceeds the angle of view 17), it is immediately detected, and the response characteristic of automatic tracking is improved.

なお、画角17,18は、互いに中心が一致するならば、撮
像画面16の任意の位置に設定することができ、したがっ
て、被写体をとらえる範囲を任意に設定することができ
る。
It should be noted that the angles of view 17 and 18 can be set to arbitrary positions on the imaging screen 16 if the centers thereof match each other, and thus the range of capturing the subject can be set arbitrarily.

第7図は本発明による自動追尾カメラのさらに他の実施
例の要部を示すブロック図であって、25は自動焦点調整
装置であり、第1図、第2図に対応する部分には同一符
号をつけて説明を一部省略する。
FIG. 7 is a block diagram showing a main part of still another embodiment of the automatic tracking camera according to the present invention, in which 25 is an automatic focus adjusting device, and the parts corresponding to those in FIGS. 1 and 2 are the same. A reference numeral is given and a part of the description is omitted.

この実施例は、移動体1(第1図)の移動方向が撮像装
置2(第1図)に近づく方向にある場合、ズーム倍率を
変化させて広角撮像にしたり、画角を大きくしたりなど
して被写体画像を所定の大きさに限定することができる
ようにしたものであって、第5図について先に説明した
実施例と同様に、撮像画面16内に画角17,18を想定す
る。
In this embodiment, when the moving direction of the moving body 1 (FIG. 1) is close to the image pickup device 2 (FIG. 1), the zoom magnification is changed to obtain wide-angle image pickup, or the angle of view is enlarged. The subject image can be limited to a predetermined size by assuming the angles of view 17 and 18 in the imaging screen 16 as in the embodiment described above with reference to FIG. .

第8図はこの実施例の動作の要部を示すフローチャート
である。この実施例の動作は、処理24が第8図のフロー
チャートで示す処理をなす点を除いて、第6図のフロー
チャートでもって表わされる。
FIG. 8 is a flow chart showing the main part of the operation of this embodiment. The operation of this embodiment is represented by the flowchart of FIG. 6 except that the processing 24 performs the processing shown in the flowchart of FIG.

第5図、第7図および第8図において、先の実施例で説
明したように、画角17,18間の移動判定領域によって被
写体画像が移動していることが検知されると、演算装置
12において、移動判定領域のいかなる部分に画像差信号
が存在するかの検出処理が行なわれる(処理26)。すな
わち、移動判定領域はいくつかの部分移動判定領域に区
分されており、処理26では、各部分移動判定領域毎に画
像差信号の有無を検出する。
In FIGS. 5, 7, and 8, as described in the previous embodiment, when it is detected that the subject image is moving due to the movement determination area between the field angles 17 and 18, the arithmetic unit
At 12, a process of detecting in which part of the movement determination area the image difference signal exists (process 26). That is, the movement determination area is divided into some partial movement determination areas, and in process 26, the presence or absence of an image difference signal is detected for each partial movement determination area.

次に、画角17についての画像差信号の重心の算出、被写
体画像の移動量および移動方向の検出のための演算処理
が、先の実施例で説明したように行なわれ、演算結果に
もとづく制御信号が制御部5に供給される。
Next, the calculation processing for calculating the center of gravity of the image difference signal for the angle of view 17 and detecting the moving amount and moving direction of the subject image is performed as described in the previous embodiment, and the control based on the calculation result is performed. The signal is supplied to the control unit 5.

次に、演算装置12は、処理26における検出結果にもとづ
いて、画角11に対して相反する複数の方向の部分移動判
定領域に画像差信号が存在するか否かの判定を行なう
(判定28)。この判定28は、被写体1(第1図)の移動
方向が撮像装置2(第1図)の方向であるか否を検出す
るものであって、この判定が「NO」であれば、被写体
1は撮像装置2に近づくものではないとし、第6図の処
理19に戻る。
Next, the arithmetic unit 12 determines, based on the detection result of the process 26, whether or not the image difference signal exists in the partial movement determination regions in a plurality of directions opposite to the angle of view 11 (determination 28 ). This determination 28 is to detect whether or not the moving direction of the subject 1 (FIG. 1) is the direction of the imaging device 2 (FIG. 1). If this determination is “NO”, the subject 1 Does not approach the image pickup apparatus 2, and the process returns to the process 19 in FIG.

これに対して、判定28が「YES」であるならば、ズー
ム倍率を算出するための計算処理がなされる(処理2
9)。この計算処理は、処理27でカメラ方向を変更した
後の画角17の中心点から被写体画像の最もはなれた標本
点(第3図)までの距離を求めるものである。
On the other hand, if the determination 28 is “YES”, calculation processing for calculating the zoom magnification is performed (processing 2
9). This calculation process is to obtain the distance from the center point of the angle of view 17 after changing the camera direction in process 27 to the farthest sample point (FIG. 3) of the subject image.

いま、被写体画像の移動ベクトルを(Δx,Δy)、画角
17の中心点の座標を(xc,yc)、処理27前の被写体画
像の各標本点の座標を(x,y)とすると、処理27によ
って被写体画像は(−Δx,−Δy)移動したことになる
から、処理27後の被写体画像の各標本点の画角17の中心
点からの距離dは、 である。この式から、各標本点の距離dが算出される
と、次に、これらのうちの最大値となる距離dmaxを選
びだす。このdmaxに対する標本点がカメラ方向設定後
の被写体画像の画角17の中心点から最も離れている標本
点である。
Now, the movement vector of the subject image is (Δx, Δy), the angle of view
Assuming that the coordinates of the center point of 17 are (x c , y c ) and the coordinates of each sample point of the subject image before processing 27 are (x, y), the subject image is moved by (−Δx, −Δy) by processing 27. Therefore, the distance d from the center point of the angle of view 17 of each sample point of the subject image after the process 27 is Is. When the distance d of each sample point is calculated from this equation, the maximum distance dmax of these is next selected. The sample point for this dmax is the sample point farthest from the center point of the angle of view 17 of the subject image after setting the camera direction.

なお、画角17,18間の移動判定領域に画像差信号が検出
されて始めて処理29が行なわれるから、この移動判定領
域中の画像差信号は、処理27前の被写体画像の画像信号
とみなすことができ、したがって、x,yは移動判定領
域内の標本点の座標値である。また、Δx,Δyは、処理
27によって検出された被写体画像の移動量、移動方向か
ら得られる。
Since the process 29 is performed only after the image difference signal is detected in the movement determination region between the angle of view 17 and 18, the image difference signal in this movement determination region is regarded as the image signal of the subject image before the process 27. Therefore, x and y are the coordinate values of the sample points in the movement determination area. Also, Δx and Δy are the processing
It is obtained from the moving amount and moving direction of the subject image detected by 27.

このようにして得られたdmaxと自動焦点調整装置25か
らのズーム倍率とにより、dmaxに対応した標本点が画
角17内に入るようにズーム倍率が算出され、この結果、
制御信号が自動焦点調整装置25に供給されて被写体画像
全体が画角17に納まるようにズームレンズが制御され
る。そして、ズームレンズの制御が完了すると、第6図
の処理19に戻る。
From the dmax thus obtained and the zoom magnification from the automatic focusing device 25, the zoom magnification is calculated so that the sample point corresponding to dmax falls within the angle of view 17, and as a result,
A control signal is supplied to the automatic focus adjustment device 25, and the zoom lens is controlled so that the entire subject image fits within the angle of view 17. Then, when the control of the zoom lens is completed, the process returns to the process 19 of FIG.

なお、この実施例では、演算装置12での被写体画像の移
動の有無検知のための処理を含めて演算処理毎に、フレ
ームメモリ9に書き込まれるフレームは新められる(す
なわち、第6図において、判定22で「NO」と判定され
ると、処理19に戻る。)これは、ズーム倍率に誤りが生
じないようにするためである。
In this embodiment, the frame written in the frame memory 9 is renewed for each calculation process including the process for detecting the movement of the subject image in the calculation device 12 (that is, in FIG. If the result of the determination 22 is "NO", the process returns to step 19.) This is to prevent an error in the zoom magnification.

この実施例は、被写体の撮像装置からの距離に関係な
く、被写体画像を画角17内に納めることができ、被写体
画像の移動の有無を正確に検知することができるし、ま
た、被写体画像の移動量や移動の方向も正確に検出する
ことができて、自動追尾が被写体の移動方向に関係なく
正確に行なわれる。
In this embodiment, the subject image can be stored within the angle of view 17 regardless of the distance of the subject from the image pickup device, and the presence or absence of movement of the subject image can be accurately detected. The amount of movement and the direction of movement can also be detected accurately, and automatic tracking can be performed accurately regardless of the moving direction of the subject.

なお、以上の実施例では、メモリ11,12としてフレーム
メモリを用いたが、フィールドメモリを用いることもで
きる。
Although frame memories are used as the memories 11 and 12 in the above embodiments, field memories may be used.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明によると、複雑な処理を必
要とせず、簡単な回路構成でもって誤りがなく、しか
も、迅速に自動追尾を行なうことができ、小型、軽量か
つ安価であって、上記従来技術にない優れた機能の自動
追尾カメラを提供することができる。
As described above, according to the present invention, there is no need for complicated processing, there is no error even with a simple circuit configuration, and moreover, quick automatic tracking can be performed, which is small, lightweight and inexpensive, It is possible to provide an automatic tracking camera having an excellent function that the above-mentioned conventional art does not have.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明による自動追尾カメラの一実施例を示す
ブロック図、第2図は第1図の信号処理部の一具体例を
示すブロック図、第3図(A)は1フレームの画像の標本
点を示す説明図、第3図(B)は第3図(A)の走査線中の画
像信号の標本点を示す説明図、第4図は第2図の画像差
信号発生のための処理動作を示す説明図、第5図は本発
明による自動追尾カメラの他の実施例の説明図、第6図
は第5図の実施例の動作を示すフローチャート、第7図
は本発明による自動追尾カメラのさらに他の実施例の要
部を示すブロック図、第8図は第7図の実施例の動作の
要部を示すフローチャートである。 2……撮像装置、3……カメラ回路 4……信号処理部、5……制御部 9……フレームメモリ、10……減算回路 11……フレームメモリ、12……演算装置 16……撮像画面、17,18……画角 25……自動焦点調整装置
FIG. 1 is a block diagram showing an embodiment of an automatic tracking camera according to the present invention, FIG. 2 is a block diagram showing a specific example of the signal processing unit of FIG. 1, and FIG. 3 (A) is an image of one frame. Of FIG. 3, FIG. 3 (B) is an explanatory view showing the sampling points of the image signal in the scanning line of FIG. 3 (A), and FIG. 4 is for the image difference signal generation of FIG. 5 is an explanatory view of another embodiment of the automatic tracking camera according to the present invention, FIG. 6 is a flowchart showing the operation of the embodiment of FIG. 5, and FIG. 7 is according to the present invention. FIG. 8 is a block diagram showing the main part of still another embodiment of the automatic tracking camera, and FIG. 8 is a flowchart showing the main part of the operation of the embodiment of FIG. 2 ... Imaging device, 3 ... Camera circuit, 4 ... Signal processing unit, 5 ... Control unit, 9 ... Frame memory, 10 ... Subtraction circuit, 11 ... Frame memory, 12 ... Computing device, 16 ... Imaging screen , 17, 18 …… Angle of view 25 …… Automatic focus adjustment device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 衣笠 敏郎 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所家電研究所内 (72)発明者 持丸 芳明 神奈川県横浜市戸塚区吉田町292番地 日 立ビデオエンジニアリング株式会社内 (72)発明者 成田 徳孝 神奈川県横浜市戸塚区吉田町292番地 日 立ビデオエンジニアリング株式会社内 (56)参考文献 特開 昭54−89417(JP,A) 特開 昭54−161821(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshiro Kinugasa 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Home Appliances Research Laboratory, Hitachi, Ltd. (72) Inventor Yoshiaki Mochimaru 292 Yoshida-cho, Totsuka-ku, Yokohama, Kanagawa In the Tate Video Engineering Co., Ltd. (72) Inventor Noritaka Narita 292 Yoshida-cho, Totsuka-ku, Yokohama City, Kanagawa Prefecture In the Nititsu Video Engineering Co., Ltd. (56) Reference JP 54-89417 (JP, A) JP 54 -161821 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】追尾すべき被写体の移動量、移動方向を計
測し、計測結果により、該被写体を撮像可能に制御され
る自動追尾カメラにおいて、 撮像装置から得られる画像信号が供給され一定時間間隔
の画像間の差を表わす画像差信号を得る差信号検出手段
と、 前記撮像装置の撮像画面の所定領域を第1の画角とし、
該第1の画角外で、かつ、該第1の画角を含む第2の画
角内に画像間の差があることを検知する移動検知手段
と、 前記画像差信号により前記撮像画面における前記画像間
の差の重心位置を算出し該撮像画面における被写体画像
の移動量及び移動方向を検知する演算手段とを設け、 前記被写体の画像を前記撮像画面の所定領域内に設定す
ることができるように構成したことを特徴とする自動追
尾カメラ。
1. An automatic tracking camera, which measures a moving amount and a moving direction of an object to be tracked and is controlled so that the object can be imaged according to the measurement result, is supplied with an image signal obtained from an imaging device at a constant time interval. Difference signal detection means for obtaining an image difference signal representing the difference between the images, and a predetermined area of the image pickup screen of the image pickup device as a first angle of view,
Movement detecting means for detecting a difference between images outside the first angle of view and within a second angle of view including the first angle of view; An arithmetic means for calculating the barycentric position of the difference between the images and detecting the moving amount and moving direction of the subject image on the imaging screen can be provided, and the image of the subject can be set within a predetermined area of the imaging screen. An automatic tracking camera having the above-mentioned configuration.
JP58082757A 1983-05-13 1983-05-13 Automatic tracking camera Expired - Lifetime JPH0614698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58082757A JPH0614698B2 (en) 1983-05-13 1983-05-13 Automatic tracking camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58082757A JPH0614698B2 (en) 1983-05-13 1983-05-13 Automatic tracking camera

Publications (2)

Publication Number Publication Date
JPS59208983A JPS59208983A (en) 1984-11-27
JPH0614698B2 true JPH0614698B2 (en) 1994-02-23

Family

ID=13783311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58082757A Expired - Lifetime JPH0614698B2 (en) 1983-05-13 1983-05-13 Automatic tracking camera

Country Status (1)

Country Link
JP (1) JPH0614698B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251429A (en) * 2006-03-14 2007-09-27 Omron Corp Moving image imaging unit, and zoom adjustment method
US7346188B2 (en) 2004-08-23 2008-03-18 Denso Corporation Motion detection method and device, program and vehicle surveillance system
JP2010035813A (en) * 2008-08-05 2010-02-18 Fujishoji Co Ltd Game machine

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2589469B2 (en) * 1986-03-10 1997-03-12 株式会社日立製作所 Automatic tracking video camera
JPH0576007A (en) * 1991-09-13 1993-03-26 Nkk Corp Monitoring method by television camera
JP2946897B2 (en) * 1991-12-25 1999-09-06 ミツミ電機株式会社 Imaging device
US6661450B2 (en) 1999-12-03 2003-12-09 Fuji Photo Optical Co., Ltd. Automatic following device
US7256817B2 (en) * 2000-10-26 2007-08-14 Fujinon Corporation Following device
JP4745769B2 (en) 2005-09-13 2011-08-10 キヤノン株式会社 Camera head unit
JP4894712B2 (en) 2007-10-17 2012-03-14 ソニー株式会社 Composition determination apparatus, composition determination method, and program
JP5115139B2 (en) 2007-10-17 2013-01-09 ソニー株式会社 Composition determination apparatus, composition determination method, and program
JP4508257B2 (en) 2008-03-19 2010-07-21 ソニー株式会社 Composition determination apparatus, composition determination method, and program
JP5206095B2 (en) 2008-04-25 2013-06-12 ソニー株式会社 Composition determination apparatus, composition determination method, and program
JP5359645B2 (en) * 2009-07-23 2013-12-04 ソニー株式会社 Composition determination apparatus, imaging system, composition determination method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5925509B2 (en) * 1977-12-27 1984-06-18 日本アビオニクス株式会社 Image tracking method
JPS54161821A (en) * 1978-06-13 1979-12-21 Mitsubishi Electric Corp Picture tracking device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346188B2 (en) 2004-08-23 2008-03-18 Denso Corporation Motion detection method and device, program and vehicle surveillance system
JP2007251429A (en) * 2006-03-14 2007-09-27 Omron Corp Moving image imaging unit, and zoom adjustment method
JP2010035813A (en) * 2008-08-05 2010-02-18 Fujishoji Co Ltd Game machine

Also Published As

Publication number Publication date
JPS59208983A (en) 1984-11-27

Similar Documents

Publication Publication Date Title
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
JPH0614698B2 (en) Automatic tracking camera
CN106488115B (en) For tracking and sensing the control device and method of the image sensing apparatus of tracking target
JP2002374521A (en) Method and device for monitoring mobile object
JPH0810132B2 (en) Target pattern rotation angle detection method
JPH1169342A (en) Image processing system for tracking intruding object
JPH1144533A (en) Preceding vehicle detector
WO2005088962A1 (en) Tracking device and motion capture device
JPH1093957A (en) Mobile object detecting method, device, system and storage medium
CN116597361A (en) Image recognition tracking method, device and equipment of cleaning machine and readable storage medium
KR100615672B1 (en) Fire observation system using xy axis projection graph and its fire observation method and computer-readable recording medium to realize fire observation method
JPH0514891A (en) Image monitor device
JPH10126766A (en) Monitoring camera equipment
JPH05300516A (en) Animation processor
JP3432937B2 (en) Moving object detecting device and moving object detecting method
JP3615970B2 (en) Moving object detection method
JP2000081322A (en) Slip angle measuring method and apparatus
JPH09178855A (en) Method of detecting obstruction
JP3616355B2 (en) Image processing method and image processing apparatus by computer
KR100269784B1 (en) Method for detecting shaded region in image
JPH0591513A (en) Image monitoring device
JP4039423B2 (en) Edge position calculation device, obstacle detection system
JP2508916B2 (en) Tracking distance measuring device
JP2006293629A (en) Method and device for detecting height of mobile object, and method for determining object shape
JPH01256290A (en) Moving vector detector