JP3174869B2 - Target object tracking device - Google Patents

Target object tracking device

Info

Publication number
JP3174869B2
JP3174869B2 JP23739092A JP23739092A JP3174869B2 JP 3174869 B2 JP3174869 B2 JP 3174869B2 JP 23739092 A JP23739092 A JP 23739092A JP 23739092 A JP23739092 A JP 23739092A JP 3174869 B2 JP3174869 B2 JP 3174869B2
Authority
JP
Japan
Prior art keywords
target object
color
area
image data
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23739092A
Other languages
Japanese (ja)
Other versions
JPH0683963A (en
Inventor
啓之 阿部
勝 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP23739092A priority Critical patent/JP3174869B2/en
Priority to US08/114,148 priority patent/US5392088A/en
Priority to EP19930202587 priority patent/EP0586019A3/en
Publication of JPH0683963A publication Critical patent/JPH0683963A/en
Priority to US08/291,603 priority patent/US5512974A/en
Application granted granted Critical
Publication of JP3174869B2 publication Critical patent/JP3174869B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、カメラ等の撮像手段で
得られた入力画像データと、記憶手段内に記憶された参
照画像データとの間で残差演算を行い、この撮像手段の
視野領域内において所定の目標物体を追尾する目標物体
追尾装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs a residual operation between input image data obtained by an image pickup means such as a camera and reference image data stored in a storage means to obtain a field of view of the image pickup means. The present invention relates to a target object tracking device that tracks a predetermined target object in an area.

【0002】[0002]

【従来の技術】この種の目標物体追尾装置としては、た
とえば特公昭60−33350号公報、特公昭61−1
9076号公報に開示されたものがある。これらは、予
め記憶した参照画面と、撮像装置から供給される画像信
号をA/D変換した入力画面との相関係数を求め、この
相関係数の最大値を与える座標を検出して所定の目標物
体を追尾する。この際、追尾動作の実時間化を目的とし
て、入力画面内に相関演算用の領域を設け、この領域内
において参照画面との相関係数演算を行っている。
2. Description of the Related Art A target object tracking apparatus of this type is disclosed in, for example, Japanese Patent Publication No. 60-33350 and Japanese Patent Publication No.
There is one disclosed in Japanese Patent No. 9076. These obtain a correlation coefficient between a reference screen stored in advance and an input screen obtained by A / D-converting an image signal supplied from the imaging apparatus, and detect a coordinate giving a maximum value of the correlation coefficient to obtain a predetermined value. Track the target object. At this time, for the purpose of realizing the tracking operation in real time, an area for correlation calculation is provided in the input screen, and the correlation coefficient calculation with the reference screen is performed in this area.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の目標物体追尾装置にあっては、相関演算用の領
域は、前回の追尾動作により得られた目標物体の位置を
中心にして設定されるか、あるいは入力画面内で固定さ
れていたので、スポーツシーンなど動きの速い目標物体
はこの相関演算用の領域から目標物体が外れてしまうお
それがあり、その位置を追尾することが困難であった。
また、スポーツシーンなどでは目標物体の形状が変化し
たり(たとえば正面向きが横向きになる)、あるいは目
標物体の輝度が変化する(たとえば日向から日陰へ移動
する)と、予め記憶されている参照画像との相関演算に
よっては目標物体の位置を追尾できない場合が生じてい
た。
However, in the above-described conventional target object tracking apparatus, the area for correlation calculation is set centering on the position of the target object obtained by the previous tracking operation. Or fixed within the input screen, a fast moving target object such as a sports scene may fall out of the correlation calculation area, making it difficult to track its position. .
In a sports scene or the like, when the shape of the target object changes (for example, the front direction becomes horizontal) or the luminance of the target object changes (for example, the target object moves from the sun to the shade), the reference image stored in advance. In some cases, it may not be possible to track the position of the target object depending on the correlation calculation.

【0004】本発明の目的は、動きの速い目標物体の位
置を迅速かつ確実に追尾することの可能な目標物体追尾
装置を提供することにある。
It is an object of the present invention to provide a target object tracking device capable of quickly and reliably tracking the position of a fast moving target object.

【0005】[0005]

【課題を解決するための手段】クレーム対応図である図
1に対応付けて説明すると、請求項1の発明は、被写界
を測光して複数の色成分を有する入力画像データを出力
する撮像手段101と、撮影手段101の出力に基づい
て、追尾すべき目標物体の画像データとなる参照画像デ
ータを記憶する記憶手段102と、入力画像データおよ
び参照画像データの最小残差量を算出する演算手段10
3と、最小残差量に基づいて目標物体の位置を検出する
位置検出手段104とを備えた目標物体追尾装置に適用
される。そして、参照画像データが含まれる領域に隣接
する隣接領域を被写界内に設定する隣接領域設定手段1
07と、参照画像データおよび隣接領域に含まれる入力
画像データの残差値を複数の色成分別に算出し、この残
差値の最小値が最も大きくなる色を検出する残差値色検
出手段109と、残差値色検出手段109により検出さ
れた色を選択する色選択手段105とを備え、演算手段
103は、色選択手段105により選択された色の成分
について最小残差量を演算することにより、上述した目
的を達成する。請求項2の発明は、請求項1に記載の目
標物体追尾装置において、隣接領域設定手段107は、
参照画像データが含まれる領域を所定数の画素に対応し
てずらすことにより隣接領域を被写界内に設定すること
を特徴とする。請求項3の発明は、請求項2に記載の目
標物体追尾装置において、隣接領域設定手段107は、
参照画像データが含まれる領域を上下左右、および左右
斜め上下にそれぞれ1画素分ずらすことにより隣接領域
を被写界内に設定することを特徴とする。
According to a first aspect of the present invention, there is provided an imaging apparatus for measuring an object field and outputting input image data having a plurality of color components. Means 101, storage means 102 for storing reference image data serving as image data of a target object to be tracked based on the output of the photographing means 101, and calculation for calculating the minimum residual amount of the input image data and the reference image data Means 10
3 and a target object tracking device including a position detection unit 104 for detecting the position of the target object based on the minimum residual amount. Then, an adjacent area setting means 1 for setting an adjacent area adjacent to the area including the reference image data in the object scene
07, the residual value of the reference image data and the residual value of the input image data included in the adjacent area are calculated for each of a plurality of color components, and the residual value color detecting means 109 for detecting the color having the maximum minimum residual value is detected. And a color selecting means 105 for selecting a color detected by the residual value color detecting means 109. The calculating means 103 calculates the minimum residual amount for the color component selected by the color selecting means 105. Thereby, the above-described object is achieved. According to a second aspect of the present invention, in the target object tracking apparatus according to the first aspect, the adjacent area setting means 107 includes:
An adjacent area is set in the object scene by shifting an area including the reference image data corresponding to a predetermined number of pixels. According to a third aspect of the present invention, in the target object tracking apparatus according to the second aspect, the adjacent area setting means 107 includes:
An adjacent area is set in the field by shifting the area including the reference image data up, down, left and right, and left, right, up and down by one pixel.

【0006】[0006]

【作用】−請求項1− 色選択手段105は、参照画像データ、および参照画像
データが含まれる領域に隣接する隣接領域に含まれる入
力画像データについて複数の色成分別に算出される残差
値の最小値が最も大きくなる色を選択し、演算手段10
3は、この色選択手段105により選択された色の成分
について最小残差量を演算する。色選択手段105によ
り、複数存在する色の中から1つの色を選択すれば、演
算手段103により全ての色成分について最小残差量を
算出する場合に比較して、演算手段103における演算
手順の省略、演算時間の短縮を図ることができる。
The color selecting means (105) calculates a residual value calculated for each of a plurality of color components with respect to reference image data and input image data included in an area adjacent to the area including the reference image data. The color having the largest minimum value is selected, and the calculation means 10
3 calculates the minimum residual amount for the color component selected by the color selection means 105. When one color is selected from a plurality of existing colors by the color selection unit 105, the calculation procedure in the calculation unit 103 is compared with the case where the calculation unit 103 calculates the minimum residual amount for all the color components. Omission and shortening of calculation time can be achieved.

【0007】[0007]

【実施例】【Example】

(一実施例)図2は、本発明による目標物体追尾装置の
一実施例が内蔵されたカメラを示す概略図である。図に
おいて、1は銀塩写真に適用される一眼レフカメラ(以
下、単にカメラと称する)であり、このカメラ1におい
て、被写体からの光はカメラ1前部の撮影レンズ2を通
り、ミラー3により上方に向けて反射されてスクリーン
4上で結像される。撮影者は、このスクリーン4上に結
像した被写体像をプリズム5および接眼レンズ9を通し
て観察する。また、スクリーン4上の被写体像は再結像
レンズ6により撮像センサ7上に結像され、この撮像セ
ンサ7からの出力はマイクロコンピュータ等を内蔵する
演算装置8によって処理される。演算装置8は不図示の
記憶素子を備え、この記憶素子内にはテンプレートとな
る参照画像がデジタルデータとして記憶される。
(Embodiment) FIG. 2 is a schematic diagram showing a camera in which an embodiment of the target object tracking apparatus according to the present invention is incorporated. In the figure, reference numeral 1 denotes a single-lens reflex camera (hereinafter simply referred to as a camera) applied to silver halide photography. In this camera 1, light from a subject passes through a photographing lens 2 in front of the camera 1 and is reflected by a mirror 3 The light is reflected upward and forms an image on the screen 4. The photographer observes the subject image formed on the screen 4 through the prism 5 and the eyepiece 9. A subject image on the screen 4 is formed on an image sensor 7 by a re-imaging lens 6, and an output from the image sensor 7 is processed by an arithmetic unit 8 including a microcomputer or the like. The arithmetic unit 8 includes a storage element (not shown), in which a reference image serving as a template is stored as digital data.

【0008】図3は、撮像センサ7の詳細を示す図であ
る。図3に示すように、撮像センサ7はマトリクス状に
配列された複数(図示例では18列×12行)の画素1
0を備えており、撮影者が観察する被写界像と等価な像
がこの撮像センサ7上に結像される。図中、Aは撮影者
が観察する被写界全体(すなわち撮像センサ7全体)に
対応する視野領域、Bは目標物体検出位置を示す追尾領
域であり、本実施例では追尾領域Bは4列×4行の画素
から構成されている。各画素10は、図4に示すように
さらに3つの細画素11a〜11cに分割されており、
これら細画素11a〜11cのそれぞれに図示のごとく
RGB3原色フィルター(不図示)が設けられることに
より、被写体像のRGB出力が得られる。
FIG. 3 is a diagram showing details of the image sensor 7. As shown in FIG. 3, the image sensor 7 includes a plurality of pixels 1 (18 columns × 12 rows in the illustrated example) arranged in a matrix.
0, an image equivalent to the object scene image observed by the photographer is formed on the image sensor 7. In the figure, A is a visual field region corresponding to the entire object field observed by the photographer (that is, the entire image sensor 7), B is a tracking region indicating a target object detection position, and in this embodiment, the tracking region B has four columns. It is composed of × 4 rows of pixels. Each pixel 10 is further divided into three fine pixels 11a to 11c as shown in FIG.
Each of the fine pixels 11a to 11c is provided with an RGB primary color filter (not shown) as shown in the figure, so that an RGB output of a subject image can be obtained.

【0009】次に、図5〜図6、図9〜図10のフロー
チャートおよび図11〜図16を参照して、本実施例の
カメラ1の動作について説明する。 (1) 色選択処理 図5のフローチャートに示すプログラムは、撮影者が被
写体像を観察して目標となる被写体を追尾領域B内に捉
えた段階で、たとえば不図示のレリーズボタンを半押し
する等の動作で撮影者が被写体捕捉を指令することによ
り開始する。なお、プログラム開始時においては、図3
に示すように追尾領域Bは視野領域Aの略中央に位置し
ているものとする。
Next, the operation of the camera 1 of the present embodiment will be described with reference to FIGS. 5 to 6, FIGS. 9 to 10, and FIGS. (1) Color Selection Process The program shown in the flowchart of FIG. 5 is a process in which a photographer observes a subject image and captures a target subject in the tracking area B, for example, half-presses a release button (not shown). The operation is started by the photographer instructing the subject to be captured in the above operation. At the start of the program,
It is assumed that the tracking area B is located substantially at the center of the visual field area A as shown in FIG.

【0010】まず、ステップS1では追尾領域B内の各
画素のRGB出力を撮像センサ7から得る。追尾領域B
内のRGB出力は、演算装置8内の不図示の一時記憶素
子内に格納される。サブルーチンSR1では、ステップ
S1で得られた追尾領域B内のRGB出力の中からいず
れか1つの色出力を選択する色選択処理が行われる。
First, in step S 1, the RGB output of each pixel in the tracking area B is obtained from the image sensor 7. Tracking area B
Are stored in a temporary storage element (not shown) in the arithmetic unit 8. In the subroutine SR1, a color selection process is performed to select any one of the RGB outputs in the tracking area B obtained in step S1.

【0011】色選択処理の詳細は図6のフローチャート
に示される。ステップS101では、ステップS1で得
られた追尾領域B内のRGB出力を各色毎に加算する。
ステップS102では、ステップS101で得られた加
算結果の最大値を求め、この最大値が得られた色(R、
G、Bのいずれか)を検出、選択する。以降、選択され
た色をαで示す。この後、プログラムは図5のメインル
ーチンに戻る。
The details of the color selection process are shown in the flowchart of FIG. In step S101, the RGB outputs in the tracking area B obtained in step S1 are added for each color.
In step S102, the maximum value of the addition result obtained in step S101 is obtained, and the color (R,
G or B) is detected and selected. Hereinafter, the selected color is indicated by α. Thereafter, the program returns to the main routine of FIG.

【0012】ステップS2では、追尾領域B内のRGB
出力のうちサブルーチンSR1で選択された色αの出力
をBij(i,j=1〜4)とおき、演算装置8内の不図
示の記憶素子内に行列形式で格納する。この値Bijが、
位置を追尾すべき目標被写体(目標物体)が含まれる参
照画像データである。
In step S2, the RGB in the tracking area B
Out of the outputs, the output of the color α selected in the subroutine SR1 is set as B ij (i, j = 1 to 4), and stored in a storage element (not shown) in the arithmetic unit 8 in a matrix form. This value B ij is
This is reference image data including a target subject (target object) whose position is to be tracked.

【0013】(2) 演算領域設定 ステップS3では、視野領域A内の各画素の色αの出力
を撮像センサ7から得る。視野領域A内の色αの出力
は、演算装置8内の不図示の一時記憶手段に格納され
る。ステップS4では追尾領域Bの速度ベクトルおよび
加速度ベクトルを算出する。図11に示すように、追尾
領域Bは目標被写体の移動に連れて視野領域A内で移動
し、後述のステップS9で目標被写体を検出する毎にそ
の位置が設定される。速度ベクトルV(vx,vy)は、
ステップS9における目標被写体検出間隔の間に追尾領
域Bが移動した行方向(以下Y方向ともいう)および列
方向(以下X方向ともいう)の画素数で定義される。ま
た、加速度ベクトルAC(ax,ay)は、互いに隣り合
う速度ベクトルV1、V2(図11参照)の行方向および
列方向の変化量(ax=v1x−v2x、ay=v1y−v2y
で定義される。
(2) Calculation Area Setting In step S 3, an output of the color α of each pixel in the visual field area A is obtained from the image sensor 7. The output of the color α in the visual field area A is stored in a temporary storage unit (not shown) in the arithmetic unit 8. In step S4, a velocity vector and an acceleration vector of the tracking area B are calculated. As shown in FIG. 11, the tracking area B moves within the visual field area A with the movement of the target subject, and its position is set each time the target subject is detected in step S9 described later. The velocity vector V (v x , v y )
It is defined by the number of pixels in the row direction (hereinafter also referred to as Y direction) and the column direction (hereinafter also referred to as X direction) in which the tracking area B has moved during the target subject detection interval in step S9. Further, the acceleration vector AC (a x, a y), the velocity vector V 1 adjacent to each other, V 2 row and column directions of the amount of change (see Fig. 11) (a x = v 1x -v 2x, a y = V1y- v2y )
Is defined by

【0014】ステップS5では、ステップS4で算出さ
れた速度ベクトルVの各成分の変化量(すなわち加速度
ベクトルの各成分)の絶対値|v1x−v2x|、|v1y−v
2y|が予め定められた閾値T1より小さいか否かが判定さ
れ、判定が肯定されるとプログラムはステップS6へ移
行し、判定が否定されるとステップS7へ移行する。閾
値T1は、目標被写体がほぼ等速で移動しているか否か
を判定するためのものであり、速度ベクトルの測定誤差
等に応じて適宜設定される。ステップS6では、速度ベ
クトルV1、V2の変化量が閾値T1以下の小さい値であ
るから目標被写体は次回もほぼ同じ速度ベクトルをもっ
て移動するものと仮定し、図11に示すようにV0=V1
とおいて現在の追尾領域Bの位置から速度ベクトルV0
だけずれた位置に演算領域C(演算領域については後述
する)を設定する。この後、プログラムはステップSR
2へ移行する。
In step S5, the absolute values | v 1x -v 2x |, | v 1y -v of the amounts of change in the components of the velocity vector V calculated in step S4 (ie, the components of the acceleration vector).
2y | it is determined whether predetermined thresholds T 1 smaller than, the determination is affirmative the program proceeds to step S6, the determination is negative the process proceeds to step S7. Thresholds T 1 is for determining whether the target object is moving at approximately constant velocity, is appropriately set according to the measurement error of the velocity vector. In step S6, the target object because the amount of change in the velocity vector V 1, V 2 are thresholds T 1 following a small value is assumed to be moved also have approximately the same velocity vector next, V 0 as shown in FIG. 11 = V 1
In addition, the velocity vector V 0 is calculated from the current position of the tracking area B.
The calculation area C (the calculation area will be described later) is set at a position shifted by only this. After this, the program proceeds to step SR
Move to 2.

【0015】次に、ステップS7では、ステップS4で
算出された加速度ベクトルACの絶対値が予め定められ
た閾値T2より大きいか否かが判定され、判定が肯定さ
れるとプログラムはステップS8へ移行し、判定が否定
されるとサブルーチンSR2へ移行する。閾値T2は、
目標被写体の速度が急激に変化しているか否かを判定す
るためのものであり、演算領域の大きさ等に応じて適宜
設定される。ステップS8では、加速度ベクトルACの
値が閾値T2以上の大きい値であるから目標被写体の動
きは不確定である(速度がより早まるかもしれず、ある
いは突然停止するかもしれない、など)とし、V0=V1
とおいて現在の追尾領域Bの位置から速度ベクトルV0
だけずれた位置に通常の演算領域より大きい演算領域C
(たとえば行、列ともに2倍、あるいはそれ以上)を設
定する。
Next, in step S7, whether the absolute value is greater than the threshold T 2 for the predetermined is calculated acceleration vector AC in step S4, it is determined if the decision is affirmative the program to step S8 The process proceeds to a subroutine SR2 if the determination is negative. The threshold T 2 is
This is for determining whether or not the speed of the target subject is rapidly changing, and is appropriately set in accordance with the size of the calculation area. In step S8, the movement of the target subject from the value of the acceleration vector AC is the threshold value T 2 or more large value is indeterminate (Shirezu be speed is accelerated more or might suddenly stop, and), V 0 = V 1
In addition, the velocity vector V 0 is calculated from the current position of the tracking area B.
Calculation area C larger than the normal calculation area
(For example, twice or more for both rows and columns).

【0016】(3) 最小残差量演算 サブルーチンSR2では最小残差量演算が行われる。最
小残差量演算の詳細は図9のフローチャートに示され
る。まず、ステップS201では初期設定が行われる。
具体的には、図12に示す演算領域C内の左上隅に検出
領域を設定し、カウンタnに1を代入する。図12は追
尾領域、演算領域および検出領域の位置関係を示す図で
ある。図12において、Cは目標被写体が検索される領
域を示す演算領域である。図示例では追尾領域Bを中心
としてこの追尾領域Bより行方向、列方向ともに1画素
分だけ広い領域に演算領域Cが設定されているが、後述
のごとく演算領域Cの大きさは図示例に限定されない。
Dは追尾領域Bとの残差演算が行われる領域を示す検出
領域であり、追尾領域Bと等しい4列×4行の画素から
構成されている。
(3) Minimum residual amount calculation In the subroutine SR2, a minimum residual amount calculation is performed. Details of the minimum residual amount calculation are shown in the flowchart of FIG. First, in step S201, initialization is performed.
Specifically, a detection area is set at the upper left corner in the calculation area C shown in FIG. 12, and 1 is substituted for the counter n. FIG. 12 is a diagram showing a positional relationship among a tracking area, a calculation area, and a detection area. In FIG. 12, C is a calculation area indicating an area where a target subject is searched. In the illustrated example, the calculation area C is set in an area that is larger by one pixel in the row direction and the column direction than the tracking area B with respect to the tracking area B in the illustrated example. Not limited.
D is a detection area indicating an area where a residual calculation is performed with respect to the tracking area B, and is composed of 4 columns × 4 rows of pixels equal to the tracking area B.

【0017】ステップS203では、ステップS201
で設定された検出領域D内の色αの出力Dij(i,j=
1〜4)をステップS3で求めた視野領域Aの出力から
求める。図12に示す領域が設定されている場合におけ
る追尾領域Bおよび検出領域D内の色αの出力Bij(こ
れは参照画像データでもある)、Dijの位置関係を図1
3に示す。
In step S203, step S201
The output D ij (i, j = i) of the color α in the detection area D set by
1 to 4) are obtained from the output of the visual field area A obtained in step S3. FIG. 1 shows the positional relationship between output B ij (which is also reference image data) and D ij of color α in tracking area B and detection area D when the area shown in FIG. 12 is set.
3 is shown.

【0018】ステップS204では、参照画像データB
ijおよび検出領域Dの出力Dijの残差量が演算される。
残差量は、対応する(つまり添字が共通の)画素単位で
の各出力間の差の総和、すなわちΣΣWij|Bij−Dij|
(ここに、ΣΣはi=1〜4、j=1〜4までの総和を
示す)により定義される。Wijは重み係数であり、残差
量が絶対差を演算する際にその情報量が減少し、加えて
総和を演算する際にさらに情報量が減少するために目標
被写体が存在しない箇所で残差量が最小となる(疑似マ
ッチングと呼ぶ)ことを防ぐためのものである。重み係
数Wijは、参照画像データBijにおいて中央に近い画素
ほど目標被写体の重要なデータを与える確率が高いこと
を考慮して、中央に近い画素ほど大きくし、その値は経
験的に定められる。一例としてi,jともに2,3のど
ちらかであればWij=2、それ以外はWij=1とされ
る。残差量は、演算領域C内での演算回数nとともに変
数Sumnとして演算装置8内の記憶素子内に格納され
る。
In step S204, reference image data B
The residual amount of ij and the output D ij of the detection area D is calculated.
The residual amount is the sum of the differences between the outputs in the corresponding (i.e., common subscript) pixel units, that is, ΣΣW ij | B ij −D ij |
(Where ΣΣ represents the sum of i = 1 to 4 and j = 1 to 4). W ij is a weight coefficient, and the amount of information decreases when the absolute difference is calculated, and the amount of information further decreases when the sum is calculated. This is for preventing the difference amount from being minimized (called pseudo matching). In consideration of the fact that the closer to the center of the reference image data B ij , the higher the probability of giving important data of the target subject is, the weighting factor W ij is set larger for pixels closer to the center, and the value is determined empirically. . As an example, if both i and j are 2 or 3, W ij = 2, otherwise W ij = 1. Residual amount is stored in the storage element in the arithmetic unit 8 together with the operation number n in the operation region C as a variable Sum n.

【0019】ステップS205では、次の残差量演算の
ために検出領域Dを移動させ、カウンタnを1つインク
リメントする。すなわち、検出領域Dを図12、図13
に示す位置から1画素分右へずらし、検出領域Dがすで
に演算領域Cの右端に位置しているときは1画素分下へ
ずらすとともに演算領域Cの左端に位置させる。このよ
うにして、検出領域Dは図12、図13において左から
右へ、上から下へ1画素毎に順次移動する。図13に示
す位置から検出領域Dを1画素分右へずらした状態にお
ける追尾領域Bおよび検出領域D内の色αの出力Bij
ijの位置関係を図14に示す。
In step S205, the detection area D is moved for the next calculation of the residual amount, and the counter n is incremented by one. That is, the detection area D is shown in FIGS.
When the detection area D is already located at the right end of the calculation area C, the detection area D is shifted down by one pixel and at the left end of the calculation area C. In this way, the detection area D sequentially moves from left to right and top to bottom in FIGS. 12 and 13 for each pixel. The output B ij of the tracking area B and the color α in the detection area D in a state where the detection area D is shifted to the right by one pixel from the position shown in FIG.
FIG. 14 shows the positional relationship of D ij .

【0020】ステップS206ではカウンタnの値が最
終値(図示例ではn=10)に至ったか否かが判定さ
れ、判定が肯定されるとプログラムはステップS207
へ移行し、判定が否定されるとステップS203へ戻っ
て上述の処理を繰り返す。このようにして、検出領域D
を移動させながら参照画像データとの間で残差演算を繰
り返し、9個の残差量を演算する。残差量演算終了時に
おける追尾領域Bおよび検出領域D内の色αの出力
ij、Dijの位置関係を図15に示す。
In step S206, it is determined whether or not the value of the counter n has reached the final value (n = 10 in the illustrated example). If the determination is affirmative, the program proceeds to step S207.
The process returns to step S203 if the determination is negative, and the above-described processing is repeated. Thus, the detection area D
Are repeated, and the residual calculation is repeated with reference image data to calculate nine residual amounts. FIG. 15 shows the positional relationship between the outputs B ij and D ij of the color α in the tracking area B and the detection area D at the end of the residual amount calculation.

【0021】ステップS207では、Sumn(n=1
〜9)のうち最小値(最小残差量)を与えるSumn
検出する。ステップS208では、Sumnの最小値を
与える検出領域D内に目標被写体が存在するものと判断
し、この検出領域Dの位置を算出する。この後は、図5
のメインルーチンに戻る。
In step S207, Sum n (n = 1)
To 9) for detecting the Sum n giving the minimum value (minimum residual amount) of the. In step S208, it is determined that the target object is present in the detection region D that gives the minimum value of Sum n, calculates the position of the detection area D. After this, Figure 5
Return to the main routine.

【0022】(4) 追尾領域移動、次回演算領域設定 ステップS9では、サブルーチンSR2によって算出さ
れた目標被写体を含む検出領域Dの位置に追尾領域Bを
移動する。これにより、移動する目標被写体の追尾が行
える。また、本実施例では、図11に示すように速度ベ
クトルVおよび加速度ベクトルACの算出のために過去
の追尾領域Bの位置を必要とするため、過去2回分の追
尾領域Bの位置が記憶素子内に記憶される。
(4) Movement of tracking area, next calculation area setting In step S9, the tracking area B is moved to the position of the detection area D including the target object calculated by the subroutine SR2. Thereby, tracking of the moving target object can be performed. Further, in the present embodiment, as shown in FIG. 11, the position of the past tracking area B is required for the calculation of the velocity vector V and the acceleration vector AC. Is stored within.

【0023】サブルーチンSR3では、次回演算領域設
定が行われる。これは、図16に示すように、演算領域
Cが追尾領域Bより何画素分大きいかを示す画素幅につ
いて列方向の画素幅をSx、行方向の画素幅をSyとする
と、残差量演算回数nとSx、Syとの間には n=(2Sx+1)×(2Sy+1) という関係が存在し、目標被写体を見失わないように演
算領域Cを大きくすると残差量演算回数nが増加して目
標被写体位置算出までの時間を長く必要とし、その結果
として目標被写体を見失うことがある、という二律背反
的状況があるため、サブルーチンSR2で算出された最
小残差量に基づいて最適な演算領域Cの大きさを設定す
るためのものである。
In the subroutine SR3, the next calculation area is set. This is because, as shown in FIG. 16, assuming that the pixel width in the column direction is S x and the pixel width in the row direction is S y with respect to the pixel width indicating how many pixels the calculation area C is larger than the tracking area B, the residual error The relationship n = (2S x +1) × (2S y +1) exists between the number of times n and S x , S y, and when the calculation area C is enlarged so that the target object is not lost, the residual amount becomes Since the number of calculations n increases and the time required to calculate the target subject position becomes longer, and as a result the target subject may be lost, the target subject may be lost. Therefore, based on the minimum residual amount calculated in the subroutine SR2, To set the optimal size of the calculation area C.

【0024】次回演算領域設定の詳細は図10のフロー
チャートに示される。まず、ステップS301では、サ
ブルーチンSR2で求められた最小残差量が閾値T3
り大きいか否かが判定され、判定が肯定されるとプログ
ラムはステップS302へ移行し、判定が否定されると
ステップS305へ移行する。ステップS302、S3
03では、最小残差量が閾値T3以上の大きな値である
から目標被写体の動作が大きいものと仮定し、演算領域
Cを拡張する作業が行われる。すなわち、演算領域Cの
列方向および行方向の画素幅Sx、Syに(最小残差量/
3+定数)の値を代入する。ステップS301におい
て最小残差量>T3なる判定がされていることより(最
小残差量/T3)の項は1以上の値をとり、最小残差量
の増加に比例して増加する。ついでステップS304で
は、拡張された演算領域Cの大きさを安定させるため
に、閾値T3を所定量だけ増加させる。一方、ステップ
S305、306では、最小残差量が閾値T3以下の小
さな値であるから目標被写体の動作が小さいものと仮定
し、演算領域Cの列方向および行方向の画素幅Sx、Sy
をそれぞれ1画素ずつ縮小する作業が行われる。ついで
ステップS307では、閾値T3を所定量だけ減少させ
て以降の目標被写体の動作に備える。この後、プログラ
ムはメインルーチンに戻る。
The details of the next calculation area setting are shown in the flowchart of FIG. First, in step S301, the minimum residual amount obtained in the subroutine SR2 is determined whether the threshold T 3 is greater than that, if the decision is affirmative the program proceeds to step S302, if the decision is negative step Move to S305. Step S302, S3
In 03, assuming operation target object is large because the minimum residual amount is larger value than the threshold value T 3, the work to extend the operation region C is carried out. That is, the pixel widths S x and S y in the column direction and the row direction of the calculation area C are (minimum residual amount /
T 3 + constant). The term (minimum residual amount / T 3) than that in step S301 the minimum residual amount> T 3 becomes determined are taking one or more values, increases in proportion to the increase of the minimum residual amount. Then in step S304, in order to stabilize the size of the extended operation region C, increasing the threshold value T 3 by a predetermined amount. On the other hand, the step in S305,306, assuming operation target object is small because the minimum residual quantity is small the value of the threshold T 3 below, the column and row directions of the pixel width S x of the calculation region C, S y
Are reduced by one pixel. Then in step S307, it provided the operations after the target object to reduce the threshold T 3 by a predetermined amount. Thereafter, the program returns to the main routine.

【0025】(5) 参照画像更新 ステップS10では、サブルーチンSR2で求められた
最小残差量が上述の閾値T3より大きいか否かが判定さ
れ、判定が肯定されるとプログラムはステップS3に戻
り、上述の処理を繰り返す。一方、判定が否定されると
プログラムはステップS11に移行する。
[0025] (5) In the reference image updating step S10, the minimum residual amount obtained in the subroutine SR2 is determined whether larger than the threshold value T 3 described above, the determination is affirmative the program returns to step S3 Are repeated. On the other hand, if the determination is negative, the program moves to step S11.

【0026】ステップS11では、参照画像の更新処理
が行われる。参照画像更新は、目標被写体の連続的な変
化(例えば正面顔から横顔)に対応するために画像を入
力するたびに参照画像データの何分の1かを新しいデー
タを含んだ形で更新する。このステップでは、参照画像
データBijに次式 Bij=(1−k)Bij+kDij (i,j=1〜4) で与えられる値を代入する。ここに、0≦k≦1、通常
はk=0.1〜0.2程度で与えられる経験値である。また、
ijは、サブルーチンSR2においてSumnが最小値
をとる検出領域Dのデータである。但し、目標被写体の
動きが激しいとき、または目標被写体の前方を障害物が
通過するなどの場合、参照画像の更新作業を行うと本来
の目標被写体以外のデータが取り込まれてしまうため、
上述のステップS10で示すように最小残差量が閾値T
3より大きい場合に更新処理を禁止する。以後、プログ
ラムはステップS3に戻って上述の処理を繰り返す。
In step S11, the reference image is updated. In the reference image update, every time an image is input in order to cope with a continuous change of the target subject (for example, from a frontal face to a side face), a part of the reference image data is updated to include new data. In this step, a value given by the following equation B ij = (1−k) B ij + kD ij (i, j = 1 to 4) is substituted into the reference image data B ij . Here, it is an empirical value given by 0 ≦ k ≦ 1, usually k = about 0.1 to 0.2. Also,
D ij is, Sum n in the subroutine SR2 is data of the detection area D of the minimum value. However, when the movement of the target subject is intense, or when an obstacle passes in front of the target subject, data other than the original target subject is captured when the reference image is updated.
As shown in step S10 above, the minimum residual amount is equal to the threshold T
If the value is greater than 3 , update processing is prohibited. Thereafter, the program returns to step S3 and repeats the above processing.

【0027】以上の動作により、カメラ1により撮像さ
れる目標被写体のファインダ画面内の位置を追尾するこ
とができる。ここで、本実施例では、撮像センサ7から
のRGB出力のうち1つの色αについての出力を選択し
て残差演算を行っているので目標被写体検出のための演
算時間を全体として短縮でき、これにより、スポーツシ
ーンなど動きの速い目標被写体であってもその位置を迅
速に追尾することができる。しかも、最大出力が得られ
る色αを選択することにより目標物体を検出するために
特徴的な色を選択でき、色出力選択による情報量減少を
補って確実な位置検出が可能となる。さらに、位置検出
の度に参照画像データを部分的に更新しているので、目
標被写体の連続的変化あるいは目標被写体の輝度変化が
あっても確実に目標被写体を捕捉することができ、確実
な位置検出が可能となる。しかも、本実施例では、撮像
センサ7に対応する視野領域A内に演算領域Cを設け、
目標被写体の速度、加速度を計測して演算領域Cの位置
を予測しており、また最小残差量の大きさによって演算
領域Cの大きさを最適に制御することで上述した従来例
のように目標被写体を見失うといった事態を防ぐことが
でき、確実な目標被写体追尾が可能となる。これによ
り、画面全体について残差量を求める必要がなくなるこ
ととあいまって、スポーツシーンなど動きの速い目標被
写体であってもその位置を確実かつ迅速に追尾すること
ができる。
With the above operation, the position of the target object imaged by the camera 1 in the finder screen can be tracked. Here, in the present embodiment, the output for one color α is selected from the RGB outputs from the image sensor 7 and the residual calculation is performed, so that the calculation time for target object detection can be shortened as a whole, As a result, the position of a fast-moving target subject such as a sports scene can be quickly tracked. In addition, by selecting the color α at which the maximum output is obtained, a characteristic color can be selected for detecting the target object, and the position detection can be reliably performed by compensating for a decrease in the information amount due to the color output selection. Furthermore, since the reference image data is partially updated each time the position is detected, the target object can be reliably captured even if there is a continuous change in the target object or a change in the luminance of the target object. Detection becomes possible. Moreover, in the present embodiment, the calculation area C is provided in the visual field area A corresponding to the image sensor 7,
The position of the calculation region C is predicted by measuring the speed and acceleration of the target subject, and the size of the calculation region C is optimally controlled by the size of the minimum residual amount, as in the conventional example described above. A situation in which the target object is lost can be prevented, and the target object can be reliably tracked. This eliminates the need to obtain the residual amount for the entire screen, and enables the position of even a fast-moving target subject such as a sports scene to be reliably and quickly tracked.

【0028】(変形例)色選択は、上述の一実施例に示
すように最大出力が得られる色αを選択する手法のみな
らず、他の好適な手法も採用できる。図7は、色選択処
理の他の例を示すフローチャートである。ステップS4
01では、ステップS1で得られた追尾領域B内のRG
B出力を各色毎に加算する。ステップS402では、図
17に示すように追尾領域Bの上下左右にそれぞれ隣接
し、この追尾領域Bと同様に4列×4行の画素から構成
される4つの隣接領域B1〜B4内のそれぞれのRGB出
力を各色毎に加算する。ステップS403では、ステッ
プS401およびS402で得られた追尾領域B内の加
算結果およびそれぞれの隣接領域B1〜B4内の加算結果
の差を各色毎に求め、その最大値が得られた色(R、
G、Bのいずれか)を検出、選択する。この後、プログ
ラムは図5のメインルーチンに戻る。
(Modification) As for the color selection, not only the method of selecting the color α that provides the maximum output as shown in the above-described embodiment, but also other suitable methods can be adopted. FIG. 7 is a flowchart illustrating another example of the color selection process. Step S4
01, the RG in the tracking area B obtained in step S1
The B output is added for each color. In step S402, as shown in FIG. 17, the tracking area B is vertically and horizontally adjacent to each other, and in the same manner as the tracking area B, there are four adjacent areas B 1 to B 4 composed of 4 columns × 4 rows of pixels. The respective RGB outputs are added for each color. In step S403, it obtains a difference between the addition result of the addition result and the respective adjacent regions B 1 .about.B 4 in the tracking area B obtained in step S401 and S402 for each color, the color of its maximum value is obtained ( R,
G or B) is detected and selected. Thereafter, the program returns to the main routine of FIG.

【0029】図8は、色選択処理のまた他の例を示すフ
ローチャートである。ステップS501では、追尾領域
Bと同様に4列×4行の画素から構成され、この追尾領
域Bから上下左右、および左右斜め上下にそれぞれ1画
素分ずらして配置された8つの検出領域および追尾領域
の各々の残差量を各色毎にそれぞれ求める。ステップS
502では、ステップS501で得られた8つの残差量
の最小値を各色毎に求める。ステップS503では、ス
テップS502で得られた残差量の最小値から、その最
大値となる色(R、G、Bのいずれか)を検出、選択す
る。この後、プログラムは図5のメインルーチンに戻
る。
FIG. 8 is a flowchart showing another example of the color selection process. In step S501, similarly to the tracking area B, eight detection areas and tracking areas which are composed of pixels of 4 columns × 4 rows and which are respectively shifted from the tracking area B by one pixel vertically, horizontally, and diagonally left and right and up and down. Are obtained for each color. Step S
In 502, the minimum value of the eight residual amounts obtained in step S501 is obtained for each color. In step S503, from the minimum value of the residual amount obtained in step S502, a color (one of R, G, and B) having the maximum value is detected and selected. Thereafter, the program returns to the main routine of FIG.

【0030】なお、本発明の目標物体追尾装置は、その
細部が上述の実施例に限定されず、種々の変形が可能で
ある。一例として、一実施例では本発明を一眼レフカメ
ラに適用した例を示したが、ビデオカメラ等の動画撮影
用撮像手段にも適用可能である。また、テンプレートと
なる参照画像データは、上述の実施例のごとく目標物体
追尾前に取り込んだものだけでなく、目標物体の形状等
を予め知ることができるのであれば、この目標物体に対
応して予め記憶したものであってもよい。同様に、入力
画像データも実時間的に入力されるものだけでなく、予
め記憶しておいたものであってもよい。また、上述の実
施例では速度,加速度の双方を用いて演算領域の設定を
行なっていたが、いずれか一方のみでもよい。加速度を
用いた場合、加速度が零とはすなわち目標物体が等速で
移動していることであるから、加速度および初速を検出
すれば演算領域の位置,大きさの双方を設定できる。
The details of the target object tracking apparatus of the present invention are not limited to the above-described embodiment, and various modifications are possible. As an example, in one embodiment, an example in which the present invention is applied to a single-lens reflex camera has been described. However, the present invention is also applicable to a moving image capturing unit such as a video camera. In addition, the reference image data serving as a template is not limited to the one captured before the target object tracking as in the above-described embodiment, and if the shape or the like of the target object can be known in advance, the reference image data corresponding to the target object is used. It may be stored in advance. Similarly, the input image data is not limited to data input in real time, and may be data stored in advance. Further, in the above-described embodiment, the calculation area is set using both the speed and the acceleration. However, only one of them may be set. When the acceleration is used, the zero acceleration means that the target object is moving at a constant speed. Therefore, if the acceleration and the initial speed are detected, both the position and the size of the calculation area can be set.

【0031】[0031]

【発明の効果】以上詳細に説明したように、請求項1の
発明によれば、参照画像データ、および参照画像データ
が含まれる領域に隣接する隣接領域に含まれる入力画像
データについて残差値を複数の色成分別に算出し、算出
された残差値の最小値が最も大きくなる色を選択し、こ
の選択された色の成分について残差量を演算しているの
で、全ての色成分について残差量を算出する場合に比較
して、残差演算手順の省略、演算時間の短縮を図ること
ができる。これにより、スポーツシーンなど動きの速い
目標物体であってもその位置を迅速に追尾することが可
能となる。特に、目標物体を検出するために特徴的な色
が選択できるから、色出力選択による情報量減少を補っ
て確実な位置検出が可能となる。
As described above in detail, according to the first aspect of the present invention, the residual values of the reference image data and the input image data included in the adjacent area adjacent to the area including the reference image data are calculated. A color having a maximum value of the calculated residual value is selected for each of the plurality of color components, and the residual amount is calculated for the selected color component. Compared with the case of calculating the difference amount, it is possible to omit the residual calculation procedure and shorten the calculation time. This makes it possible to quickly track the position of a fast-moving target object such as a sports scene. In particular, since a characteristic color can be selected for detecting a target object, reliable position detection can be performed by compensating for a decrease in the amount of information due to color output selection.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のクレーム対応図である。FIG. 1 is a diagram corresponding to claims of the present invention.

【図2】本発明の目標物体追尾装置が適用されたカメラ
の一実施例を示す概略図である。
FIG. 2 is a schematic diagram showing an embodiment of a camera to which the target object tracking device of the present invention is applied.

【図3】撮像センサの詳細を示す図である。FIG. 3 is a diagram illustrating details of an image sensor.

【図4】画素の詳細を示す図である。FIG. 4 is a diagram showing details of a pixel.

【図5】一実施例の動作を説明するためのフローチャー
トである。
FIG. 5 is a flowchart for explaining the operation of one embodiment.

【図6】色選択処理の一例を示すフローチャートであ
る。
FIG. 6 is a flowchart illustrating an example of a color selection process.

【図7】色選択処理の他の例を示すフローチャートであ
る。
FIG. 7 is a flowchart illustrating another example of the color selection process.

【図8】色選択処理のまた他の例を示すフローチャート
である。
FIG. 8 is a flowchart illustrating another example of the color selection process.

【図9】最小残差量演算の詳細を示すフローチャートで
ある。
FIG. 9 is a flowchart illustrating details of a minimum residual amount calculation.

【図10】次回演算領域設定の詳細を示すフローチャー
トである。
FIG. 10 is a flowchart showing details of next calculation area setting.

【図11】速度ベクトルの定義および速度による被写体
位置の予測を示す図である。
FIG. 11 is a diagram showing a definition of a velocity vector and prediction of a subject position based on the velocity.

【図12】追尾領域、演算領域および検出領域の初期設
定時の位置関係を示す図である。
FIG. 12 is a diagram showing a positional relationship when a tracking area, a calculation area, and a detection area are initially set.

【図13】初期設定時における追尾領域および検出領域
内の色出力の位置関係を示す図である。
FIG. 13 is a diagram showing a positional relationship between color output in a tracking area and a detection area at the time of initial setting.

【図14】残差演算途中における追尾領域および検出領
域内の色出力の位置関係を示す図である。
FIG. 14 is a diagram illustrating a positional relationship between color outputs in a tracking area and a detection area during a residual calculation.

【図15】残差演算終了時における追尾領域および検出
領域内の色出力の位置関係を示す図である。
FIG. 15 is a diagram illustrating a positional relationship between color outputs in a tracking area and a detection area at the end of residual calculation.

【図16】演算領域設定手順を説明するための図であ
る。
FIG. 16 is a diagram for explaining a calculation area setting procedure.

【図17】色選択処理2での検出領域と隣接領域との位
置関係を示す図である。
FIG. 17 is a diagram illustrating a positional relationship between a detection area and an adjacent area in a color selection process 2;

【符号の説明】[Explanation of symbols]

1 カメラ 7 撮像センサ 8 演算装置 10 画素 DESCRIPTION OF SYMBOLS 1 Camera 7 Image sensor 8 Arithmetic unit 10 pixel

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−117089(JP,A) 特開 平2−123877(JP,A) 特開 昭62−206980(JP,A) 特開 昭62−237591(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 G02B 7/28 H04N 7/18 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-4-117089 (JP, A) JP-A-2-123877 (JP, A) JP-A-62-206980 (JP, A) JP-A-62-206980 237591 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/20 G02B 7/28 H04N 7/18

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】被写界を測光して複数の色成分を有する入
力画像データを出力する撮像手段と、 前記撮影手段の出力に基づいて、追尾すべき目標物体の
画像データとなる参照画像データを記憶する記憶手段
と、 前記入力画像データおよび前記参照画像データの最小残
差量を算出する演算手段と、 前記最小残差量に基づいて前記目標物体の位置を検出す
る位置検出手段とを備えた目標物体追尾装置において、 前記参照画像データが含まれる領域に隣接する隣接領域
を前記被写界内に設定する隣接領域設定手段と、 前記参照画像データおよび前記隣接領域に含まれる前記
入力画像データの残差値を前記複数の色成分別に算出
し、この残差値の最小値が最も大きくなる色を検出する
残差値色検出手段と、 前記残差値色検出手段により検出された色を選択する色
選択手段とを備え、 前記演算手段は、前記色選択手段により選択された色の
成分について前記最小残差量を演算することを特徴とす
る目標物体追尾装置。
1. An image pickup means for measuring an object scene and outputting input image data having a plurality of color components, and reference image data serving as image data of a target object to be tracked based on an output of the image pickup means. Storage means for storing a minimum residual amount of the input image data and the reference image data; and a position detecting means for detecting a position of the target object based on the minimum residual amount. In the target object tracking device, an adjacent area setting means for setting an adjacent area adjacent to an area including the reference image data in the object scene; and the input image data included in the reference image data and the adjacent area. A residual value of each of the plurality of color components, and a residual value color detecting means for detecting a color having a maximum minimum value of the residual value; and a color detected by the residual value color detecting means. And a color selection means for selecting, said arithmetic means, a target object tracking apparatus characterized by computing the minimum residual amount for the components of the color selected by the color selection means.
【請求項2】請求項1に記載の目標物体追尾装置におい
て、 前記隣接領域設定手段は、前記参照画像データが含まれ
る領域を所定数の画素に対応してずらすことにより前記
隣接領域を前記被写界内に設定することを特徴とする目
標物体追尾装置。
2. The target object tracking device according to claim 1, wherein the adjacent area setting means shifts the area including the reference image data by a predetermined number of pixels to shift the adjacent area. A target object tracking device, which is set within a scene.
【請求項3】請求項2に記載の目標物体追尾装置におい
て、 前記隣接領域設定手段は、前記参照画像データが含まれ
る領域を上下左右、および左右斜め上下にそれぞれ1画
素分ずらすことにより前記隣接領域を前記被写界内に設
定することを特徴とする目標物体追尾装置。
3. The target object tracking device according to claim 2, wherein the adjacent area setting means shifts the area including the reference image data up, down, left, right, and left, right, up, down, and up by one pixel. A target object tracking device, wherein an area is set within the object scene.
JP23739092A 1992-09-04 1992-09-04 Target object tracking device Expired - Lifetime JP3174869B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP23739092A JP3174869B2 (en) 1992-09-04 1992-09-04 Target object tracking device
US08/114,148 US5392088A (en) 1992-09-04 1993-09-01 Target follow-up device and camera comprising the same
EP19930202587 EP0586019A3 (en) 1992-09-04 1993-09-03 Target follow-up device and camera comprising the same.
US08/291,603 US5512974A (en) 1992-09-04 1994-08-16 Target follow-up device and camera comprising the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23739092A JP3174869B2 (en) 1992-09-04 1992-09-04 Target object tracking device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001006347A Division JP3704045B2 (en) 2001-01-15 2001-01-15 Target object tracking device

Publications (2)

Publication Number Publication Date
JPH0683963A JPH0683963A (en) 1994-03-25
JP3174869B2 true JP3174869B2 (en) 2001-06-11

Family

ID=17014683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23739092A Expired - Lifetime JP3174869B2 (en) 1992-09-04 1992-09-04 Target object tracking device

Country Status (1)

Country Link
JP (1) JP3174869B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data
JP4872834B2 (en) 2007-07-04 2012-02-08 株式会社ニコン Image recognition device, focus adjustment device, and imaging device
JP5176483B2 (en) * 2007-10-30 2013-04-03 株式会社ニコン Image recognition device, image tracking device, and imaging device
JP5225047B2 (en) * 2008-12-04 2013-07-03 キヤノン株式会社 Tracking imaging apparatus, tracking imaging method, and computer program
JP4798259B2 (en) 2009-06-08 2011-10-19 株式会社ニコン Subject tracking device and camera
JP5447579B2 (en) * 2012-04-27 2014-03-19 株式会社ニコン Tracking device, focus adjustment device, and photographing device

Also Published As

Publication number Publication date
JPH0683963A (en) 1994-03-25

Similar Documents

Publication Publication Date Title
US5512974A (en) Target follow-up device and camera comprising the same
US8605942B2 (en) Subject tracking apparatus, imaging apparatus and subject tracking method
US8340464B2 (en) Image processing method and image processing device
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JPWO2004062270A1 (en) Image processing device
KR20130018330A (en) Imaging apparatus, image processing method, and recording medium for recording program thereon
JP3704045B2 (en) Target object tracking device
US9979876B2 (en) Imaging apparatus, imaging method, and storage medium
JPH06230453A (en) Camera provided with object tracking function
JP3174869B2 (en) Target object tracking device
JP4935380B2 (en) Image tracking device and imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
CN113240607A (en) Image denoising method and device, electronic equipment and storage medium
JP2603212B2 (en) Automatic tracking device in camera
JPH05145822A (en) Moving body tracking device
US11558542B1 (en) Event-assisted autofocus methods and apparatus implementing the same
US11750938B2 (en) Image pickup apparatus that can assist user, control method therefor, and storage medium storing control program therefor
US20230066494A1 (en) Apparatus to perform alignment to images, image processing method to perform alignment to images, and computer readable non-transitory memory to perform alignment to images
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JPH0620052A (en) Image processing method
JP3237273B2 (en) Camera with subject tracking function
US20220329739A1 (en) Image capturing control apparatus, image capturing control method, and storage medium
JPH05215958A (en) Main object detecting device for camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 12