JP2000259838A - Image tracking device and recording medium - Google Patents

Image tracking device and recording medium

Info

Publication number
JP2000259838A
JP2000259838A JP11065935A JP6593599A JP2000259838A JP 2000259838 A JP2000259838 A JP 2000259838A JP 11065935 A JP11065935 A JP 11065935A JP 6593599 A JP6593599 A JP 6593599A JP 2000259838 A JP2000259838 A JP 2000259838A
Authority
JP
Japan
Prior art keywords
correlation
tracking
correlation value
image
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11065935A
Other languages
Japanese (ja)
Other versions
JP4398533B2 (en
Inventor
Keiju Okabayashi
桂樹 岡林
Kentaro Nakamura
中村  健太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP06593599A priority Critical patent/JP4398533B2/en
Publication of JP2000259838A publication Critical patent/JP2000259838A/en
Application granted granted Critical
Publication of JP4398533B2 publication Critical patent/JP4398533B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To be hardly affected by the background change of a tracking object and to perform stable tracking even in the case that the tracking object is partially hidden. SOLUTION: In this device for setting an image area to be tracked (tracking block) on the basis of image data inputted from an image pickup device 31, performing correlation computation with the image area as an object and performing an image tracking processing on the basis of the result of the correlation computation, a control part 32 divides the image area to be tracked into a plurality of small blocks. For each divided small block, a correlation computation part 27 performs the correlation computation and obtains correlation values. The control part 32 evaluates the obtained correlation values for the respective small blocks and uses only the correlation value of a valid small block for the correlation value calculation of the entire image area to be tracked.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、道路上の
交通量の監視など、ビデオカメラの画像を使って、対象
とする移動物体を追跡する場合などに利用される画像追
跡装置及び記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image tracking apparatus and a recording medium used for tracking a target moving object using an image of a video camera, for example, for monitoring traffic on a road. About.

【0002】[0002]

【従来の技術】以下、従来例を説明する。図12は従来
例の説明図(その1)であり、A図は相関演算による動
きベクトル計測説明図、B図は移動物体の追跡説明図で
ある。また、図13は従来例の説明図(その2)、図1
4は従来例の説明図(その3)、図15は従来例の説明
図(その4)、図16は従来例の説明図(その5)であ
る。以下、図12〜図16に基づいて従来例を説明す
る。
2. Description of the Related Art A conventional example will be described below. FIG. 12 is an explanatory diagram (part 1) of a conventional example. FIG. 12A is an explanatory diagram of a motion vector measurement by a correlation operation, and FIG. 12B is an explanatory diagram of tracking of a moving object. FIG. 13 is an explanatory view of a conventional example (part 2), and FIG.
FIG. 4 is an explanatory view of a conventional example (part 3), FIG. 15 is an explanatory view of a conventional example (part 4), and FIG. 16 is an explanatory view of a conventional example (part 5). Hereinafter, a conventional example will be described with reference to FIGS.

【0003】従来、ビデオカメラから取り込んだ画像デ
ータを基に、対象とする移動物体を追跡する画像追跡装
置が知られていた。この画像追跡装置では、相関演算を
利用したパターンマッチングによる画像追跡処理が行わ
れていた。その原理を図12、図13に基づいて説明す
る。図12において、フレームfは、或る時点でフレー
ムメモリに格納された画像、フレームf+1は、次の時
点でフレームメモリに格納された画像である。
Conventionally, there has been known an image tracking device for tracking a target moving object based on image data taken from a video camera. In this image tracking device, an image tracking process based on pattern matching using a correlation operation has been performed. The principle will be described with reference to FIGS. In FIG. 12, a frame f is an image stored in the frame memory at a certain time, and a frame f + 1 is an image stored in the frame memory at the next time.

【0004】図12のA図に示すように、相関演算で
は、追跡対象なる矩形領域1(フレームfの画像領域)
を参照ブロック(以下「テンプレート」とも記す)とし
て抽出した上で、次の候補ブロック3(フレームf+1
の画像領域)との間の相関値を計算する。
As shown in FIG. 12A, in the correlation calculation, a rectangular area 1 to be tracked (image area of frame f)
Is extracted as a reference block (hereinafter also referred to as a “template”), and the next candidate block 3 (frame f + 1
Is calculated.

【0005】この場合、候補ブロック3を1画素づつ移
動させながら、2次元的にスキャンし、相関が一番高い
(=相関値が一番小さい)位置を求めれば、特定の目
標、例えば、図12のB図に示したヘリコプタ等の移動
物体4が次のフレームのどこに動いたかを示す動きベク
トル5が求まる。この相関値の計算には以下の式を用い
る。
In this case, two-dimensional scanning is performed while moving the candidate block 3 one pixel at a time, and a position having the highest correlation (= the smallest correlation value) is obtained. A motion vector 5 indicating where the moving object 4 such as the helicopter shown in FIG. 12B has moved in the next frame is obtained. The following equation is used for calculating the correlation value.

【0006】[0006]

【数1】 (Equation 1)

【0007】前記式では、参照ブロック(テンプレー
ト)1を8×8画素の画像とし、参照ブロック1内の各
画素の濃度差の絶対値の総和を求めている。ここで、R
(x,y)は参照ブロック1、S(x,y)は探索ブロ
ック2の画像データである。
In the above equation, the reference block (template) 1 is an image of 8 × 8 pixels, and the total sum of the absolute values of the density differences of the pixels in the reference block 1 is obtained. Where R
(X, y) is the image data of the reference block 1 and S (x, y) is the image data of the search block 2.

【0008】この場合、2次元座標X,Yは、図の右方
向と下方向が+、上方向と左方向が−に設定してあり、
探索ブロック2は、候補ブロック3を、該候補ブロック
3の端からそれぞれ、図の右方向へ7画素、左方向へ−
8画素、上方向へ−8画素、下方向へ7画素移動できる
大きさに設定してある。
In this case, the two-dimensional coordinates X and Y are set to + in the right direction and the downward direction in the figure, and − in the upward direction and the left direction.
The search block 2 divides the candidate block 3 from the end of the candidate block 3 by 7 pixels to the right in the drawing and to the left by −
The size is set so that it can be moved by 8 pixels, by -8 pixels in the upward direction, and by 7 pixels in the downward direction.

【0009】この手法は、SAD(Sum of Absolute Di
fference)と呼ばれている手法であり、前記D(x,
y)を相関値(又はディストーション)と呼び、相関値
が小さい程、相関が高く、最も相関値が小さい位置を求
めて動きベクトル5を算出する。動きベクトル5が求ま
れば、追跡したい画像の移動量が分かるので、繰り返し
この動きベクトル5を求めることで、特定の移動物体を
追跡することが可能になる。
This technique is based on the SAD (Sum of Absolute Di
fference), and the D (x,
y) is called a correlation value (or distortion), and the smaller the correlation value is, the higher the correlation is and the position where the correlation value is the smallest is calculated to calculate the motion vector 5. When the motion vector 5 is obtained, the moving amount of the image to be tracked can be known. Therefore, by repeatedly obtaining the motion vector 5, a specific moving object can be tracked.

【0010】この際、図12のB図に示したように、前
記探索ブロック2の位置を求めた動きベクトル5に従っ
て移動させる。前記の例では、8×8画素の領域の追跡
であるが、この局所相関演算を組み合わせることによ
り、広い領域の画像の相関演算を行うことができる。こ
れは、累積相関と呼ばれ、その式は次のようになる。
At this time, the position of the search block 2 is moved in accordance with the obtained motion vector 5, as shown in FIG. In the above example, the tracking of an area of 8 × 8 pixels is performed, but by combining this local correlation operation, a correlation operation of an image of a wide area can be performed. This is called cumulative correlation, and its formula is as follows:

【0011】[0011]

【数2】 (Equation 2)

【0012】図13に、8×8画素の相関演算結果を4
回累積することで、16×16画素の領域の相関演算を
行う方法の原理を示す。図示のように、16×16画素
の領域を、それぞれ8×8画素のB1、B2、B3、B
4からなる4つの領域に分割する。そして、分割後の各
8×8画素の領域B1、B2、B3、B4について、そ
れぞれ相関演算を行い、相関値マップを作成する。
FIG. 13 shows the correlation calculation result of 8 × 8 pixels as 4 points.
The principle of a method of performing a correlation operation on a region of 16 × 16 pixels by accumulating the times will be described. As shown, the 16 × 16 pixel area is divided into 8 × 8 pixel B1, B2, B3, B
The area is divided into four areas consisting of four areas. Then, a correlation operation is performed on each of the divided regions B1, B2, B3, and B4 of 8 × 8 pixels to create a correlation value map.

【0013】例えば、領域B1の相関値マップ=S1、
領域B2の相関値マップ=S2、領域B3の相関値マッ
プ=S3、領域B4の相関値マップ=S4とすると、全
体の相関値マップSは、S=S1+S2+S3+S4と
なる。
For example, the correlation value map of the area B1 = S1,
Assuming that the correlation value map of the area B2 = S2, the correlation value map of the area B3 = S3, and the correlation value map of the area B4 = S4, the entire correlation value map S is S = S1 + S2 + S3 + S4.

【0014】しかしながら、前記の方法では、追跡画像
の背景が変化した場合や、追跡している物体の一部が隠
れた場合に相関が悪くなり(相関値が大きくなり)、安
定した追跡ができなくなることがある。この様子を図1
4に示す。図14において、例えば、追跡物体が自動車
7の場合、該自動車7が走行して、その一部が木8に隠
れた時(一部隠れ)、或いは、自動車7の背景に、山9
や木8が現れた時(背景変化)には、木8や山9により
相関が悪くなり(相関値が大きくなり)、安定した追跡
ができなくなることがある。
However, in the above-described method, when the background of the tracking image changes or when a part of the object being tracked is hidden, the correlation deteriorates (the correlation value increases), and stable tracking can be performed. May disappear. Figure 1 shows this situation.
It is shown in FIG. In FIG. 14, for example, when the tracked object is an automobile 7, the automobile 7 runs and a part of the automobile 7 is hidden by a tree 8 (partially hidden), or a mountain 9
When the tree 8 or the tree 8 appears (background change), the correlation becomes worse (the correlation value increases) due to the tree 8 or the mountain 9, and stable tracking may not be performed.

【0015】また、追跡している移動物体が回転した場
合(例えば、図12のB図のように、ヘリコプタを追跡
していて、該ヘリコプタが空中で回転した場合)には、
画像上で追跡物体の形状が大きく変化することがある。
このような場合、テンプレートを順次更新することで対
応する方法が従来から提案されているが、背景や、一部
隠れが発生した場合は、追跡が続行できなくなることが
ある。この様子を図15に示す。
When the moving object being tracked is rotated (for example, when the helicopter is tracked and the helicopter is rotated in the air as shown in FIG. 12B),
The shape of the tracked object may change significantly on the image.
In such a case, a method of responding by sequentially updating the template has been conventionally proposed. However, when a background or a partial occlusion occurs, tracking may not be able to continue. This is shown in FIG.

【0016】図15の例では、更新したテンプレートに
変化した背景が含まれており、追跡対象が移動したにも
関わらず、背景部分の相関が高いので、追跡ブロックが
その場にとどまってしまう例である。この例では、最初
のテンプレートに自動車7が含まれており、該自動車7
の背景は無い(無背景)とする。
In the example shown in FIG. 15, the updated template includes the changed background, and the tracking block remains in place because the correlation of the background portion is high even though the tracking target has moved. It is. In this example, the first template includes the car 7 and the car 7
Has no background (no background).

【0017】このような状態から自動車7が走行し、や
がて背景が変化し、木8や山9が背景に現れたとする。
このような場合、木8や山9を背景にした自動車7の画
像にテンプレートを更新して追跡を続行する。しかし、
この時、木8や山9の背景に相関が高くなってしまう。
そして、自動車7が走行して別の背景が現れると、この
画像は相関が低いとして無視されてしまう。従って、追
跡ブロックがその場にとどまってしまう。
It is assumed that the car 7 travels from such a state, the background changes over time, and trees 8 and mountains 9 appear in the background.
In such a case, the template is updated to the image of the automobile 7 with the tree 8 and the mountain 9 as a background, and the tracking is continued. But,
At this time, the correlation becomes high in the background of the tree 8 and the mountain 9.
When the car 7 travels and another background appears, this image is ignored because it has low correlation. Therefore, the tracking block stays there.

【0018】また、形状が類似した複数の物体がすれ違
う場合、追跡がもう一方の物体に移ってしまうことがあ
る。この様子を図16に示す。図16の例では、2台の
自動車7がすれ違う状態を示している。この場合、2台
の自動車7の形状が類似していると、追跡対象でない別
の自動車7へ追跡対象が移動してしまうことがある。従
って、追跡物体の追跡が不可能になってしまう。
Further, when a plurality of objects having similar shapes pass each other, the tracking may shift to another object. This is shown in FIG. The example of FIG. 16 shows a state in which two vehicles 7 pass each other. In this case, if the two vehicles 7 have similar shapes, the tracking target may move to another vehicle 7 that is not the tracking target. Therefore, tracking of the tracking object becomes impossible.

【0019】[0019]

【発明が解決しようとする課題】前記のような従来のも
のにおいては、次のような課題があった。
The above-mentioned prior art has the following problems.

【0020】(1) :追跡画像の背景が変化した場合や、
追跡している物体の一部が隠れた場合に相関値が悪くな
り、安定した追跡ができなくなることがある。
(1): When the background of the tracking image changes,
When a part of the object being tracked is hidden, the correlation value becomes worse, and stable tracking may not be performed.

【0021】(2) :追跡している移動物体が回転した場
合には、画像上で追跡物体の形状が大きく変化すること
がある。このような場合、テンプレートを順次更新する
ことで対応する方法が従来から提案されているが、背景
や、一部隠れが発生した場合は、追跡が続行できなくな
ることがある。
(2): When the moving object being tracked rotates, the shape of the tracked object may change greatly on the image. In such a case, a method of responding by sequentially updating the template has been conventionally proposed. However, when a background or a partial occlusion occurs, tracking may not be able to continue.

【0022】(3) :更新したテンプレートに変化した背
景が含まれた場合、追跡対象が移動したにも関わらず、
背景部分の相関が高くなり、追跡ブロックがその場にと
どまってしまうことがある。
(3): If the updated template contains a changed background, the tracking target has moved,
The correlation of the background part becomes high, and the tracking block may stay in place.

【0023】(4) :形状が類似した複数の物体がすれ違
う場合、追跡がもう一方の物体に移ってしまうことがあ
る。このような場合、追跡物体の追跡が不可能になって
しまうことがある。
(4): When a plurality of objects having similar shapes pass each other, tracking may shift to another object. In such a case, tracking of the tracking object may not be possible.

【0024】本発明は、このような従来の課題を解決
し、追跡物体の背景変化の影響を受け難くして追跡物体
の一部隠れが発生した場合にも安定した追跡ができるよ
うにすることを目的とする。また、追跡物体に一部隠れ
が発生した場合に、追跡を続行可能にして、形状変化と
一部隠れの双方に対応しながらの追跡を可能にすること
を目的とする。更に、動き予測を加味することにより、
2物体がすれ違う場合にも追跡を続行可能にすることを
目的とする。
SUMMARY OF THE INVENTION The present invention solves such a conventional problem, and makes it possible to perform stable tracking even when a part of the tracked object is hidden by making the tracked object less affected by a background change. With the goal. Another object of the present invention is to make it possible to continue tracing when a partially hidden object occurs in a tracked object and to perform tracking while coping with both shape change and partially obscured. Furthermore, by taking into account the motion prediction,
An object of the present invention is to enable tracking to be continued even when two objects pass each other.

【0025】[0025]

【課題を解決するための手段】図1は本発明の原理説明
図であり、A図は装置構成図、B図は画像追跡処理説明
図である。図1において、32は制御部(例えば、CP
U)、21はメモリ、27は相関演算部、12はディス
プレイ装置、、31は撮像相関(例えば、ビデオカメ
ラ)を示す。本発明は前記目的を達成するため、次のよ
うに構成した。
FIG. 1 is a diagram for explaining the principle of the present invention, FIG. 1A is a diagram showing the configuration of an apparatus, and FIG. In FIG. 1, reference numeral 32 denotes a control unit (for example, CP
U), 21 denotes a memory, 27 denotes a correlation operation unit, 12 denotes a display device, and 31 denotes an imaging correlation (for example, a video camera). The present invention has the following configuration to achieve the above object.

【0026】(1) :入力画像データ(撮像装置31から
画像追跡装置本体に入力し、メモリ21に格納されたデ
ータ)から追跡する画像領域(追跡ブロック)を設定
し、この画像領域を対象として相関演算を行い、該相関
演算の結果に基づいて画像追跡処理を行う画像追跡装置
において、前記追跡する画像領域を複数の小ブロックに
分割する画像領域分割手段(制御部32の一部)と、分
割した小ブロック毎に相関演算を行って相関値を求める
相関演算手段(相関演算部27)と、求められた小ブロ
ック毎の相関値を評価して、有効な小ブロック(図1の
B図に示した太枠のブロックを除外したもの)の相関値
のみを前記追跡する画像領域全体の相関値計算に用いる
相関値処理手段(制御部32の一部)を備えている。
(1): An image area (tracking block) to be tracked is set from input image data (data input from the image pickup apparatus 31 to the main body of the image tracking apparatus and stored in the memory 21), and this image area is targeted. In an image tracking device that performs a correlation operation and performs an image tracking process based on a result of the correlation operation, an image area dividing unit (a part of the control unit 32) that divides the image area to be tracked into a plurality of small blocks; Correlation calculation means (correlation calculation unit 27) for calculating a correlation value by performing a correlation calculation for each divided small block, and evaluating the obtained correlation value for each small block to obtain an effective small block (FIG. 1B). The correlation value processing means (a part of the control unit 32) is used for calculating the correlation value of only the entire image area to be tracked using only the correlation value (excluding the thick frame block shown in FIG. 3).

【0027】(2) :前記(1) の画像追跡装置において、
前記相関値処理手段は、前記分割した小ブロックの中で
最も相関が高い小ブロックの相関値を基準にして、その
相関値との差が、予め設定した閾値以内であれば、有効
な小ブロックであると判定する有効ブロック判定手段
(制御部32の一部)を備えている。
(2): In the image tracking device of the above (1),
The correlation value processing means, based on the correlation value of the small block having the highest correlation among the divided small blocks, if the difference from the correlation value is within a preset threshold, (A part of the control unit 32).

【0028】(3) :前記(1) の画像追跡装置において、
前記相関値処理手段は、追跡する画像領域全体の平均輝
度と、分割した各小ブロック毎の平均輝度を予め計算し
て、画像領域全体の平均輝度より高い平均輝度を有する
小ブロックのみを有効な小ブロックと判定する有効ブロ
ック判定手段(制御部32の一部)を備えている。
(3): In the image tracking device of the above (1),
The correlation value processing means calculates in advance the average luminance of the entire image area to be tracked and the average luminance of each of the divided small blocks, and only the small blocks having an average luminance higher than the average luminance of the entire image area are valid. An effective block determination unit (a part of the control unit 32) for determining a small block is provided.

【0029】(4) :前記(1) の画像追跡装置において、
追跡開始時の有効な小ブロックの配置パターン及びブロ
ック数を記憶しておく記憶手段(メモリ21)と、前記
記憶手段の前記記憶データと、追跡する画像領域の配置
パターン及びブロック数とを比較し、追跡開始時の配置
パターンを維持している場合は、前記追跡する画像領域
(追跡ブロック)から取得したテンプレートを更新し、
追跡開始時の配置パターンが変化した場合は、テンプレ
ートの更新を停止するテンプレート制御手段(制御部3
2の一部)を備えている。
(4): In the image tracking device of (1),
A storage unit (memory 21) for storing the effective small block arrangement pattern and the number of blocks at the start of tracking, and comparing the storage data of the storage unit with the arrangement pattern of the image area to be tracked and the number of blocks. If the layout pattern at the start of tracking is maintained, the template obtained from the image area (tracking block) to be tracked is updated,
When the arrangement pattern at the start of tracking changes, the template control unit (control unit 3) stops updating the template.
2).

【0030】(5) :前記(1) の画像追跡装置において、
過去複数フレーム分の相関値を履歴データを保存してお
く相関値保存手段(メモリ21)と、前記履歴データか
ら、過去複数フレーム分の平均の相関値を求め、この平
均の相関値を追跡物体の動きの予測値として、現フレー
ムで求めた相関値に累積する相関値累積手段(制御部3
2の一部)を備えている。
(5): In the image tracking device of the above (1),
A correlation value storage unit (memory 21) for storing history data of correlation values for a plurality of past frames; and obtaining an average correlation value for a plurality of past frames from the history data; Value accumulating means (control unit 3) for accumulating the correlation value obtained in the current frame as the predicted value of the motion of
2).

【0031】(6) :入力画像データから追跡する画像領
域を設定し、この画像領域を対象として相関演算を行
い、該相関演算の結果に基づいて画像追跡処理を行う画
像追跡装置に、追跡する画像領域を複数の小ブロックに
分割する画像領域分割手段と、分割した小ブロック毎に
相関演算を行って相関値を求める相関演算手段と、求め
られた小ブロック毎の相関値を評価して、有効な小ブロ
ックの相関値のみを、前記追跡する画像領域全体の相関
値計算に用いる相関値処理手段の機能を実現させるため
のプログラムを記録したコンピュータ読取可能な記録媒
体。
(6): An image area to be tracked is set from the input image data, a correlation operation is performed on the image area, and the image is tracked by an image tracking apparatus that performs an image tracking process based on the result of the correlation operation. Image area dividing means for dividing the image area into a plurality of small blocks, correlation calculating means for performing a correlation operation for each divided small block to obtain a correlation value, and evaluating the calculated correlation value for each small block, A computer-readable recording medium in which a program for realizing a function of a correlation value processing unit that uses only a correlation value of an effective small block for calculating a correlation value of the entire image area to be tracked is recorded.

【0032】(作用)前記構成に基づく本発明の作用を
説明する。
(Operation) The operation of the present invention based on the above configuration will be described.

【0033】(a) :前記(1) では、画像追跡処理を行う
場合、画像領域分割手段は追跡する画像領域を複数の小
ブロックに分割し、相関演算手段は分割した小ブロック
毎に相関演算を行って相関値を求め、相関値処理手段は
求められた小ブロック毎の相関値を評価(有効/無効の
評価)して、無効の小ブロックを除外し、有効な小ブロ
ックの相関値のみを、前記追跡する画像領域全体の相関
値計算に用いる。
(A): In the above (1), when performing the image tracking process, the image area dividing means divides the image area to be tracked into a plurality of small blocks, and the correlation calculating means performs the correlation calculation for each of the divided small blocks. The correlation value processing means evaluates the correlation value for each small block (valid / invalid evaluation), excludes invalid small blocks, and sets only the correlation value of valid small blocks. Is used for calculating the correlation value of the entire image area to be tracked.

【0034】このようにすれば、背景画像の変化による
追跡への影響を軽減し、追跡物体の一部が隠れた場合に
も対応可能である。すなわち、従来の装置では、追跡画
像の背景が変化した場合や、追跡している物体の一部が
隠れた場合に相関値が悪くなり、安定した追跡ができな
くなることがあったが、本発明ではこのような従来の欠
点は解消し、常に安定した画像追跡処理ができる。
In this way, it is possible to reduce the influence of the change of the background image on the tracking and to cope with the case where a part of the tracking object is hidden. That is, in the conventional apparatus, when the background of the tracking image changes or when a part of the object being tracked is hidden, the correlation value becomes worse, and stable tracking may not be performed. Then, such a conventional disadvantage is solved, and stable image tracking processing can always be performed.

【0035】(b) :前記(2) では、有効ブロック判定手
段は、分割した小ブロックの中で最も相関が高い小ブロ
ックの相関値を基準にして、その相関値との差が予め設
定した閾値以内であれば、有効な小ブロックであると判
定し、それ以外を無効な小ブロックと判定する。
(B): In the above (2), the effective block determining means sets a difference between the divided block and the correlation value in advance based on the correlation value of the small block having the highest correlation among the divided small blocks. If it is within the threshold value, it is determined that the block is a valid small block, and the others are determined to be invalid small blocks.

【0036】このようにすれば、小ブロックの有効、無
効の判定が簡単、かつ確実に行える。そして、背景画像
の変化による追跡への影響を軽減し、追跡物体の一部が
隠れた場合にも安定した画像追跡処理ができる。
In this way, the validity / invalidity of a small block can be easily and reliably determined. Then, the influence of the change of the background image on tracking is reduced, and stable image tracking processing can be performed even when a part of the tracking object is hidden.

【0037】(c) :前記(3) では、有効ブロック判定手
段は、追跡する画像領域全体の平均輝度と、分割した各
小ブロック毎の平均輝度を予め計算して、画像領域全体
の平均輝度より高い平均輝度を有する小ブロックのみを
有効な小ブロックと判定する。
(C): In the above (3), the effective block determination means calculates in advance the average luminance of the entire image area to be tracked and the average luminance of each of the divided small blocks, and calculates the average luminance of the entire image area. Only small blocks having a higher average luminance are determined as valid small blocks.

【0038】このようにすれば、赤外線撮像カメラから
入力した画像を基に画像追跡処理を行う場合、小ブロッ
クの有効/無効の判定を確実に行うことができる。すな
わち、赤外線撮像カメラから入力した画像を使って移動
物体を追跡する場合、追跡の対象となる物体は車両や人
など熱源となるものが多いので、追跡対象物体の画像上
の輝度が背景より高いことを利用して、最初に小ブロッ
クを設定する時に、予め有効ブロックを絞り込む。この
ようにすれば、小ブロックの有効/無効の判定を確実に
行うことができ、画像追跡処理において、背景の変化の
影響を受け難くすることができる。
In this way, when performing the image tracking process based on the image input from the infrared imaging camera, the validity / invalidity of the small block can be reliably determined. That is, when a moving object is tracked using an image input from an infrared imaging camera, the object to be tracked is often a heat source such as a vehicle or a person, and thus the brightness of the image of the tracked object is higher than that of the background. Taking advantage of this, when first setting a small block, effective blocks are narrowed down in advance. In this way, the validity / invalidity of the small block can be reliably determined, and the influence of the background change can be reduced in the image tracking process.

【0039】(d) :前記(4) では、制御部32の制御に
より、記憶手段に追跡開始時の有効な小ブロックの配置
パターン及びブロック数を記憶しておく。そして、テン
プレート制御手段は、前記記憶手段の前記記憶データ
と、追跡する画像領域の配置パターン及びブロック数と
を比較し、追跡開始時の配置パターンを維持している場
合は、前記追跡する画像領域から取得したテンプレート
を更新し、追跡開始時の配置パターンが変化した場合
は、テンプレートの更新を停止する。
(D): In the above (4), under the control of the control unit 32, the effective small block arrangement pattern and the number of blocks at the start of tracking are stored in the storage means. Then, the template control means compares the stored data of the storage means with the arrangement pattern and the number of blocks of the image area to be tracked, and if the layout pattern at the time of starting the tracking is maintained, the image area to be tracked When the arrangement pattern at the start of tracking changes, the update of the template is stopped.

【0040】このようにすれば、テンプレート更新によ
る追跡物体の形状変化追従と、物体の一部隠れへの対応
を両立させることが可能になる。
In this way, it is possible to achieve both the tracking of the shape change of the tracking object by updating the template and the coping with the partial hiding of the object.

【0041】(e) :前記(5) では、制御部32の制御に
より、相関値保存手段に過去複数フレーム分の相関値を
履歴データを保存しておく。そして、相関値累積手段は
前記履歴データから過去複数フレーム分(例えば、数フ
レーム分)の平均の相関値を求め、この平均の相関値を
追跡物体の動きの予測値として、現フレームで求めた相
関値に累積する。このようにすれば、すれ違い等で安定
して追跡を続行することができる。
(E): In the above (5), under the control of the control unit 32, the correlation value storage means stores correlation values for a plurality of past frames as history data. The correlation value accumulating means obtains an average correlation value of a plurality of past frames (for example, several frames) from the history data, and obtains the average correlation value as a predicted value of the movement of the tracking object in the current frame. Accumulates in the correlation value. In this way, tracking can be continued stably due to passing or the like.

【0042】(f) :前記(6) では、制御部32(例え
ば、CPU)が前記記録媒体のプログラムを読み出して
実行することにより、追跡する画像領域を複数の小ブロ
ックに分割する手順と、分割した小ブロック毎に相関演
算を行って相関値を求める手順と、求められた小ブロッ
ク毎の相関値を評価して、有効な小ブロックの相関値の
みを、前記追跡する画像領域全体の相関値計算に用いる
手順とを実行する。このようにすれば、背景画像の変化
による追跡への影響を軽減し、追跡物体の一部が隠れた
場合にも対応可能である。
(F): In the above (6), the control unit 32 (for example, CPU) reads and executes a program on the recording medium to divide an image area to be tracked into a plurality of small blocks; A procedure for calculating a correlation value by performing a correlation operation for each of the divided small blocks, and evaluating the correlation value for each of the obtained small blocks to determine only a correlation value of an effective small block and a correlation of the entire image area to be tracked. And the procedure used for value calculation. In this way, it is possible to reduce the influence on the tracking due to the change of the background image, and to cope with a case where a part of the tracking object is hidden.

【0043】[0043]

【発明の実施の形態】以下、発明の実施の形態を図面に
基づいて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0044】§1:画像追跡装置の説明 図2は装置構成図である。本実施の形態では図2に示す
装置を使用して以下に説明する画像追跡処理を行う。こ
の例は、パーソナルコンピュータ、ワークステーション
等の各種コンピュータを使用して画像追跡装置を構成し
た例であり、コンピュータ本体11と、該コンピュータ
本体11に接続されたディスプレイ装置12、キーボー
ド13、リムーバブルディスクドライブ(以下「RD
D」と記す)14、ハードディスク装置(以下「HD
D」と記す)15と、ビデオカメラ16、赤外線撮像カ
メラ17等で構成する。
§1: Description of Image Tracking Apparatus FIG. 2 is an apparatus configuration diagram. In the present embodiment, an image tracking process described below is performed using the apparatus shown in FIG. In this example, an image tracking device is configured using various computers such as a personal computer and a workstation. A computer main body 11, a display device 12, a keyboard 13, and a removable disk drive connected to the computer main body 11 are provided. (Hereinafter "RD
D) 14, a hard disk drive (hereinafter “HD”).
D), a video camera 16, an infrared imaging camera 17, and the like.

【0045】そして、前記コンピュータ本体11には、
コンピュータ内の各種制御等を行うCPU20と、各種
データの書き込みや読み出しを行うためのメモリ21
と、プログラムや各種データを格納しておくROM22
を設けると共に、画像の相関演算を行うためのビデオボ
ード23を設ける。
The computer main body 11 has:
A CPU 20 for performing various controls in the computer, and a memory 21 for writing and reading various data
And a ROM 22 for storing programs and various data
And a video board 23 for performing image correlation calculation.

【0046】前記ビデオボード23は、前記SADの手
法を実現するために市販されているものであり、ビデオ
カメラ16や赤外線撮像カメラ17とのインタフェース
制御を行うためのインタフェース制御部(以下「I/F
制御部」と記す)25と、フレーム毎の入力画像を格納
するためのフレームメモリ26と、相関演算を行うため
の相関演算部27と、コマンド用共用メモリ28と、デ
ータ用共用メモリ29等が設けてある。
The video board 23 is commercially available for realizing the SAD method, and is an interface control unit (hereinafter referred to as an I / O controller) for controlling an interface with the video camera 16 and the infrared imaging camera 17. F
Control unit 25), a frame memory 26 for storing an input image for each frame, a correlation operation unit 27 for performing a correlation operation, a command shared memory 28, a data shared memory 29, and the like. It is provided.

【0047】前記コマンド用共用メモリ28と、データ
用共用メモリ29は、CPU20と相関演算部27が共
用するメモリであり、両者の間でコマンドやデータの受
け渡しを行うものである。I/F制御部25は、ビデオ
カメラ16や赤外線撮像カメラ17とのインタフェース
制御を行うものであり、前記カメラから入力した入力画
像を制御し、フレーム単位の画像をフレームメモリ26
に順次格納するものである。
The command shared memory 28 and the data shared memory 29 are memories shared by the CPU 20 and the correlation operation unit 27, and exchange commands and data between them. The I / F control unit 25 controls an interface with the video camera 16 and the infrared imaging camera 17, controls an input image input from the camera, and stores an image in a frame unit into a frame memory 26.
Are stored sequentially.

【0048】この場合、前記カメラの出力画像がアナロ
グ画像データであれば、ADC(アナログ/ディジタル
変換器)により入力画像データをディジタルデータに変
換し、変換後のディジタルデータをフレーム単位でフレ
ームメモリ26に順次格納する。また、前記カメラの出
力がディジタル画像データであれば、カメラからのディ
ジタル画像データをデータ変換し、フレーム単位でフレ
ームメモリ26に順次格納する。
In this case, if the output image of the camera is analog image data, the input image data is converted to digital data by an ADC (analog / digital converter), and the converted digital data is stored in a frame memory 26 in frame units. Are stored sequentially. If the output of the camera is digital image data, the digital image data from the camera is converted and sequentially stored in the frame memory 26 in frame units.

【0049】なお、CPU20が実行するプログラムや
各種パラメータ等のデータは、予め、HDD15の記憶
媒体、或いはROM22に格納しておき、CPU20が
必要なデータを読み出して画像追跡処理を行う。この処
理を行う過程でCPU20はメモリ21をワーク用メモ
リとして使用する。
The program executed by the CPU 20 and data such as various parameters are stored in advance in the storage medium of the HDD 15 or the ROM 22, and the CPU 20 reads out necessary data and performs an image tracking process. In the process of performing this processing, the CPU 20 uses the memory 21 as a work memory.

【0050】画像追跡処理はCPU20の制御により行
うが、その概要は次の通りである。ビデオカメラ16や
赤外線撮像カメラ17からの入力画像データは、I/F
制御部25が制御し、フレーム単位でフレームメモリ2
6に順次格納する。そして、CPU20の指示コマンド
により相関演算部27が相関演算を行い、演算結果のデ
ータをCPU20が取得し、メモリ21に格納して処理
を行う。
The image tracking process is performed under the control of the CPU 20, and the outline thereof is as follows. Input image data from the video camera 16 or the infrared imaging camera 17 is transmitted to an I / F
The control unit 25 controls the frame memory 2 in frame units.
6 sequentially. Then, the correlation operation unit 27 performs a correlation operation in accordance with an instruction command of the CPU 20, and the CPU 20 acquires data of the operation result, stores the data in the memory 21, and performs the processing.

【0051】この場合、CPU20が相関演算部27に
指示するコマンドをコマンド用共用メモリ28に格納す
ると、このコマンドを相関演算部27が読み出す。そし
て、相関演算部27は前記読み出したコマンドに従っ
て、フレームメモリ26から該当する画像を読み出し、
相関演算を行う。前記相関演算を行った結果のデータ
は、相関演算部27がデータ用共用メモリ29に格納
し、このデータをCPU20が読み出すことで、CPU
20は相関演算結果のデータを得る。前記の処理を行う
場合、CPU20は各種データ(フレームメモリ26か
ら取得した画像データ、相関値データ等)をメモリ21
に格納し、作業を行う。
In this case, when the CPU 20 stores a command instructed to the correlation operation unit 27 in the command shared memory 28, the command is read out by the correlation operation unit 27. Then, the correlation operation unit 27 reads the corresponding image from the frame memory 26 according to the read command,
Perform correlation calculation. The data obtained as a result of performing the correlation operation is stored in the data shared memory 29 by the correlation operation unit 27, and this data is read out by the CPU 20.
20 obtains the data of the correlation operation result. When performing the above processing, the CPU 20 stores various data (image data, correlation value data, and the like acquired from the frame memory 26) in the memory 21.
Store in and work.

【0052】なお、前記相関演算部27は、ハード構成
の演算部であるが、このような例に限らず、CPU20
が実行するプログラムにより実現(ソフト構成の相関演
算部とする)してもよい。
Although the correlation operation section 27 is an operation section having a hardware configuration, the present invention is not limited to such an example.
May be realized by a program executed by the software (correlation calculation unit having a software configuration).

【0053】§2:画像追跡処理の概要・・・図3参照 図3は画像追跡処理の概要説明図である。この例は、3
2×32画素の追跡ブロックを用いた例である。この例
では、フレームfの32×32画素の領域をテンプレー
トとして取得し、フレームf+1と比較する。この場
合、前記領域に例えば、自動車7が存在し、フレームf
+1では自動車7の一部が木8の影になっている。この
ような例について以下に処理の概要を説明する。
§2: Overview of Image Tracking Process—See FIG. 3 FIG. 3 is a schematic explanatory diagram of the image tracking process. This example is 3
This is an example using a tracking block of 2 × 32 pixels. In this example, a region of 32 × 32 pixels of the frame f is acquired as a template and compared with the frame f + 1. In this case, for example, the automobile 7 is present in the area and the frame f
At +1 a part of the car 7 is shaded by a tree 8. The outline of the processing for such an example will be described below.

【0054】本発明では、背景変化の影響を受け難く、
追跡物体の一部が隠れた場合にも、安定に追跡が続行で
きるようにする。また、通常はテンプレート更新により
追跡物体の形状変化に対応しながら、一部隠れが起こっ
た場合にはテンプレートの更新を一時停止することで、
追跡を破綻させることなく形状変化と一部隠れの双方に
対応しながらの追跡を可能にする。更に、動き予測を加
味することにより、2物体のすれ違う場合にも追跡を続
行可能にする。
In the present invention, it is hardly affected by the background change.
Even if a part of a tracking object is hidden, tracking can be stably continued. In addition, while responding to changes in the shape of the tracked object by updating the template normally, if partial occlusion occurs, updating the template is temporarily stopped,
It enables tracking while coping with both shape change and partial occlusion without breaking tracking. Further, by taking into account the motion prediction, tracking can be continued even when two objects pass each other.

【0055】そのため、図3に示すように、32×32
画素の追跡ブロックを幾つかの小ブロック35(この例
では、8×8画素)に分割してぞそれの小ブロック35
に対して相関演算を行い、相関値を算出する。この小ブ
ロック35毎の相関値を全て累積すると追跡ブロック全
体の相関値に等しくなるが、この時相関が低い小ブロッ
ク35の相関値を累積の対象から外すことにより安定し
た追跡を実現する。
Therefore, as shown in FIG.
The pixel tracking block is divided into several small blocks 35 (8 × 8 pixels in this example), and each of the small blocks 35
To calculate a correlation value. When all the correlation values for each of the small blocks 35 are accumulated, the correlation value becomes equal to the correlation value of the entire tracking block. At this time, the correlation value of the small block 35 having a low correlation is excluded from the accumulation target, thereby achieving stable tracking.

【0056】そして、背景の変化(従来例参照)や、一
部隠れ(例えば、図3のフレームf+1では、木8によ
り自動車7の一部が隠れている)がある場合は、その背
景変化や隠れがある小ブロックの相関値が悪くなるの
で、その小ブロックの相関値を累積しないようにして、
背景変化や隠れの影響を排除する。
If there is a change in the background (see the conventional example) or a partial occlusion (for example, in the frame f + 1 in FIG. 3, a part of the car 7 is hidden by the tree 8), the background change or Since the correlation value of a small block with occlusion becomes worse, do not accumulate the correlation value of that small block,
Eliminate the effects of background changes and hiding.

【0057】すなわち、図3の例では、木8により自動
車7の一部が隠れている小ブロック(太線により図示し
た4つの小ブロック)を前記相関値の累積から排除する
除外領域36とする。そして、前記除外領域36にされ
た4つの小ブロックを除く、残りの小ブロック(この例
では、12の小ブロック)の相関値を累積する。
That is, in the example of FIG. 3, a small block (four small blocks shown by thick lines) in which a part of the automobile 7 is hidden by the tree 8 is set as an exclusion area 36 to be excluded from the accumulation of the correlation values. Then, the correlation values of the remaining small blocks (12 small blocks in this example) except for the four small blocks set as the exclusion area 36 are accumulated.

【0058】§3:画像追跡処理の説明・・・図4〜図
7参照 図4は画像追跡処理フローチャート(その1)、図5は
画像追跡処理フローチャート(その2)である。また、
図6は画像追跡処理説明図(その1)、図7は画像追跡
処理説明図(その2)であり、A〜Hは各処理説明図で
ある。以下、図6、図7を参照しながら、図4、図5の
処理フローチャートに基づいて画像追跡処理を説明す
る。なお、S1〜S16は各処理ステップを示す。
§3: Description of Image Tracking Process—See FIGS. 4 to 7 FIG. 4 is a flowchart (part 1) of the image tracking process, and FIG. 5 is a flowchart (part 2) of the image tracking process. Also,
FIG. 6 is an explanatory diagram of an image tracking process (part 1), FIG. 7 is an explanatory diagram of an image tracking process (part 2), and A to H are explanatory diagrams of each process. Hereinafter, the image tracking processing will be described with reference to FIGS. 6 and 7 based on the processing flowcharts of FIGS. In addition, S1 to S16 indicate each processing step.

【0059】先ず、CPU20は、図6のA図のように
追跡ブロックを設定し、テンプレートを取得する(S
1)。この場合、追跡ブロックは、例えば、32×32
画素の領域とする。次に、CPU20は、図6のB図の
ように、設定した追跡ブロックを複数の小ブロック(例
えば、8×8画素)に分割する(S2)。そして、図6
のC図のように、CPU20の制御に基づいて相関演算
部27が前記分割した小ブロック(1〜n)毎に相関演
算を行い(S3)、CPU20は、小ブロック毎に相関
値d1〜dnを得る。
First, the CPU 20 sets a tracking block as shown in FIG. 6A and obtains a template (S
1). In this case, the tracking block is, for example, 32 × 32
This is a pixel area. Next, the CPU 20 divides the set tracking block into a plurality of small blocks (for example, 8 × 8 pixels) as shown in FIG. 6B (S2). And FIG.
As shown in FIG. 3C, the correlation calculation unit 27 performs a correlation calculation for each of the divided small blocks (1 to n) based on the control of the CPU 20 (S3), and the CPU 20 determines the correlation values d1 to dn for each of the small blocks. Get.

【0060】次に、CPU20は、図6のD図のよう
に、小ブロック毎の最小相関値Di(i=1〜n)を検
出し(S4)、図7のE図のように、全小ブロック中の
最小相関値(以下「mind」と記す)を検出する(S
5)。次に、CPU20は、任意のパラメータiをi=
1に設定し(S6)、図7のF図のように、(Di−m
ind)<閾値Thの条件を満たしているか否かを判定
する(S7)。
Next, the CPU 20 detects the minimum correlation value Di (i = 1 to n) for each small block as shown in FIG. 6D (S4), and as shown in FIG. A minimum correlation value (hereinafter, referred to as “min”) in the small block is detected (S
5). Next, the CPU 20 sets an arbitrary parameter i to i =
1 (S6), and as shown in FIG.
ind) <It is determined whether or not a condition of a threshold Th is satisfied (S7).

【0061】その結果、前記(Di−mind)<閾値
Thの条件を満たしていれば、相関値を累積し(S
8)、i≦nかどうかを判定する(S9)。その結果、
i≦nの条件を満たしていれば、パラメータiをインク
リメントしてi=i+1とし(S10)、前記S7の処
理から繰り返して行う。また、前記S7の処理で、前記
(Di−mind)<閾値Thの条件を満たしていない
場合は、前記S9の処理を行う。
As a result, if the condition of (Di-mind) <threshold Th is satisfied, the correlation value is accumulated (S
8) It is determined whether i ≦ n (S9). as a result,
If the condition of i ≦ n is satisfied, the parameter i is incremented to i = i + 1 (S10), and the processing is repeated from the processing of S7. If the condition of (Di-mind) <threshold Th is not satisfied in the process of S7, the process of S9 is performed.

【0062】前記のようにして処理を行い、前記S9の
条件を満たさなくなったら、すなわち、i>nとなった
ら、CPU20は、図7のG図のように、予測値を計算
し、相関値マップを作成する(S11)。そして、前記
予測値の判定を行う(S12)。その結果、予測値が有
効ならば予測値を累積する(S13)。
When the processing is performed as described above and the condition of S9 is no longer satisfied, that is, when i> n, the CPU 20 calculates a predicted value as shown in FIG. A map is created (S11). Then, the prediction value is determined (S12). As a result, if the predicted value is valid, the predicted value is accumulated (S13).

【0063】すなわち、有効ブロックの相関値の累積結
果と有効ブロックの数から小ブロック1個当たりの平均
相関値を算出し、これを過去数フレーム分(複数フレー
ム分)記憶して、それらを累積し、フレーム数で割るこ
とにより、予測値を算出し、現フレームの相関値に累積
することにより、すれ違い等で安定した追跡を実現す
る。
That is, the average correlation value per small block is calculated from the accumulation result of the correlation values of the effective blocks and the number of the effective blocks, and the average correlation value for the past several frames (for a plurality of frames) is stored. Then, by dividing by the number of frames, a predicted value is calculated and accumulated in the correlation value of the current frame, thereby realizing stable tracking due to passing or the like.

【0064】この際、予測値に重み計数kを掛けて、予
測の割合を調整できるようにする。なお、Stは現在の
フレームで算出した相関値マップ、Sfは過去のフレー
ムの相関から算出した予測の相関値マップ、Sは、S=
(St+k・Sf)/(k+1)で求めた相関値マップ
である(詳細は後述する)。
At this time, the prediction value is multiplied by a weight coefficient k so that the prediction ratio can be adjusted. Note that St is a correlation value map calculated for the current frame, Sf is a prediction correlation value map calculated from the correlation of past frames, and S is S =
It is a correlation value map obtained by (St + k · Sf) / (k + 1) (details will be described later).

【0065】その後、CPU20は、図7のHのよう
に、追跡ブロックの動きベクトルを計算して(S1
4)、追跡ブロックの位置更新を行う(S15)。しか
し、前記S12の処理で、予測値が無効ならば、前記S
14の処理を行う。このようにして、全ての処理が終了
するまで(S16)、前記S2からの処理を繰り返して
行い、全ての処理が終了したら、この処理を終了する。
Thereafter, the CPU 20 calculates the motion vector of the tracking block as shown in H of FIG. 7 (S1).
4), the position of the tracking block is updated (S15). However, if the predicted value is invalid in the process of S12, the S
14 is performed. In this way, the process from S2 is repeated until all the processes are completed (S16), and when all the processes are completed, this process is completed.

【0066】なお、前記処理において、S11〜S13
の処理を行わずに、S9の処理でi≧nとなったら、S
14の処理を行うことも可能である。
In the above processing, S11 to S13
If i ≧ n in the process of S9 without performing the process of
14 can also be performed.

【0067】§4:画像追跡処理の詳細な説明・・・図
8〜図11参照 図8は画像追跡処理の具体例、図9は配置パターン及び
ブロック数の処理説明図、図10は予測値の累積処理説
明図、図11は予測値の処理説明図である。以下、前記
図8〜図11に基づいて、前記画像追跡処理を更に詳細
に説明する。
§4: Detailed description of the image tracking process—see FIGS. 8 to 11 FIG. 8 is a specific example of the image tracking process, FIG. 9 is a diagram illustrating the processing of the arrangement pattern and the number of blocks, and FIG. And FIG. 11 is an explanatory diagram of processing of a predicted value. Hereinafter, the image tracking process will be described in more detail with reference to FIGS.

【0068】(1) :画像追跡処理は、前記の通りである
が、相関値の累積対象処理から除外する小ブロックの判
定は、最も相関が高い(=最も相関値が小さい)小ブロ
ックを基準にして行う。最も相関が高い小ブロックの相
関値との差が、予め設定した閾値Th未満であれば累積
の対象とし、閾値Th以上であれば累積の対象から除外
する。
(1): The image tracking process is as described above, but the determination of the small block to be excluded from the process of accumulating the correlation value is based on the small block having the highest correlation (= the smallest correlation value). And do it. If the difference from the correlation value of the small block having the highest correlation is less than a preset threshold Th, the target is to be accumulated, and if the difference is equal to or greater than the threshold Th, it is excluded from the accumulation.

【0069】(2) :赤外線撮像カメラ17(図2参照)
から入力した画像を使って移動物体を追跡する場合、追
跡の対象となる物体は車両や人など熱源となるものが多
いので、追跡対象物体の画像上の輝度が背景より高いこ
とを利用して、最初に小ブロックを設定する時に、予め
有効ブロックを絞り込む。この処理により、背景の変化
の影響を受け難くすることができる。
(2): Infrared imaging camera 17 (see FIG. 2)
When tracking a moving object using an image input from a computer, the object to be tracked is often a heat source such as a vehicle or a person. When setting a small block for the first time, effective blocks are narrowed down in advance. With this processing, it is possible to make the influence of the change in the background less likely.

【0070】例えば、図8のA図に示したように、CP
U20は、予め追跡ブロック全体の平均輝度と、小ブロ
ックの平均輝度を計算し、全体の平均輝度より平均輝度
が高い小ブロックのみを累積の対象とする。通常、追跡
物体の形状変化へ追従するために、テンプレートを順次
更新する方法をとるが、隠れが発生した場合には、隠れ
が発生した状態でテンプレートの更新を行ってしまうた
め、追跡がスタックする(追跡が破綻する)場合があ
る。
For example, as shown in FIG.
U20 calculates in advance the average luminance of the entire tracking block and the average luminance of the small blocks, and makes only the small blocks having an average luminance higher than the average luminance of the entire block the accumulation target. Usually, in order to follow the change in the shape of the tracking object, a method of sequentially updating the template is adopted, but when hiding occurs, the template is updated in a state where the hiding has occurred, so the tracking is stuck. (Tracking may fail).

【0071】これに対し、前記の方法で設定した有効ブ
ロックの数や配置パターンをCPU20の制御により、
メモリ21(図2参照)に記憶しておき、この数やパタ
ーンが変化した場合にCPU20は、一部隠れが発生し
たと判断し、テンプレートの更新を停止する。このよう
な制御を行うことで、テンプレート更新による追跡物体
の形状変化追従と、物体の一部隠れへの対応を両立させ
ることが可能になる。この様子を図8のA図〜C図に示
す。
On the other hand, the number and the arrangement pattern of the effective blocks set by the above method are controlled by the CPU 20.
When the number or pattern is changed, the CPU 20 determines that partial occlusion has occurred, and stops updating the template. By performing such control, it is possible to achieve both the tracking of the shape change of the tracking object by updating the template and the coping with the partial hiding of the object. This situation is shown in FIGS.

【0072】図8のA図に示した追跡ブロックを、例え
ば、32×32画素とし、小ブロックを8×8画素とす
る。そして、追跡ブロックの平均輝度と、小ブロックの
平均輝度を計算し、(追跡ブロックの平均輝度)<(小
ブロックの平均輝度)の条件を満たした小ブロック(図
の太い黒線で示した範囲内の小ブロック)のみを累積対
象とする。なお、前記輝度は、画像上で濃度となって現
れるので、画像上では前記平均輝度は平均濃度と同じで
ある。
The tracking block shown in FIG. 8A is, for example, 32 × 32 pixels, and the small block is 8 × 8 pixels. Then, the average luminance of the tracking block and the average luminance of the small block are calculated, and the small blocks satisfying the condition of (average luminance of the tracking block) <(average luminance of the small block) (the range indicated by the thick black line in the figure) Only the small blocks within the block). Since the luminance appears as a density on the image, the average luminance is the same as the average density on the image.

【0073】そして、図8のB図のように、累積対象の
ブロックの配置パターンと、累積したブロック数(この
例ではブロック数=6)をCPU20の制御により、メ
モリ21に記憶しておく(記憶方法は後述する)。その
後、CPU20は、次のフレームにおいて、前のフレー
ムのデータ(配置パターン及び累積したブロック数のデ
ータ)と比較し、累積対象のブロックの配置とブロック
数が変化しない場合は、テンプレートを更新するが、累
積対象のブロックの配置やブロック数が変化した場合は
テンプレートの更新を停止する処理を行う。
Then, as shown in FIG. 8B, the arrangement pattern of the blocks to be accumulated and the accumulated number of blocks (the number of blocks = 6 in this example) are stored in the memory 21 under the control of the CPU 20 (FIG. 8B). The storage method will be described later). Thereafter, in the next frame, the CPU 20 compares the data of the previous frame (the arrangement pattern and the data of the number of accumulated blocks), and updates the template if the arrangement and the number of blocks to be accumulated do not change. When the arrangement of the blocks to be accumulated and the number of blocks are changed, processing for stopping the update of the template is performed.

【0074】例えば、或るフレームfにおいて、図8の
B図に示した配置パターンとブロック数(=6)を有し
ていたものが、次のフレームf+1で、図8のC図のよ
うになったとする。この場合、追跡対象である自動車7
の一部が木8の影に隠れてしまったため、配置パターン
と累積対象のブロック数(=3)が変化している。この
場合、テンプレートの更新を停止する。
For example, in a certain frame f, the one having the arrangement pattern and the number of blocks (= 6) shown in FIG. 8B is changed to the next frame f + 1 as shown in FIG. Let's say In this case, the car 7 to be tracked
Are hidden by the shadow of the tree 8, the arrangement pattern and the number of blocks to be accumulated (= 3) are changed. In this case, the updating of the template is stopped.

【0075】すなわち、通常、追跡物体の形状変化へ追
従するために、テンプレートを順次更新する方法をとる
が、追跡対象物体の一部に隠れが発生した場合でもテン
プレートの更新を行なってしまうため、追跡がスタック
する(追跡不可能となる)場合がある。
That is, in order to follow the change in the shape of the tracking object, a method of sequentially updating the template is usually employed. However, even if the tracking target object is partially hidden, the template is updated. Tracking may get stuck (cannot be tracked).

【0076】しかし、前記の方法では、設定した有効ブ
ロックの数や配置パターンをメモリ21に記憶してお
き、該記憶された配置パターンやブロック数が変化した
場合に一部隠れが発生したと判断し、テンプレートの更
新を停止させることで、テンプレート更新による追跡物
体の形状変化追従と物体の一部隠れへの対応を両立させ
ることが可能になる。
However, in the above method, the set number of effective blocks and the arrangement pattern are stored in the memory 21, and when the stored arrangement pattern or the number of blocks is changed, it is determined that partial occlusion has occurred. However, by stopping the update of the template, it is possible to achieve both the tracking of the shape change of the tracking object by the template update and the correspondence to the partial hiding of the object.

【0077】(3) :前記(2) で説明した配置パターンと
累積対象ブロック数の記憶処理、及び比較処理を図9に
基づいて説明する。前記配置パターンを記憶する場合、
累積対象の小ブロックを「1」とし、その他の累積対象
でない小ブロックを「0」とするビット列を作成し、そ
れを配置パターンのデータとして保存しておく(例え
ば、メモリ21に格納しておく)。
(3): The storage processing of the arrangement pattern and the number of blocks to be accumulated described in (2) and the comparison processing will be described with reference to FIG. When storing the arrangement pattern,
A bit string in which the accumulation-target small block is set to “1” and other non-accumulation target small blocks are set to “0” is created and stored as arrangement pattern data (for example, stored in the memory 21). ).

【0078】そして、配置パターンをフレーム間で比較
する場合は、前記保存しておいたビット列を単純に比較
することで、一致するか否かを判断すればよい。例え
ば、32×32画素の追跡対象ブロックを、4×4の小
ブロックに分割した例を図9に示す。なお、分割数を多
くした場合は、単純に記憶するビット列の幅を大きくす
るだけでよい。
When the arrangement patterns are compared between the frames, it may be determined whether or not they match by simply comparing the stored bit strings. For example, FIG. 9 shows an example in which a tracking target block of 32 × 32 pixels is divided into 4 × 4 small blocks. When the number of divisions is increased, it is only necessary to simply increase the width of the bit string to be stored.

【0079】図9のD図に示したように、追跡ブロック
を4×4の小ブロックに分割し、行1、行2、行3、行
4をそれぞれ図示矢印の方向に展開して1列にする。こ
のようにして、追跡ブロックの各小ブロックを1列に並
べ、各小ブロック毎に、1(累積対象の小ブロック=
1)、又は0(累積対象以外の小ブロック=0)を入れ
て配置パターンのビット列を作成する。
As shown in FIG. 9D, the tracking block is divided into 4 × 4 small blocks, and row 1, row 2, row 3 and row 4 are each expanded in the direction of the arrow shown in FIG. To In this manner, the small blocks of the tracking block are arranged in a line, and for each small block, 1 (the small block to be accumulated =
1) or 0 (small block other than accumulation target = 0) is inserted to create a bit string of an arrangement pattern.

【0080】例えば、図9のE図に示した配置パターン
(図8の例と同じ)の場合、図9のF図に示したよう
に、黒い部分(黒く塗り潰した小ブロック)を1(累積
対象)とし、他の部分を全て0(累積対象外)とする。
この場合、配置パターンのビット列は、「000001
1011110000」となる。
For example, in the case of the arrangement pattern shown in FIG. 9E (the same as the example of FIG. 8), as shown in FIG. 9F, the black portion (small black block) is 1 (accumulated). Target), and all other parts are set to 0 (non-cumulative target).
In this case, the bit string of the arrangement pattern is “000001”.
1011110000 ".

【0081】従って、このビット列をメモリ21に保存
しておく。例えば、前記ビット列を16進数で表現する
と、0x06F0なので、これを変数に代入して(patt
ern=0x06F0)メモリ21に記憶させればよい。そして、
フレーム間での配置パターンの比較を行う場合は、前記
メモリ21に記憶してあるデータ(pattern=0x06F0)を
使用すればよい。
Therefore, this bit string is stored in the memory 21. For example, if the bit string is expressed in hexadecimal, it is 0x06F0, so this is substituted for a variable (patt
ern = 0x06F0) It may be stored in the memory 21. And
When comparing arrangement patterns between frames, data (pattern = 0x06F0) stored in the memory 21 may be used.

【0082】(4) :前記予測値の累積処理は次の通りで
ある。前記追跡処理において、CPU20は、有効ブロ
ック(累積対象の小ブロック)の相関値の累積結果と有
効ブロックの数から小ブロック1個当たりの平均相関値
を算出し、これを過去数フレーム分(複数フレーム分)
メモリ21に記憶して、それらを累積し、フレーム数で
割ることにより予測値を算出し、現フレームの相関値に
累積する。
(4): The process of accumulating the predicted values is as follows. In the tracking process, the CPU 20 calculates an average correlation value per small block from the accumulation result of the correlation values of the effective blocks (accumulation target small blocks) and the number of effective blocks, and calculates the average correlation value for the past several frames (a plurality of Frame)
The prediction value is calculated by storing them in the memory 21 and dividing them by the number of frames, and accumulating them in the correlation value of the current frame.

【0083】このようにすれば、移動物体のすれ違い等
が発生した場合でも安定した追跡を実現する。この際、
予測値に重み計数を掛けて、予測の割合を調整できるよ
うにする。
In this way, stable tracking can be realized even when the moving objects pass each other. On this occasion,
The prediction value is multiplied by a weighting factor so that the prediction ratio can be adjusted.

【0084】例えば、図10に示したように、現在のフ
レームで算出した相関値マップを、St、過去のフレー
ムで算出した相関マップをそれぞれSt−1、St−
2、St−3・・・St−nとする。この場合、St−
1はStより1つ前のフレームの相関値マップ、St−
2はSt−1より1つ前のフレームの相関値マップ、S
t−3はSt−2より1つ前のフレームの相関値マップ
である。
For example, as shown in FIG. 10, the correlation map calculated for the current frame is St, and the correlation map calculated for the past frame is St-1 and St-, respectively.
2, St-3... St-n. In this case, St-
1 is a correlation value map of a frame before St, and St-
2 is a correlation value map of a frame preceding St-1;
t-3 is a correlation value map of the frame immediately before St-2.

【0085】このような過去のフレームで算出した相関
値マップSt−1、St−2、St−3・・・St−n
を順次メモリ21に記憶させておき、これらを累積して
平均化処理を行い、予測の相関値マップSfを作成す
る。そして、現在のフレームで算出した相関値マップS
tに、前記予測の相関値マップSfを加算し、相関値マ
ップSを算出する。この場合、重み計数をkとし、S=
(St+k・Sf)/(k+1)の式により相関値マッ
プSを算出する。
The correlation value maps St-1, St-2, St-3,..., St-n calculated in such past frames.
Are sequentially stored in the memory 21, and these are accumulated to perform an averaging process to create a predicted correlation value map Sf. Then, the correlation value map S calculated for the current frame
The correlation value map Sf of the prediction is added to t to calculate the correlation value map S. In this case, the weight count is k, and S =
The correlation value map S is calculated by the equation (St + k · Sf) / (k + 1).

【0086】このようにすれば、有効ブロック(累積対
象の小ブロック)が少ない時は、予測の割合を大きくす
るなど、適応的に作用させることができる。また、予測
値を累積する際に、予測値が有効かどうか判定を行い、
有効な場合のみ累積を行うようにする。この予測値の判
定方法を図11のA図に示す。
In this way, when the number of valid blocks (small blocks to be accumulated) is small, it is possible to perform an adaptive operation such as increasing the prediction ratio. In addition, when accumulating the predicted value, it is determined whether the predicted value is valid,
Accumulate only when valid. The method of determining the predicted value is shown in FIG.

【0087】図11のA図において、Ccは中心の相関
値、Csは最も相関が高い位置の相関値、Thは閾値で
ある。相関値マップ上の中心の相関値Ccと相関が最も
高い位置の相関値Csとの差の絶対値(Cc−Cs)を
算出して、それが予め設定した閾値Thを越えていれば
(Cc−Cs≧Th)有効、越えていなければ(Cc−
Cs<Th)無効であると判定する。
In FIG. 11A, Cc is a central correlation value, Cs is a correlation value at a position having the highest correlation, and Th is a threshold value. The absolute value (Cc-Cs) of the difference between the central correlation value Cc on the correlation value map and the correlation value Cs at the position with the highest correlation is calculated, and if the absolute value (Cc-Cs) exceeds the preset threshold Th, (Cc -Cs ≧ Th) valid, if not exceeded (Cc-
Cs <Th) It is determined to be invalid.

【0088】これは、追跡物体の振動的な動きの場合
は、相関値が平均的な変化のない値を示すことから、そ
のような場合には予測値が有効でないと判断するもので
ある。例えば、図11のB図に示すように、波間に漂う
船を追跡する場合には、波の上下に合わせて追跡物体で
ある船が上下に振動する。
In the case of an oscillating movement of the tracked object, the correlation value indicates a value with no average change. In such a case, it is determined that the predicted value is not valid. For example, as shown in FIG. 11B, when tracking a ship floating between the waves, the ship that is the tracking object vibrates up and down in accordance with the up and down of the wave.

【0089】この場合には、予測値が追跡に悪影響を与
えることになる。このような振動的な運動の場合は、相
関値マップ上の各相関値が平均的となり、CcとCsの
差が無くなることにより判定できる。
In this case, the predicted value has an adverse effect on tracking. In the case of such an oscillating motion, each correlation value on the correlation value map becomes average, and it can be determined by eliminating the difference between Cc and Cs.

【0090】§7:記録媒体とプログラムの説明 前記画像追跡装置が行う処理は、画像追跡装置内のCP
U20が、ROM22又はHDD15のディスクに記憶
されたプログラムを実行することにより行うが、このよ
うな例に限らず、次のようにしても実現できる。この場
合、HDD15のディスクに格納するプログラムは、次
のようにして記録(記憶)する。
§7: Description of Recording Medium and Program The processing performed by the image tracking device is the CP in the image tracking device.
The U20 executes by executing a program stored in the ROM 22 or the disk of the HDD 15, but is not limited to such an example, and can be realized as follows. In this case, the program stored in the disk of the HDD 15 is recorded (stored) as follows.

【0091】:リムーバブルディスクに格納されてい
るプログラム(他の装置で作成したプログラムデータ)
を、RDD14により読み取り、HDD15の記録媒体
(ハードディスク)に格納する。
: Program stored on a removable disk (program data created by another device)
Is read by the RDD 14 and stored in the recording medium (hard disk) of the HDD 15.

【0092】:光磁気ディスク、或いはCD−ROM
等の記憶媒体に格納されているデータを、前記コンピュ
ータ本体11に設けたドライブ装置(CD−ROMドラ
イブ等)により読み取り、HDD15の記録媒体(ハー
ドディスク)に格納する。
: Magneto-optical disk or CD-ROM
The data stored in a storage medium such as is read by a drive device (such as a CD-ROM drive) provided in the computer main body 11 and stored in a recording medium (hard disk) of the HDD 15.

【0093】:LAN等の通信回線を介して他の装置
から伝送されたプログラム等のデータを、コンピュータ
本体11が通信制御部を介して受信し、そのデータをH
DD15の記録媒体(ハードディスク)に格納する。
The computer main unit 11 receives data such as a program transmitted from another device via a communication line such as a LAN via a communication control unit, and transmits the data to the H
It is stored in the recording medium (hard disk) of the DD15.

【0094】[0094]

【発明の効果】以上説明したように、本発明によれば次
のような効果がある。
As described above, the present invention has the following effects.

【0095】(1) :画像追跡処理を行う場合、追跡物体
の背景変化の影響を受け難くし、追跡物体の一部隠れが
発生した場合にも安定した追跡ができる。
(1): When performing the image tracking process, the tracking object is hardly affected by the background change, and stable tracking can be performed even when the tracking object is partially hidden.

【0096】(2) :追跡物体に一部隠れが発生した場合
でも、追跡を続行できる。また、追跡物体の形状変化
と、一部隠れの双方に対応しながらの追跡も可能にな
る。
(2): Even if the tracked object is partially hidden, the tracking can be continued. Further, it is possible to perform tracking while coping with both the shape change and partial occlusion of the tracked object.

【0097】(3) :追跡物体の動き予測データを加味す
ることにより、2物体がすれ違う場合にも追跡を続行可
能にできる。
(3): Tracking can be continued even when two objects pass each other by taking into account the motion prediction data of the tracked object.

【0098】(4) :画像追跡処理を行う場合、画像領域
分割手段は追跡する画像領域を複数の小ブロックに分割
し、相関演算手段は分割した小ブロック毎に相関演算を
行って相関値を求め、相関値処理手段は求められた小ブ
ロック毎の相関値を評価して、無効の小ブロックを除外
し、有効な小ブロックの相関値のみを、前記追跡する画
像領域全体の相関値計算に用いる。
(4): When performing the image tracking process, the image area dividing means divides the image area to be tracked into a plurality of small blocks, and the correlation calculating means performs a correlation calculation for each of the divided small blocks to calculate a correlation value. The correlation value processing means evaluates the calculated correlation value for each small block, excludes invalid small blocks, and uses only the correlation values of valid small blocks in calculating the correlation value of the entire image area to be tracked. Used.

【0099】このようにすれば、背景画像の変化による
追跡への影響を軽減し、追跡物体の一部が隠れた場合に
も対応可能になる。すなわち、従来の装置では、追跡画
像の背景が変化した場合や、追跡している物体の一部が
隠れた場合に相関値が悪くなり、安定した追跡ができな
くなることがあったが、本発明ではこのような従来の欠
点は解消し、常に安定した画像追跡処理ができる。
In this way, it is possible to reduce the influence of the change of the background image on the tracking and to cope with the case where a part of the tracking object is hidden. That is, in the conventional apparatus, when the background of the tracking image changes or when a part of the object being tracked is hidden, the correlation value becomes worse, and stable tracking may not be performed. Then, such a conventional disadvantage is solved, and stable image tracking processing can always be performed.

【0100】(5) :有効ブロック判定手段は、分割した
小ブロックの中で最も相関が高い小ブロックの相関値を
基準にして、その相関値との差が、予め設定した閾値以
内であれば、有効な小ブロックであると判定し、それ以
外を無効な小ブロックと判定する。
(5): The effective block judging means uses the correlation value of the small block having the highest correlation among the divided small blocks as a reference if the difference from the correlation value is within a predetermined threshold value. , Is determined to be a valid small block, and the others are determined to be invalid small blocks.

【0101】このようにすれば、小ブロックの有効、無
効の判定が簡単、かつ確実に行える。そして、背景画像
の変化による追跡への影響を軽減し、追跡物体の一部が
隠れた場合にも安定した画像追跡処理ができる。
In this way, the validity / invalidity of a small block can be easily and reliably determined. Then, the influence of the change of the background image on tracking is reduced, and stable image tracking processing can be performed even when a part of the tracking object is hidden.

【0102】(6) :有効ブロック判定手段は、追跡する
画像領域全体の平均輝度と、分割した各小ブロック毎の
平均輝度を予め計算して、画像領域全体の平均輝度より
高い平均輝度を有する小ブロックのみを、有効な小ブロ
ックと判定する。
(6) The effective block determination means calculates in advance the average luminance of the entire image area to be tracked and the average luminance of each of the divided small blocks, and has an average luminance higher than the average luminance of the entire image area. Only small blocks are determined to be valid small blocks.

【0103】このようにすれば、赤外線撮像カメラから
入力した画像を基に画像追跡処理を行う場合、小ブロッ
クの有効/無効の判定を確実に行うことができる。すな
わち、赤外線撮像カメラから入力した画像を使って移動
物体を追跡する場合、追跡の対象となる物体は車両や人
など熱源となるものが多いので、追跡対象物体の画像上
の輝度が背景より高いことを利用して、最初に小ブロッ
クを設定する時に、予め有効ブロックを絞り込む。この
ようにすれば、小ブロックの有効/無効の判定を確実に
行うことができ、画像追跡処理において、背景の変化の
影響を受け難くすることができる。
Thus, when performing the image tracking process based on the image input from the infrared imaging camera, the validity / invalidity of the small block can be reliably determined. That is, when a moving object is tracked using an image input from an infrared imaging camera, the object to be tracked is often a heat source such as a vehicle or a person, and thus the brightness of the image of the tracked object is higher than that of the background. Taking advantage of this, when first setting a small block, effective blocks are narrowed down in advance. In this way, the validity / invalidity of the small block can be reliably determined, and the influence of the background change can be reduced in the image tracking process.

【0104】(7) :記憶手段に追跡開始時の有効な小ブ
ロックの配置パターン及びブロック数を記憶しておき、
テンプレート制御手段は、前記記憶手段の前記記憶デー
タと、追跡する画像領域の配置パターン及びブロック数
とを比較し、追跡開始時の配置パターンを維持している
場合は、前記追跡する画像領域から取得したテンプレー
トを更新し、追跡開始時の配置パターンが変化した場合
は、テンプレートの更新を停止する。このようにすれ
ば、テンプレート更新による追跡物体の形状変化追従
と、物体の一部隠れへの対応を両立させることが可能に
なる。
(7): The effective small block arrangement pattern and the number of blocks at the start of tracking are stored in the storage means.
The template control unit compares the stored data of the storage unit with the arrangement pattern and the number of blocks of the image area to be tracked, and acquires the data from the image area to be tracked when the arrangement pattern at the time of starting the tracking is maintained. The updated template is updated, and if the arrangement pattern at the start of tracking changes, the updating of the template is stopped. With this configuration, it is possible to achieve both the tracking of the shape change of the tracking object by updating the template and the response to the partial hiding of the object.

【0105】(8) :相関値保存手段に過去複数フレーム
分の相関値を履歴データを保存しておき、相関値累積手
段は前記履歴データから過去複数フレーム分(例えば、
数フレーム分)の平均の相関値を求め、この平均の相関
値を追跡物体の動きの予測値として、現フレームで求め
た相関値に累積する。このようにすれば、すれ違い等で
安定して追跡を続行することができる。
(8): Correlation value storage means stores history values of correlation values for a plurality of past frames, and correlation value accumulation means stores the correlation values for a plurality of past frames (for example,
The average correlation value of several frames is calculated, and the average correlation value is accumulated as the predicted value of the motion of the tracking object in the correlation value obtained in the current frame. In this way, tracking can be continued stably due to passing or the like.

【0106】(9) :記録媒体のプログラムを読み出して
実行することにより、追跡する画像領域を複数の小ブロ
ックに分割する手順と、分割した小ブロック毎に相関演
算を行って相関値を求める手順と、求められた小ブロッ
ク毎の相関値を評価して、有効な小ブロックの相関値の
みを、前記追跡する画像領域全体の相関値計算に用いる
手順とを実行する。このようにすれば、背景画像の変化
による追跡への影響を軽減し、追跡物体の一部が隠れた
場合にも対応可能である。
(9): A procedure for dividing an image area to be tracked into a plurality of small blocks by reading and executing a program on a recording medium, and a procedure for obtaining a correlation value by performing a correlation operation for each of the divided small blocks. And a procedure of evaluating the obtained correlation value of each small block and using only the correlation value of the effective small block for calculating the correlation value of the entire image area to be tracked. In this way, it is possible to reduce the influence on the tracking due to the change of the background image, and to cope with a case where a part of the tracking object is hidden.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の実施の形態における装置構成図であ
る。
FIG. 2 is a device configuration diagram according to an embodiment of the present invention.

【図3】本発明の実施の形態における画像追跡処理の概
要説明図である。
FIG. 3 is a schematic explanatory diagram of an image tracking process according to the embodiment of the present invention.

【図4】本発明の実施の形態における画像追跡処理フロ
ーチャート(その1)である。
FIG. 4 is a flowchart (part 1) of an image tracking process according to the embodiment of the present invention.

【図5】本発明の実施の形態における画像追跡処理フロ
ーチャート(その2)である。
FIG. 5 is a flowchart (part 2) of an image tracking process according to the embodiment of the present invention.

【図6】本発明の実施の形態における画像追跡処理説明
図(その1)である。
FIG. 6 is an explanatory diagram (1) of an image tracking process according to the embodiment of the present invention.

【図7】本発明の実施の形態における画像追跡処理説明
図(その2)である。
FIG. 7 is an explanatory diagram (part 2) of an image tracking process according to the embodiment of the present invention.

【図8】本発明の実施の形態における画像追跡処理の具
体例である。
FIG. 8 is a specific example of an image tracking process according to the embodiment of the present invention.

【図9】本発明の実施の形態における配置パターン及び
ブロック数の処理説明図である。
FIG. 9 is an explanatory diagram of processing of an arrangement pattern and the number of blocks according to the embodiment of the present invention.

【図10】本発明の実施の形態における予測値の累積処
理説明図である。
FIG. 10 is a diagram illustrating a process of accumulating predicted values according to the embodiment of the present invention.

【図11】本発明の実施の形態における予測値の処理説
明図である。
FIG. 11 is an explanatory diagram of processing of a predicted value according to the embodiment of the present invention.

【図12】従来例の説明図(その1)である。FIG. 12 is an explanatory diagram (part 1) of a conventional example.

【図13】従来例の説明図(その2)である。FIG. 13 is an explanatory diagram (part 2) of a conventional example.

【図14】従来例の説明図(その3)である。FIG. 14 is an explanatory diagram (part 3) of a conventional example.

【図15】従来例の説明図(その4)である。FIG. 15 is an explanatory view (No. 4) of a conventional example.

【図16】従来例の説明図(その5)である。FIG. 16 is an explanatory view (No. 5) of a conventional example.

【符号の説明】[Explanation of symbols]

1 参照ブロック(テンプレート) 2 探索ブロック 3 候補ブロック 4 移動物体 5 動きベクトル 7 自動車 8 木 9 山 11 コンピュータ本体 12 ディスプレイ装置 13 キーボード 14 リムーバブルディスクドライブ(RDD) 15 ハードディスク装置(HDD) 16 ビデオカメラ 17 赤外線撮像カメラ 20 CPU(中央処理装置) 21 メモリ 22 ROM(リードオンリーメモリ) 23 ビデオボード 25 インタフェース制御部(I/F制御部) 26 フレームメモリ 27 相関演算部 28 コマンド用共用メモリ 29 データ用共用メモリ 31 撮像装置 32 制御部 35 小ブロック 36 除外領域 DESCRIPTION OF SYMBOLS 1 Reference block (template) 2 Search block 3 Candidate block 4 Moving object 5 Motion vector 7 Car 8 Tree 9 Mountain 11 Computer main body 12 Display device 13 Keyboard 14 Removable disk drive (RDD) 15 Hard disk device (HDD) 16 Video camera 17 Infrared ray Imaging camera 20 CPU (central processing unit) 21 memory 22 ROM (read only memory) 23 video board 25 interface control unit (I / F control unit) 26 frame memory 27 correlation operation unit 28 shared memory for command 29 shared memory for data 31 Imaging device 32 Control unit 35 Small block 36 Exclusion area

フロントページの続き Fターム(参考) 5B057 BA02 CA08 CA12 CA16 CC02 DA07 DB02 DB09 DC30 DC34 5H303 BB02 CC02 EE03 EE09 FF14 GG14 HH01 JJ02 LL03 5L096 BA02 BA04 CA02 FA32 FA34 GA19 HA03 HA05 JA09 KA03Continued on front page F term (reference) 5B057 BA02 CA08 CA12 CA16 CC02 DA07 DB02 DB09 DC30 DC34 5H303 BB02 CC02 EE03 EE09 FF14 GG14 HH01 JJ02 LL03 5L096 BA02 BA04 CA02 FA32 FA34 GA19 HA03 HA05 JA09 KA03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】入力画像データから追跡する画像領域を設
定し、この画像領域を対象として相関演算を行い、該相
関演算の結果に基づいて画像追跡処理を行う画像追跡装
置において、 前記追跡する画像領域を複数の小ブロックに分割する画
像領域分割手段と、 分割した小ブロック毎に相関演算を行って相関値を求め
る相関演算手段と、 求められた小ブロック毎の相関値を評価して、有効な小
ブロックの相関値のみを、前記追跡する画像領域全体の
相関値計算に用いる相関値処理手段を備えている、 ことを特徴とする画像追跡装置。
1. An image tracking apparatus for setting an image area to be tracked from input image data, performing a correlation operation on the image area, and performing an image tracking process based on a result of the correlation operation. Image area dividing means for dividing an area into a plurality of small blocks, correlation calculating means for performing a correlation operation for each divided small block to obtain a correlation value, and evaluating the obtained correlation value for each small block to be effective An image tracking device comprising: a correlation value processing unit that uses only the correlation value of a small block for calculating the correlation value of the entire image area to be tracked.
【請求項2】前記相関値処理手段は、 前記分割した小ブロックの中で最も相関が高い小ブロッ
クの相関値を基準にして、その相関値との差が、予め設
定した閾値以内であれば、有効な小ブロックであると判
定する有効ブロック判定手段を備えている、 ことを特徴とする請求項1記載の画像追跡装置。
2. The method according to claim 1, wherein the correlation value processing unit determines, based on a correlation value of a small block having the highest correlation among the divided small blocks, a difference from the correlation value within a predetermined threshold value. 2. The image tracking apparatus according to claim 1, further comprising an effective block determining unit that determines that the block is an effective small block.
【請求項3】前記相関値処理手段は、 追跡する画像領域全体の平均輝度と、分割した各小ブロ
ック毎の平均輝度を予め計算して、画像領域全体の平均
輝度より高い平均輝度を有する小ブロックのみを、有効
な小ブロックと判定する有効ブロック判定手段を備えて
いる、 ことを特徴とする請求項1記載の画像追跡装置。
3. The correlation value processing means calculates in advance the average luminance of the entire image area to be tracked and the average luminance of each of the divided small blocks, and calculates the average luminance of the image area having a higher average luminance than the average luminance of the entire image area. 2. The image tracking apparatus according to claim 1, further comprising an effective block determination unit that determines only a block as an effective small block.
【請求項4】追跡開始時の有効な小ブロックの配置パタ
ーン及びブロック数を記憶しておく記憶手段と、 前記記憶手段の記憶データと、追跡する画像領域の配置
パターン及びブロック数とを比較し、追跡開始時の配置
パターンを維持している場合は、追跡する画像領域から
取得したテンプレートを更新し、追跡開始時の配置パタ
ーンが変化した場合は、テンプレートの更新を停止する
テンプレート制御手段を備えている、 ことを特徴とする請求項1記載の画像追跡装置。
4. A storage means for storing an arrangement pattern and the number of blocks of effective small blocks at the start of tracking, and comparing data stored in the storage means with an arrangement pattern and the number of blocks of an image area to be tracked. A template control unit that updates the template acquired from the image area to be tracked when the arrangement pattern at the start of tracking is maintained, and stops updating the template when the arrangement pattern at the start of tracking changes. The image tracking device according to claim 1, wherein:
【請求項5】過去複数フレーム分の相関値を履歴データ
を保存しておく相関値保存手段と、 前記履歴データから、過去複数フレーム分の平均の相関
値を求め、この平均の相関値を追跡物体の動きの予測値
として、現フレームで求めた相関値に累積する相関値累
積手段を備えている、 ことを特徴とする請求項1記載の画像追跡装置。
5. A correlation value storage means for storing history data of correlation values of a plurality of past frames, obtaining an average correlation value of a plurality of past frames from the history data, and tracking the average correlation value. 2. The image tracking apparatus according to claim 1, further comprising a correlation value accumulating means for accumulating a correlation value obtained in the current frame as a predicted value of the motion of the object.
【請求項6】入力画像データから追跡する画像領域を設
定し、この画像領域を対象として相関演算を行い、該相
関演算の結果に基づいて画像追跡処理を行う画像追跡装
置に、 追跡する画像領域を複数の小ブロックに分割する画像領
域分割手段と、 分割した小ブロック毎に相関演算を行って相関値を求め
る相関演算手段と、 求められた小ブロック毎の相関値を評価して、有効な小
ブロックの相関値のみを、前記追跡する画像領域全体の
相関値計算に用いる相関値処理手段の機能を実現させる
ためのプログラムを記録したコンピュータ読取可能な記
録媒体。
6. An image tracking device that sets an image area to be tracked from input image data, performs a correlation operation on the image area, and performs an image tracking process based on a result of the correlation operation. Means for dividing the image into a plurality of small blocks, correlation calculating means for performing a correlation operation on each of the divided small blocks to obtain a correlation value, and evaluating the obtained correlation value for each small block to obtain an effective A computer-readable recording medium in which a program for realizing a function of a correlation value processing means for using only a correlation value of a small block for calculating a correlation value of the entire image area to be tracked is recorded.
JP06593599A 1999-03-12 1999-03-12 Image tracking device and recording medium Expired - Fee Related JP4398533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06593599A JP4398533B2 (en) 1999-03-12 1999-03-12 Image tracking device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06593599A JP4398533B2 (en) 1999-03-12 1999-03-12 Image tracking device and recording medium

Publications (2)

Publication Number Publication Date
JP2000259838A true JP2000259838A (en) 2000-09-22
JP4398533B2 JP4398533B2 (en) 2010-01-13

Family

ID=13301327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06593599A Expired - Fee Related JP4398533B2 (en) 1999-03-12 1999-03-12 Image tracking device and recording medium

Country Status (1)

Country Link
JP (1) JP4398533B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
JP2006318350A (en) * 2005-05-16 2006-11-24 Sony Corp Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
JP2008211506A (en) * 2007-02-26 2008-09-11 Casio Comput Co Ltd Image processing apparatus, imaging apparatus and its program
JP2009159356A (en) * 2007-12-27 2009-07-16 Casio Comput Co Ltd Subject tracing apparatus, subject tracing program and subject tracing method
JP2009205611A (en) * 2008-02-29 2009-09-10 Fujitsu Ltd Image target detection tracking device, image target detection tracking method, and image target detection tracking program
JP2011233093A (en) * 2010-04-30 2011-11-17 Daido Steel Co Ltd Product determination method
JP2013239211A (en) * 2002-02-27 2013-11-28 Nec Corp Image recognition system, recognition method thereof and program
JP2016186703A (en) * 2015-03-27 2016-10-27 ルネサスエレクトロニクス株式会社 Image recognition method, image recognition device, and image recognition program
JP2017041132A (en) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program
WO2019092874A1 (en) * 2017-11-13 2019-05-16 三菱電機株式会社 Object recognition device and object recognition method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8027522B2 (en) 2002-02-27 2011-09-27 Nec Corporation Image recognition system and recognition method thereof and program
US7532745B2 (en) 2002-02-27 2009-05-12 Nec Corporation Image recognition system and recognition method thereof, and program
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2013239211A (en) * 2002-02-27 2013-11-28 Nec Corp Image recognition system, recognition method thereof and program
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
JP4597543B2 (en) * 2004-02-18 2010-12-15 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP2006318350A (en) * 2005-05-16 2006-11-24 Sony Corp Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
JP2008102589A (en) * 2006-10-17 2008-05-01 Toa Corp Moving image processor, moving image processing method and moving image processing program
JP2008211506A (en) * 2007-02-26 2008-09-11 Casio Comput Co Ltd Image processing apparatus, imaging apparatus and its program
JP2009159356A (en) * 2007-12-27 2009-07-16 Casio Comput Co Ltd Subject tracing apparatus, subject tracing program and subject tracing method
JP2009205611A (en) * 2008-02-29 2009-09-10 Fujitsu Ltd Image target detection tracking device, image target detection tracking method, and image target detection tracking program
JP2011233093A (en) * 2010-04-30 2011-11-17 Daido Steel Co Ltd Product determination method
JP2016186703A (en) * 2015-03-27 2016-10-27 ルネサスエレクトロニクス株式会社 Image recognition method, image recognition device, and image recognition program
JP2017041132A (en) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program
WO2019092874A1 (en) * 2017-11-13 2019-05-16 三菱電機株式会社 Object recognition device and object recognition method
JPWO2019092874A1 (en) * 2017-11-13 2020-07-30 三菱電機株式会社 Object recognition device and object recognition method

Also Published As

Publication number Publication date
JP4398533B2 (en) 2010-01-13

Similar Documents

Publication Publication Date Title
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
JP3847827B2 (en) Motion vector detection method
JP2000259838A (en) Image tracking device and recording medium
KR100985805B1 (en) Apparatus and method for image stabilization using adaptive Kalman filter
JP3538055B2 (en) Motion vector detection device
US20100118156A1 (en) Image processing apparatus, image pickup apparatus and image processing method
US20030012277A1 (en) Image signal coding method, image signal coding apparatus and storage medium
EP1574992A1 (en) Method and device for tracing moving object in image
JP5107409B2 (en) Motion detection method and filtering method using nonlinear smoothing of motion region
JP2012512446A (en) Method and apparatus for identifying obstacles in an image
JP2007264714A (en) Lane recognition device
US20190028645A1 (en) Image processing device, image processing method and storage medium
JP2000011133A (en) Device and method for detecting moving object
CN109448019B (en) Adaptive method for smoothing parameters of variable-split optical flow model
US7116844B2 (en) Method for generating vector data for a hand-drawn curve
WO2010113417A1 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
KR100994367B1 (en) Method for tracking a movement of a moving target of image tracking apparatus
CN107644432B (en) Kalman target prediction based multi-feature compression fusion fast moving target tracking method
US20020076108A1 (en) Region extraction apparatus, region extraction method and computer readable recording medium
JPH10134193A (en) Method and device for calculating moving vector
JP3505872B2 (en) Moving object tracking device in image
JP3716455B2 (en) Region extraction method and region extraction device
CN111435117A (en) Crack line detection device, crack line detection method, and recording medium
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
JP4130601B2 (en) Object recognition device and object recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090908

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees