JP2007287006A - Moving object tracking device and program - Google Patents

Moving object tracking device and program Download PDF

Info

Publication number
JP2007287006A
JP2007287006A JP2006115352A JP2006115352A JP2007287006A JP 2007287006 A JP2007287006 A JP 2007287006A JP 2006115352 A JP2006115352 A JP 2006115352A JP 2006115352 A JP2006115352 A JP 2006115352A JP 2007287006 A JP2007287006 A JP 2007287006A
Authority
JP
Japan
Prior art keywords
sub
partition
degree
moving object
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006115352A
Other languages
Japanese (ja)
Other versions
JP4758272B2 (en
Inventor
Yasuyuki Nakada
康之 中田
Toru Kamata
徹 鎌田
Koichi Oikawa
浩一 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006115352A priority Critical patent/JP4758272B2/en
Publication of JP2007287006A publication Critical patent/JP2007287006A/en
Application granted granted Critical
Publication of JP4758272B2 publication Critical patent/JP4758272B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect and track objects with the use of relevance to adjacent subareas. <P>SOLUTION: A moving object tracking device comprises an image generation means 1 for dividing input images into subareas of fixed shape, and a subarea relevance calculation means 7 for computing the relevance of any subarea to adjacent subareas. The subarea relevance calculation means 7 computes the relevance of any subarea to adjacent subareas on the preceding frame and the relevance of each subarea to adjacent subareas on the current frame. The subareas having the highest relevance between the preceding frame and the current frame are tracked as the same object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラ等から入力された画像から画像処理によって複数の移動物体を個別に検出し、該検出した移動物体を自動追跡する移動物体追跡装置及びプログラムに関し、特に、カメラを用いた移動体追跡において、前フレームにおける着目ブロックと、現フレームの走査対象ブロックとの関係を定量的に表し、ブロック間の類似性や移動状態と組み合わせて最適な移動先を決定する移動物体追跡装置及びプログラムに関する。   The present invention relates to a moving object tracking device and a program for individually detecting a plurality of moving objects by image processing from an image input from a camera or the like and automatically tracking the detected moving objects, and in particular, a moving object using a camera. The present invention relates to a moving object tracking device and a program for quantitatively expressing a relationship between a block of interest in a previous frame and a scanning target block of a current frame in tracking and determining an optimum moving destination in combination with similarity between blocks and a moving state. .

従来から、画像処理によって移動物体を追跡する手法は様々なものが提案されており、代表的な手法として、背景差分法、テンプレートマッチング法、局所相関法などがあった。以下、従来例を説明する。   Conventionally, various methods for tracking a moving object by image processing have been proposed. Typical methods include a background difference method, a template matching method, a local correlation method, and the like. A conventional example will be described below.

(1):背景差分法とテンプレートマッチング法との組み合わせによって移動体を追跡する場合の説明
この移動体の追跡は、差分2値化画像生成部、人物辞書、追跡テーブル等を有し、所定の移動物体を精度よく追跡することを目的としており、背景差分法で、移動物体領域を抽出する。新規に出現した物体の場合は、濃淡パターンを人物辞書へ登録する。既出物体の場合は、人物辞書とのテンプレートマッチングを行い、正しい移動物体かどうかを判定する。そして、現フレームの移動物体領域を人物辞書へ登録する(特許文献1参照)。
(1): Description of tracking a moving object by a combination of the background difference method and the template matching method This tracking of a moving object includes a difference binary image generation unit, a person dictionary, a tracking table, etc. The object is to accurately track a moving object, and a moving object region is extracted by a background subtraction method. In the case of a newly appearing object, the shading pattern is registered in the person dictionary. In the case of an existing object, template matching with a person dictionary is performed to determine whether the object is a correct moving object. And the moving object area | region of the present flame | frame is registered into a person dictionary (refer patent document 1).

(2):局所相関法によって、移動体を追跡する場合の説明
この移動体の追跡は、画像入力手段、動画像符号化・復号化手段、移動物体検出手段、画像合成手段等を有し、画像処理によって移動物体の検出や物体の色の検出を行う際、計算量・計算時間・コストを少なくすることを目的とし、カメラで取得したフレームを、複数画素で構成されるマクロブロックに分割する。そして、前フレームと現フレームの間で、差分絶対値和を計算し、閾値比較からマクロブロック毎に静動判定を実施する(特許文献2参照)。
(2): Explanation of tracking a moving object by the local correlation method This tracking of a moving object has an image input means, a moving image encoding / decoding means, a moving object detection means, an image composition means, etc. When detecting moving objects and detecting object colors by image processing, the frame acquired by the camera is divided into macroblocks composed of multiple pixels for the purpose of reducing the amount of calculation, calculation time, and cost. . Then, the difference absolute value sum is calculated between the previous frame and the current frame, and static motion determination is performed for each macroblock from the threshold comparison (see Patent Document 2).

(3):局所相関法、帯域画像相関、テンプレートマッチング法の組み合わせによって、移動体を追跡する説明
この移動体の追跡は、画像入力手段、オプティカルフロー推定手段、信頼性評価手段(移動体を検出する) 、テンプレート管理手段、テンプレートマッチング手段、物体認識手段等を有し、入力映像から物体の侵入を認識することを目的とし、入力画像をブロックに分割し( 8×8 画素)、オプティカルフロー推定(局所相関法)により、動きのあるブロックを検出する。また、ウェーブレット変換で求めた帯域画像をブロックに分割し、前フレームとの正規化相関から、相関の高い所を見つける。両者の合致する領域を移動体とみなし、テンプレート登録やマッチングを行う(特許文献3参照)。
(3): Explanation of tracking a moving object by a combination of local correlation method, band image correlation, and template matching method This tracking of the moving object is performed by image input means, optical flow estimation means, reliability evaluation means (moving object detection). ), Template management means, template matching means, object recognition means, etc., for the purpose of recognizing the intrusion of objects from the input video, the input image is divided into blocks (8 × 8 pixels), optical flow estimation A block having motion is detected by (local correlation method). Further, the band image obtained by the wavelet transform is divided into blocks, and a place with high correlation is found from the normalized correlation with the previous frame. A region where both match is regarded as a moving body, and template registration and matching are performed (see Patent Document 3).

(4):時系列差分法と局所相関法との組み合わせによって、移動体を追跡する説明
この移動体の追跡は、画像入力部、差分画像作成部、変化領域抽出統合部(近接した変化領域を一まとめにする)、移動物体候補選択部、人物識別部等を有し、外乱がある環境でも短時間かつ高精度に監視対象を識別することを目的とし、 (1)時刻t-1,t の2つのフレーム画像について、画素値の差分を取って差分画像を生成する。(2) 差分画像を2値化し、移動体に起因する変化領域を検出する。分離している変化領域で互いに近接しているものをまとめ、外接矩形を設定する。(3) 2フレーム間で、外接矩形をテンプレートとした濃淡テンプレートマッチングを行い、類似度の小さい領域を移動体領域、大きい部分を外乱とみなす。これらの(1) 〜(3) を繰り返すことで移動体を追跡する(特許文献4参照)。
(4): Description of tracking a moving object by a combination of a time series difference method and a local correlation method This tracking of a moving object is performed by an image input unit, a difference image creation unit, a change region extraction integration unit (an adjacent change region In order to identify monitoring targets in a short time and with high accuracy even in an environment with disturbance, (1) time t-1, t A difference image is generated by taking a difference between pixel values of the two frame images. (2) The difference image is binarized and a change area caused by the moving object is detected. The separated change areas that are close to each other are put together to set a circumscribed rectangle. (3) Grayscale template matching using a circumscribed rectangle as a template is performed between two frames, and a region with a low similarity is regarded as a moving body region and a large portion as a disturbance. The moving body is tracked by repeating these (1) to (3) (see Patent Document 4).

上記手法のうち、背景差分法や局所相関法は、着目している局所領域の輝度値の差を用いているため、
・濃淡が少ない領域に対しては、背景抽出や移動体追跡ができない。
Among the above methods, the background subtraction method and the local correlation method use the difference in luminance value of the local region of interest,
-Background extraction and tracking of moving objects are not possible for areas with low contrast.

・複数移動体が重なったとき、これらの境界付近では着目ブロックの相関がどちらの移動体に対しても劣化するため、追跡できなくなる。   When multiple moving objects overlap, the correlation of the block of interest deteriorates for both moving objects in the vicinity of these boundaries, making tracking impossible.

などの問題があった。また、テンプレートマッチング法は、物体同士が重なった場合に、テンプレートの一部でしかマッチングできないため、精度が劣化し、移動物体を検出できなくなるといった問題があった。   There were problems such as. Further, the template matching method has a problem that when objects overlap each other, only a part of the template can be matched, so that accuracy is deteriorated and a moving object cannot be detected.

一方、物体同士が重なって遮蔽部分が発生した場合でも、遮蔽されていない観測領域を手掛かりに追跡処理を継続する方法として次のような従来例(特許文献5、6参照)がある。   On the other hand, there are the following conventional methods (see Patent Documents 5 and 6) as a method of continuing the tracking process using a non-shielded observation area as a clue even when objects are overlapped and a shielded part is generated.

(5):物体同士が重なって遮蔽部分が発生した場合でも、遮蔽されていない観測領域を手掛かりに追跡処理を継続する方法の説明
この移動体の追跡は、画像を複数画素から成るブロックに分ける処理、ブロックに移動体IDを割り振ってオブジェクトマップを生成する処理、時刻がt1からt2に変化したときの物体の移動を、時刻t1の画像とオブジェクトマップおよび時刻t2の画像を元に推定する処理を実行し、物体が重なっても、物体追跡を継続することを目的とし、移動物体に重なりがない場合は、背景差分法と局所相関法によって追跡し、画像を格子状に区切ってできる各ブロックに移動体IDを付与したオブジェクトマップを作成する。時刻t2で物体に重なりが生じたときに、物体の境界付近のブロックが、いずれの物体に属するかを次の指標を用いて決定する。
(5): Description of a method of continuing tracking processing using an unoccluded observation area as a clue even when objects are overlapped with each other, tracking this moving object divides the image into blocks composed of a plurality of pixels Processing, processing for assigning a moving body ID to a block and generating an object map, processing for estimating the movement of an object when the time changes from t1 to t2, based on the image at time t1, the object map, and the image at time t2 If the moving object does not overlap even if the object overlaps, if the moving object does not overlap, it is tracked by the background difference method and the local correlation method, and each block that can be divided into a grid An object map in which a moving body ID is assigned to is created. When an object overlaps at time t2, it is determined using the next index which object the block near the boundary of the object belongs to.

(1) 時刻t1(<t2)における着目ブロックの移動元で周囲に同じ移動物体のIDを持つブロックの個数。   (1) The number of blocks having the same moving object ID around the movement source of the block of interest at time t1 (<t2).

(2) 時刻t2の着目ブロックと時刻t1の移動元ブロックとのブロックマッチングによる相関値。   (2) Correlation value by block matching between the target block at time t2 and the movement source block at time t1.

(3) 着目ブロックの移動ベクトルと隣接しているブロックとの移動ベクトル同士の相関値、など。
特開平6−231252号公報 特許第3262534号公報 特開2004−13615号公報 特開第3423861号公報 特開2003−263626号公報 特開2004−207786号公報
(3) The correlation value between the movement vector of the block of interest and the movement vector of the adjacent block.
JP-A-6-231252 Japanese Patent No. 3262534 Japanese Patent Laid-Open No. 2004-13615 Japanese Patent No. 3423861 JP 2003-263626 A Japanese Patent Laid-Open No. 2004-207786

前記従来のものは次のような課題があった。   The conventional device has the following problems.

(1):背景差分法や局所相関法は、着目している局所領域の輝度値の差を用いているため、濃淡が少ない領域に対しては、背景抽出や移動体追跡ができない、複数移動体が重なったとき、これらの境界付近では着目ブロックの相関がどちらの移動体に対しても劣化するため、追跡できなくなるものであった。   (1): The background subtraction method and local correlation method use the difference in luminance value of the local area of interest, so multiple areas of movement where background extraction and moving object tracking are not possible for areas with low shading When the bodies overlap, the correlation of the block of interest deteriorates with respect to either moving body in the vicinity of these boundaries, so that tracking cannot be performed.

(2):テンプレートマッチング法は、物体同士が重なった場合に、テンプレートの一部でしかマッチングできないため、精度が劣化し、移動物体を検出できなくなるといった問題があった。   (2): The template matching method has a problem that when objects overlap each other, only a part of the template can be matched, so that the accuracy is deteriorated and a moving object cannot be detected.

(3):物体同士が重なって遮蔽部分が発生した場合でも、遮蔽されていない観測領域を手掛かりに追跡処理を継続する方法は、移動物体に重なりが生じたときでも追跡することが可能であるが、着目ブロックと隣接ブロックの関係は移動物体IDの一致で行われているため誤ったIDが付与された場合の検証手段がなく、また、新規物体や既存物体の遮蔽部分など、IDが割り当てられていない領域が新たに現れた場合の評価手段も提供されていなかった。   (3): Even when objects are overlapped with each other and a shielding part is generated, the method of continuing the tracking process using the observation area that is not shielded as a clue can track even when the moving object overlaps. However, since the relationship between the block of interest and the adjacent block is performed by matching the moving object ID, there is no verification means when an incorrect ID is given, and an ID is assigned such as a new object or a shielded part of an existing object. No evaluation means was provided when a new area appeared.

本発明は、このような従来の課題を解決し、画像処理によって複数の移動物体を個別に検出し、自動追跡する装置の提供を目的とする。特に、移動物体の一部あるいは全部の画素値の濃淡が均一であったり、物体同士が重なったりした場合でも、精度良く物体を検出・追跡することを目的とする。   An object of the present invention is to solve such a conventional problem and to provide an apparatus for detecting and automatically tracking a plurality of moving objects by image processing. In particular, the object is to detect and track an object with high accuracy even when the pixel values of a part or all of a moving object are uniform in density or even when objects overlap each other.

図1は本発明の移動物体追跡装置の説明図である。図1中、1は画像生成部(画像生成手段)、2はサブ区画属性格納部、3は移動物体属性格納部、4は移動ベクトル算出部(移動ベクトル算出手段)、5は局所相関値算出部(局所相関値算出手段)、6はサブ区画特徴算出部、7は隣接サブ区画間関係度算出部(サブ区画間関係度算出手段)、8は隣接サブ区画間関係度比較部、9は移動確率算出部、10は移動物体追跡部である。   FIG. 1 is an explanatory diagram of a moving object tracking device of the present invention. In FIG. 1, 1 is an image generation unit (image generation unit), 2 is a sub-partition attribute storage unit, 3 is a moving object attribute storage unit, 4 is a movement vector calculation unit (movement vector calculation unit), and 5 is a local correlation value calculation. Part (local correlation value calculation means), 6 is a sub-partition feature calculation part, 7 is an adjacent sub-partition relation degree calculation part (sub-partition relation degree calculation means), 8 is an adjacent sub-partition relation degree comparison part, and 9 is A movement probability calculation unit 10 is a moving object tracking unit.

本発明は、上記従来の課題を解決するため、次のように構成した。   In order to solve the above-described conventional problems, the present invention is configured as follows.

(1):入力された画像を一定形状のサブ区画に分割する画像生成手段1と、あるサブ区画と隣接するサブ区画との関係度を求めるサブ区画間関係度算出手段7とを備え、前記サブ区画間関係度算出手段7で前フレームのサブ区画とその隣接するサブ区画との関係度と現フレームのサブ区画とその隣接するサブ区画との関係度を求め、該求めた前フレームと現フレームの関係度が最も近いサブ区画を同じものとして追跡する。このため、隣接するサブ区画との関係度を使用して精度良く物体を検出・追跡することができる。   (1): an image generation unit 1 that divides an input image into sub-partitions having a fixed shape, and a sub-partition relation degree calculation unit 7 that obtains a relation degree between a certain sub-partition and an adjacent sub-partition, The inter-sub-partition relationship calculation means 7 obtains the degree of relation between the sub-partition of the previous frame and its adjacent sub-partition and the degree of relation between the sub-partition of the current frame and its adjacent sub-partition. The sub-partitions having the closest frame relation are tracked as the same. For this reason, it is possible to detect and track an object with high accuracy using the degree of relationship with adjacent sub-partitions.

(2):前記(1)の移動物体追跡装置において、前フレームのサブ区画の移動ベクトルと現フレームのサブ区画の移動ベクトルとの類似性を求める移動ベクトル算出手段4と、前フレームのサブ区画と現フレームのサブ区画との類似性を求める局所相関値算出手段5とを備え、前記移動ベクトル算出手段4で求めた類似性による指標と前記局所相関値算出手段5で求めた類似性による指標と前記サブ区画間関係度算出手段7で求めた関係度による指標とを組み合わせることで移動物体を追跡する。このため、複数の指標を用いてより精度良く物体を検出・追跡することができる。   (2): In the moving object tracking device of (1), the movement vector calculation means 4 for obtaining the similarity between the movement vector of the sub-section of the previous frame and the movement vector of the sub-section of the current frame, and the sub-section of the previous frame And a local correlation value calculation means 5 for determining the similarity between the current frame and the sub-section of the current frame, the similarity index determined by the movement vector calculation means 4 and the similarity index determined by the local correlation value calculation means 5 The moving object is tracked by combining the index based on the degree of relation obtained by the degree-of-sub-partition relation degree calculating means 7. For this reason, an object can be detected and tracked more accurately using a plurality of indices.

(3):前記(1)又は(2)の移動物体追跡装置において、サブ区画の大きさを可変するサブ区画集合体生成手段を備え、テクチュアが同じサブ区画について、サブ区画集合体を生成し、該サブ区画集合体の移動先を推定して、移動物体を追跡する。このため、移動物体の一部あるいは全部の画素値の濃淡が均一であっても、精度良く物体を検出・追跡することができる。   (3): In the moving object tracking device according to (1) or (2), the moving object tracking device includes sub-partition aggregate generation means for changing the size of the subpartition, and generates a sub-partition aggregate for the same subpartition with the same technology. The movement destination of the sub-partition aggregate is estimated and the moving object is tracked. For this reason, even if the pixel values of some or all of the moving object are uniform in density, the object can be detected and tracked with high accuracy.

(4):前記(1)〜(3)の移動物体追跡装置において、前フレームに存在しない領域である新規サブ区画が現れた場合に、新規サブ区画とその隣接サブ区画との関係度を求める新規サブ区画決定手段を備え、前記新規サブ区画決定手段で、前記求めた関係度により前記新規サブ区画が既存物体、背景領域、新規物体のいずれに属するかを判定して、移動物体を追跡する。このため、物体同士が重なったりした場合でも、精度良く物体を検出・追跡することができる。   (4): In the moving object tracking device of (1) to (3), when a new sub-partition that is an area that does not exist in the previous frame appears, the degree of relationship between the new sub-partition and its adjacent sub-partition is obtained. New sub-partition determining means is provided, and the new sub-partition determining means determines whether the new sub-partition belongs to an existing object, a background region, or a new object according to the obtained degree of relationship, and tracks a moving object . For this reason, even when objects overlap each other, the objects can be detected and tracked with high accuracy.

本発明によれば次のような効果がある。   The present invention has the following effects.

(1):サブ区画間関係度算出手段で前フレームのサブ区画とその隣接するサブ区画との関係度と現フレームのサブ区画とその隣接するサブ区画との関係度を求め、該求めた前フレームと現フレームの関係度が最も近いサブ区画を同じものとして追跡するため、隣接するサブ区画との関係度を使用して精度良く物体を検出・追跡することができる。   (1): The degree-of-sub-partition relationship calculation means obtains the degree of relation between the sub-partition of the previous frame and its adjacent sub-partition and the degree of relation between the sub-partition of the current frame and its adjacent sub-partition. Since the sub-partition having the closest relationship between the frame and the current frame is tracked as the same, the object can be detected and tracked with high accuracy using the degree of relation between the adjacent sub-partitions.

(2):移動ベクトル算出手段で求めた類似性による指標と局所相関値算出手段で求めた類似性による指標とサブ区画間関係度算出手段で求めた関係度による指標とを組み合わせることで移動物体を追跡するため、複数の指標を用いてより精度良く物体を検出・追跡することができる。   (2): A moving object by combining an index based on similarity obtained by the movement vector calculating means, an index based on similarity obtained by the local correlation value calculating means, and an index based on the degree of relation obtained by the sub-partition relationship degree calculating means Therefore, it is possible to detect and track an object with higher accuracy using a plurality of indices.

(3):テクチュアが同じサブ区画について、サブ区画集合体を生成し、該サブ区画集合体の移動先を推定して、移動物体を追跡するため、移動物体の一部あるいは全部の画素値の濃淡が均一であっても、精度良く物体を検出・追跡することができる。   (3): In order to track a moving object by generating a sub-partition aggregate for a sub-partition where the texture is the same, and estimating the movement destination of the sub-partition aggregate, the pixel values of some or all of the moving objects Even if the shade is uniform, the object can be detected and tracked with high accuracy.

(4):新規サブ区画決定手段で、求めた関係度により新規サブ区画が既存物体、背景領域、新規物体のいずれに属するかを判定して、移動物体を追跡するため、物体同士が重なったりした場合でも、精度良く物体を検出・追跡することができる。   (4): The new sub-partition determining means determines whether the new sub-partition belongs to an existing object, a background region, or a new object according to the obtained degree of relationship, and tracks the moving object. Even in this case, the object can be detected and tracked with high accuracy.

本発明は、カメラ等を用いた移動体追跡において、前フレームにおける着目ブロックと、現フレームの走査対象ブロックとの関係を定量的に表し、ブロック間の類似性や移動状態と組み合わせて最適な移動先を決定することで、移動物体を確実に追跡するものである。   The present invention quantitatively represents the relationship between the block of interest in the previous frame and the scanning target block of the current frame in tracking of a moving object using a camera or the like, and optimal movement in combination with the similarity and movement state between the blocks By determining the destination, the moving object is reliably tracked.

(1):移動物体追跡装置の説明
図1は移動物体追跡装置の説明図である。図1において、移動物体追跡装置には、画像生成部1、サブ区画属性格納部2、移動物体属性格納部3、移動ベクトル算出部4、局所相関値算出部5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8、移動確率算出部9、移動物体追跡部10が設けてある。
(1): Description of Moving Object Tracking Device FIG. 1 is an explanatory diagram of a moving object tracking device. In FIG. 1, the moving object tracking device includes an image generation unit 1, a sub-partition attribute storage unit 2, a moving object attribute storage unit 3, a movement vector calculation unit 4, a local correlation value calculation unit 5, a sub-part feature calculation unit 6, An adjacent sub-partition relationship calculation unit 7, an adjacent sub-partition relationship comparison unit 8, a movement probability calculation unit 9, and a moving object tracking unit 10 are provided.

(1) 画像生成部1の説明
画像生成部1には、画像の入力手段及び入力した画像を一定形状(サブ区画)に分割する分割手段を備えている。画像生成部1では、カメラ、映像再生装置(映像が記録されたビデオテープ、CD、DVDなどのメディア)、コンピュータに格納された映像ファイル、あるいは、ネットワークを介して通信される映像データなどから、一定のサンプリング時間間隔(例えば、33ms)で画像が生成される。
(1) Description of Image Generating Unit 1 The image generating unit 1 includes an image input unit and a dividing unit that divides the input image into fixed shapes (sub-sections). In the image generation unit 1, from a camera, a video playback device (video tape on which video is recorded, a medium such as a CD, a DVD), a video file stored in a computer, or video data communicated via a network, Images are generated at regular sampling time intervals (eg, 33 ms).

画像は、例えば、横720画素×縦480画素の矩形で与えられ、1つの画素は、カラー画像の場合、赤成分(R)、緑成分(G)、青成分(B)の階調値で与えられる。白黒画像の場合は、明るさの階調値(輝度)で与えられる。例えば、整数i ,j で示される座標(i,j)の画素の赤成分(R)、緑成分(G)、青成分(B)、輝度(I)の階調値は、それぞれ、ディジタル値R(i,j)、G(i,j)、B(i,j)、I(i,j)などで与えられる。尚、以下の計算で使用する画素値には、輝度(白黒濃淡値)を用いるが、R、G、B、RGBの組み合わせ、あるいはRGB値を変換して求まる他の表色系(HSV表色系、YUV表色系など)を使用しても良い。   For example, the image is given by a rectangle of 720 pixels wide × 480 pixels vertically, and in the case of a color image, one pixel has gradation values of a red component (R), a green component (G), and a blue component (B). Given. In the case of a black-and-white image, it is given by the brightness gradation value (luminance). For example, the gradation values of the red component (R), green component (G), blue component (B), and luminance (I) of the pixel at the coordinates (i, j) indicated by the integers i and j are respectively digital values. R (i, j), G (i, j), B (i, j), I (i, j), etc. The pixel values used in the following calculation use luminance (monochrome gray value), but other R, G, B, RGB, or other color system (HSV color system) obtained by converting RGB values. System, YUV color system, etc.) may be used.

また、通常は、画像の時系列は時間が古い画像から新しい画像の順番で処理するが、ビデオを逆転再生したり、画像格納手段に、一旦、全画像を取り込んだりすることで、時間の新しい画像から古い画像に対する処理を順に行っても良い。   Normally, the time series of images is processed in the order of oldest image to newest image. However, the time is renewed by playing back the video in reverse or by taking all the images into the image storage means once. You may perform the process with respect to an old image in order from an image.

(2) サブ区画属性格納部2の説明
サブ区画属性格納部2では、画像を一定形状のサブ区画(例えば、8×8画素の格子状)に分割し、各サブ区画に移動物体IDを1個与えることで、検出した移動物体の位置を表す。例えば、横720画素×縦480画素の画像を、8×8画素のサブ区画で分割すると、横90区画×縦60区画となり、計5400個のサブ区画が与えられる。
(2) Description of sub-partition attribute storage unit 2 The sub-partition attribute storage unit 2 divides an image into sub-partitions of a fixed shape (for example, a grid of 8 × 8 pixels), and a moving object ID is assigned to each subpart. By giving them, the position of the detected moving object is represented. For example, when an image of horizontal 720 pixels × vertical 480 pixels is divided into 8 × 8 pixel sub-partitions, it becomes 90 horizontal parts × 60 vertical parts, giving a total of 5400 sub-partitions.

移動物体が画像に占める領域を、同一の移動物体IDを持つサブ区画の集合で表す。サブ区画は、配列表現で表現し、各種の属性値を格納する。例えば、時刻tにおけるp行q列目のサブ区画のk番目の属性値は、
Attrib_SubBlock(t) [p][q][k]
0≦p<SizeX/n 、0 ≦q<SizeY/n 、0 ≦k<kmax
ただし、SizeX 、SizeY はフレーム画像の横、縦のサイズ、nはサブ区画の1辺の画 素数、kmax は、属性数を表す。
で与えられる。図2はサブ区画属性の説明図である。図2において、サブ区画の属性には、移動物体ID、左上端画素座標、移動ベクトル、ヒストグラム、サブ区画間類似度Stotalのような種類がある。
An area occupied by a moving object in an image is represented by a set of sub-partitions having the same moving object ID. The sub-partition is expressed by an array expression and stores various attribute values. For example, the k-th attribute value of the sub-part of the p-th row and the q-th column at time t is
Attrib_SubBlock (t) [p] [ q] [k]
0 ≦ p <SizeX / n, 0 ≦ q <SizeY / n, 0 ≦ k <kmax
Here, SizeX and SizeY are the horizontal and vertical sizes of the frame image, n is the number of pixels on one side of the sub-partition, and kmax is the number of attributes.
Given in. FIG. 2 is an explanatory diagram of sub-partition attributes. In FIG. 2, the attributes of the sub-partition include types such as a moving object ID, upper left pixel coordinates, a movement vector, a histogram, and a sub-partition similarity Stotal.

(3) 移動物体属性格納部3の説明
画像に占める移動物体の領域は、同一の移動物体IDが格納されているサブ区画の集合で表される。図3はサブ区画と移動物体の関係の説明図である。図3において、サブ区画と移動物体の関係を示した一例である。カメラの視野内に新しい移動物体が検出されると、新しい移動物体ID=Zが割り振られ、サブ区画配列に格納される。時刻tにおける移動物体の属性は、次のような配列表現で移動物体属性格納部3に格納される。
(3) Explanation of Moving Object Attribute Storage Unit 3 The area of moving objects in the image is represented by a set of sub-partitions that store the same moving object ID. FIG. 3 is an explanatory diagram of the relationship between sub-partitions and moving objects. In FIG. 3, it is an example which showed the relationship between a sub division and a moving object. When a new moving object is detected in the field of view of the camera, a new moving object ID = Z is allocated and stored in the sub-partition arrangement. The attributes of the moving object at time t are stored in the moving object attribute storage unit 3 in the following array expression.

Attrib_TrackBlock(t) [Z][k]
kは、k番目の属性値であることを示す。移動物体の属性には、サブ区画の外接矩形の範囲を示す矩形の左上端点、右下端点の位置座標や、前サンプリング時刻から現サンプリング時刻までに移動した速さや方向を表す移動ベクトルがある。図4は移動物体属性の説明図である。図4の移動物体の属性表には、外接矩形の左上端座標、外接矩形の右下端座標、移動ベクトル、内包するサブ区画数(図3の例では9個)がある。
Attrib_TrackBlock (t) [Z] [k]
k indicates the k-th attribute value. The attributes of the moving object include the position coordinates of the upper left end point and the lower right end point of the rectangle indicating the range of the circumscribed rectangle of the sub-partition, and a movement vector representing the speed and direction of movement from the previous sampling time to the current sampling time. FIG. 4 is an explanatory diagram of moving object attributes. The moving object attribute table of FIG. 4 includes the upper left corner coordinates of the circumscribed rectangle, the lower right corner coordinates of the circumscribed rectangle, the movement vector, and the number of sub-partitions included (9 in the example of FIG. 3).

図5は移動前後のサブ区画例の説明図である。図5に示したように、前フレーム画像と、現フレーム画像が与えられたとき、前フレームの移動物体IDが割り振られたサブ区画が、現フレームのどこへ移動したかを推定する。推定移動先は、以下に示す指標を元に算出された移動確率が、最大となる位置で与える。各指標はカッコ内[]に示した算出部、比較部で求める。   FIG. 5 is an explanatory diagram of examples of sub-partitions before and after movement. As shown in FIG. 5, when the previous frame image and the current frame image are given, it is estimated where the sub-partition to which the moving object ID of the previous frame has been moved moves in the current frame. The estimated movement destination is given at a position where the movement probability calculated based on the following index becomes the maximum. Each index is obtained by the calculation unit and comparison unit indicated in brackets [].

(指標1)前フレームのサブ区画の移動ベクトルと、現フレームのサブ区画の移動ベクトルの類似度(類似性)に基づく確率。 [移動ベクトル算出部4]
(指標2)前フレームの移動元のサブ区画と現フレームの移動先のサブ区画との類似度(類似性)に基づく確率。類似度が最大のとき確率も最大となる。 [局所相関値算出部5]
(指標3)前フレームの移動元のサブ区画とその隣接区画との関係度と、現フレームの移動先のサブ区画とその隣接区画との関係度に基づく確率。 [サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8]
以下、各算出部、比較部の詳細について説明する。
(Indicator 1) Probability based on the similarity (similarity) between the movement vector of the sub-partition of the previous frame and the movement vector of the sub-partition of the current frame. [Movement vector calculation unit 4]
(Indicator 2) Probability based on the similarity (similarity) between the movement-source sub-partition of the previous frame and the movement-destination sub-partion of the current frame. When the similarity is maximum, the probability is also maximum. [Local correlation value calculation unit 5]
(Indicator 3) Probability based on the degree of relationship between the sub-part of the previous frame and the adjacent part, and the degree of relation between the sub-part of the current frame and the adjacent part. [Sub-partition feature calculation unit 6, adjacent sub-partition relationship calculation unit 7, adjacent sub-partition relationship comparison unit 8]
Hereinafter, details of each calculation unit and comparison unit will be described.

(4) 移動ベクトル算出部4の説明
移動ベクトル算出部4では、前フレーム(時刻t−1)のサブ区画が、現フレーム(時刻t)のあるサブ区画へ移動したとき、サブ区画の左上端点を用いて、移動ベクトルVを算出する。
(4) Description of Movement Vector Calculation Unit 4 In the movement vector calculation unit 4, when the sub-partition of the previous frame (time t-1) moves to the sub-partition where the current frame (time t) is located, the upper left end point of the sub-partition Is used to calculate the movement vector V.

V=(vx ,vy )=(iLT−iLT' ,jLT−jLT' )
ただし、(iLT' ,jLT' )は前フレームのサブ区画の左上端画素の座標、
(iLT ,jLT)は現フレームのサブ区画の左上端画素の座標である。
V = (v x , v y ) = (i LT −i LT ′, j LT −j LT ′)
However, (i LT ', j LT ') is the coordinates of the upper left pixel of the sub-section of the previous frame,
(I LT , j LT ) are the coordinates of the upper left pixel of the sub-section of the current frame.

着目している現フレームのサブ区画(左上端画素座標(iLT ,jLT))が、前々サンプリング時刻および前サンプリング時刻において下記の位置にあったとする。 Assume that the sub-section of the current frame of interest (the upper left pixel coordinates (i LT , j LT )) is at the following position at the previous sampling time and the previous sampling time.

前々サンプリング:(iLT'',jLT'')
前サンプリング:(iLT' ,jLT' )
このとき、上述した移動ベクトルの算出式を用いると、前フレームの移動ベクトルV'=(vx ' ,vy ' )現フレームの移動ベクトルV=(vx ,vy )は次式となる。
Sampling before: (i LT ″, j LT ″)
Pre-sampling: (i LT ', j LT ')
At this time, the use of calculation expression of the movement vector described above, the movement vector V of the previous frame '= (v x', v y ') movement vector V = (v x, v y ) of the current frame by the following equation .

V’=(vx ' ,vy ' )=(iLT' −iLT'',jLT' −jLT'')
V=(vx ,vy )=(iLT−iLT' ,jLT−jLT' )
ベクトルV' とVの類似性を次の2つの値で評価する。
V ′ = (v x ′, v y ′) = (i LT ′ −i LT ″, j LT ′ −j LT ″)
V = (v x , v y ) = (i LT −i LT ′, j LT −j LT ′)
The similarity between the vectors V ′ and V is evaluated by the following two values.

Figure 2007287006
Figure 2007287006

差分値A(指標A)が0に近いほど、また、内積B(指標B)が1に近いほど、移動ベクトルの類似性は高くなる。   The closer the difference value A (index A) is to 0 and the closer the inner product B (index B) is to 1, the higher the similarity of the movement vectors.

(5) 局所相関値算出部5の説明
局所相関値算出部5は、サブ区画に含まれる同じ位置の画素について、前フレーム(時刻t−1)と現フレーム(時刻t)とで輝度値の差分を取り、絶対値の総和Cを算出する。
(5) Description of Local Correlation Value Calculation Unit 5 The local correlation value calculation unit 5 calculates the luminance value of the pixel at the same position included in the sub-partition between the previous frame (time t-1) and the current frame (time t). The difference is taken and the sum C of absolute values is calculated.

Figure 2007287006
Figure 2007287006

上式において、It-1(i',j') は前フレームのサブ区画に含まれる画素の輝度値、 It ( i, j) は現フレームのサブ区画に含まれる画素の輝度値、Rt-1 は前フレー ムのサブ区画領域内、Rt は現フレームのサブ区画領域内であることを表わしている 。 In the above equation, I t−1 (i ′, j ′) is the luminance value of the pixel included in the sub-partition of the previous frame, I t (i, j) is the luminance value of the pixel included in the sub-partition of the current frame, R t-1 indicates that it is in the sub-partition area of the previous frame, and R t indicates that it is in the sub-partition area of the current frame.

この総和Cが小さいほど、前フレームのサブ区画と現フレームサブ区画との類似度が大きく、総和C(指標C)の値が大きいほど類似度は小さい。   The smaller the sum C, the greater the similarity between the sub-section of the previous frame and the current frame sub-section, and the smaller the sum C (index C), the smaller the similarity.

(6) サブ区画特徴算出部6の説明
サブ区画特徴算出部6では、着目しているサブ区画に含まれる画素の輝度値を取得し、輝度値を階級として、同じ階級に含まれる画素の出現回数を積算して得たヒストグラムHsub をサブ区画特徴として用いる。ヒストグラムHsub は次のようにして表す。
(6) Description of the sub-partition feature calculation unit 6 The sub-partition feature calculation unit 6 acquires the luminance value of the pixel included in the sub-part of interest, and uses the luminance value as a class, and the appearance of pixels included in the same class The histogram Hsub obtained by integrating the number of times is used as the sub-partition feature. The histogram Hsub is expressed as follows.

sub [I]=NI
Iは輝度値、NI は着目サブ区画に含まれ、輝度値Iを持つ画素の総数である。
H sub [I] = N I
I is the luminance value, N I are included in the focused sub-zone, the total number of pixels having luminance values I.

(7) 隣接サブ区画間関係度算出部7の説明
移動物体領域の局所部分の輝度値分布は一般的に緩やかに変化しているため、隣接しているサブ区画同士は類似した特徴を持つ。例えば、人物の胴体部分をサブ区画に分割した場合、各サブ区画の輝度分布は、ほぼ一定となる。一方、隣接しているサブ区画の一方が移動物体に含まれ、他方が背景領域に含まれるとき、類似性は低くなる。こうした隣接サブ区画間の関係を、定量的に表現するために、隣接サブ区画間関係度算出部7で隣接サブ区画間関係度を算出する。
(7) Description of Adjacent Sub-partition Relation Degree Calculation Unit 7 Since the luminance value distribution of the local part of the moving object region generally changes gently, adjacent sub-partitions have similar characteristics. For example, when the torso portion of a person is divided into sub-sections, the luminance distribution of each sub-section is almost constant. On the other hand, when one of the adjacent sub-sections is included in the moving object and the other is included in the background area, the similarity is low. In order to quantitatively express the relationship between such adjacent sub-partitions, the degree of relation between adjacent sub-partitions is calculated by the degree-of-sub-partition relation calculation unit 7.

(第1の方法の説明)
隣接サブ区画間関係度を求めるための第1の方法は、サブ区画特徴に用いるヒストグラムの重なりを算出する方法である。第1の方法では、サブ区画sub1とサブ区画sub2の隣接サブ区画間関係度RELを、次式で求める。
(Description of the first method)
The first method for obtaining the degree of relationship between adjacent sub-partitions is a method for calculating the overlap of histograms used for sub-partition features. In the first method, the degree of relationship REL between adjacent sub-partitions of the sub-partition sub1 and the sub-partition sub2 is obtained by the following equation.

Figure 2007287006
Figure 2007287006

ここでminは、値の小さいほうを選択する関数である。     Here, min is a function for selecting the smaller value.

図6はヒストグラムの算出例の説明図である。図6において、前フレームの画像を図6(a) 、ヒストグラムを図6(b) 〜(d) に、現フレームの画像を図6(e) 、ヒストグラムを(f) 〜(h) に示している。画像に重ねて表示した2つの正方形は、サブ区画(4画素×4画素)を表わしており、前・現フレームにおいて撮影した人物の同一部分に位置している。各サブ区画のヒストグラムを求めると、図6(b)(c)(f)(g)のようになる。図6(d)(h)は、上式中のmin(Hsub1[I],Hsub2[I]) を、プロットした結果である。例えば、図6(d) は、図6(b) と図6(c) のヒストグラム内で小さい方を選択している。 FIG. 6 is an explanatory diagram of an example of calculating a histogram. In FIG. 6, the image of the previous frame is shown in FIG. 6 (a), the histograms are shown in FIGS. 6 (b) to (d), the image of the current frame is shown in FIG. 6 (e), and the histograms are shown in (f) to (h). ing. Two squares superimposed on the image represent a sub-section (4 pixels × 4 pixels) and are located in the same portion of the person photographed in the previous and current frames. When the histogram of each sub-section is obtained, it becomes as shown in FIGS. 6 (b), (c), (f), and (g). FIG. 6 (d) (h) is a result of plotting min (H sub1 [I], H sub2 [I]) in the above equation. For example, in FIG. 6 (d), the smaller one is selected in the histograms of FIG. 6 (b) and FIG. 6 (c).

隣接サブ区画間関係度は、図6(d)(h)の面積に相当する。図6の(d) と(h) は、ほぼ同じ値となることから、物体が移動しても、物体上の同一部分に割り付けられたサブ区画同士の関係度は、維持されることが分かる。   The degree of relationship between adjacent sub-partitions corresponds to the area of FIGS. 6 (d) and 6 (h). Since (d) and (h) in FIG. 6 have substantially the same value, it can be seen that the degree of relationship between the sub-partitions assigned to the same part on the object is maintained even if the object moves. .

(第2の方法の説明)
第2の方法は、サブ区画内の輝度値分布のピーク値同士の距離を用いる方法である。第2の方法では、サブ区画sub1とサブ区画sub2の隣接サブ区画間関係度RELを、次式で求める。
(Explanation of the second method)
The second method is a method using the distance between the peak values of the luminance value distribution in the sub-partition. In the second method, the relationship REL between adjacent sub-partitions of the sub-partition sub1 and the sub-partition sub2 is obtained by the following equation.

Figure 2007287006
Figure 2007287006

ここでmaxは、最大値を選択する関数である。     Here, max is a function for selecting the maximum value.

(第3の方法の説明)
第3の方法は、サブ区画内の輝度値分布の重心に相当する輝度値同士の距離を用いる方法である。第3の方法では、サブ区画sub1とサブ区画sub2の隣接サブ区画間関係度RELを、次式で求める。
(Explanation of the third method)
The third method is a method using a distance between luminance values corresponding to the center of gravity of the luminance value distribution in the sub-partition. In the third method, the degree of relationship REL between adjacent sub-partitions of the sub-partition sub1 and the sub-partition sub2 is obtained by the following equation.

Figure 2007287006
Figure 2007287006

ここでNは、サブ区画内の画素数である。     Here, N is the number of pixels in the sub-partition.

すなわち、隣接サブ区画間の重心の差分を関係度として用いるものである。   That is, the difference in the center of gravity between adjacent sub-sections is used as the degree of relationship.

(第4の方法の説明)
第4の方法は、サブ区画内の輝度値分布の中央値に相当する輝度値同士の距離を用いる方法である。第4の方法では、サブ区画sub1とサブ区画sub2の隣接サブ区画間関係度RELを、次式で求める。
(Explanation of the fourth method)
The fourth method uses a distance between luminance values corresponding to the median value of the luminance value distribution in the sub-partition. In the fourth method, the degree of relationship REL between adjacent sub-partitions of the sub-partition sub1 and the sub-partition sub2 is obtained by the following equation.

Figure 2007287006
Figure 2007287006

sub は輝度分布の中央値であり、次のようにして求める。まず、サブ区画内の輝度値I1 〜IN を昇順に並べる。 M sub is the median value of the luminance distribution, and is determined as follows. First, the luminance values I1 to IN in the sub-partition are arranged in ascending order.

I1 ≦I2 ≦・・・≦IN Nは、サブ区画内の画素数
サブ区画内の画素数Nが偶数のとき、中央値Msub は次式で与えられる。なお、サブ区画内の画素数Nが奇数のときは、中央値があるのでそれを用いる。
I1≤I2≤ ... ≤IN N is the number of pixels in the sub-partition When the number of pixels N in the sub-partition is an even number, the median value Msub is given by the following equation. When the number N of pixels in the sub-partition is an odd number, there is a median value, which is used.

Figure 2007287006
Figure 2007287006

(8) 隣接サブ区画間関係度比較部8の説明
前フレーム(時刻t−1)のサブ区画(p’,q’)が、現フレーム(時刻t)のあるサブ区画(p,q)へ移動したとき、着目サブ区画に隣接するサブ区画(p+a,q+b)(ただし、a=−1,0,1,b=−1,0,1)との関係度を次のように比較し、出力する値を算出する。尚、隣接区画を示す値a、bの組み合わせは、下記のように与えられる。
(8) Description of the relationship comparison unit 8 between adjacent sub-partitions The sub-partition (p ′, q ′) of the previous frame (time t−1) is changed to the sub-partition (p, q) where the current frame (time t) is located. When moving, the degree of relationship with the sub-partition (p + a, q + b) (where a = -1, 0, 1, b = -1, 0, 1) adjacent to the target sub-partition is compared as follows: Calculate the output value. The combination of the values a and b indicating the adjacent sections is given as follows.

隣接4区画の場合:(a,b)=(0,−1),(−1,0),(1,0),(0,1)
隣接8区画の場合:(a,b)=(0,−1),(−1,0),(1,0),(0,1),(−1,−1),(−1,1),(1,−1),(1,1)
隣接4区画を使用するか隣接8区画を使用するかは、処理を実行する前に、予め決めておく。
In the case of four adjacent sections: (a, b) = (0, −1), (−1, 0), (1, 0), (0, 1)
In the case of 8 adjacent sections: (a, b) = (0, −1), (−1, 0), (1, 0), (0, 1), (−1, −1), (−1, 1), (1, -1), (1,1)
Whether to use the four adjacent sections or the eight adjacent sections is determined in advance before executing the process.

以下では、着目サブ区画の上辺に接するサブ区画(a,b)=(0,−1)との関係度について説明する。他の隣接区画も同様の手順で説明できる。   Hereinafter, the degree of relationship with the sub-section (a, b) = (0, −1) in contact with the upper side of the target sub-section will be described. Other adjacent sections can be described in the same procedure.

まず、前フレームのサブ区画(p’,q’)と上辺で隣接するサブ区画(p’,q’−1)との隣接サブ区画間関係度REL (sub(p',q'), sub(p',q'-1)) を算出する。次に、前フレームのサブ区画(p’,q’)と、現フレームの移動先候補であるサブ区画(p,q)に上辺で隣接する区画(p,q−1) との隣接サブ区画間関係度REL (sub(p',q'), sub(p,q-1)) を算出する。最後に、求めた2つの隣接サブ区画間関係度の差分を計算し、出力値とする。   First, the degree of relationship REL (sub (p ′, q ′), sub between adjacent sub-partitions between the sub-partition (p ′, q ′) of the previous frame and the sub-partition (p ′, q′−1) adjacent on the upper side. (p ', q'-1)) is calculated. Next, the sub-partition (p ′, q ′) of the previous frame and the adjacent sub-partition of the sub-partition (p, q) that is the destination candidate of the current frame on the upper side (p, q−1) The degree of interrelationship REL (sub (p ′, q ′), sub (p, q−1)) is calculated. Finally, the difference between the obtained degrees of relationship between two adjacent sub-partitions is calculated and set as an output value.

REL(sub(p',q'), sub(p',q'-1)) - REL(sub(p',q'), sub(p,q-1))
尚、第1の方法で隣接サブ区画間関係度を求めた際、
REL(sub(p',q'), sub(p',q'-1))=0
REL(sub(p',q'), sub(p,q-1))=0
であるときは、出力値をN(サブ区画内の画素数) とする。サブ区画(p’,q’)隣接4区画は、上下辺、左右辺方向の4区画である。そこで、隣接サブ区画間関係度に基づく指標Dを次式で表す。
REL (sub (p ', q'), sub (p ', q'-1))-REL (sub (p', q '), sub (p, q-1))
When the degree of relationship between adjacent sub-partitions is obtained by the first method,
REL (sub (p ', q'), sub (p ', q'-1)) = 0
REL (sub (p ', q'), sub (p, q-1)) = 0
In this case, the output value is N (number of pixels in the sub-partition). The sub-partition (p ′, q ′) adjacent four sections are four sections in the upper and lower sides and the left and right sides. Therefore, an index D based on the degree of relationship between adjacent sub-partitions is expressed by the following equation.

Figure 2007287006
Figure 2007287006

ここでR' は前フレームのサブ区画(p’,q’)の隣接4区画の集合、Rは現フレ ームのサブ区画(p,q)の隣接4区画の集合を表わす。     Here, R ′ represents a set of four adjacent sections of the sub-partition (p ′, q ′) of the previous frame, and R represents a set of four adjacent sections of the sub-partition (p, q) of the current frame.

指標Dがゼロに近いほど前フレームのサブ区画と現フレームサブ区画との類似性が高く、ゼロから値が離れるほど類似性は低いものとなる。   The closer the index D is to zero, the higher the similarity between the subframe of the previous frame and the current frame subsection, and the lower the value from zero, the lower the similarity.

尚、上記では、指標Dを第1〜第4の方法のいずれか1つとして説明したが、幾つかの算出方法を組み合わせて、指標を、D1、D2、・・・のように複数個算出して、それらの指標を組み合わせて使用しても良い。   In the above description, the index D is described as one of the first to fourth methods. However, a plurality of indices such as D1, D2,... Are calculated by combining several calculation methods. Then, these indicators may be used in combination.

(9) 移動確率算出部9の説明
上述の方法で求めた指標を用いて、前フレームのサブ区画(p’,q’)と現フレームのサブ区画(p,q)との類似度を求める。現フレームにおいて最も類似しているサブ区画が移動確率最大と考え、サブ区画(p’,q’)の移動先とする。サブ区画間の類似度Stotal を、指標A、B、C、Dを用いて次式で表わす。
(9) Description of Movement Probability Calculation Unit 9 Using the index obtained by the above method, the similarity between the sub-partition (p ′, q ′) of the previous frame and the sub-partition (p, q) of the current frame is obtained. . The most similar sub-partition in the current frame is considered to have the maximum movement probability, and is the destination of sub-partition (p ′, q ′). The degree of similarity Stotal between sub-partitions is expressed by the following formula using indices A, B, C, and D.

Stotal(p',q',p,q)=−α|A|+β(B−1)−γC−δ|D|
α、β、γ、δは、予め与えたれた重み係数である。
Stotal (p ′, q ′, p, q) = − α | A | + β (B−1) −γC−δ | D |
α, β, γ, and δ are weight coefficients given in advance.

移動先(pdst ,qdst ) は、
Stotal(p',q',pdst,qdst)=max(Stotal(p',q',p,q))
0≦p<SizeX/n ,0 ≦q<SizeY/n
を満たす。現フレームのサブ区画(p,q)を与える際、走査範囲を限定すると処理時間を短縮できる。例えば、前フレームのサブ区画を中心とした上下左右r区画の範囲で走査する場合は、サブ区画(p,q)の値を
p'-r≦p ≦p'+r, q'-r ≦q ≦q'+r
にすると良い。このr区画の範囲は移動速度が速く(拡大ズーム等で)なると大きく取る。
The destination (pdst, qdst) is
Stotal (p ', q', pdst, qdst) = max (Stotal (p ', q', p, q))
0 ≦ p <SizeX / n, 0 ≦ q <SizeY / n
Meet. When the sub-section (p, q) of the current frame is given, the processing time can be shortened by limiting the scanning range. For example, when scanning in the range of up, down, left, and right r sections centering on the sub section of the previous frame, the value of the sub section (p, q) is set to
p'-r≤p≤p '+ r, q'-r≤q≤q' + r
It is good to make it. The range of the r section becomes larger as the moving speed becomes faster (for example, with an enlarged zoom).

移動物体が重なった場合は、物体の境界付近において、前フレームの2つの異なるサブ区画(p1 ’,q1 ’),(p2 ’,q2 ’)の移動先が、現フレームの同一サブ区画(pdst ,qdst)となる場合がある。このように、移動元が複数存在する場合は、類似度Stotal が大きい方を選択する。   When the moving objects overlap, the movement destinations of two different sub-partitions (p1 ′, q1 ′) and (p2 ′, q2 ′) of the previous frame are the same sub-partition (pdst) of the current frame near the boundary of the object. , Qdst). As described above, when there are a plurality of movement sources, the one having the higher similarity Stotal is selected.

Stotal(p1',q1',pdst,qdst)≧Stotal(p2',q2',pdst,qdst)→移動元はサブ区画(p 1 ’,q1 ’)
Stotal(p1',q1',pdst,qdst)<Stotal(p2',q2',pdst,qdst)→移動元はサブ区画(p 2 ’,q2 ’)
前フレームの移動元が3個以上になった場合も、上式で選択された移動元と、次の移動元とを順次比較することによって、処理可能である。
Stotal (p1 ′, q1 ′, pdst, qdst) ≧ Stotal (p2 ′, q2 ′, pdst, qdst) → The source is the sub-partition (p 1 ′, q1 ′)
Stotal (p1 ', q1', pdst, qdst) <Stotal (p2 ', q2', pdst, qdst)-> move source is sub-partition (p2 ', q2')
Even when the number of movement sources of the previous frame becomes three or more, processing can be performed by sequentially comparing the movement source selected by the above equation and the next movement source.

(10)移動物体追跡部10の説明
移動物体追跡部10は、移動確率算出部9において、現フレームのサブ区画(p,q)の移動元サブ区画が確定したとき、移動物体IDとして移動元のID値を継承する。
(10) Description of Moving Object Tracking Unit 10 When the movement probability calculation unit 9 determines the movement source subsection of the subsection (p, q) of the current frame, the moving object tracking section 10 uses the movement source ID as the movement object ID. Inherit the ID value.

Attrib_SubBlock(t) [ pdst][ qdst][ kID] =Attrib_SubBlock(t-1) [ p’][ q’][kID]
kIDは、移動物体IDの格納先の属性番号である。
Attrib_SubBlock (t) [pdst] [qdst] [kID] = Attrib_SubBlock (t-1) [p '] [q'] [kID]
kID is the attribute number of the storage destination of the moving object ID.

現フレームにおける全てのサブ区画の移動元が確定し、移動物体IDがサブ区画属性格納部にセットされると、現フレームにおける各移動物体の領域を決定することができる。例えば、移動物体ID=Zの物体の領域は、Attrib_SubBlock[ p][q][kID] =Zを満足するサブ区画の集まりで表わされる。   When the movement sources of all the sub-partitions in the current frame are determined and the moving object ID is set in the sub-partition attribute storage unit, the area of each moving object in the current frame can be determined. For example, the region of the object with the moving object ID = Z is represented by a collection of sub-partitions that satisfy Attrib_SubBlock [p] [q] [kID] = Z.

サンプリング時刻が経過し、新しいフレーム画像を取得する毎に、上述の処理を繰り返すことによって、移動物体を追跡することが可能となる。   The moving object can be tracked by repeating the above process every time the sampling time elapses and a new frame image is acquired.

(2):移動体追跡処理の説明
図7は移動物体追跡処理フローである。以下、図7の移動物体追跡処理を処理S1〜S23に従って説明する。
(2): Description of Moving Object Tracking Process FIG. 7 is a moving object tracking process flow. Hereinafter, the moving object tracking process of FIG. 7 will be described according to the processes S1 to S23.

S1:初期設定として、各種定数(画像サイズSizeX 、SizeY 、サブ区画の一辺の画素数nなど) を予め画像生成部1や各算出部等の処理部にセットし、処理S2に移る。   S1: As an initial setting, various constants (image size SizeX, SizeY, number of pixels n on one side of sub-partition, etc.) are set in advance in processing units such as the image generation unit 1 and each calculation unit, and the process proceeds to processing S2.

S2:画像生成部1は、カメラで撮影を開始し、処理S3に移る。   S2: The image generation unit 1 starts photographing with the camera, and proceeds to processing S3.

S3:画像生成部1は、サンプリング時刻毎に画像を取得し、処理S4に移る。   S3: The image generation unit 1 acquires an image at each sampling time, and proceeds to processing S4.

S4:画像生成部1は、現フレーム画像バッファに格納されているデータを前フレーム画像バッファへ移動し、前記処理S3で取得した画像を現フレーム画像バッファへ格納し、処理S5に移る。   S4: The image generation unit 1 moves the data stored in the current frame image buffer to the previous frame image buffer, stores the image acquired in the processing S3 in the current frame image buffer, and proceeds to processing S5.

S5:移動ベクトル算出部4は、前フレームのサブ区画(p’,q’)を1個取り出し、処理S6に移る。   S5: The movement vector calculation unit 4 extracts one sub-partition (p ′, q ′) of the previous frame, and proceeds to processing S6.

S6:移動ベクトル算出部4は、現フレームのサブ区画(p,q)を1個取り出し、処理S7に移る。   S6: The movement vector calculation unit 4 extracts one sub-partition (p, q) of the current frame, and proceeds to process S7.

S7:移動ベクトル算出部4は、前フレームのサブ区画(p’,q’)の左上端画素座標(iLT' ,jLT' )と、現フレームのサブ区画(p,q)の左上端画素座標(iLT ,jLT)から、移動ベクトルVを算出し、処理S8に移る。 S7: The movement vector calculation unit 4 calculates the upper left pixel coordinates (i LT ', j LT ') of the sub-section (p ', q') of the previous frame and the upper left end of the sub-section (p, q) of the current frame. The movement vector V is calculated from the pixel coordinates (i LT , j LT ), and the process proceeds to processing S8.

S8:移動ベクトル算出部4は、サブ区画属性格納部から、前フレームのサブ区画(p’, q’)の移動ベクトルV' を取り出し、前記処理S7で求めた現フレームの移動ベクトルVとの、ベクトルの大きさの差分値A(指標A)と内積B(指標B)を算出し、処理S9に移る。   S8: The movement vector calculation unit 4 takes out the movement vector V ′ of the sub-partition (p ′, q ′) of the previous frame from the sub-partition attribute storage part, and obtains the movement vector V of the current frame obtained in the processing S7. The vector magnitude difference value A (index A) and the inner product B (index B) are calculated, and the process proceeds to step S9.

S9:局所相関値算出部5は、サブ区画(p’,q’)に含まれる前フレーム画像バッファの画素と、サブ区画(p,q)に含まれる現フレーム画像バッファの画素から局所相関値C(指標C)を算出し、処理S10に移る。   S9: The local correlation value calculation unit 5 calculates the local correlation value from the pixel of the previous frame image buffer included in the sub-partition (p ′, q ′) and the pixel of the current frame image buffer included in the sub-partition (p, q). C (index C) is calculated, and the process proceeds to step S10.

S10:隣接サブ区画間関係度算出部7は、サブ区画属性格納部から、前フレームのサブ区画(p’, q’)のヒストグラムHp',q'[I] 、および、隣接区画(p' +a,q'+b)(a,b= −1,0,1) のヒストグラムHp'+a,q'+b[I] を取り出し、両区画間の関係度REL (sub(p',q'), sub(p'+a,q'+b)) を算出し、処理S11に移る。   S10: The degree-of-sub-partition relationship calculation unit 7 receives the histogram Hp ′, q ′ [I] of the sub-partition (p ′, q ′) of the previous frame and the adjacent part (p ′) from the sub-partition attribute storage unit. + A, q ′ + b) (a, b = −1, 0, 1) histogram Hp ′ + a, q ′ + b [I] is extracted, and the degree of relationship REL (sub (p ′, q '), sub (p' + a, q '+ b)) are calculated, and the process proceeds to step S11.

S11:隣接サブ区画間関係度算出部7は、現フレームのサブ区画(p,q)および隣接区画(p+a,q+ b)(a, b= −1,0,1 )に含まれる現フレーム画像バッファの画素からヒストグラムHp,q[I] ,Hp+a,q+b[I] を求め、両区画間の関係度REL(sub(p,q),sub(p+a,q+b)) を算出し、処理S12に移る。   S11: The relationship calculation unit 7 between adjacent sub-partitions includes the current frame included in the sub-partition (p, q) and the adjacent section (p + a, q + b) (a, b = −1, 0, 1) of the current frame. Histograms Hp, q [I], Hp + a, q + b [I] are obtained from the pixels of the image buffer, and the degree of relationship REL (sub (p, q), sub (p + a, q + b) between the two partitions )) Is calculated, and the process proceeds to step S12.

S12:隣接サブ区画間関係度比較部8は、前フレームの関係度REL(sub(p',q'), sub(p'+a,q'+b))と現フレームの関係度REL(sub(p,q), sub(p+a,q+b))から隣接サブ区画間関係度に基づく指標Dを算出し、処理S13に移る。   S12: The relationship comparison unit 8 between adjacent sub-partitions compares the relationship REL (sub (p ′, q ′), sub (p ′ + a, q ′ + b)) of the previous frame and the relationship REL ( An index D based on the degree of relationship between adjacent sub-partitions is calculated from sub (p, q), sub (p + a, q + b)), and the process proceeds to step S13.

S13:隣接サブ区画間関係度比較部8は、全ての隣接区画に対する隣接サブ区画間関係度を算出したかどうか判断する。この判断で全ての隣接区画に対する隣接サブ区画間関係度を算出した場合は処理S14に移り、全ての算出が終わっていない場合は処理S10に戻る(全ての隣接区画に対する隣接サブ区画間関係度を算出するまで、前記処理S10〜S12を繰り返す)。   S13: The relationship comparison unit 8 between adjacent sub-partitions determines whether or not the degree of relation between adjacent sub-partitions for all the adjacent sections has been calculated. If it is determined that the degree of relationship between adjacent sub-partitions for all adjacent partitions is calculated, the process proceeds to step S14. If all the calculations are not completed, the process returns to step S10 (the degree of relationship between adjacent sub-partitions for all adjacent partitions is determined). The processes S10 to S12 are repeated until calculation is performed).

S14:移動確率算出部9は、指標A、B、C、Dを用いて、サブ区画間の類似度Stotal(p',q',p,q)を求め、処理S15に移る。   S14: The movement probability calculation unit 9 obtains the similarity Stotal (p ′, q ′, p, q) between the sub-partitions using the indices A, B, C, and D, and proceeds to processing S15.

S15:移動確率算出部9は、走査対象である現フレームの全てのサブ区画について類似度Stotal を算出したかどうか判断する。この判断で走査対象である現フレームの全てのサブ区画について類似度Stotal を算出した場合は処理S16に移り、全ての算出が終わっていない場合は処理S6に移る(走査対象である現フレームの全てのサブ区画について類似度Stotal を算出するまで、前記処理S6〜S14を繰り返す)。   S15: The movement probability calculation unit 9 determines whether or not the similarity Stotal has been calculated for all the sub-sections of the current frame that is the scanning target. If the similarity Stotal is calculated for all sub-parts of the current frame that is the scan target in this determination, the process proceeds to step S16. If all the calculations are not completed, the process proceeds to process S6 (all the current frames that are the scan target). Steps S6 to S14 are repeated until the similarity Stotal is calculated for the sub-parts).

S16:移動物体追跡部10は、サブ区画間の類似度Stotal (p', q',p,q)が最大となる現フレームのサブ区画(p,q)を移動先(pdst ,qdst )とし、処理S17に移る。   S16: The moving object tracking unit 10 sets the sub-partition (p, q) of the current frame that maximizes the similarity Stotal (p ′, q ′, p, q) between the sub-partitions as the movement destination (pdst, qdst). Then, the process proceeds to process S17.

S17:移動物体追跡部10は、サブ区画属性格納部から、前フレームのサブ区画(p’,q’)の移動物体ID Attrib _ SubBlock(t-1)[ p’][q’][kID] を取り出し、処理S18に移る。   S17: The moving object tracking unit 10 receives the moving object ID Attrib_SubBlock (t−1) [p ′] [q ′] [kID of the sub-partition (p ′, q ′) of the previous frame from the sub-partition attribute storage unit. ] Is taken out and the process proceeds to step S18.

S18:移動物体追跡部10は、サブ区画属性格納部から、現フレームの移動先サブ区画(pdst ,qdst )の移動物体ID Attrib _SubBlock(t)[pdst][ qdst][ kID] を取り出し、処理S19に移る。   S18: The moving object tracking unit 10 extracts the moving object ID Attrib_SubBlock (t) [pdst] [qdst] [kID] of the movement destination sub-partition (pdst, qdst) of the current frame from the sub-partition attribute storage unit, and processes it. The process moves to S19.

S19:移動物体追跡部10は、現フレームの移動先サブ区画(Attrib_SubBlock(t)[pdst][ qdst][ kID] )に既に、移動物体IDが格納済みであれば、処理S20へ移り、未格納であれば、処理S22へ進む。   S19: If the moving object ID has already been stored in the moving destination sub-part (Attrib_SubBlock (t) [pdst] [qdst] [kID]) of the current frame, the moving object tracking unit 10 proceeds to processing S20, If stored, the process proceeds to step S22.

S20:移動物体追跡部10は、サブ区画属性格納部から、現フレームの移動先サブ区画(pdst ,qdst )のサブ区画間の類似度を取り出し、Stotal _saveとし、処理S21に移る。   S20: The moving object tracking unit 10 extracts the similarity between the sub-partitions of the movement-destination sub-partition (pdst, qdst) of the current frame from the sub-partition attribute storage unit, sets it as Stotal_save, and proceeds to the process S21.

S21:移動物体追跡部10は、処理S16で求めたサブ区画間の類似度Stotal (p', q',p,q)と、処理S20の類似度Stotal _saveを比較し、Stotal(p',q',pdst,qdst)≧Stotal _saveであれば、処理S22に移り、Stotal(p',q',pdst,qdst)<Stotal _saveであれば、処理S23に進む。   S21: The moving object tracking unit 10 compares the similarity Stotal (p ′, q ′, p, q) between the sub-partitions obtained in the process S16 with the similarity Stotal_save in the process S20, and Stotal (p ′, If q ′, pdst, qdst) ≧ Stotal_save, the process proceeds to process S22, and if Stotal (p ′, q ′, pdst, qdst) <Stotal_save, the process proceeds to process S23.

S22:移動物体追跡部10は、サブ区画属性格納部に、移動元のID値Attrib_SubBlock(t-1)[p’][q’][kID] 、サブ区画間類似度Stotal(p',q',pdst,qdst)をセットし、処理S23に移る。   S22: The moving object tracking unit 10 stores the ID value Attrib_SubBlock (t−1) [p ′] [q ′] [kID] of the movement source and the similarity Stotal (p ′, q between sub-partitions) in the sub-partition attribute storage unit. ', pdst, qdst) is set, and the process proceeds to step S23.

S23:移動物体追跡部10は、前フレームの全てのサブ区画を走査済みであれば、処理S3へ戻り、走査済みでなければ、処理S5へ戻る。   S23: The moving object tracking unit 10 returns to the process S3 if all the sub-sections of the previous frame have been scanned, and returns to the process S5 if not scanned.

このようにして、移動物体に関する情報が必要なときは、サブ区画属性格納部あるいは移動物体属性格納部からデータを読み出すものである。   In this way, when information regarding a moving object is required, data is read from the sub-partition attribute storage unit or the moving object attribute storage unit.

(3):背景領域の説明
上述の処理では、説明を簡単にするため背景領域の検出について触れなかったが、背景領域を静止している移動物体として扱い、背景領域のサブ区画に適当な移動物体IDを与えることで、他の移動物体と分別できる。尚、背景サブ区画は静止しており、移動ベクトルの成分はゼロになるため、指標A、Bはゼロにセットする。指標C、Dは上述の方法で求めることができる。
(3): Description of background area In the above process, the detection of the background area was not mentioned for the sake of simplicity, but the background area was treated as a stationary moving object and moved appropriately to the sub-section of the background area. By giving the object ID, it can be distinguished from other moving objects. Since the background sub-section is stationary and the movement vector component is zero, the indices A and B are set to zero. The indicators C and D can be obtained by the method described above.

(4):移動物体に濃淡変動の少ない領域が含まれている場合の説明
サブ区画の大きさを可変とするサブ区画集合体生成手段を有し、特に、濃淡が均一な(濃淡が均一でなくても模様が同じものを含む、すなわち、テクスチュアが同じ)サブ区画について、隣接サブ区画間関係度が一定条件を満足するサブ区画同士を結合したサブ区画集合体を生成し、集合体の移動先を推定することで、移動物体を追跡する。
(4): Explanation of a case where the moving object includes a region with little variation in density The sub-compartment assembly generation means that makes the size of the sub-partition variable is provided. In particular, the density is uniform (the density is uniform) For sub-partitions that include the same pattern even if they are not included (ie, the same texture), create a sub-partition aggregate that combines subpartitions that have a certain degree of relationship between adjacent subpartitions, and move the aggregate The moving object is tracked by estimating the destination.

移動物体に濃淡変動の少ない領域が含まれている場合、移動先を一意に決定することができなくなる。図8は移動物体に濃淡変動の少ない領域が含まれている場合の説明図である。例えば、図8(a)の移動物体のサブ区画b5 、b8 は、前フレームと現フレーム間で隣接サブ区画間関係度や局所相関値が一致するため、移動先の候補が複数発生し、一意に決定できなくなる。 If the moving object includes a region with little variation in shading, the destination cannot be determined uniquely. FIG. 8 is an explanatory diagram in the case where the moving object includes a region with less variation in shading. For example, in the sub-parts b 5 and b 8 of the moving object in FIG. 8A, the degree of relationship between the adjacent sub-parts and the local correlation value match between the previous frame and the current frame, so that a plurality of destination candidates are generated. , Can not be determined uniquely.

そこで、濃淡変動が少なく、隣接サブ区画間関係度が一定の条件を満たすサブ区画同士を結合させ、サブ区画集合体を作成し、集合体単位で移動先を推定する。次式を満たすと、濃淡変動が少ない均一濃淡サブ区画であると判定される。   Thus, sub-partitions that satisfy a certain degree of variation in density and have a certain degree of relationship between adjacent sub-partitions are combined to create a sub-partition aggregate, and a movement destination is estimated for each aggregate. When the following equation is satisfied, it is determined that the sub-division is a uniform gray shade subdivision with little gray shade variation.

σ(p,q)2<Fth
ここで、σ(p,q)2は、サブ区画の画素値の分散であり、次式で与えられる。Fthは、 均一か否かを判定するしきい値である(分散は値が小さいと均一であり、値が大きい と不均一となる)。
σ (p, q) 2 <F th
Here, σ (p, q) 2 is the variance of the pixel values of the sub-partition and is given by the following equation. F th is a threshold value for determining whether or not it is uniform (dispersion is uniform when the value is small, and non-uniform when the value is large).

Figure 2007287006
Figure 2007287006

ここで、Nはサブ区画内の画素数、I(i,j)はサブ区画(p,q)に含まれる画 素の輝度値、Rはサブ区画領域、Iバーはサブ区画に含まれる画素の輝度値平均を表 わす。     Here, N is the number of pixels in the sub-partition, I (i, j) is the luminance value of the pixel included in the sub-partition (p, q), R is the sub-partition area, and I bar is the pixel included in the sub-partition. Indicates the average luminance value.

あるサブ区画およびその隣接サブ区画が均一濃淡サブ区画であると判定され、隣接サブ区画間関係度が、次の条件を満たすと、サブ区画同士を結合させ集合体を生成する。   If it is determined that a certain sub-partition and its adjacent sub-partitions are uniform gray sub-partitions, and the degree of relationship between adjacent sub-partitions satisfies the following condition, the sub-partitions are combined to generate an aggregate.

Figure 2007287006
Figure 2007287006

ここで、Rthは、集合体を生成するか否かを判定するしきい値である。 Here, R th is a threshold value for determining whether or not to generate an aggregate.

サブ区画集合体単位で走査するときの指標A、B、C、Dを次のように求める。   The indices A, B, C, and D when scanning in units of sub-partition aggregates are obtained as follows.

(指標A、Bの説明)
均一濃淡サブ区画集合体に外接する矩形の左上端点(図8(b)参照)を用いて、移動ベクトルを算出する。外接矩形の左上端点(iRECTLT, jRECTLT) は次式で求める。
(Explanation of indicators A and B)
A movement vector is calculated using a rectangular upper left end point (see FIG. 8B) circumscribing the uniform gray subdivision aggregate. The upper left end point (iRECT LT , jRECT LT ) of the circumscribed rectangle is obtained by the following equation.

iRECTLT=min(iLT(p,q) |(p,q) ∈Rflat)
jRECTLT=min(jLT(p,q) |(p,q) ∈Rflat)
ここで、Rflatは、均一濃淡サブ区画集合体の領域を表わす。
iRECT LT = min (i LT (p, q) | (p, q) ∈ R flat )
jRECT LT = min (j LT (p, q) | (p, q) ∈ R flat )
Here, R flat represents the region of the uniform gray sub-compartment aggregate.

上述した移動ベクトル算出部と同様の方法で、前フレームのサブ区画(p’,q’)の移動ベクトルV' 、次式で求めた現フレームの移動ベクトルVから、指標A、Bを算出する。   Indexes A and B are calculated from the movement vector V ′ of the sub-partition (p ′, q ′) of the previous frame and the movement vector V of the current frame obtained by the following equation using the same method as the movement vector calculation unit described above. .

V=(vx ,vy )=(iLT−iRECTLT' ,jLT−jRECTLT' )
(尚、サブ区画集合体の外接矩形の左上端サブ区画の移動先を、サブ区画(p,q)とする)
V = (v x, v y ) = (i LT -iRECT LT ', j LT -jRECT LT')
(The movement destination of the upper left sub-part of the circumscribed rectangle of the sub-part aggregate is defined as sub-part (p, q))

Figure 2007287006
Figure 2007287006

(指標Cの説明)
サブ区画集合体に含まれる同じ位置の画素について、前フレーム(時刻t−1)と現フレーム(時刻t)とで輝度値の差分を取り、絶対値の総和を算出する。
(Explanation of indicator C)
For the pixels at the same position included in the sub-partition aggregate, the luminance value difference is calculated between the previous frame (time t-1) and the current frame (time t), and the sum of absolute values is calculated.

Figure 2007287006
Figure 2007287006

上式において、It-1(i',j')は前フレームのサブ区画集合体に含まれる画素の輝度値 、It (i,j) は現フレームのサブ区画(p,q)を基準とした前フレームのサブ区画 集合体の範囲内に含まれる画素の輝度値、Rt-1 は前フレームのサブ区画集合体領域 内、Rt は現フレームのサブ区画集合体領域内であることを表わす。 In the above equation, I t-1 (i ′, j ′) is the luminance value of the pixel included in the sub-partition set of the previous frame, and I t (i, j) is the sub-partition (p, q) of the current frame. The luminance value of the pixel included in the range of the sub-partition aggregate of the previous frame as a reference, R t-1 is in the sub-partition aggregate area of the previous frame, and R t is in the sub-partition aggregate area of the current frame Represents.

(指標Dの説明)
サブ区画集合体の隣接サブ区画間関係度は、集合体が非集合体と接している箇所で算出する。例えば、図8(b)において、REL(subb1, suba2)、REL(subb2, suba3)、REL(subb3, suba4)、・・・のように,太線で示した集合体と非集合体の境界を挟むサブ区画同士で、隣接サブ区画間関係度を求める。
(Explanation of indicator D)
The degree of relationship between adjacent sub-partitions of a sub-partition aggregate is calculated at a location where the aggregate is in contact with a non-aggregate. For example, in FIG. 8B, an aggregate indicated by a thick line, such as REL (sub b1 , sub a2 ), REL (sub b2 , sub a3 ), REL (sub b3 , sub a4 ) ,. The degree of relationship between adjacent sub-partitions is obtained between the sub-partitions that sandwich the non-aggregate boundary.

隣接サブ区画間関係度に基づく指標Dは次式のようになる。   An index D based on the degree of relationship between adjacent sub-partitions is as follows.

Figure 2007287006
Figure 2007287006

ここで、R' はサブ区画集合体に隣接する前フレームのサブ区画の集合、Rはサブ区 画集合体に隣接する現フレームのサブ区画の集合を表わす。     Here, R ′ represents a set of sub-partitions of the previous frame adjacent to the sub-partition set, and R represents a set of sub-partitions of the current frame adjacent to the sub-partition set.

このように、移動確率算出部9において、求めた指標A、B、C、Dを用い、移動先を決定する。   In this way, the movement probability calculation unit 9 determines the movement destination using the obtained indexes A, B, C, and D.

図9はサブ区画集合体を用いる場合の移動物体追跡装置の説明図である。図9において、移動物体追跡装置には、画像生成部1、サブ区画属性格納部2、移動物体属性格納部3、移動ベクトル算出部4、局所相関値算出部5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8、移動確率算出部9、移動物体追跡部10、サブ区画集合体生成部11、移動ベクトル算出部14、局所相関値算出部15、サブ区画特徴算出部16、隣接サブ区画間関係度算出部17、隣接サブ区画間関係度比較部18が設けてある。   FIG. 9 is an explanatory diagram of the moving object tracking device when the sub-partition aggregate is used. In FIG. 9, the moving object tracking device includes an image generation unit 1, a sub-partition attribute storage unit 2, a moving object attribute storage unit 3, a movement vector calculation unit 4, a local correlation value calculation unit 5, a sub-partition feature calculation unit 6, Adjacent sub-partition relationship degree calculation unit 7, adjacent sub-partition relation degree comparison unit 8, movement probability calculation unit 9, moving object tracking unit 10, sub-partition assembly generation unit 11, movement vector calculation unit 14, local correlation value calculation 15, a sub-part feature calculation unit 16, a relationship calculation unit 17 between adjacent sub-parts, and a relationship comparison unit 18 between adjacent sub-parts are provided.

ここで、移動ベクトル算出部4、局所相関値算出部5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8は、単体サブ区画用であり、図1と同じである。移動ベクトル算出部14、局所相関値算出部15、サブ区画特徴算出部16、隣接サブ区画間関係度算出部17、隣接サブ区画間関係度比較部18は、サブ区画集合体用であり、サブ区画集合体生成部11で生成したサブ区画集合体に対し指標A、B、C、Dを求めるものである。   Here, the movement vector calculation unit 4, the local correlation value calculation unit 5, the sub-part feature calculation unit 6, the relationship degree between adjacent sub-parts calculation unit 7, and the relation degree comparison unit 8 between adjacent sub-parts are for a single sub-partition. , The same as FIG. The movement vector calculation unit 14, local correlation value calculation unit 15, sub-part feature calculation unit 16, adjacent sub-partition relationship degree calculation unit 17, and adjacent sub-partition relationship degree comparison unit 18 are for sub-partition aggregates. The indexes A, B, C, and D are obtained for the sub-compartment aggregate generated by the partition aggregate generation unit 11.

図10はサブ区画集合体を用いる場合の移動物体追跡処理フローである。以下、図10の移動物体追跡処理を処理S31〜S44に従って説明する。   FIG. 10 is a moving object tracking processing flow when the sub-partition aggregate is used. Hereinafter, the moving object tracking process of FIG. 10 will be described according to the processes S31 to S44.

S31:初期設定として、各種定数(画像サイズSizeX 、SizeY 、サブ区画の一辺の画素数nなど) を予め画像生成部1や各算出部等の処理部にセットし、処理S32に移る。   S31: As an initial setting, various constants (image size SizeX, SizeY, number of pixels n on one side of the sub-partition, etc.) are set in advance in the processing unit such as the image generation unit 1 or each calculation unit, and the process proceeds to processing S32.

S32:画像生成部1は、カメラで撮影を開始し、処理S33に移る。   S32: The image generation unit 1 starts photographing with the camera, and proceeds to processing S33.

S33:画像生成部1は、サンプリング時刻毎に画像を取得し、処理S34に移る。   S33: The image generation unit 1 acquires an image at each sampling time, and proceeds to processing S34.

S34:画像生成部1は、現フレーム画像バッファに格納されているデータを前フレーム画像バッファへ移動し、前記処理S33で取得した画像を現フレーム画像バッファへ格納し、処理S35に移る。   S34: The image generating unit 1 moves the data stored in the current frame image buffer to the previous frame image buffer, stores the image acquired in the process S33 in the current frame image buffer, and proceeds to process S35.

S35:移動ベクトル算出部4は、前フレームのサブ区画(p’,q’)を1個取り出し、処理S36に移る。   S35: The movement vector calculation unit 4 extracts one sub-partition (p ′, q ′) of the previous frame, and proceeds to processing S36.

S36:移動ベクトル算出部4は、現フレームのサブ区画(p,q)を1個取り出し、処理S37に移る。尚、処理S31〜S36は、図7の処理S1〜S6と同じである。   S36: The movement vector calculation unit 4 extracts one sub-partition (p, q) of the current frame, and proceeds to processing S37. The processes S31 to S36 are the same as the processes S1 to S6 in FIG.

S37:サブ区画集合体生成部11は、前フレームのサブ区画(p’,q’)が均一濃淡サブ区画かどうか判断する。この判断で、均一濃淡サブ区画の場合は処理S38に移り、均一濃淡サブ区画でない場合は図7の処理S7に移る。   S37: The sub-partition aggregate generation unit 11 determines whether the sub-partition (p ′, q ′) of the previous frame is a uniform gray sub-partition. If it is determined that the sub-section is uniform, the process proceeds to step S38. If the sub-section is not uniform, the process proceeds to step S7 in FIG.

S38:サブ区画集合体生成部11は、隣接するサブ区画のサブ区画間関係度から均一サブ区画集合体を生成し、処理S39に移る。   S38: The sub-partition aggregate generation unit 11 generates a uniform subpartition aggregate from the degree of inter-subpartition relation between adjacent sub-partitions, and proceeds to processing S39.

S39:移動ベクトル算出部14は、前フレームのサブ区画集合体の外接矩形の左上端画素座標と、現フレームのサブ区画(p,q)の左上端画素座標から、移動ベクトルVを算出し、処理S40に移る。   S39: The movement vector calculation unit 14 calculates the movement vector V from the upper left pixel coordinates of the circumscribed rectangle of the sub-partition set of the previous frame and the upper left pixel coordinates of the sub-partition (p, q) of the current frame, Control goes to step S40.

S40:移動ベクトル算出部14は、サブ区画属性格納部から、前フレームのサブ区画(p’, q’)の移動ベクトルV' を取り出し、前記処理S39で求めた現フレームの移動ベクトルVとの、ベクトルの大きさの差分値A(指標A)と内積B(指標B)を算出し、処理S41に移る。   S40: The movement vector calculation unit 14 extracts the movement vector V ′ of the sub-partition (p ′, q ′) of the previous frame from the sub-partition attribute storage part, and obtains the movement vector V of the current frame obtained in the processing S39. The vector magnitude difference value A (index A) and the inner product B (index B) are calculated, and the process proceeds to step S41.

S41:局所相関値算出部15は、前フレームのサブ区画集合体に含まれる前フレーム画像バッファの画素と、サブ区画(p,q)を基準としたサブ区画集合体の範囲内に含まれる現フレーム画像バッファの画素から局所相関値C(指標C)を算出し、処理S42に移る。   S41: The local correlation value calculation unit 15 includes the pixel of the previous frame image buffer included in the sub-partition aggregate of the previous frame and the current sub-part aggregate based on the sub-partition (p, q). The local correlation value C (index C) is calculated from the pixels in the frame image buffer, and the process proceeds to step S42.

S42:隣接サブ区画間関係度算出部17は、前フレームにおいて、サブ区画集合体(集合体)と非集合体が接している箇所のサブ区画について関係度REL'(sub1, sub2) を算出し、処理S43に移る。 S42: The relationship calculation unit 17 between the adjacent sub-partitions calculates the degree of relation REL ′ (sub 1 , sub 2 ) for the sub-partition where the sub-partition aggregate (aggregate) and the non-aggregate are in contact with each other in the previous frame. After calculating, the process proceeds to step S43.

S43:隣接サブ区画間関係度算出部17は、現フレームにおいて、前フレームのサブ区画集合体に相当する範囲と範囲外の区画が接している箇所のサブ区画について関係度REL(sub1,sub2) を算出し、処理S44に移る。 S43: The relationship calculation unit 17 between the adjacent sub-partitions determines the degree of relation REL (sub 1 , sub for sub-parts where a range corresponding to the sub-partition aggregate of the previous frame and a section outside the range are in contact with each other in the current frame. 2 ) is calculated, and the process proceeds to step S44.

S44:隣接サブ区画間関係度比較部18は、関係度REL'(sub1, sub2) と関係度REL(sub1,sub2) からサブ区画間関係度に基づく指標Dを算出し、図7の処理S14に移る。 S44: The relation degree comparison unit 18 between the adjacent sub-partitions calculates an index D based on the relation degree between the sub-partitions from the relational degree REL ′ (sub 1 , sub 2 ) and the relational degree REL (sub 1 , sub 2 ). 7 is transferred to the process S14.

(5):前フレームに存在しない領域が現れた場合の説明
新規物体や既存物体の遮蔽部分など、前フレームに存在しない領域(新規サブ区画)が現れた場合に、新規サブ区画とその隣接サブ区画との関係度を求める新規サブ区画評価手段(新規サブ区画決定部)を有し、既存物体、背景、新規物体のいずれに属するかを判定(新規物体判定)することで、新規移動物体を追跡するものである。
(5): Explanation when a region that does not exist in the previous frame appears When a region (new sub-partition) that does not exist in the previous frame, such as a new object or a shielded part of an existing object, appears, the new sub-partition and its adjacent sub New sub-partition evaluation means (new sub-partition determination unit) for determining the degree of relationship with the section, and by determining whether it belongs to an existing object, background, or new object (new object determination) To track.

現フレームのサブ区画において、移動物体IDが与えられていない区画は、前フレームのサブ区画との対応関係が取れていない新規サブ区画である。   In the sub-section of the current frame, the section to which no moving object ID is given is a new sub-section that has no correspondence with the sub-section of the previous frame.

図11は新規サブ区画の説明図であり、図11(a)は既存物体、背景判定の例の説明である。図11(a) では、遮蔽されていた既存物体の一部が、新規サブ区画として現れた状態である。このとき、新規サブ区画とその隣接区画との隣接サブ区画間関係度を算出することで、新規サブ区画が既存物体に属するか背景領域に属するかを判定する。まず、新規サブ区画と既存物体との隣接サブ区画間関係度の合計値SUMEXを次のようにして計算する。 FIG. 11 is an explanatory diagram of a new sub-partition, and FIG. 11A is an explanation of an example of existing object and background determination. In FIG. 11 (a), a part of the existing object that has been occluded appears as a new sub-section. At this time, it is determined whether the new sub-partition belongs to the existing object or the background region by calculating the degree of relationship between the adjacent sub-partitions between the new sub-partition and its adjacent sections. First, the total value SUM EX of the degree of relationship between adjacent sub-partitions between a new sub-partition and an existing object is calculated as follows.

Figure 2007287006
Figure 2007287006

ここでsubnew は新規サブ区画、REXは新規サブ区画に隣接する既存物体のサブ区 画を表わす。NEXは隣接する既存物体のサブ区画の個数である。 Here, sub new represents a new sub section, and R EX represents a sub section of an existing object adjacent to the new sub section. N EX is the number of sub-sections of adjacent existing objects.

同様に、新規サブ区画と背景領域との隣接サブ区画間関係度の合計値SUMBKを次のようにして計算する。 Similarly, the total value SUM BK of the degree of relationship between adjacent sub-partitions between the new sub-partition and the background region is calculated as follows.

Figure 2007287006
Figure 2007287006

ここでsubnew は新規サブ区画、RBKは新規サブ区画に隣接する背景領域のサブ区 画を表わす。NBKは隣接する背景領域のサブ区画の個数である。 Here, sub new represents a new sub-partition, and RBK represents a sub-partition of the background area adjacent to the new sub-partition. N BK is the number of sub-divisions of adjacent background regions.

隣接サブ区画間関係度が大きければ、サブ区画同士の類似性が高いので、新規区画は、合計値がより大きい領域に属していると考えられる。つまり、
SUMEX≧SUMBK:既存物体に所属
SUMEX<SUMBK:背景領域に所属
となる。すなわち、図11(a) において、中心の黒四角が新規サブ区画、斜線部分のサブ区画(1)(2)(4) は既存物体、サブ区画(3)(5)(6)(7)(8) が背景であるとする。このとき、新規サブ区画と既存物体サブ区画(1)(2)(4) との関係度は右図のように大きく(輝度分布等のヒストグラムが近い)、新規サブ区画と背景領域サブ区画(3)(5)(6)(7)(8) との関係度は右図のように小さい(輝度分布等のヒストグラムが離れている)ので、この新規サブ区画は既存物体に属すると判定される。
If the degree of relationship between adjacent sub-partitions is large, the similarity between the sub-partitions is high, so the new section is considered to belong to a region having a larger total value. That means
SUM EX ≧ SUM BK : belongs to an existing object SUM EX <SUM BK : belongs to a background area. That is, in FIG. 11A, the black square at the center is the new sub-compartment, the sub-compartments (1), (2), and (4) in the shaded area are the existing objects, and the sub-compartments (3), (5), (6), (7) (8) is the background. At this time, the degree of relationship between the new sub-partition and the existing object sub-partition (1) (2) (4) is large as shown in the right figure (the histogram of brightness distribution etc. is close). 3) Since the degree of relationship with (5) (6) (7) (8) is small as shown in the right figure (the histogram of brightness distribution etc. is separated), this new sub-partition is determined to belong to the existing object The

図11(b) は新規物体判定の例の説明である。図11(b) では、新しい移動物体が画面に現れた状態である。このとき、新規サブ区画とその隣接区画との隣接サブ区画間関係度を算出することで、新規サブ区画が新規物体に属するか背景領域に属するかを判定する。まず、新規サブ区画と隣接サブ区画間関係度の合計値SUMを計算する。   FIG. 11B illustrates an example of new object determination. In FIG. 11B, a new moving object appears on the screen. At this time, it is determined whether the new sub-partition belongs to the new object or the background area by calculating the degree of relationship between the adjacent sub-partitions between the new sub-partition and its adjacent sections. First, the total value SUM of the degree of relationship between the new sub-partition and the adjacent sub-partition is calculated.

Figure 2007287006
Figure 2007287006

ここでsubnew は新規サブ区画、Rnextは新規サブ区画に隣接するサブ区画を表わ す。 Here, sub new represents a new sub-partition, and R next represents a sub-partition adjacent to the new sub-partition.

新規サブ区画が背景であれば、隣接サブ区画間関係度が大きくなり合計値SUMも大きな値を持つ、新規物体であれば、合計値SUMは小さな値を持つ、そこで、しきい値SUMthによって、新規物体か背景領域かを判定する。つまり、
SUM≧SUMth:背景領域
SUM<SUMth:新規物体
となる。すなわち、図11(b) において、中心の黒四角が新規サブ区画、その他のサブ区画(1)(2)(3)(4)(5)(6)(7)(8)は背景であるとする。このとき、新規サブ区画と背景領域サブ区画(1)(2)(3)(4)(5)(6)(7)(8)との関係度は右図のように(しきい値より)小さいので、この新規サブ区画は新規物体と判定される。
If new sub-zone the background, the total value SUM becomes large the degree of relationship between the adjacent sub-compartments also have a large value, if the new object, the total value SUM has a small value, where, by the threshold SUM th Whether a new object or a background area is determined. That means
SUM ≧ SUM th : Background area SUM <SUM th : New object That is, in FIG. 11 (b), the central black square is the new sub-partition, and the other sub-partitions (1) (2) (3) (4) (5) (6) (7) (8) are the background. And At this time, the relationship between the new sub-section and the background area sub-section (1) (2) (3) (4) (5) (6) (7) (8) is ) Since it is small, this new sub-partition is determined to be a new object.

図12は新規サブ区画決定部を用いる場合の移動物体追跡装置の説明図である。図12において、移動体追跡装置には、画像生成部1、サブ区画属性格納部2、移動物体属性格納部3、移動ベクトル算出部4、局所相関値算出部5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8、移動確率算出部9、移動物体追跡部10、新規サブ区画決定部20が設けてある。   FIG. 12 is an explanatory diagram of the moving object tracking device when the new sub-partition determining unit is used. In FIG. 12, the moving body tracking device includes an image generation unit 1, a sub-partition attribute storage unit 2, a moving object attribute storage unit 3, a movement vector calculation unit 4, a local correlation value calculation unit 5, a sub-part feature calculation unit 6, An adjacent sub-partition relationship calculation unit 7, an adjacent sub-partition relationship comparison unit 8, a movement probability calculation unit 9, a moving object tracking unit 10, and a new sub-partition determination unit 20 are provided.

ここで、画像生成部1、サブ区画属性格納部2、移動物体属性格納部3、移動ベクトル算出部4、局所相関値算出部5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部7、隣接サブ区画間関係度比較部8、移動確率算出部9、移動物体追跡部10は、図1と同じであり、新規物体を判定する新規サブ区画決定部(新規サブ区画決定手段)20が新たに追加されたものである。   Here, the image generation unit 1, the sub-partition attribute storage unit 2, the moving object attribute storage unit 3, the movement vector calculation unit 4, the local correlation value calculation unit 5, the sub-part feature calculation unit 6, and the relationship calculation unit between adjacent sub-parts 7, the adjacent sub-partition relationship degree comparison unit 8, the movement probability calculation unit 9, and the moving object tracking unit 10 are the same as those in FIG. Is a new addition.

図13は新規サブ区画決定部を用いる場合の移動物体追跡処理フローである。以下、図13の移動物体追跡処理を処理S51〜S61に従って説明する。   FIG. 13 is a moving object tracking processing flow when the new sub-partition determining unit is used. Hereinafter, the moving object tracking process of FIG. 13 will be described according to the processes S51 to S61.

S51:新規サブ区画決定部20は、サブ区画属性格納部2から、現フレームの移動先サブ区画(pdst,qdst )の移動物体IDであるAttrib_SubBlock(t)[pdst][ qdst][ kID] を取り出し、処理S52に移る。   S51: The new sub-partition determination unit 20 obtains Attrib_SubBlock (t) [pdst] [qdst] [kID], which is the moving object ID of the destination sub-partition (pdst, qdst) of the current frame, from the sub-partition attribute storage unit 2. Then, the process proceeds to step S52.

S52:新規サブ区画決定部20は、Attrib_SubBlock(t)[pdst][ qdst][ kID] に既に、移動物体IDが格納済みかどうか判断する。この判断で、既に移動物体IDが格納済みの場合は処理S61に移り、格納済みでない場合は処理S53に移る。   S52: The new sub-partition determination unit 20 determines whether the moving object ID has already been stored in Attrib_SubBlock (t) [pdst] [qdst] [kID]. If it is determined that the moving object ID has already been stored, the process proceeds to step S61. If not, the process proceeds to process S53.

S53:新規サブ区画決定部20は、移動物体との隣接サブ区画間関係度の合計値SUMEXを算出し、処理S54に移る。 S53: The new sub-partition determination unit 20 calculates the total value SUM EX of the degree of relationship between adjacent sub-partitions with the moving object, and proceeds to process S54.

S54:新規サブ区画決定部20は、背景領域との隣接サブ区画間関係度の合計値SUMBKを算出し、隣接サブ区画に既存物体と背景領域がある場合は処理S55に移り、隣接サブ区画が既存物体のみの場合は処理S56に移り、隣接サブ区画が背景領域のみの場合は処理S57に移る。 S54: The new sub-partition determination unit 20 calculates the total value SUM BK of the degree of relationship between adjacent sub-partitions with the background area. If there is an existing object and a background area in the adjacent sub-partitions, the process proceeds to process S55, If it is only an existing object, the process proceeds to process S56, and if the adjacent sub-section is only a background area, the process proceeds to process S57.

S55:新規サブ区画決定部20は、SUMEX≧SUMBK(既存物体に所属)であるかどうか判断する。この判断で、SUMEX≧SUMBKの場合は処理S58に移り、SUMEX≧SUMBKでない場合は処理S59に移る。 S55: The new sub-partition determination unit 20 determines whether or not SUM EX ≧ SUM BK (belongs to an existing object). If it is determined that SUM EX ≧ SUM BK , the process proceeds to step S58. If SUM EX ≧ SUM BK is not satisfied, the process proceeds to step S59.

S56:新規サブ区画決定部20は、SUMEX≧SUMthであるかどうか判断する。この判断で、SUMEX≧SUMthの場合は処理S58に移り、SUMEX≧SUMthでない場合は処理S60に移る。 S56: The new sub-partition determination unit 20 determines whether SUM EX ≧ SUM th . If it is determined that SUM EX ≧ SUM th , the process proceeds to step S58. If SUM EX ≧ SUM th , the process proceeds to step S60.

S57:新規サブ区画決定部20は、SUMBK≧SUMthであるかどうか判断する。この判断で、SUMBK≧SUMthの場合は処理S59に移り、SUMBK≧SUMthでない場合は処理S60に移る。 S57: The new sub-partition determination unit 20 determines whether SUM BK ≧ SUM th . If it is determined that SUM BK ≧ SUM th , the process proceeds to step S59. If SUM BK ≧ SUM th , the process proceeds to step S60.

S58:新規サブ区画決定部20は、サブ区画属性格納部2に(既存の)移動物体IDを格納し、処理S61に移る。   S58: The new sub-partition determination unit 20 stores the (existing) moving object ID in the sub-partition attribute storage unit 2, and proceeds to the process S61.

S59:新規サブ区画決定部20は、サブ区画属性格納部2に背景領域IDを格納し、処理S61に移る。   S59: The new sub-partition determination unit 20 stores the background area ID in the sub-partition attribute storage unit 2, and proceeds to processing S61.

S60:新規サブ区画決定部20は、サブ区画属性格納部2に新しい移動物体IDを格納し、処理S61に移る。   S60: The new sub-partition determination unit 20 stores the new moving object ID in the sub-partition attribute storage unit 2, and proceeds to processing S61.

S61:新規サブ区画決定部20は、現フレームのサブ区画を全て走査したかどうか判断する。この判断で、現フレームのサブ区画を全て走査した場合はこの処理を終了し、現フレームのサブ区画を全て走査していない場合は処理S51に戻る。   S61: The new sub-partition determination unit 20 determines whether all the sub-partitions of the current frame have been scanned. If all the sub-partitions of the current frame have been scanned by this determination, the process ends. If all the sub-partitions of the current frame have not been scanned, the process returns to step S51.

このように、本発明によれば、隣接したサブ区画同士の関係性を、隣接サブ区画間関係度を用いて定量的に表し、かつ、フレーム間におけるサブ区画の類似性に基づく指標と組み合わせて最適な移動先を決定するので、移動物体を確実に追跡できる。また、移動物体に濃淡が少ない領域が含まれていたり、新規物体や既存物体の遮蔽部分など、前フレームに存在しない領域が現れたりした場合でも、追跡を確実に行うことができる。尚、図7、図10、図13に別れて記載されている処理フローは、実際は一つの処理フローになるものである。   As described above, according to the present invention, the relationship between adjacent sub-partitions is quantitatively expressed using the degree of relation between adjacent sub-partitions, and combined with an index based on the similarity of sub-partitions between frames. Since an optimal destination is determined, a moving object can be reliably tracked. In addition, even when a moving object includes a region with little shading or a region that does not exist in the previous frame, such as a new object or a shielded portion of an existing object, tracking can be performed reliably. Note that the processing flow described separately in FIGS. 7, 10, and 13 is actually one processing flow.

(6):プログラムインストールの説明
画像生成部(画像生成手段)1、サブ区画属性格納部2、移動物体属性格納部3、移動ベクトル算出部(移動ベクトル算出手段)4、局所相関値算出部(局所相関値算出手段)5、サブ区画特徴算出部6、隣接サブ区画間関係度算出部(サブ区画間関係度算出手段)7、隣接サブ区画間関係度比較部8、移動確率算出部9、移動物体追跡部10、サブ区画集合体生成部(サブ区画集合体生成手段)11、移動ベクトル算出部(移動ベクトル算出手段)14、局所相関値算出部(局所相関値算出手段)15、サブ区画特徴算出部16、隣接サブ区画間関係度算出部17、隣接サブ区画間関係度比較部18、新規サブ区画決定部(新規物体判定手段)20等はプログラムで構成でき、主制御部(CPU)が実行するものであり、主記憶に格納されているものである。このプログラムは、コンピュータ(情報処理装置)で処理されるものである。このコンピュータは、主制御部、主記憶、ファイル装置、表示装置等の出力装置、入力装置などのハードウェアで構成されている。
(6): Description of program installation Image generation unit (image generation unit) 1, sub-partition attribute storage unit 2, moving object attribute storage unit 3, movement vector calculation unit (movement vector calculation unit) 4, local correlation value calculation unit ( (Local correlation value calculation means) 5, sub-part feature calculation part 6, adjacent sub-partition relation degree calculation part (sub-partition relation degree calculation means) 7, adjacent sub-partition relation degree comparison part 8, movement probability calculation part 9, Moving object tracking unit 10, sub-partition assembly generation unit (sub-partition assembly generation unit) 11, movement vector calculation unit (movement vector calculation unit) 14, local correlation value calculation unit (local correlation value calculation unit) 15, sub-partition The feature calculation unit 16, the relationship calculation unit 17 between adjacent sub-partitions, the relationship comparison unit 18 between adjacent sub-partitions, a new sub-partition determination unit (new object determination means) 20 and the like can be configured by a program, and a main control unit (CPU) But To be executed and stored in the main memory. This program is processed by a computer (information processing apparatus). The computer includes hardware such as a main control unit, main memory, a file device, an output device such as a display device, and an input device.

このコンピュータに、本発明のプログラムをインストールする。このインストールは、フロッピィ、光磁気ディスク等の可搬型の記録(記憶)媒体に、これらのプログラムを記憶させておき、コンピュータが備えている記録媒体に対して、アクセスするためのドライブ装置を介して、或いは、LAN等のネットワークを介して、コンピュータに設けられたファイル装置にインストールされる。これにより、精度良く物体を検出・追跡することができる移動物体追跡装置を容易に提供することができる。   The program of the present invention is installed on this computer. In this installation, these programs are stored in a portable recording medium such as a floppy disk or a magneto-optical disk, and the recording medium provided in the computer is accessed via a drive device. Alternatively, it is installed in a file device provided in the computer via a network such as a LAN. Accordingly, it is possible to easily provide a moving object tracking device that can detect and track an object with high accuracy.

本発明の移動物体追跡装置の説明図である。It is explanatory drawing of the moving object tracking apparatus of this invention. 本発明のサブ区画属性の説明図である。It is explanatory drawing of the sub division attribute of this invention. 本発明のサブ区画と移動物体の関係の説明図である。It is explanatory drawing of the relationship between the sub division of this invention and a moving object. 本発明の移動物体属性の説明図である。It is explanatory drawing of the moving object attribute of this invention. 本発明の移動前後のサブ区画例の説明図である。It is explanatory drawing of the example of a sub division before and behind the movement of this invention. 本発明のヒストグラムの算出例の説明図である。It is explanatory drawing of the example of calculation of the histogram of this invention. 本発明の移動物体追跡処理フローである。It is a moving object tracking processing flow of this invention. 本発明の移動物体に濃淡変動の少ない領域が含まれている場合の説明図である。It is explanatory drawing in case the area | region with little shading fluctuation | variation is contained in the moving object of this invention. 本発明のサブ区画集合体を用いる場合の移動物体追跡装置の説明図である。It is explanatory drawing of the moving object tracking apparatus in the case of using the subcompartment aggregate | assembly of this invention. 本発明のサブ区画集合体を用いる場合の移動物体追跡処理フローである。It is a moving object tracking process flow in the case of using the subcompartment aggregate of the present invention. 本発明の新規サブ区画の説明図である。It is explanatory drawing of the novel subdivision of this invention. 本発明の新規サブ区画決定部を用いる場合の移動物体追跡装置の説明図である。It is explanatory drawing of the moving object tracking apparatus in the case of using the novel sub-partition determination part of this invention. 本発明の新規サブ区画決定部を用いる場合の移動物体追跡処理フローである。It is a moving object tracking process flow in the case of using the novel sub-partition determination part of this invention.

符号の説明Explanation of symbols

1 画像生成部(画像生成手段)
2 サブ区画属性格納部
3 移動物体属性格納部
4 移動ベクトル算出部(移動ベクトル算出手段)
5 局所相関値算出部(局所相関値算出手段)
6 サブ区画特徴算出部
7 隣接サブ区画間関係度算出部(サブ区画間関係度算出手段)
8 隣接サブ区画間関係度比較部
9 移動確率算出部
10 移動物体追跡部
1 Image generation unit (image generation means)
2 sub-partition attribute storage unit 3 moving object attribute storage unit 4 movement vector calculation unit (movement vector calculation means)
5 Local correlation value calculation unit (local correlation value calculation means)
6 sub-partition feature calculation unit 7 relationship calculation unit between adjacent sub-partitions (sub-partition relation calculation means)
8 Relational comparison part between adjacent sub-parts 9 Movement probability calculation part 10 Moving object tracking part

Claims (5)

入力された画像を一定形状のサブ区画に分割する画像生成手段と、
あるサブ区画と隣接するサブ区画との関係度を求めるサブ区画間関係度算出手段とを備え、
前記サブ区画間関係度算出手段で前フレームのサブ区画とその隣接するサブ区画との関係度と現フレームのサブ区画とその隣接するサブ区画との関係度を求め、該求めた前フレームと現フレームの関係度が最も近いサブ区画を同じものとして追跡することを特徴とした移動物体追跡装置。
Image generating means for dividing the input image into sub-sections of a certain shape;
A sub-compartment relationship degree calculating means for obtaining a degree of relation between a certain sub-partition and an adjacent sub-partition;
The degree-of-sub-partition relationship calculation means obtains the degree of relation between the sub-partition of the previous frame and its adjacent sub-partition and the degree of relation between the sub-partition of the current frame and its adjacent sub-partition, A moving object tracking device that tracks sub-sections having the closest relationship between frames as the same one.
前フレームのサブ区画の移動ベクトルと現フレームのサブ区画の移動ベクトルとの類似性を求める移動ベクトル算出手段と、
前フレームのサブ区画と現フレームのサブ区画との類似性を求める局所相関値算出手段とを備え、
前記移動ベクトル算出手段で求めた類似性による指標と前記局所相関値算出手段で求めた類似性による指標と前記サブ区画間関係度算出手段で求めた関係度による指標とを組み合わせることで移動物体を追跡することを特徴とした請求項1記載の移動物体追跡装置。
A movement vector calculation means for obtaining a similarity between the movement vector of the sub-partition of the previous frame and the movement vector of the sub-partition of the current frame;
A local correlation value calculating means for obtaining a similarity between the sub-section of the previous frame and the sub-section of the current frame;
A moving object is obtained by combining an index based on similarity obtained by the movement vector calculating means, an index based on similarity obtained by the local correlation value calculating means, and an index based on the degree of relationship obtained by the inter-sub-partition relationship degree calculating means. The moving object tracking device according to claim 1, wherein tracking is performed.
サブ区画の大きさを可変するサブ区画集合体生成手段を備え、
テクチュアが同じサブ区画について、サブ区画集合体を生成し、該サブ区画集合体の移動先を推定して、移動物体を追跡することを特徴とした請求項1又は2記載の移動物体追跡装置。
A sub-partition assembly generating means for changing the size of the subpartition,
The moving object tracking device according to claim 1, wherein a sub-compartment aggregate is generated for the same sub-partition, the moving destination of the sub-partition aggregate is estimated, and the moving object is tracked.
前フレームに存在しない領域である新規サブ区画が現れた場合に、新規サブ区画とその隣接サブ区画との関係度を求める新規サブ区画決定手段を備え、
前記新規サブ区画決定手段で、前記求めた関係度により前記新規サブ区画が既存物体、背景領域、新規物体のいずれに属するかを判定して、移動物体を追跡することを特徴とした請求項1〜3のいずれかに記載の移動物体追跡装置。
A new sub-partition determining means for obtaining a degree of relationship between the new sub-partition and its adjacent sub-partition when a new sub-partition that does not exist in the previous frame appears;
2. The new sub-partition determining means determines whether the new sub-partition belongs to an existing object, a background region, or a new object based on the obtained degree of relationship, and tracks a moving object. The moving object tracking apparatus in any one of -3.
入力された画像を一定形状のサブ区画に分割する画像生成手段と、
あるサブ区画と隣接するサブ区画との関係度を求めるサブ区画間関係度算出手段と、
前記サブ区画間関係度算出手段で前フレームのサブ区画とその隣接するサブ区画との関係度と現フレームのサブ区画とその隣接するサブ区画との関係度を求め、該求めた前フレームと現フレームの関係度が最も近いサブ区画を同じものとして追跡する手段として、
コンピュータを機能させるためのプログラム。
Image generating means for dividing the input image into sub-sections of a certain shape;
A sub-compartment relationship degree calculating means for obtaining a degree of relation between a certain sub-partition and an adjacent sub-partition;
The degree-of-sub-partition relationship calculation means obtains the degree of relation between the sub-partition of the previous frame and its adjacent sub-partition and the degree of relation between the sub-partition of the current frame and its adjacent sub-partition, As a means to track the closest sub-partitions with the same frame relationship,
A program that allows a computer to function.
JP2006115352A 2006-04-19 2006-04-19 Moving object tracking device and program Expired - Fee Related JP4758272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006115352A JP4758272B2 (en) 2006-04-19 2006-04-19 Moving object tracking device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006115352A JP4758272B2 (en) 2006-04-19 2006-04-19 Moving object tracking device and program

Publications (2)

Publication Number Publication Date
JP2007287006A true JP2007287006A (en) 2007-11-01
JP4758272B2 JP4758272B2 (en) 2011-08-24

Family

ID=38758706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006115352A Expired - Fee Related JP4758272B2 (en) 2006-04-19 2006-04-19 Moving object tracking device and program

Country Status (1)

Country Link
JP (1) JP4758272B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102586A (en) * 2008-10-24 2010-05-06 Hiroshima Univ Object tracking apparatus and object tracking method
WO2013008374A1 (en) * 2011-07-13 2013-01-17 日本電気株式会社 Moving image area detection device
CN104167115A (en) * 2014-07-15 2014-11-26 苏州阔地网络科技有限公司 Picture switching control method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08167022A (en) * 1994-12-12 1996-06-25 Toshiba Corp Image monitor device
JP2002183732A (en) * 2000-12-13 2002-06-28 Toshiba Corp Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition
JP2004310595A (en) * 2003-04-09 2004-11-04 Ntt Data Corp Animal body detecting device, and animal body detecting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08167022A (en) * 1994-12-12 1996-06-25 Toshiba Corp Image monitor device
JP2002183732A (en) * 2000-12-13 2002-06-28 Toshiba Corp Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition
JP2004310595A (en) * 2003-04-09 2004-11-04 Ntt Data Corp Animal body detecting device, and animal body detecting method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102586A (en) * 2008-10-24 2010-05-06 Hiroshima Univ Object tracking apparatus and object tracking method
WO2013008374A1 (en) * 2011-07-13 2013-01-17 日本電気株式会社 Moving image area detection device
JPWO2013008374A1 (en) * 2011-07-13 2015-02-23 日本電気株式会社 Video area detector
US9367927B2 (en) 2011-07-13 2016-06-14 Nec Corporation Moving image region detection device
CN104167115A (en) * 2014-07-15 2014-11-26 苏州阔地网络科技有限公司 Picture switching control method and system

Also Published As

Publication number Publication date
JP4758272B2 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
US7283668B2 (en) Method and apparatus for color-based object tracking in video sequences
US7046850B2 (en) Image matching
US7379583B2 (en) Color segmentation-based stereo 3D reconstruction system and process employing overlapping images of a scene captured from viewpoints forming either a line or a grid
CN110287826B (en) Video target detection method based on attention mechanism
US6985527B2 (en) Local constraints for motion matching
KR102153607B1 (en) Apparatus and method for detecting foreground in image
CN112184759A (en) Moving target detection and tracking method and system based on video
KR19990077203A (en) Image segmentation
US7149328B2 (en) Method and apparatus for tracking moving objects in spatial differential frame pictures
CN111882586A (en) Multi-actor target tracking method oriented to theater environment
KR20110128529A (en) Apparatus and method for tracking non-rigid object based on shape and feature information
CN111161309A (en) Searching and positioning method for vehicle-mounted video dynamic target
Janardhana Rao et al. Hybridized cuckoo search with multi-verse optimization-based patch matching and deep learning concept for enhancing video inpainting
JP4758272B2 (en) Moving object tracking device and program
Wang et al. Archive film defect detection and removal: an automatic restoration framework
JP2014110020A (en) Image processor, image processing method and image processing program
WO2020095644A1 (en) State-change detection device, state-change detection method, and computer-readable recording medium
JP2000348187A (en) Method and device for picture processing and recording medium
KR20160035104A (en) Method for detecting object and object detecting apparatus
CN117011346A (en) Blower image registration algorithm
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
JP2004013615A (en) Moving object monitoring device
CN113362390B (en) Rapid circular target positioning video processing method based on ellipse detection
JP2005175872A (en) Motion vector detecting apparatus, motion vector detecting method and computer program
Aydin et al. Blotch detection in archive films based on visual saliency map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees