JP2013045152A - Dynamic body tracker - Google Patents

Dynamic body tracker Download PDF

Info

Publication number
JP2013045152A
JP2013045152A JP2011180559A JP2011180559A JP2013045152A JP 2013045152 A JP2013045152 A JP 2013045152A JP 2011180559 A JP2011180559 A JP 2011180559A JP 2011180559 A JP2011180559 A JP 2011180559A JP 2013045152 A JP2013045152 A JP 2013045152A
Authority
JP
Japan
Prior art keywords
inclusion
blob
moving object
image
tracker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011180559A
Other languages
Japanese (ja)
Inventor
Katsuhiro Umeumi
勝浩 梅海
Takahiro Okamoto
隆浩 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011180559A priority Critical patent/JP2013045152A/en
Publication of JP2013045152A publication Critical patent/JP2013045152A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently and exactly track a plurality of dynamic bodies even when the dynamic bodies intersect with one another.SOLUTION: Moving images consisting of consecutive original images P(i) in time series are input in an image input part 110, difference with respect to a background image is taken to generate a dynamic body identification image M(i) for distinguishing background from foreground by a dynamic body identification image generation part 130. A tracker storage part 150 stores blob subsumptive graphics circumscribing contours of individual dynamic bodies in time series. A masking processing part 140 utilizes blob subsumptive graphics of dynamic bodies except a noticing dynamic body Tj at time t(i-1) in the tracker storage part 150 to mask a foreground area of the dynamic body identification image M(i). A blob subsumptive graphic extraction part 170 extracts contours of the foreground area except a masked part as candidate blob subsumptive graphics. A tracker registration part 160 selects a subsequent blob subsumptive graphic Bj(i) with respect to a preceding blob subsumptive graphic Bj(i-1) of the noticing dynamic body Tj from among the candidate blob subsumptive graphics and registers the selected blob subsumptive graphic in the tracker registration part 150.

Description

本発明は、時系列で連続して与えられる静止画像の集合からなる動画について、複数の動体を検出し、これを画面上で追跡する動体追跡装置に関する。   The present invention relates to a moving object tracking device that detects a plurality of moving objects and tracks them on a screen with respect to a moving image composed of a set of still images continuously given in time series.

ビデオカメラを用いた監視システムなどでは、監視領域内に存在する動体(移動物体)を自動的に検出し、これを追跡する技術が重要になってきている。動体の自動検出が可能になれば、当該物体が車両であるのか、人間であるのか、といった識別を行う処理に利用することができる。更に、検出した動体を追跡することができれば、所望の動体をズームアップして追尾することも可能になり、不審者などを監視する用途に利用できる。   In a surveillance system using a video camera or the like, a technique for automatically detecting and tracking a moving object (moving object) existing in a surveillance area has become important. If automatic detection of a moving object becomes possible, it can be used for processing for identifying whether the object is a vehicle or a human. Furthermore, if the detected moving object can be tracked, the desired moving object can be zoomed in and tracked, which can be used for monitoring a suspicious person or the like.

動体検出に利用されている最も一般的な手法は、時系列で連続的に与えられるフレーム単位の原画像を、予め用意した背景画像と比較し、両者の差分を求めることにより、時間的に変化している領域を認識する方法である。たとえば、下記の非特許文献1には、原画像と背景画像とを画素単位で比較して、当該画素が動体を構成する画素であるか否かを判定する手法が開示されている。具体的には、比較対象となる両画素の画素値が類似している場合、当該画素は背景を構成する画素であるとし、類似していない場合、当該画素は動体を構成する画素であるとする判定が行われる。このとき、画素の類否判定は、カラー画像の場合、三次元の色空間上で、双方の画素値に対応する座標点をプロットし、一方の座標点が他方の座標点の近傍領域に入っているか否かを調べることにより行われる。   The most common method used for moving object detection is to compare the original image in units of frames given in time series with a background image prepared in advance, and obtain the difference between them to change over time. This is a method for recognizing the area that is being used. For example, the following Non-Patent Document 1 discloses a method of comparing an original image and a background image in units of pixels and determining whether or not the pixel is a pixel constituting a moving object. Specifically, if the pixel values of both pixels to be compared are similar, the pixel is a pixel constituting the background, and if not, the pixel is a pixel constituting a moving object. A determination is made. At this time, in the case of a color image, pixel similarity determination is performed by plotting coordinate points corresponding to both pixel values in a three-dimensional color space, and one coordinate point enters a region near the other coordinate point. It is done by checking whether or not.

また、下記の特許文献1には、フレーム単位の入力画像をブロックに分割し、個々のブロックごとに画素値の平均値を求め、背景画像の画素値平均と比較することにより、当該ブロックが移動物体を含むか否かを判定する手法が開示されており、特許文献2には、背景画像との差分を求める手法と、テンプレートマッチングを行う手法とを適宜切り替えることにより、照明変動が生じても正確な動体検出を行う方法が提案されている。一方、特許文献3には、複数のカメラを用いた撮影を行うことにより、動体追跡を行う装置が提案されている。   Further, in Patent Document 1 below, an input image in units of frames is divided into blocks, an average value of pixel values is obtained for each block, and the block is moved by comparing with an average pixel value of a background image. A method for determining whether or not an object is included is disclosed, and Patent Literature 2 discloses a method for appropriately calculating a difference from a background image and a method for performing template matching even when illumination fluctuation occurs. A method for performing accurate motion detection has been proposed. On the other hand, Patent Document 3 proposes an apparatus that performs moving object tracking by performing imaging using a plurality of cameras.

更に、特許文献4には、検出した動体の色特徴量を算出し、この色特徴量を用いて動体追跡を行う方法が開示されており、特許文献5には、原画像をサブ区画に分割し、隣接するサブ区画同士の関係度の近似性に基づいて動体追跡を行う方法が開示されている。また、特許文献6には、過去の複数フレームにおける動体の位置から現時点の動体の位置を予測し、予測位置に最も近い動体候補を追跡対象とする方法が開示され、特許文献7には、複数の動体の移動経路が交差した場合にも、これら複数の動体を支障なく追跡する技術が開示されている。   Further, Patent Document 4 discloses a method of calculating the color feature amount of the detected moving object and performing tracking of the moving object using this color feature amount. Patent Document 5 divides the original image into sub-partitions. A method of tracking a moving object based on the closeness of the degree of relationship between adjacent sub-parts is disclosed. Patent Document 6 discloses a method of predicting the position of a current moving object from the positions of moving objects in a plurality of past frames and tracking a moving object candidate closest to the predicted position. A technique for tracking a plurality of moving objects without any trouble even when the moving paths of the moving objects intersect is disclosed.

特開平7−302328号公報JP-A-7-302328 特開2011−60167号公報JP 2011-60167 A 特開2007−142527号公報JP 2007-142527 A 特開2000−48211号公報JP 2000-48211 A 特開2007−287006号公報JP 2007-287006 A 特開2004−46647号公報JP 2004-46647 A 特開2010−39580号公報JP 2010-39580 A

Kim K, Chalidabhongse T H, Harwood D, Davis L S. "Background Modeling and Subtraction by Codebook Construction" Proceedings of International Conference on Image Processing, Singapore. IEEE, 2004. 5: 3061-3064Kim K, Chalidabhongse T H, Harwood D, Davis L S. "Background Modeling and Subtraction by Codebook Construction" Proceedings of International Conference on Image Processing, Singapore. IEEE, 2004. 5: 3061-3064

監視システムなどの撮影視野内には、複数の動体が同時に存在することが少なくない。しかも、これら複数の動体はそれぞれが任意の方向に移動しているため、移動経路が画面上で交差する場合がある。従来提案されている動体追跡装置の多くは、このように複数の動体が交差した場合に、正確な追跡を行うことができない。これは、複数の物体の移動経路が交差すると、画面上では、交差時点で複数の物体が、ひとかたまりの物体に融合し、その後、元通りの複数の物体に分離することになるため、個々の物体を正しく認識することができなくなるためである。   There are many cases in which a plurality of moving objects are present simultaneously in a field of view such as a surveillance system. In addition, since each of the plurality of moving objects moves in an arbitrary direction, the movement paths may intersect on the screen. Many of the conventionally proposed moving object tracking devices cannot perform accurate tracking when a plurality of moving objects intersect in this way. This is because when the movement paths of a plurality of objects intersect, on the screen, the objects are merged into a group of objects at the time of intersection, and then separated into a plurality of original objects. This is because the object cannot be recognized correctly.

前掲の特許文献7には、玄関に設置されたカメラ付きインターホンの撮影画像において、人や車などの動体が重なって写った場合にも、個々の動体を適切に追跡する技術が開示されている。この技術では、複数の動体を追跡する際に、動体同士が交差しているか否かの判定を行い、交差していると判定された場合には、重なり合った複数の動体の奥行き関係を認識して、正しい追跡を行う手法が採られる。しかしながら、動体同士の交差を判定する処理や、奥行き関係を把握する処理のために、複雑なプロセスが必要になり、また、様々な状況において常に正確な処理を行うことは困難である。   The above-mentioned Patent Document 7 discloses a technique for appropriately tracking individual moving objects even when moving objects such as people and cars are overlapped in a photographed image of a camera interphone installed at the entrance. . In this technology, when tracking a plurality of moving objects, it is determined whether or not the moving objects cross each other, and if it is determined that they intersect, the depth relationship between the overlapping moving objects is recognized. Thus, a method for performing correct tracking is adopted. However, a complicated process is required for the process of determining the intersection of moving objects and the process of grasping the depth relationship, and it is difficult to always perform an accurate process in various situations.

そこで本発明は、複数の動体が交差した場合にも、効率的かつ正確に個々の動体を追跡することが可能な動体追跡装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a moving object tracking device capable of tracking individual moving objects efficiently and accurately even when a plurality of moving objects intersect.

(1) 本発明の第1の態様は、動画画像について動体を検出し、これを追跡する動体追跡装置において、
時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力部と、
動画画像の背景を構成する背景画像を提供する背景画像提供部と、
第i番目の原画像P(i)と背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成部と、
第i番目の動体識別画像M(i)に基づいて、前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の包摂図形を第i番目の時系列に所属するブロッブ包摂図形B(i)として抽出するブロッブ包摂図形抽出部と、
同一の動体に基づいて抽出されたと推定される複数のブロッブ包摂図形を先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べることにより構成されるトラッカーの情報を、個々の動体ごとに格納するトラッカー格納部と、
ブロッブ包摂図形抽出部によって抽出された第i番目の時系列に所属するブロッブ包摂図形B(i)を、第j番目のトラッカーTj(但し、jはトラッカーの番号を示す自然数)の第i番目の時系列に所属するメンバーとして、トラッカー格納部に登録するトラッカー登録部と、
動体識別画像生成部が生成した動体識別画像の前景領域に対して、トラッカー格納部に格納されている特定のブロッブ包摂図形を利用したマスキングを行うマスキング処理部と、
を設け、
マスキング処理部は、トラッカー格納部に格納されている第j番目のトラッカーTjを着目トラッカーとして、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うことにより、着目トラッカーTj用の個別動体識別画像M(i,j)を生成し、これをブロッブ包摂図形抽出部に提供するようにし、
ブロッブ包摂図形抽出部には、動体識別画像M(i)に基づいてブロッブ包摂図形B(i)を抽出する機能に加えて、個別動体識別画像M(i,j)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、動体と認識した画素集団の包摂図形を第i番目の時系列に所属させるべき第j番目のトラッカー用の候補ブロッブ包摂図形として抽出する機能を付加し、
トラッカー登録部が、
(a) 第j番目のトラッカーTjの第(i−1)番目の時系列に末尾ブロッブ包摂図形ではないブロッブ包摂図形が登録されている場合に、当該ブロッブ包摂図形を先行ブロッブ包摂図形として、これに後続させるのに適したブロッブ包摂図形が第j番目のトラッカー用の候補ブロッブ包摂図形内に存在するか否かを判定し、存在するときには、当該候補ブロッブ包摂図形を第i番目の時系列に所属する後続ブロッブ包摂図形として登録する処理を行い、存在しないときには、先行ブロッブ包摂図形が末尾ブロッブ包摂図形となったことを示す処理を行う後続ブロッブ包摂図形登録処理と、
(b) 後続ブロッブ包摂図形登録処理を各トラッカーについて行った後、動体識別画像M(i)に基づいて抽出されたブロッブ包摂図形B(i)の中に、後続ブロッブ包摂図形登録処理によって登録された後続ブロッブ包摂図形に対応しない新参ブロッブ包摂図形が存在する場合に、当該新参ブロッブ包摂図形を第i番目の時系列が未登録状態のトラッカーに先頭ブロッブ包摂図形として登録する新参ブロッブ包摂図形登録処理と、
を行うようにしたものである。
(1) According to a first aspect of the present invention, in a moving object tracking device that detects a moving object from a moving image and tracks the moving object,
An image input unit for inputting a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
A background image providing unit that provides a background image constituting the background of the video image;
A moving object identification image generating unit that compares the i-th original image P (i) with the background image and generates an i-th moving object identification image M (i) that distinguishes the background region and the foreground region;
Based on the i-th moving object identification image M (i), a group of pixels constituting the foreground region is recognized as a moving object, and the inclusion figure of the pixel group belongs to the i-th time series. A blob inclusion figure extraction unit to extract as B (i);
Tracker information configured by arranging multiple blob inclusion figures estimated to be extracted based on the same moving object in time series from the first blob inclusion figure to the end blob inclusion figure is stored for each moving object. A tracker storage unit,
The blob inclusion figure B (i) belonging to the i-th time series extracted by the blob inclusion figure extraction unit is the i-th number of the j-th tracker Tj (where j is a natural number indicating the tracker number). As a member belonging to time series, the tracker registration unit to register in the tracker storage unit,
A masking processing unit that performs masking using a specific blob inclusion figure stored in the tracker storage unit for the foreground region of the moving object identification image generated by the moving object identification image generation unit;
Provided,
The masking processing unit uses the jth tracker Tj stored in the tracker storage unit as the target tracker, and the blob inclusion figure B (i-1) belonging to the (i-1) th time series of the non-target tracker. Is used to generate an individual moving body identification image M (i, j) for the tracker of interest Tj by masking the i-th moving body identification image M (i), and this is used as a blob inclusion figure extraction unit. To provide and
In addition to the function of extracting the blob inclusion graphic B (i) based on the moving object identification image M (i), the blob inclusion graphic extraction unit extracts the masked portion of the individual moving object identification image M (i, j). As a candidate blob inclusion figure for the jth tracker that recognizes a group of pixels constituting the excluded foreground area as a moving object and to include the inclusion figure of the pixel group recognized as a moving object in the i-th time series Add the function to extract,
The tracker registration department
(a) When a blob inclusion figure that is not the last blob inclusion figure is registered in the (i-1) th time series of the jth tracker Tj, this blob inclusion figure is used as the preceding blob inclusion figure. To determine whether there is a blob inclusion figure suitable for following in the candidate blob inclusion figure for the jth tracker, and if so, the candidate blob inclusion figure is placed in the i th time series. The process of registering as the subsequent blob inclusion figure to which it belongs, and the subsequent blob inclusion figure registration process for performing processing indicating that the preceding blob inclusion figure has become the end blob inclusion figure when it does not exist,
(b) After the subsequent blob inclusion graphic registration process is performed for each tracker, the blob inclusion graphic B (i) extracted based on the moving object identification image M (i) is registered by the subsequent blob inclusion graphic registration process. New blob inclusion figure registration process that registers the new blob inclusion figure as the first blob inclusion figure in the i-th time series unregistered tracker when there is a new blob inclusion figure that does not correspond to the subsequent blob inclusion figure When,
Is to do.

(2) 本発明の第2の態様は、上述した第1の態様に係る動体追跡装置において、
背景画像提供部が、外部から与えられた静止画像を取り込んで保存する機能を有し、静止画像を背景画像として提供するようにしたものである。
(2) According to a second aspect of the present invention, in the moving body tracking device according to the first aspect described above,
The background image providing unit has a function of taking in and storing a still image given from the outside, and provides the still image as a background image.

(3) 本発明の第3の態様は、上述した第1の態様に係る動体追跡装置において、
背景画像提供部が、画像入力部が過去の所定期間にわたって入力した原画像の単純平均もしくは重みづけ平均を求める機能を有し、求めた平均画像を背景画像として提供するようにしたものである。
(3) According to a third aspect of the present invention, in the moving body tracking device according to the first aspect described above,
The background image providing unit has a function of obtaining a simple average or a weighted average of the original images input by the image input unit over a predetermined period in the past, and provides the obtained average image as a background image.

(4) 本発明の第4の態様は、上述した第1〜第3の態様に係る動体追跡装置において、
動体識別画像生成部が、原画像P(i)上の特定位置にある画素の色と、背景画像上の上記特定位置にある画素の色とを比較し、両画素の色の近似度が所定条件を満たす場合には当該特定位置にある画素を背景領域の画素とし、所定条件を満たさない場合には当該特定位置にある画素を前景領域の画素とすることにより、動体識別画像M(i)を生成するようにしたものである。
(4) According to a fourth aspect of the present invention, in the moving body tracking device according to the first to third aspects described above,
The moving object identification image generation unit compares the color of the pixel at the specific position on the original image P (i) with the color of the pixel at the specific position on the background image, and the degree of approximation of the colors of both pixels is predetermined. When the condition is satisfied, the pixel at the specific position is set as the pixel in the background area, and when the predetermined condition is not satisfied, the pixel at the specific position is set as the pixel in the foreground area. Is generated.

(5) 本発明の第5の態様は、上述した第1〜第4の態様に係る動体追跡装置において、
ブロッブ包摂図形抽出部が、面積が所定の基準に満たない画素集団については、動体と認識せず、ブロッブ包摂図形の抽出を行わないようにしたものである。
(5) According to a fifth aspect of the present invention, in the moving body tracking device according to the first to fourth aspects described above,
The blob inclusion figure extraction unit does not recognize a pixel group whose area does not satisfy a predetermined standard as a moving object and does not extract a blob inclusion figure.

(6) 本発明の第6の態様は、上述した第1〜第5の態様に係る動体追跡装置において、
ブロッブ包摂図形抽出部が、画素集団の外接矩形をその包摂図形として用いるようにしたものである。
(6) According to a sixth aspect of the present invention, in the moving object tracking device according to the first to fifth aspects described above,
The blob inclusion figure extraction unit uses the circumscribed rectangle of the pixel group as the inclusion figure.

(7) 本発明の第7の態様は、上述した第6の態様に係る動体追跡装置において、
ブロッブ包摂図形抽出部が、動体識別画像M(i)を構成する個々の画素に順に着目し、各着目画素について、
(a) 着目画素が前景画素であり、かつ、所定近傍範囲に登録矩形が存在しない場合には、当該着目画素の輪郭を構成する矩形を登録する処理を行い、
(b) 着目画素が前景画素であり、かつ、所定近傍範囲に登録された矩形が存在する場合には、当該登録矩形の領域を着目画素を含む外接矩形に拡張して登録する処理を行い、
最終的に登録された矩形に基づいてブロッブ包摂図形の抽出を行うようにしたものである。
(7) According to a seventh aspect of the present invention, in the moving object tracking device according to the sixth aspect described above,
The blob inclusion figure extraction unit pays attention to the individual pixels constituting the moving object identification image M (i) in order,
(a) When the target pixel is a foreground pixel and there is no registration rectangle in the predetermined vicinity range, a process of registering a rectangle that forms the outline of the target pixel is performed.
(b) If the pixel of interest is a foreground pixel and there is a rectangle registered in the predetermined neighborhood range, the registration rectangle is expanded to a circumscribed rectangle including the pixel of interest and registered.
The blob inclusion figure is extracted based on the finally registered rectangle.

(8) 本発明の第8の態様は、上述した第6または第7の態様に係る動体追跡装置において、
トラッカー格納部が、外接矩形の対角に位置する2頂点の座標値をトラッカーの情報として格納するようにしたものである。
(8) According to an eighth aspect of the present invention, in the moving object tracking device according to the sixth or seventh aspect described above,
The tracker storage unit stores the coordinate values of the two vertices located at the diagonal of the circumscribed rectangle as tracker information.

(9) 本発明の第9の態様は、上述した第1〜第8の態様に係る動体追跡装置において、
マスキング処理部が、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形のうち、着目トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形の所定の近傍範囲内に位置するブロッブ包摂図形のみを用いて、マスキングを行うようにしたものである。
(9) According to a ninth aspect of the present invention, in the moving body tracking device according to the first to eighth aspects described above,
When the masking processing unit generates the individual moving object identification image M (i, j), the blob inclusion figure registered in the (i-1) -th time series of the non-focused tracker is the first of the focused tracker. (I-1) Masking is performed using only the blob inclusion figure located within a predetermined neighborhood range of the blob inclusion figure registered in the first time series.

(10) 本発明の第10の態様は、上述した第1〜第9の態様に係る動体追跡装置において、
マスキング処理部が、各トラッカーに格納されている第(i−1)番目以前の連続した時系列に所属するブロッブ包摂図形の位置の変遷に基づいて、第i番目の時系列に所属するブロッブ包摂図形の予測位置を求める機能を有し、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)に対して、予測位置への位置修正を施し、位置修正後の包摂図形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うようにしたものである。
(10) According to a tenth aspect of the present invention, in the moving object tracking device according to the first to ninth aspects described above,
The blob inclusion belonging to the i-th time series based on the transition of the position of the blob inclusion figure belonging to the (i−1) -th consecutive time series stored in each tracker. When generating the individual moving object identification image M (i, j), the function includes a function for obtaining a predicted position of the figure, and the blob inclusion figure B (i belonging to the (i-1) th time series of the tracker not of interest -1) is subjected to position correction to the predicted position, and masking is performed on the i-th moving object identification image M (i) using the inclusion figure after position correction.

(11) 本発明の第11の態様は、上述した第10の態様に係る動体追跡装置において、
マスキング処理部が、第(i−L)番目(Lは2以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)の位置の基準点から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)の位置の基準点へ向かうベクトルに対して、その長さを(L/(L−1))倍に伸ばすことにより得られるベクトルの先端を予測位置の基準点とするようにしたものである。
(11) According to an eleventh aspect of the present invention, in the moving body tracking device according to the tenth aspect described above,
The masking processing unit performs the (i−1) th from the reference point at the position of the blob inclusion figure B (i−L) belonging to the (i−L) th (L is an integer of 2 or more) time series. The tip of the vector obtained by extending the length to the reference point at the position of the blob inclusion figure B (i-1) belonging to the time series is multiplied by (L / (L-1)) times. The reference point of the predicted position is used.

(12) 本発明の第12の態様は、上述した第10の態様に係る動体追跡装置において、
マスキング処理部が、第(i−L)番目(Lは3以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)まで、合計L個のブロッブ包摂図形の各位置の基準点を近似的に通る二次曲線を求め、この二次曲線上の点を予測位置の基準点とするようにしたものである。
(12) According to a twelfth aspect of the present invention, in the moving body tracking device according to the tenth aspect described above,
The masking processing unit belongs to the (i-1) th time series from the blob inclusion figure B (iL) belonging to the (i-L) th (L is an integer of 3 or more) time series. A quadratic curve that approximately passes through the reference points at each position of the total L blob inclusion figures up to the blob inclusion figure B (i-1) is obtained, and a point on the quadratic curve is used as a reference point of the predicted position It is what I did.

(13) 本発明の第13の態様は、上述した第1〜第12の態様に係る動体追跡装置において、
マスキング処理部が、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)に対して、輪郭線を所定量だけ外方へ拡張する修正を施し、拡張修正後の包摂図形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the moving body tracking device according to the first to twelfth aspects described above,
When the masking processing unit generates the individual moving object identification image M (i, j), the blob inclusion figure B (i-1) belonging to the (i-1) th time series of the tracker not of interest Then, the contour line is corrected to extend outward by a predetermined amount, and the i-th moving object identification image M (i) is masked using the inclusion figure after the expansion correction.

(14) 本発明の第14の態様は、上述した第1〜第13の態様に係る動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理を行う際に、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形に対して、第j番目のトラッカー用として抽出された個々の候補ブロッブ包摂図形の適合性評価を行い、所定の基準以上の評価、かつ、最も高い評価を得た候補ブロッブ包摂図形を、先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形と判定し、これを後続ブロッブ包摂図形として登録するようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the moving body tracking device according to the first to thirteenth aspects described above,
When the tracker registration unit performs the subsequent blob inclusion graphic registration process, the jth track inclusion graphic is registered with respect to the preceding blob inclusion graphic registered in the (i-1) th time series of the jth tracker Tj. It is suitable for evaluating the suitability of individual candidate blob inclusion figures extracted for tracker use, and following the preceding blob inclusion figure with the candidate blob inclusion figure with the highest evaluation and the highest evaluation. It is determined that it is a blob inclusion figure and is registered as a subsequent blob inclusion figure.

(15) 本発明の第15の態様は、上述した第14の態様に係る動体追跡装置において、
トラッカー登録部が、判定対象となる先行ブロッブ包摂図形と候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて適合性評価を行うようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the moving body tracking device according to the fourteenth aspect described above,
The tracker registration unit compares the preceding blob inclusion figure to be determined and the candidate blob inclusion figure with respect to any one or a combination of position, area, and shape, and performs suitability evaluation based on the similarity. It is what I did.

(16) 本発明の第16の態様は、上述した第1〜第15の態様に係る動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理で、第j番目のトラッカーTjについての後続ブロッブ包摂図形を登録する際に、当該後続ブロッブ包摂図形の大きさが、連続して先行登録されている所定数のブロッブ包摂図形の平均サイズとなるように、当該後続ブロッブ包摂図形の大きさに対する修正を行うようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the moving object tracking device according to the first to fifteenth aspects described above,
When the tracker registration unit registers the subsequent blob inclusion graphic for the jth tracker Tj in the subsequent blob inclusion graphic registration process, the size of the subsequent blob inclusion graphic is registered in advance as a predetermined value. The size of the subsequent blob inclusion figure is corrected so as to be the average size of the number of blob inclusion figures.

(17) 本発明の第17の態様は、上述した第1〜第16の態様に係る動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理において、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形が、第j番目のトラッカー用の候補ブロッブ包摂図形内に存在しない場合に、第j番目のトラッカーTjの第i番目の時系列を無登録状態とする処理を行うことにより、先行ブロッブ包摂図形が末尾ブロッブ包摂図形となったことを示すようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the moving body tracking device according to the first to sixteenth aspects described above,
A blob inclusion figure suitable for the tracker registration unit to follow the preceding blob inclusion figure registered in the (i-1) th time series of the jth tracker Tj in the subsequent blob inclusion figure registration process When the candidate blob inclusion figure for the jth tracker does not exist in the candidate blob inclusion figure, the preceding blob inclusion figure is terminated by performing the process of making the i-th time series of the jth tracker Tj unregistered. It shows that it became a blob inclusion figure.

(18) 本発明の第18の態様は、上述した第1〜第17の態様に係る動体追跡装置において、
トラッカー登録部が、新参ブロッブ包摂図形登録処理を行う際に、動体識別画像M(i)に基づいて抽出されたブロッブ包摂図形B(i)と、後続ブロッブ包摂図形登録処理によって第i番目の時系列に登録された後続ブロッブ包摂図形とを比較し、両者が一致するか、もしくは、一方が他方を包含する関係になっているものを互いに対応するブロッブ包摂図形と認識し、ブロッブ包摂図形B(i)の中で対応関係が認識できないブロッブ包摂図形を新参ブロッブ包摂図形とするようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the moving object tracking device according to the first to seventeenth aspects described above,
When the tracker registration unit performs the new blob inclusion figure registration process, the blob inclusion figure B (i) extracted based on the moving object identification image M (i) and the subsequent blob inclusion figure registration process are the i-th time. The subsequent blob inclusion graphic registered in the series is compared, and if both match or one of them includes the other, the blob inclusion graphic B ( The blob inclusion figure whose correspondence cannot be recognized in i) is changed to a new blob inclusion figure.

(19) 本発明の第19の態様は、動画画像について動体を検出し、これを追跡する動体追跡装置において、
時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力部と、
動画画像の背景を構成する背景画像を提供する背景画像提供部と、
第i番目の原画像P(i)と背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成部と、
同一の動体と推定される画素集団の包摂図形からなるブロッブ包摂図形を、先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べることにより構成されるトラッカーの情報を、個々の動体ごとに格納するトラッカー格納部と、
トラッカー格納部に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体を示すブロッブ包摂図形を利用して、動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理部と、
マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の包摂図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出部と、
トラッカー格納部に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体を示す先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる、着目動体と同一と推定される動体を示すブロッブ包摂図形を、着目動体以外の動体を示すブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から選択し、これをトラッカー格納部に、先行ブロッブ包摂図形に後続する第i番目の時系列の後続ブロッブ包摂図形として登録するとともに、マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形の登録が行われていない新参ブロッブ包摂図形を、第i番目の時系列が未登録状態のトラッカーに、先頭ブロッブ包摂図形として登録するトラッカー登録部と、
を設けたものである。
(19) According to a nineteenth aspect of the present invention, in the moving object tracking device for detecting a moving object for a moving image and tracking the moving object,
An image input unit for inputting a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
A background image providing unit that provides a background image constituting the background of the video image;
A moving object identification image generating unit that compares the i-th original image P (i) with the background image and generates an i-th moving object identification image M (i) that distinguishes the background region and the foreground region;
Tracker information consisting of blob inclusion figures consisting of inclusion figures of pixel groups estimated to be the same moving object in time series from the beginning blob inclusion figure to the end blob inclusion figure, for each moving object A tracker storage to store;
A moving object identification image M (i) is stored using a blob inclusion figure indicating a moving object other than the moving object of interest included in the (i-1) th original image P (i-1) stored in the tracker storage unit. Masking processing unit for performing masking processing on the foreground area of
For the moving object identification image M (i) before and after the masking process, a block that recognizes a group of pixels constituting the foreground area excluding the masked portion as a moving object and extracts the inclusion figure of the pixel group as a blob inclusion figure An inclusion figure extraction unit;
The i-th original image P (i) with respect to the preceding blob inclusion figure indicating the moving object of interest contained in the (i-1) -th original image P (i-1) stored in the tracker storage unit. ) Included in () is extracted from the moving object identification image M (i) masked using the blob inclusion figure indicating the moving object other than the moving object. The candidate blob inclusion graphic is selected from the candidate blob inclusion graphic and registered in the tracker storage unit as the i th time-series subsequent blob inclusion graphic following the preceding blob inclusion graphic. Among the blob inclusion figures extracted from i), a new blob inclusion figure for which the corresponding subsequent blob inclusion figure is not registered is used as a tracker whose i-th time series is unregistered. In, and a tracker registration unit to be registered as a top blob inclusion figure,
Is provided.

(20) 本発明の第20の態様は、上述した第19の態様に係る動体追跡装置において、
トラッカー登録部が、
先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形の選択を行い、
マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、第i番目の時系列の後続ブロッブ包摂図形として登録されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とするようにしたものである。
(20) According to a twentieth aspect of the present invention, in the moving object tracking device according to the nineteenth aspect described above,
The tracker registration department
Comparing the preceding blob inclusion graphic and each candidate blob inclusion graphic with respect to any one or more combinations of position, area, and shape, and selecting the subsequent blob inclusion graphic based on the similarity,
Of the individual blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the blob inclusion figure registered as the subsequent blob inclusion figure of the i-th time series matches or is included. The blob inclusion figure which is not used is made into a new blob inclusion figure.

(21) 本発明の第21の態様は、上述した第1〜第20の態様に係る動体追跡装置を、コンピュータに専用のプログラムを組み込むことにより構成したものである。   (21) In a twenty-first aspect of the present invention, the moving object tracking device according to the first to twentieth aspects described above is configured by incorporating a dedicated program into a computer.

(22) 本発明の第22の態様は、上述した第1〜第20の態様に係る動体追跡装置に加えて、更に、
動画画像を撮影して画像入力部に与えるビデオカメラと、
トラッカー格納部から、1つの選択トラッカーに連続して登録されているブロッブ包摂図形B(i)を順次取り出し、画像入力部が入力した原画像P(i)からブロッブ包摂図形B(i)の内部の画像を切出して表示することにより、特定の動体を追跡した部分動画画像を提示する部分動画提示部と、
を設けることにより、監視システムを構成したものである。
(22) In a twenty-second aspect of the present invention, in addition to the moving body tracking device according to the first to twentieth aspects described above,
A video camera that captures a video image and gives it to the image input unit;
The blob inclusion figure B (i) successively registered in one selected tracker is sequentially extracted from the tracker storage unit, and the inside of the blob inclusion figure B (i) from the original image P (i) input by the image input unit A partial video presentation unit that presents a partial video image tracking a specific moving object by cutting out and displaying the image of
The monitoring system is configured by providing

(23) 本発明の第23の態様は、上述した第22の態様に係る監視システムにおいて、
部分動画提示部が、ブロッブ包摂図形B(i)を所定量だけ外方へ拡張し、拡張された包摂図形の内部の画像を切出して表示するようにしたものである。
(23) According to a twenty-third aspect of the present invention, in the monitoring system according to the twenty-second aspect described above,
The partial moving picture presentation unit expands the blob inclusion figure B (i) outward by a predetermined amount, and cuts out and displays an image inside the expanded inclusion figure.

(24) 本発明の第24の態様は、動画画像について動体を検出し、これを追跡する動体追跡方法において、
コンピュータが、時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力段階と、
コンピュータが、動画画像の背景を構成する背景画像と、第i番目の原画像P(i)とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成段階と、
コンピュータが、第(i−1)番目の原画像P(i−1)内に含まれる着目動体の輪郭を包摂する先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる、着目動体と同一と推定される動体の輪郭を包摂する後続ブロッブ包摂図形を認識するとともに、第i番目の原画像P(i)において新たに出現した動体の輪郭を包摂する新参ブロッブ包摂図形を認識する後続/新参ブロッブ包摂図形認識段階と、
を行い、
後続/新参ブロッブ包摂図形認識段階では、
第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体の輪郭を包摂するブロッブ包摂図形を利用して、動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理ステップと、
マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の輪郭を包摂する図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出ステップと、
着目動体以外の動体を包摂するブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から、着目動体の輪郭を包摂する先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形を後続ブロッブ包摂図形として選択する後続ブロッブ包摂図形選択ステップと、
マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形が認識されていない新参ブロッブ包摂図形を、新たな動体の輪郭を包摂する新参ブロッブ包摂図形として認識する新参ブロッブ包摂図形認識ステップと、
を行うようにしたものである。
(24) According to a twenty-fourth aspect of the present invention, in the moving object tracking method for detecting a moving object in a moving image and tracking the moving object,
An image input stage in which a computer inputs a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
The computer compares the background image constituting the background of the moving image and the i-th original image P (i) to distinguish the background region from the foreground region, and the i-th moving object identification image M (i). A moving object identification image generation stage for generating
In the i-th original image P (i), the computer compares the preceding blob inclusion figure including the outline of the moving object of interest included in the (i-1) -th original image P (i-1). A new blob inclusion that recognizes the subsequent blob inclusion figure that includes the outline of the moving object that is estimated to be the same as the moving object of interest and that includes the outline of the moving object that newly appears in the i-th original image P (i). Subsequent / newcomer blob inclusion figure recognition stage to recognize the figure,
And
In the subsequent / newcomer blob inclusion figure recognition stage,
A foreground area of the moving object identification image M (i) is obtained using a blob inclusion figure that includes the outline of a moving object other than the moving object of interest included in the (i-1) th original image P (i-1). Masking processing step for performing masking processing,
In the moving object identification image M (i) before and after the masking process, a group of pixels constituting the foreground area excluding the masked portion is recognized as a moving object, and a figure including the outline of the pixel group is defined as a blob inclusion figure. Blob inclusion figure extraction step to extract;
From the candidate blob inclusion graphic extracted from the moving object identification image M (i) masked using the blob inclusion graphic that includes a moving object other than the target moving object, to the preceding blob inclusion graphic that includes the contour of the target moving object A subsequent blob inclusion shape selection step for selecting a blob inclusion shape suitable for subsequent as the subsequent blob inclusion shape;
Among the blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the new blob inclusion figure in which the new blob inclusion figure in which the corresponding subsequent blob inclusion figure is not recognized is included in the outline of the new moving object is included. A new blob inclusion figure recognition step that recognizes as
Is to do.

(25) 本発明の第25の態様は、上述した第24の態様に係る動体追跡方法において、
後続ブロッブ包摂図形選択ステップで、先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形の選択を行い、
新参ブロッブ包摂図形認識ステップで、マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、後続ブロッブ包摂図形として認識されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とするようにしたものである。
(25) According to a twenty-fifth aspect of the present invention, in the moving body tracking method according to the twenty-fourth aspect described above,
In the subsequent blob inclusion graphic selection step, the previous blob inclusion graphic and each candidate blob inclusion graphic are compared with respect to one or more combinations of position, area, and shape, and the subsequent blob inclusion graphic is determined based on the similarity. Make a selection
In the new blob inclusion figure recognition step, among the individual blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the blob inclusion figure recognized as the subsequent blob inclusion figure is matched or included in the relation The blob inclusion figure which is not made into a new blob inclusion figure.

本発明に係る動体追跡装置では、複数の動体のうち、ある1つの着目動体を時間軸上で継承する動体を検出する際に、当該着目動体以外の動体が存在していた領域をマスキングする方法を採るようにしたため、複数の動体が交差した場合にも、効率的かつ正確に個々の動体を追跡することが可能になる。   In the moving object tracking device according to the present invention, a method of masking a region where a moving object other than the target moving object exists when detecting a moving object that inherits a certain target moving object on the time axis among a plurality of moving objects. Therefore, even when a plurality of moving objects intersect, it becomes possible to track each moving object efficiently and accurately.

動画画像についての動体の検出例を示す平面図である。It is a top view which shows the example of a detection of the moving body about a moving image. 一般的な動体検出の基本原理を示す図である。It is a figure which shows the basic principle of a general moving body detection. 背景を示す画像として用いられる平均画像の作成方法の一例を示す図である。It is a figure which shows an example of the production method of the average image used as an image which shows a background. 図3に示す方法に基づいて作成される平均画像上の1画素の画素値変遷プロセスを示す図である。It is a figure which shows the pixel value transition process of 1 pixel on the average image produced based on the method shown in FIG. 一般的な動体識別画像M(i)の画素値決定プロセスを示す図である。It is a figure which shows the pixel value determination process of the general moving body identification image M (i). 図1に示す動体識別画像M30およびM40に基づいて、ブロッブ包摂図形B30,B40を抽出した例を示す平面図である。It is a top view which shows the example which extracted blob inclusion figure B30, B40 based on the moving body identification image M30 and M40 shown in FIG. 図6に示すブロッブ包摂図形B30,B40を利用して、部分画像f30,f40を切出した状態を示す平面図である。It is a top view which shows the state which cut out the partial images f30 and f40 using the blob inclusion figure B30 and B40 shown in FIG. 複数の動体が存在する原画像P10を示す平面図である(背景は省略)。It is a top view which shows the original image P10 in which several moving bodies exist (a background is abbreviate | omitted). 図8に示す原画像P10から作成された動体識別画像M10を示す平面図である。It is a top view which shows the moving body identification image M10 produced from the original image P10 shown in FIG. 時間軸上の時刻t10,t20,t40における原画像P10,P20,P40を示す平面図である。It is a top view which shows original image P10, P20, P40 in the time t10, t20, t40 on a time-axis. 図10に示す原画像P10,P20,P40から作成された動体識別画像M10,M20,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。It is a top view which shows the moving body identification image M10, M20, M40 produced from the original images P10, P20, and P40 shown in FIG. 10, and the blob inclusion figure extracted from these. 図11に示す動体識別画像M10,M20,M40に基づいて作成されたトラッカーの一例を示す図である。It is a figure which shows an example of the tracker produced based on the moving body identification image M10, M20, and M40 shown in FIG. ブロッブ包摂図形Bの実体データを示す平面図である。It is a top view which shows the actual data of the blob inclusion figure B. 時系列上の時刻t20,t30,t40における原画像P20,P30,P40を示す平面図である。It is a top view which shows original image P20, P30, P40 in the time t20, t30, t40 on a time series. 図14に示す原画像P20,P30,P40から作成された動体識別画像M20,M30,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。It is a top view which shows the moving body identification image M20, M30, M40 produced from the original images P20, P30, and P40 shown in FIG. 14, and the blob inclusion figure extracted from these. 図15に示す動体識別画像M20,M30,M40に基づいて作成されたトラッカーの一例を示す図である。It is a figure which shows an example of the tracker produced based on the moving body identification image M20, M30, and M40 shown in FIG. 図15に示す動体識別画像M20,M30,M40に基づいて作成されたトラッカーの別な一例を示す図である。It is a figure which shows another example of the tracker produced based on the moving body identification image M20, M30, and M40 shown in FIG. 時系列上の時刻t29,t30における原画像P29,P30を示す平面図である。It is a top view which shows the original images P29 and P30 in the time t29 and t30 on a time series. 図18に示す原画像P29,P30から作成された動体識別画像M29,M30およびこれらから抽出されたブロッブ包摂図形を示す平面図である。It is a top view which shows the moving body identification image M29 and M30 produced from the original images P29 and P30 shown in FIG. 18, and the blob inclusion figure extracted from these. 図19(a) に示すブロッブ包摂図形B29a以外のブロッブ包摂図形によるマスキング処理を行うことにより得られた個別動体識別画像M(30,1)を示す平面図(図(a) )およびこれから抽出された候補ブロッブ包摂図形B30aを示す平面図(図(b) )である。A plan view (Fig. (A)) showing an individual moving object identification image M (30, 1) obtained by performing masking processing with a blob inclusion graphic other than the blob inclusion graphic B29a shown in Fig. 19 (a), and extracted from this. It is the top view (figure (b)) which shows the candidate blob inclusion figure B30a. 図19(a) に示すブロッブ包摂図形B29b以外のブロッブ包摂図形によるマスキング処理を行うことにより得られた個別動体識別画像M(30,2)を示す平面図(図(a) )およびこれから抽出された候補ブロッブ包摂図形B30bを示す平面図(図(b) )である。A plan view (FIG. (A)) showing an individual moving object identification image M (30, 2) obtained by performing masking processing with a blob inclusion figure other than the blob inclusion figure B29b shown in FIG. It is a top view (figure (b)) which shows candidate blob inclusion figure B30b. 図19(a) に示すブロッブ包摂図形B29c以外のブロッブ包摂図形によるマスキング処理を行うことにより得られた個別動体識別画像M(30,3)を示す平面図(図(a) )およびこれから抽出された候補ブロッブ包摂図形B30cを示す平面図(図(b) )である。A plan view (Fig. (A)) showing an individual moving object identification image M (30, 3) obtained by performing masking processing with a blob inclusion graphic other than the blob inclusion graphic B29c shown in Fig. 19 (a), and extracted from this. It is a top view (figure (b)) which shows candidate blob inclusion figure B30c. 図19(a) に示すブロッブ包摂図形B29d以外のブロッブ包摂図形によるマスキング処理を行うことにより得られた個別動体識別画像M(30,4)を示す平面図(図(a) )およびこれから抽出された候補ブロッブ包摂図形B30dを示す平面図(図(b) )である。A plan view (Fig. (A)) showing an individual moving object identification image M (30, 4) obtained by performing masking processing with a blob inclusion graphic other than the blob inclusion graphic B29d shown in Fig. 19 (a), and extracted from this. It is the top view (figure (b)) which shows the candidate blob inclusion figure B30d. 図20〜図23に示す候補ブロッブ包摂図形に基づいて、各トラッカーに後続ブロッブ包摂図形の登録を行った状態を示す図である。It is a figure which shows the state which registered the subsequent blob inclusion figure to each tracker based on the candidate blob inclusion figure shown in FIGS. 各トラッカーT1〜T4について認識された後続ブロッブ包摂図形を動体識別画像M30に重ねた状態を示す平面図である。It is a top view which shows the state which accumulated the subsequent blob inclusion figure recognized about each tracker T1-T4 on the moving body identification image M30. 図20に示すマスキング処理では完全なマスキングがなされなかった状態を示す平面図(図(a) )およびこの状態から抽出された候補ブロッブ包摂図形を示す平面図(図(b) )である。FIG. 21 is a plan view (FIG. (A)) showing a state where complete masking has not been performed in the masking process shown in FIG. 20 and a plan view (FIG. (B)) showing candidate blob inclusion figures extracted from this state. 時系列上の時刻t39,t40における原画像P39,P40を示す平面図である。It is a top view which shows the original images P39 and P40 in the time t39 and t40 on a time series. 図27に示す原画像P39,P40から作成された動体識別画像M39,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。It is a top view which shows the moving body identification image M39 and M40 produced from the original images P39 and P40 shown in FIG. 27, and the blob inclusion figure extracted from these. 図28に示すブロッブ包摂図形に基づいて作成されたトラッカーを示す図である。It is a figure which shows the tracker produced based on the blob inclusion figure shown in FIG. 図24の表の時刻t30の欄に登録された後続ブロッブ包摂図形と、図19(b) に示す動体識別画像M30上のブロッブ包摂図形と、の対応関係を示すテーブルである。25 is a table showing a correspondence relationship between the subsequent blob inclusion graphic registered in the column of time t30 in the table of FIG. 24 and the blob inclusion graphic on the moving object identification image M30 shown in FIG. 19B. 本発明の基本的な実施形態に係る動体追跡装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving body tracking device which concerns on fundamental embodiment of this invention. 図31に示す動体追跡装置におけるブロッブ包摂図形抽出部170によるブロッブ包摂図形抽出処理の手順の一例を示す流れ図である。It is a flowchart which shows an example of the procedure of the blob inclusion figure extraction process by the blob inclusion figure extraction part 170 in the moving body tracking device shown in FIG. 図32に示すブロッブ包摂図形抽出処理の処理対象となる画像の一例を示す平面図である。It is a top view which shows an example of the image used as the process target of the blob inclusion figure extraction process shown in FIG. 図33に示す画像に対して、図32に示すブロッブ包摂図形抽出処理の手順を施したプロセスの各段階を示す平面図である。It is a top view which shows each step of the process which performed the procedure of the blob inclusion figure extraction process shown in FIG. 32 with respect to the image shown in FIG. 図31に示す動体追跡装置におけるトラッカー登録部160による後続ブロッブ包摂図形の適合性評価の方法を示す平面図である。It is a top view which shows the method of the suitability evaluation of the following blob inclusion figure by the tracker registration part 160 in the moving body tracking device shown in FIG. 図31に示す動体追跡装置におけるマスキング処理部140によって、マスクとして機能するブロッブ包摂図形に対する予測位置を求める方法の一例を示す平面図である。It is a top view which shows an example of the method of calculating | requiring the predicted position with respect to the blob inclusion figure which functions as a mask by the masking process part 140 in the moving body tracking device shown in FIG. 図31に示す動体追跡装置におけるマスキング処理部140によって、マスクとして機能するブロッブ包摂図形に対する予測位置を求める方法の別な一例を示す平面図である。It is a top view which shows another example of the method of calculating | requiring the predicted position with respect to the blob inclusion figure which functions as a mask by the masking process part 140 in the moving body tracking device shown in FIG. 図31に示す動体追跡装置におけるマスキング処理部140によるブロッブ包摂図形に対する拡張修正の一例を示す平面図である。It is a top view which shows an example of the expansion correction with respect to the blob inclusion figure by the masking process part 140 in the moving body tracking device shown in FIG. 図31に示す動体追跡装置におけるトラッカー登録部160によるブロッブ包摂図形に対する大きさ修正の一例を示す平面図である。It is a top view which shows an example of the magnitude correction with respect to the blob inclusion figure by the tracker registration part 160 in the moving body tracking device shown in FIG. 本発明の基本概念に基づく動体追跡方法の手順を示す流れ図である。It is a flowchart which shows the procedure of the moving body tracking method based on the basic concept of this invention. 本発明に係る動体追跡装置を利用して構成された監視システムの一例を示すブロック図である。It is a block diagram which shows an example of the monitoring system comprised using the moving body tracking device based on this invention.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1.一般的な動体検出の基本原理 >>>
はじめに、一般的な動体検出の基本原理を説明する。この基本原理は、動画画像について動体(移動物体)を検出するためのものであり、ここでは、三原色の各画素値を有する画素の集合体として、時系列で連続的にフレーム単位のカラー原画像が与えられた場合を例にとって説明する。
<<< §1. Basic principle of general motion detection >>
First, the basic principle of general moving object detection will be described. This basic principle is for detecting a moving object (moving object) in a moving image, and here, as a set of pixels having pixel values of three primary colors, a color original image in units of frames continuously in time series. The case where is given will be described as an example.

いま、図1の左側に示すように、フレーム単位の原画像P10,P20,P30,P40がこの順番で与えられたものとしよう。図示の例は、街頭に設置された定点ビデオカメラによる撮影画像を示すものであり、右から左へと1台の車両(動体)が通過する状態が示されている。なお、一般的なビデオカメラの場合、1秒間に30フレーム程度の周期で連続して撮影画像が出力されるので、実際には、より細かな時間間隔で多数のフレーム画像が得られることになるが、ここでは、説明の便宜上、図示のとおり、4枚の原画像P10,P20,P30,P40が順番に与えられた場合を考える。   Assume that original images P10, P20, P30, and P40 in units of frames are given in this order as shown on the left side of FIG. The illustrated example shows a photographed image by a fixed-point video camera installed on the street, and shows a state in which one vehicle (moving body) passes from right to left. Note that in the case of a general video camera, captured images are output continuously at a cycle of about 30 frames per second, so in practice, a large number of frame images can be obtained at finer time intervals. However, here, for convenience of explanation, consider a case where four original images P10, P20, P30, and P40 are given in order as shown in the figure.

これら4枚の原画像を見ると、原画像P10は街の背景のみであるが、原画像P20では、右側に車両の一部が侵入したため、背景上に車両の一部が重なった画像になっている。同様に、原画像P30,P40も、背景上に車両が重なった画像になっている。背景は静止しているため、原画像P10〜P40について共通になるが、車両は動体であるため、原画像P10〜P40では異なる。ここでは、各画像上において、背景を構成する領域を背景領域K、車両(動体)を構成する領域を前景領域Fと呼ぶことにする。   Looking at these four original images, the original image P10 is only the background of the city, but in the original image P20, a part of the vehicle has entered on the right side, so that the part of the vehicle overlaps the background. ing. Similarly, the original images P30 and P40 are images in which vehicles overlap on the background. Since the background is stationary, it is common to the original images P10 to P40. However, since the vehicle is a moving object, the original images P10 to P40 are different. Here, on each image, the area constituting the background is referred to as the background area K, and the area constituting the vehicle (moving object) is referred to as the foreground area F.

ここで行う動体検出の目的は、与えられた各原画像P10〜P40について、それぞれ背景領域Kと前景領域Fとを区別することにある。図1の右側に示す各画像M10〜M40は、それぞれ左側に示す各原画像P10〜P40について、背景領域Kと前景領域Fとの区別を示す画像であり、ここでは、動体識別画像M10〜M40と呼ぶことにする。この動体識別画像M10〜M40では、図にハッチングを施した領域が前景領域F(F20,F30,F40)であり、白地の領域が背景領域K(K10〜K40)である。これらの動体識別画像M10〜M40は、2つの領域を識別できればよいので、二値画像として与えられる。たとえば、前景領域Fに所属する画素には画素値「1」を与え、背景領域Kに所属する画素には画素値「0」を与えることにすれば、動体識別画像M10〜M40は、1ビットの画素値をもった画素の集合体からなる画像データとして用意することができる。   The purpose of the moving object detection performed here is to distinguish the background area K and the foreground area F from each of the given original images P10 to P40. The images M10 to M40 shown on the right side of FIG. 1 are images showing the distinction between the background region K and the foreground region F with respect to the original images P10 to P40 shown on the left side. Here, the moving object identification images M10 to M40 are shown. I will call it. In the moving object identification images M10 to M40, the hatched area in the figure is the foreground area F (F20, F30, F40), and the white area is the background area K (K10 to K40). Since these moving body identification images M10 to M40 only need to be able to identify two regions, they are given as binary images. For example, if the pixel value “1” is given to the pixels belonging to the foreground area F and the pixel value “0” is given to the pixels belonging to the background area K, the moving object identification images M10 to M40 are 1 bit. It is possible to prepare as image data composed of an aggregate of pixels having the pixel value.

後述する手法を採れば、与えられた個々のフレーム単位の原画像Pのそれぞれについて、対応する動体識別画像Mを二値画像として得ることができる。結局、ここで述べる動体検出処理の本質は、時系列で連続的に与えられた個々の原画像Pについて、それぞれ背景領域Kと前景領域Fとの区別を示す二値画像(動体識別画像M)を作成する処理ということができる。   If a method described later is adopted, a corresponding moving body identification image M can be obtained as a binary image for each of the given original images P in units of frames. After all, the essence of the moving object detection process described here is a binary image (moving object identification image M) indicating the distinction between the background region K and the foreground region F for each original image P continuously given in time series. It can be said that the process of creating.

図1に示す例では、各原画像P10〜P40のそれぞれについて、動体識別画像M10〜M40が作成された例が示されている。これら動体識別画像を利用すれば、原画像上のどの領域が動体であるかを認識できるので、動体の形状やサイズを把握したり、動体の部分をズームアップして、車両のナンバーを確認したり、人物を特定したりする処理を行うことが可能になる。また、画面上で動体をズームアップしたまま追跡したり、移動経路を把握したりすることも可能になる。   In the example shown in FIG. 1, an example in which moving object identification images M10 to M40 are created for each of the original images P10 to P40 is shown. By using these moving object identification images, it is possible to recognize which area on the original image is a moving object, so you can grasp the shape and size of the moving object, or zoom in on the moving object part and check the vehicle number. Or a process for specifying a person can be performed. In addition, it is possible to track a moving object on the screen while zooming up, or to grasp a moving route.

もちろん、このような動体識別画像の作成を、1枚の原画像のみから行うことは困難である。たとえば、図示の原画像P20のみが静止画像として与えられた場合、人間の脳は様々な情報から車両の存在を認識することができるが、この1枚の静止画像のみから、コンピュータに車両の存在を認識させるには、複雑なアルゴリズムに基づく処理が必要となる。そこで、一般的な動体検出アルゴリズムでは、既に述べたとおり、原画像と背景画像との差を求めることにより、当該差の領域を動体の領域(前景領域F)と判断する手法が採られる。   Of course, it is difficult to create such a moving body identification image from only one original image. For example, when only the illustrated original image P20 is given as a still image, the human brain can recognize the presence of the vehicle from various information, but the presence of the vehicle is detected by the computer from only this one still image. In order to recognize this, processing based on a complicated algorithm is required. Therefore, as described above, a general moving object detection algorithm employs a method of determining a difference area between the original image and the background image and determining the difference area as a moving object area (foreground area F).

たとえば、予め原画像P10を背景画像として指定しておけば、原画像P20が入力された時点で両者を比較することにより、差の領域(異なる領域)を前景領域Fと認識し、図示のような動体識別画像M20(背景領域K20と前景領域F20とを区別する画像)を作成することが可能になる。差の領域を認識するには、原画像と背景画像とを画素単位で比較して、両画素の画素値が類似している場合、当該画素は背景領域Kを構成する画素であるとし、類似していない場合、当該画素は前景領域Fを構成する画素であるとする方法が最も簡便な方法である。   For example, if the original image P10 is designated as a background image in advance, the difference area (different area) is recognized as the foreground area F by comparing the two when the original image P20 is input, as shown in the figure. It is possible to create a moving object identification image M20 (an image that distinguishes the background region K20 and the foreground region F20). In order to recognize the difference area, the original image and the background image are compared in pixel units, and when the pixel values of both pixels are similar, the pixel is assumed to be a pixel constituting the background area K. If not, the simplest method is that the pixel is a pixel constituting the foreground region F.

背景画像としては、予め動体が存在しない状態(たとえば、原画像P10に示す状態)で撮影した静止画像を利用することも可能であるが、屋外の場合、天候や時刻などの要因により、照明環境は時々刻々と変化してゆくものであり、ある特定の時点で撮影した静止画像をそのまま背景画像として継続して利用するのは不適切である。そこで、通常は、過去に入力された複数の原画像に基づいて、これら原画像の平均的な特徴を有する平均画像を作成し、この平均画像を背景画像として利用する手法が採られる。平均画像は新たな画像が入力されるたびに逐次更新されるので、天候や時刻などの要因により、照明環境が変化したとしても、当該変化に追随した適切な背景画像として機能する。   As a background image, it is possible to use a still image that has been captured in a state where there is no moving object in advance (for example, the state shown in the original image P10). Are changing from moment to moment, and it is inappropriate to continue using a still image taken at a specific time point as a background image. Therefore, usually, a method is employed in which an average image having an average characteristic of these original images is created based on a plurality of original images input in the past, and this average image is used as a background image. Since the average image is sequentially updated each time a new image is input, even if the lighting environment changes due to factors such as weather and time, the average image functions as an appropriate background image following the change.

図2は、一般的な動体検出の基本原理を示す図である。ここで、図の上段に示す原画像P(1),P(2),... ,P(i−2),P(i−1)は、時系列で連続的に与えられるフレーム単位の原画像であり、これまでに第1番目の原画像P(1)から第(i−1)番目の原画像P(i−1)まで、(i−1)フレーム分の画像が与えられた状態が示されている。一方、図の中段左に示す画像P(i)は、新たに与えられた第i番目の原画像であり、図の中段右に示す画像A(i−1)は、図の上段に示す過去に与えられた(i−1)フレーム分の原画像P(1)〜P(i−1)の平均的な特徴を有する平均画像である。   FIG. 2 is a diagram showing a basic principle of general moving object detection. Here, the original images P (1), P (2),..., P (i-2), P (i-1) shown in the upper part of the figure are frame-units continuously given in time series. This is an original image, and so far (i-1) frames of images have been given from the first original image P (1) to the (i-1) th original image P (i-1). The state is shown. On the other hand, the image P (i) shown on the left in the middle of the figure is the i-th original image newly given, and the image A (i-1) shown on the right in the middle of the figure is the past shown in the upper part of the figure Is an average image having average characteristics of the original images P (1) to P (i-1) for (i-1) frames.

新たに入力された原画像P(i)についての動体識別画像M(i)は、当該原画像P(i)と平均画像A(i−1)とを比較することによって作成される。図2の下段は、このようにして作成された動体識別画像M(i)を示すものである。具体的には、原画像P(i)上の各画素の画素値を、平均画像A(i−1)上の対応する画素の画素値と比較し、類似範囲内と判定された画素については背景領域K(i)を示す画素値(たとえば、「0」)を与え、類似範囲外と判定された画素については前景領域F(i)を示す画素値(たとえば、「1」)を与えることにより、二値画像からなる動体識別画像M(i)を作成すればよい。   The moving body identification image M (i) for the newly input original image P (i) is created by comparing the original image P (i) with the average image A (i-1). The lower part of FIG. 2 shows the moving object identification image M (i) created in this way. Specifically, the pixel value of each pixel on the original image P (i) is compared with the pixel value of the corresponding pixel on the average image A (i−1). A pixel value (for example, “0”) indicating the background area K (i) is given, and a pixel value (for example, “1”) showing the foreground area F (i) is given to a pixel determined to be outside the similar range. Thus, a moving object identification image M (i) composed of a binary image may be created.

続いて、第(i+1)番目の原画像P(i+1)が入力されたときには、過去に入力された第i番目の原画像P(i)までの平均的な特徴を有する平均画像A(i)が新たに作成され、原画像P(i+1)と平均画像A(i)とを比較することにより、動体識別画像M(i+1)が作成される。このように、平均画像は逐次更新されてゆくため、天候や時刻などの要因により、照明環境が変化した場合でも、各時点に適した背景画像としての機能を果たすことができる。   Subsequently, when the (i + 1) -th original image P (i + 1) is input, the average image A (i) having an average feature up to the i-th original image P (i) input in the past. Is newly created, and the moving object identification image M (i + 1) is created by comparing the original image P (i + 1) and the average image A (i). In this way, since the average image is sequentially updated, even if the lighting environment changes due to factors such as weather and time, it can function as a background image suitable for each time point.

なお、平均画像を作成する際には、時系列に沿った重みづけを行うようにし、最新の原画像の情報に重みをおいた加重平均を求めるようにするのが好ましい。たとえば、過去10分間に入力された原画像について重み1、それ以前に入力された原画像について重み0を与えて平均を求めれば、常に、最新10分間に得られた原画像についての平均画像を得ることができ、照明環境が変化した場合にも対応することができる。もちろん、常に最新の原画像ほど重みづけが大きくなるように、重みづけをきめ細かく設定することもできる。   Note that when creating an average image, it is preferable to perform weighting along a time series, and obtain a weighted average with the latest original image information weighted. For example, if an average is obtained by giving a weight of 1 for an original image input in the past 10 minutes and a weight of 0 for an original image input before that, an average image for the original image obtained in the latest 10 minutes is always obtained. It can be obtained and can cope with a change in the lighting environment. Of course, the weights can be set finely so that the latest original image always has a higher weight.

結局、この図2に示す例の場合、平均画像A(i−1)を得るには、第1番目の原画像P(1)から第(i−1)番目の原画像P(i−1)について(i=1,2,...)、それぞれ対応する位置の画素の各色別の画素値の重みづけ平均値を算出し、当該平均値をもつ画素の集合体からなる画像を作成すればよい。そして、第i番目の原画像P(i)が入力されたときには、第i番目の動体識別画像M(i)を作成するために、原画像P(i)と平均画像A(i−1)とを比較すればよい。   After all, in the example shown in FIG. 2, in order to obtain the average image A (i−1), the (i−1) th original image P (i−1) from the first original image P (1) is obtained. ) (I = 1, 2,...), A weighted average value of pixel values for each color of pixels at corresponding positions is calculated, and an image composed of a collection of pixels having the average value is created. That's fine. When the i-th original image P (i) is input, the original image P (i) and the average image A (i-1) are generated in order to create the i-th moving object identification image M (i). Can be compared.

ただ、1秒間に30フレームという一般的なフレームレートで動画画像が入力された場合、過去10分間の原画像であっても、その画像データをすべて蓄積しておくには、画像データのバッファにかなりの記憶容量が必要になる。そこで、実用上は、第i番目の原画像P(i)が与えられたときに、第(i−1)番目の平均画像A(i−1)と、当該第i番目の原画像P(i)との2枚の画像に基づいて、第i番目の平均画像A(i)を作成する手法が採られる。図3は、このような手法に基づく平均画像の作成方法の一例を示す図である。   However, if a moving image is input at a general frame rate of 30 frames per second, even if it is an original image for the past 10 minutes, in order to store all the image data, the image data buffer Considerable storage capacity is required. Therefore, practically, when the i-th original image P (i) is given, the (i−1) -th average image A (i−1) and the i-th original image P ( Based on the two images i), a method of creating the i-th average image A (i) is adopted. FIG. 3 is a diagram illustrating an example of an average image creation method based on such a method.

まず、最初の原画像P(1)が与えられたときには、当該原画像P(1)をそのまま最初の平均画像A(1)とする処理を行う。そして、以後、図3の上段右に示す第i番目の原画像P(i)が入力されるたびに(i=2,3,...)、図3の上段左に示す第(i−1)番目の平均画像A(i−1)を利用して、図3の中段に示す第i番目の平均画像A(i)を、図3の下段に示す
a(i)=(1−w)・a(i−1)+w・p(i) 式(1)
なる演算式を用いて作成すればよい。ここで、a(i)は、平均画像A(i)の所定位置の画素の所定色の画素値、a(i−1)は、平均画像A(i−1)の前記所定位置の画素の前記所定色の画素値、p(i)は、原画像P(i)の前記所定位置の画素の前記所定色の画素値、wは、所定の重みを示すパラメータ(w<1)である。
First, when the first original image P (1) is given, the original image P (1) is processed as it is as the first average image A (1). Then, every time the i-th original image P (i) shown in the upper right of FIG. 3 is inputted (i = 2, 3,...), The (i−) shown in the upper left of FIG. 1) The i-th average image A (i) shown in the middle part of FIG. 3 is shown in the lower part of FIG.
a (i) = (1-w) .a (i-1) + w.p (i) Formula (1)
It may be created using the following arithmetic expression. Here, a (i) is a pixel value of a predetermined color of a pixel at a predetermined position of the average image A (i), and a (i-1) is a pixel value of the pixel at the predetermined position of the average image A (i-1). The pixel value of the predetermined color, p (i) is the pixel value of the predetermined color of the pixel at the predetermined position of the original image P (i), and w is a parameter (w <1) indicating a predetermined weight.

要するに、直前に与えられた原画像P(i−1)までの原画像について算出された第(i−1)番目の平均画像A(i−1)の画素値a(i−1)と、新たに与えられた第i番目の原画像P(i)の画素値p(i)とについて、重みwを考慮した平均値が算出され、当該算出値を第i番目の平均画像A(i)の画素値a(i)とする処理が行われることになる。このように、新たな原画像P(i)が入力されるたびに、平均画像A(i)を更新してゆき、しかも更新には直前の平均画像A(i−1)のみを用いるようにすれば、過去の原画像データを何フレーム分にもわたって蓄積保持しておく必要がないので、処理を行うために必要なバッファの容量を大幅に節約することができる。   In short, the pixel value a (i−1) of the (i−1) -th average image A (i−1) calculated for the original image up to the original image P (i−1) given immediately before, For the pixel value p (i) of the i-th original image P (i) that is newly given, an average value considering the weight w is calculated, and the calculated value is used as the i-th average image A (i). The process of setting the pixel value a (i) is performed. Thus, every time a new original image P (i) is input, the average image A (i) is updated, and only the immediately preceding average image A (i-1) is used for the update. By doing so, it is not necessary to store and hold past original image data for several frames, so that it is possible to greatly save the capacity of the buffer necessary for processing.

図3に示すとおり、重みwの値を大きくすればするほど、最新の原画像P(i)の画素値が平均画像A(i)の画素値に大きな影響を与えることになる。図4は、図3に示す方法に基づいて作成される平均画像上の1画素の画素値変遷プロセスを示す図である。この例では、重みw=0.01に設定した具体例が示されている。   As shown in FIG. 3, as the value of the weight w is increased, the pixel value of the latest original image P (i) greatly affects the pixel value of the average image A (i). FIG. 4 is a diagram showing a pixel value transition process of one pixel on the average image created based on the method shown in FIG. In this example, a specific example in which the weight w = 0.01 is shown.

たとえば、第1番目(i=1)の原画像P(1)の特定位置の画素の画素値がp(1)=100であったとすると、第1番目の平均画像A(1)の当該特定位置の画素の画素値a(1)は、そのままa(1)=100となる。続いて、第2番目の原画像P(2)の当該特定位置の画素の画素値がp(2)=100であったとすると、第2番目の平均画像A(2)の当該特定位置の画素の画素値a(2)は、a(1)とp(2)との重みつき平均「0.99×100+0.01×100」を計算することにより、a(2)=100になる。   For example, if the pixel value of the pixel at the specific position of the first (i = 1) original image P (1) is p (1) = 100, the specific of the first average image A (1) is specified. The pixel value a (1) of the pixel at the position is a (1) = 100 as it is. Subsequently, assuming that the pixel value of the pixel at the specific position of the second original image P (2) is p (2) = 100, the pixel at the specific position of the second average image A (2). The pixel value a (2) is calculated as a weighted average “0.99 × 100 + 0.01 × 100” between a (1) and p (2), so that a (2) = 100.

図示の例では、原画像の当該特定位置の画素値は、p(1)〜p(4)まで100のまま変化しないため、平均画像の当該特定位置の画素値も、a(1)〜a(4)まで100を維持する。ところが、第5番目の原画像P(5)では、画素値p(5)=200に急変したため、第5番目の平均画像A(5)の画素値a(5)は、図4の下段の式に示すとおり、a(4)とp(5)との重みつき平均「0.99×100+0.01×200」を計算することにより、a(5)=101になる。更に、第6番目の原画像P(6)および第7番目の原画像P(7)では、画素値p(6)=p(7)=200が維持されているため、図4の下段の式に示すとおり、第6番目の平均画像A(6)および第7番目の平均画像A(7)では、画素値a(6)=102、画素値a(7)=103、と徐々に増加している。   In the illustrated example, since the pixel value at the specific position of the original image remains 100 from p (1) to p (4), the pixel value at the specific position of the average image is also a (1) to a Maintain 100 until (4). However, in the fifth original image P (5), the pixel value a (5) of the fifth average image A (5) is changed in the lower part of FIG. As shown in the equation, a (5) = 101 is obtained by calculating the weighted average “0.99 × 100 + 0.01 × 200” of a (4) and p (5). Further, since the pixel value p (6) = p (7) = 200 is maintained in the sixth original image P (6) and the seventh original image P (7), the lower part of FIG. As shown in the equation, in the sixth average image A (6) and the seventh average image A (7), the pixel value a (6) = 102 and the pixel value a (7) = 103 gradually increase. doing.

この例のように、重みwを0.01程度の値に設定すると、原画像の画素値が急激に変化しても、平均画像の画素値は直ちに変化することはなく、原画像の画素値にゆっくりと近づいてゆくことになる。したがって、図1に示す例のように、車両が通過する動画が与えられたとしても、一過性の画素値変化は、平均画像の画素値に大きな変化をもたらすことはなく、平均画像は背景画像としての機能を果たすことができる。一方、時刻が日中から夕暮れに変わった場合など、照明環境に変化が生じた場合、当該変化は多数のフレーム画像にわたって持続するため、平均画像の画素値も当該変化に追従して変化することになる。したがって、日中には日中の背景画像に適した平均画像が得られ、夕暮れには夕暮れの背景画像に適した平均画像が得られることになる。   As in this example, when the weight w is set to a value of about 0.01, even if the pixel value of the original image changes abruptly, the pixel value of the average image does not change immediately, and the pixel value of the original image It will approach you slowly. Therefore, as in the example shown in FIG. 1, even if a moving image through which the vehicle passes is given, the transient pixel value change does not cause a large change in the pixel value of the average image, and the average image It can serve as an image. On the other hand, if the lighting environment changes, such as when the time changes from daytime to dusk, the change persists across many frame images, so the average image pixel value also changes following the change. become. Therefore, an average image suitable for a daytime background image is obtained during the daytime, and an average image suitable for a sunset background image is obtained at dusk.

動体の領域を示す動体識別画像Mは、このような方法で作成された平均画像を背景画像として、個々の原画像を比較することによって作成することができる。図5は、このようにして作成される動体識別画像Mの画素値決定プロセスを示す図である。第i番目の原画像P(i)についての動体識別画像M(i)は、次のような方法で決定される画素値をもつ画素の集合体からなる二値画像である。すなわち、動体識別画像M(i)の特定位置の画素の画素値m(i)は、原画像P(i)の当該特定位置の画素の画素値p(i)と、平均画像A(i−1)の当該特定位置の画素の画素値a(i−1)との比較によって決定され、両画素値が類似範囲内であれば、背景領域K内の画素であることを示す画素値(たとえば、「0」)が与えられ、両画素値が類似範囲外であれば、前景領域F内の画素であることを示す画素値(たとえば、「1」)が与えられる。   The moving body identification image M showing the moving body region can be created by comparing individual original images with the average image created by such a method as a background image. FIG. 5 is a diagram showing a pixel value determination process of the moving object identification image M created in this way. The moving object identification image M (i) for the i-th original image P (i) is a binary image composed of a collection of pixels having pixel values determined by the following method. That is, the pixel value m (i) of the pixel at the specific position of the moving object identification image M (i) is equal to the pixel value p (i) of the pixel at the specific position of the original image P (i) and the average image A (i− 1) is determined by comparison with the pixel value a (i−1) of the pixel at the specific position, and if both pixel values are within the similar range, the pixel value indicating that the pixel is in the background region K (for example, , “0”), and if both pixel values are outside the similar range, a pixel value (for example, “1”) indicating a pixel in the foreground area F is given.

なお、原画像が三原色の各画素値(たとえば、RGB表色系の場合、R,G,Bの3色の画素値)をもったカラー画像である場合は、原画像P(i)を構成する各画素の画素値p(i)や、平均画像A(i)を構成する各画素の画素値a(i)は、いずれも色ごとに独立した3つの値から構成されていることになる。そして、式(1)の演算は、個々の色ごとにそれぞれ独立して実行されることになる。たとえば、平均画像A(i)上の特定位置の画素の画素値a(i)は、R色の画素値、G色の画素値、B色の画素値という3組の画素値によって構成され、R色の画素値は、過去の原画像のR色の画素値の重みつき平均として得られた値になる。   If the original image is a color image having pixel values of three primary colors (for example, in the case of the RGB color system, pixel values of three colors R, G, and B), the original image P (i) is formed. The pixel value p (i) of each pixel to be processed and the pixel value a (i) of each pixel constituting the average image A (i) are each composed of three independent values for each color. . Then, the calculation of Expression (1) is executed independently for each color. For example, the pixel value a (i) of a pixel at a specific position on the average image A (i) is composed of three sets of pixel values, an R color pixel value, a G color pixel value, and a B color pixel value. The R pixel value is a value obtained as a weighted average of the R pixel values of the past original image.

したがって、図5における画素値p(i)と画素値a(i−1)との比較は、単なる2つの値の比較ではなく、3組の画素値と3組の画素値との比較ということになる。当然ながら、画素の類否判定は、この3組の画素値の組み合わせからなる色同士が類似するか否かを判定する処理ということになる。このような2つの色の類否判定は、たとえば、色空間上でのユークリッド距離の大小に基づいて行うことができる。すなわち、画素値R,G,Bをそれぞれ座標軸にとった色空間上に、比較対象となる2つの色を点としてプロットし、2つの点のユークリッド距離が所定の基準値以下である場合には類似、基準値を越える場合には非類似とすればよい。   Therefore, the comparison between the pixel value p (i) and the pixel value a (i−1) in FIG. 5 is not a simple comparison between two values, but a comparison between three sets of pixel values and three sets of pixel values. become. Naturally, the pixel similarity determination is a process for determining whether or not colors composed of combinations of these three pixel values are similar. Such similarity determination of two colors can be performed based on the magnitude of the Euclidean distance in the color space, for example. That is, when the pixel values R, G, and B are plotted on the coordinate space with the two colors to be compared as points, and the Euclidean distance between the two points is equal to or less than a predetermined reference value, If it is similar or exceeds the reference value, it may be dissimilar.

<<< §2.ブロッブ包摂図形を用いた動体追跡の手法 >>>
さて、§1では、一般的な動体検出の基本原理を述べた。ここでは、こうして検出された動体を追跡する手法を説明する。動体の追跡とは、個々のフレーム単位で検出された動体を時系列的に追ってゆくことである。たとえば、図1に示す例の場合、動体識別画像M20,M30,M40を個々に見ると、それぞれ前景領域F20,F30,F40を動体として認識することができるが、動体追跡とは、これら前景領域F20,F30,F40を、同一の動体の時系列情報として把握することである。一般に、動体に対応する個々の前景領域F20,F30,F40を構成するひとまとまりの画素集団は、ブロッブ(blob)と呼ばれており、動体追跡とは、同一の動体を示すブロッブを時系列に並べて把握することである。
<<< §2. Moving object tracking method using blob inclusion figure >>
In §1, the basic principle of general moving object detection is described. Here, a method for tracking the moving object detected in this way will be described. Tracking of a moving object is to follow a moving object detected in units of individual frames in time series. For example, in the example shown in FIG. 1, when the moving object identification images M20, M30, and M40 are individually viewed, the foreground areas F20, F30, and F40 can be recognized as moving objects, respectively. F20, F30, and F40 are grasped as time series information of the same moving object. In general, a group of pixels constituting each foreground region F20, F30, F40 corresponding to a moving object is called a blob, and moving object tracking is a time series of blobs indicating the same moving object. It is to grasp side by side.

ある1フレームの原画像に含まれるブロッブは、その輪郭線によって規定することができる。たとえば、図1の動体識別画像M30に含まれている前景領域F30は、原画像P30内の動体(車両)の領域を示すブロッブであり、このブロッブの輪郭線の情報さえあれば、原画像P30から動体(車両)の部分のみを切出すことが可能である。したがって、動体追跡の結果は、ブロッブの輪郭線の情報を時系列で並べることによって示すことができる。   A blob included in an original image of a certain frame can be defined by its outline. For example, the foreground area F30 included in the moving object identification image M30 in FIG. 1 is a blob indicating the area of the moving object (vehicle) in the original image P30, and if there is information on the outline of this blob, the original image P30 It is possible to cut out only the moving body (vehicle) part from Accordingly, the result of moving object tracking can be shown by arranging information on the outline of the blob in time series.

ただ、実際には、ブロッブの輪郭線は非常に複雑な図形であり、このような輪郭線の情報を個々のフレーム単位で保存するには、かなり大きな記憶容量が必要になる。また、一般的な用途では、そのような複雑な輪郭線の情報が必要になることは少ない。そこで、実用上は、このブロッブの外接図形によって、動体の位置、形状、大きさを代表させる手法が採られる。本願では、このような外接図形を「ブロッブ包摂図形」と呼ぶことにする。外接図形としては、どのような図形を採用してもよいが、通常、四角形が利用される。したがって、以下に述べる基本的な実施形態においても、ブロッブの外接矩形を「ブロッブ包摂図形」と定義し、このブロッブ包摂図形によって、動体の位置、形状、大きさを代表させるものとする。   However, in reality, the outline of the blob is a very complicated figure, and a considerable amount of storage capacity is required to store such outline information in units of individual frames. In general applications, such complicated contour information is rarely required. Therefore, in practice, a method of representing the position, shape, and size of the moving object by the circumscribed figure of the blob is adopted. In the present application, such circumscribed figure is referred to as “blob inclusion figure”. As the circumscribed figure, any figure may be adopted, but usually a quadrangle is used. Therefore, also in the basic embodiment described below, a circumscribed rectangle of a blob is defined as a “blob inclusion graphic”, and the position, shape, and size of a moving object are represented by this blob inclusion graphic.

図6(a) および(b) は、図1に示す動体識別画像M30およびM40に基づいて、それぞれブロッブ包摂図形B30およびB40(太線で示す矩形)を抽出した例を示す平面図である。図6(a) に示すブロッブ包摂図形B30は、動体識別画像M30に含まれる前景領域F30(ブロッブ)の外接矩形であり、図6(b) に示すブロッブ包摂図形B40は、動体識別画像M40に含まれる前景領域F40(ブロッブ)の外接矩形である。このような外接矩形からなるブロッブ包摂図形B30,B40は、単純な幾何学図形であるため、極めて小さな情報量で表現することができ、しかも、動体の位置、形状、大きさを大まかに示すことができる。もちろん、ブロッブの輪郭線の情報に比べれば、ブロッブ包摂図形の情報は精度が低く、特に形状に関しては、大まかな縦横比しか示すことはできない。しかしながら、実用上は、このような大まかな情報をもったブロッブ包摂図形により動体追跡が行われれば十分である。   6 (a) and 6 (b) are plan views showing examples in which blob inclusion figures B30 and B40 (rectangles indicated by bold lines) are extracted based on the moving body identification images M30 and M40 shown in FIG. A blob inclusion figure B30 shown in FIG. 6 (a) is a circumscribed rectangle of the foreground area F30 (blob) included in the moving object identification image M30, and a blob inclusion figure B40 shown in FIG. 6 (b) is added to the moving object identification image M40. It is a circumscribed rectangle of the foreground area F40 (blob) included. The blob inclusion figures B30 and B40 made of such circumscribed rectangles are simple geometric figures, and can be expressed with extremely small amounts of information, and roughly indicate the position, shape, and size of the moving object. Can do. Of course, the information of the blob inclusion figure is less accurate than the information of the outline of the blob, and only a rough aspect ratio can be shown, especially regarding the shape. However, in practice, it is sufficient if the moving object is tracked by the blob inclusion figure having such rough information.

たとえば、図6(a) から(b) へのブロッブ包摂図形の変遷を見ると、横長の矩形のブロッブ包摂図形が画面の下方を右から左へと移動していることが認識できる。これを図1の原画像P30からP40への変遷と照らし合わせれば、車両を動体として追跡することが可能である。図7(a) ,(b) は、図6(a) ,(b) に示すブロッブ包摂図形B30,B40を利用して、原画像P30,P40から、それぞれ部分画像f30,f40を切出した状態を示す平面図である。図の下段に示す図は、切出した部分画像f30,f40をディスプレイの画面一杯に拡大表示した状態を示している。   For example, looking at the transition of the blob inclusion figure from FIG. 6 (a) to FIG. 6 (b), it can be recognized that the horizontally long blob inclusion figure is moving from the right to the left in the lower part of the screen. If this is compared with the transition from the original image P30 to P40 in FIG. 1, it is possible to track the vehicle as a moving object. 7A and 7B show a state in which partial images f30 and f40 are cut out from the original images P30 and P40 using the blob inclusion figures B30 and B40 shown in FIGS. 6A and 6B, respectively. FIG. The figure shown in the lower part of the figure shows a state in which the cut out partial images f30 and f40 are enlarged and displayed on the full screen of the display.

ディスプレイ画面の縦横比(アスペクト比)は、通常、固定されているのに対して、ブロッブ包摂図形を構成する矩形の縦横比は動体の形状に応じて任意になるので、ブロッブ包摂図形B30,B40を構成する矩形と部分画像f30,f40の外枠とは正確には一致しないが、ブロッブ包摂図形B30,B40をほぼ画面一杯に表示するような切出しを行うことにより、常に動体(車両)をズームアップした状態で追跡するような動画提示を行うことができるようになる。したがって、監視システムなどで、検出した動体をズームアップした状態で追跡して表示させるような用途の場合、動体の外接矩形からなるブロッブ包摂図形を時系列に並べた情報が得られれば、当該情報は、動体追跡の結果を示す情報として十分に利用価値がある。   The aspect ratio (aspect ratio) of the display screen is normally fixed, whereas the aspect ratio of the rectangle constituting the blob inclusion figure is arbitrary depending on the shape of the moving object, so that the blob inclusion figures B30 and B40 However, the moving object (vehicle) is always zoomed by cutting out so as to display the blob inclusion figures B30 and B40 almost completely on the screen. It will be possible to present videos that are tracked in the up state. Therefore, in the case of an application where a detected moving object is tracked and displayed in a zoomed-up state in a monitoring system or the like, if information that arranges blob inclusion figures consisting of circumscribed rectangles of the moving object in time series is obtained, the information Is sufficiently useful as information indicating the results of moving object tracking.

ここで述べる基本的な実施形態に係る動体追跡装置の目的は、このようなブロッブ包摂図形を時間軸上に並べた情報(後述するように、当該情報をトラッカーと呼ぶ)を得ることにある。ただ、図1に示す例は、単一の動体(車両)が画面を横切る単純な動画画像の例であるが、実際には、同じ画面上に複数の動体が同時に存在することも少なくない。このように1フレームの原画像上に複数の動体が存在する場合、ブロッブ包摂図形も複数抽出されることになるので、同一の動体に基づいて抽出されたブロッブ包摂図形を一連の連続ブロッブ包摂図形として時間軸上に並べる必要がある。   The object of the moving body tracking apparatus according to the basic embodiment described here is to obtain information (such information is referred to as a tracker as will be described later) in which such blob inclusion figures are arranged on the time axis. However, the example shown in FIG. 1 is an example of a simple moving image in which a single moving object (vehicle) crosses the screen, but actually, there are often a plurality of moving objects simultaneously on the same screen. In this way, when a plurality of moving objects are present on one frame of the original image, a plurality of blob inclusion figures are also extracted, so that the blob inclusion figures extracted based on the same moving object are converted into a series of continuous blob inclusion figures. Need to be arranged on the time axis.

図8は、複数の動体が存在する原画像P10を示す平面図である。この例は、あまり現実的な景色ではないが、説明の便宜上、動体O1(馬)、動体O2(人)、動体O3(車)、動体O4(鳥)という4種類の動体が同時に存在する例になっている。ここで、馬O1と人O2は画面の左から右へ移動しており、車O3と鳥O4は画面の右から左へ移動しているものとする。なお、実際には、これら4種類の動体O1〜O4の奥には、背景画像(街の景色)が写っているが、図が繁雑になるため、以下に示す各原画像では、背景画像の描画は省略する。   FIG. 8 is a plan view showing an original image P10 in which a plurality of moving objects are present. This example is not a very realistic scenery, but for convenience of explanation, there are four types of moving objects, namely, a moving object O1 (horse), a moving object O2 (person), a moving object O3 (car), and a moving object O4 (bird) at the same time. It has become. Here, it is assumed that the horse O1 and the person O2 are moving from the left to the right of the screen, and the car O3 and the bird O4 are moving from the right to the left of the screen. Actually, a background image (city view) is shown in the back of these four types of moving objects O1 to O4. However, since the figure becomes complicated, each original image shown below has a background image. Drawing is omitted.

図9は、図8に示す原画像P10から作成された動体識別画像M10を示す平面図である。この動体識別画像M10は、§1で述べたとおり、原画像P10と背景画像との差分画像として作成される二値画像であり、背景領域K10と前景領域F10a,F10b,F10c,F10dによって構成される。   FIG. 9 is a plan view showing a moving object identification image M10 created from the original image P10 shown in FIG. As described in §1, the moving body identification image M10 is a binary image created as a difference image between the original image P10 and the background image, and includes the background region K10 and the foreground regions F10a, F10b, F10c, and F10d. The

ここでは、時間軸上に時刻t1,t2,t3,...,を定義し、これらの各時刻に得られた原画像をそれぞれ原画像P1,P2,P3,...,と呼ぶことにしよう。図8に示す原画像P10は、時刻t10において得られた原画像ということになる。図10は、時間軸上の時刻t10,t20,t40における原画像P10,P20,P40を示す平面図である。すなわち、図10(a) に示す原画像P10は、時刻t10において得られた原画像であり、上述したとおり、馬O1と人O2が右へ移動し、車O3と鳥O4が左へ移動している。また、図10(b) に示す原画像P20は、時刻t20において得られた原画像であり、各動体が進行方向に向かって更に移動を続けた状態になっている。そして、図10(c) に示す原画像P40は、時刻t40において得られた原画像であり、馬O1,人O2,車O3はそれぞれ進行方向に向かって移動を続け、鳥O4は既に画面左方向へ飛び去り、新たな動体として犬O5が出現した状態になっている。   Here, times t1, t2, t3,... Are defined on the time axis, and the original images obtained at these times are referred to as original images P1, P2, P3,. Try. The original image P10 shown in FIG. 8 is an original image obtained at time t10. FIG. 10 is a plan view showing original images P10, P20, P40 at times t10, t20, t40 on the time axis. That is, the original image P10 shown in FIG. 10A is an original image obtained at time t10. As described above, the horse O1 and the person O2 move to the right, and the car O3 and the bird O4 move to the left. ing. An original image P20 shown in FIG. 10B is an original image obtained at time t20, and each moving object continues to move in the traveling direction. The original image P40 shown in FIG. 10 (c) is the original image obtained at time t40, and the horse O1, the person O2, and the car O3 continue to move in the traveling direction, and the bird O4 has already left the screen. The dog O5 has appeared as a new moving object.

図11(a) 〜(c) は、図10(a) 〜(c) に示す原画像P10,P20,P40から作成された動体識別画像M10,M20,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。ここで、K10,K20,K40は、各動体識別画像M10,M20,M40内の背景領域である。また、文字Fが先頭に付された符号で示すハッチング領域は前景領域であり、文字Fに後続する2桁の数字は時刻を示し、末尾の小文字のアルファベットは動体を区別するための記号である。一方、文字Bが先頭に付された符号で示す太線の矩形は、文字Bを文字Fに置き換えた前景領域(ブロッブ)の外接矩形として抽出されたブロッブ包摂図形である。   11A to 11C show moving object identification images M10, M20, and M40 created from the original images P10, P20, and P40 shown in FIGS. 10A to 10C and blob inclusion figures extracted from these images. FIG. Here, K10, K20, and K40 are background areas in the moving object identification images M10, M20, and M40. A hatching area indicated by a code prefixed with the letter F is a foreground area, a two-digit number following the letter F indicates a time, and a lower-case alphabet at the end is a symbol for distinguishing moving objects. . On the other hand, a bold rectangle indicated by a symbol prefixed with the letter B is a blob inclusion figure extracted as a circumscribed rectangle of the foreground area (blob) in which the letter B is replaced with the letter F.

たとえば、図11(a) の動体識別画像M10の左下に示されているハッチング領域F10aは、図10(a) に示す原画像P10上の動体O1(馬)に対応する前景領域(ブロッブ)であり、太線の矩形で示されたブロッブ包摂図形B10aは、この前景領域F10aの外接矩形として抽出されたブロッブ包摂図形である。結局、図11(a) に示す動体識別画像M10上では、合計4つのブロッブ包摂図形B10a〜B10dが抽出され、図11(b) に示す動体識別画像M20上では、合計4つのブロッブ包摂図形B20a〜B20dが抽出され、図11(c) に示す動体識別画像M40上では、合計4つのブロッブ包摂図形B40a〜B40c,B40eが抽出されることになる。   For example, the hatching area F10a shown in the lower left of the moving object identification image M10 in FIG. 11A is a foreground area (blob) corresponding to the moving object O1 (horse) on the original image P10 shown in FIG. A blob inclusion figure B10a indicated by a bold rectangle is a blob inclusion figure extracted as a circumscribed rectangle of the foreground area F10a. Eventually, a total of four blob inclusion figures B10a to B10d are extracted on the moving object identification image M10 shown in FIG. 11 (a), and a total of four blob inclusion figures B20a are extracted on the moving object identification image M20 shown in FIG. 11 (b). -B20d are extracted, and a total of four blob inclusion figures B40a-B40c, B40e are extracted on the moving object identification image M40 shown in FIG. 11 (c).

このように、同一画面上に複数の動体が存在し、複数のブロッブ包摂図形が抽出される場合、同一の動体に基づいて抽出されたブロッブ包摂図形を一連の連続するブロッブ包摂図形として時系列で並べることが重要である。このような一連の連続するブロッブ包摂図形の並びは、一般に、トラッカー(Tracker)と呼ばれている。図12は、図11に示す動体識別画像M10,M20,M40に基づいて作成されたトラッカーの一例を示す図である。この図は、横方向に時間軸をとり、縦方向に6個のトラッカーを並べた表によって構成されている。表の1行目には対応する時刻t1〜t40が示されており、表の2行目には各時刻に得られた原画像P1〜P40が示されている。一方、左端の列に記載されたT1〜T6は、個々のトラッカーの名称であり、各トラッカーの実体は、表の横方向に記載されたブロッブ包摂図形の並びの情報である。   In this way, when a plurality of moving objects exist on the same screen and a plurality of blob inclusion figures are extracted, the blob inclusion figures extracted based on the same moving object are time-series as a series of continuous blob inclusion figures. It is important to line up. Such a series of continuous blob inclusion figures is generally called a tracker. FIG. 12 is a diagram illustrating an example of a tracker created based on the moving object identification images M10, M20, and M40 illustrated in FIG. This figure is composed of a table with a time axis in the horizontal direction and six trackers arranged in the vertical direction. Corresponding times t1 to t40 are shown in the first row of the table, and original images P1 to P40 obtained at each time are shown in the second row of the table. On the other hand, T1 to T6 described in the leftmost column are names of individual trackers, and the substance of each tracker is information on the arrangement of the blob inclusion figures described in the horizontal direction of the table.

たとえば、第1番目のトラッカーT1の実体は、...,B10a,...,B20a,...,B40aといったブロッブ包摂図形の並びを示す情報である。ここで、ブロッブ包摂図形B10aは、図11(a) に示すように、時刻t10における馬の輪郭に対する外接矩形であり、ブロッブ包摂図形B20aは、図11(b) に示すように、時刻t20における馬の輪郭に対する外接矩形であり、ブロッブ包摂図形B40aは、図11(c) に示すように、時刻t40における馬の輪郭に対する外接矩形である。結局、トラッカーT1は、馬を示すブロッブ包摂図形を時系列的に並べたものになる。同様に、トラッカーT2は人、T3は車,T4は鳥、T5は犬を示すブロッブ包摂図形を、それぞれ時系列的に並べたものになる。   For example, the entity of the first tracker T1 is information indicating the arrangement of blob inclusion figures such as..., B10a,..., B20a,. Here, the blob inclusion figure B10a is a circumscribed rectangle with respect to the horse outline at time t10, as shown in FIG. 11 (a), and the blob inclusion figure B20a is at time t20, as shown in FIG. 11 (b). A circumscribed rectangle for the horse outline, and the blob inclusion figure B40a is a circumscribed rectangle for the horse outline at time t40, as shown in FIG. 11 (c). Eventually, the tracker T1 is a time series of blob inclusion figures representing horses. Similarly, the tracker T2 is a person, T3 is a car, T4 is a bird, and T5 is a blob inclusion figure showing a dog, arranged in time series.

なお、図12に示す表では、図示の便宜上、時刻t10,t20,t40以外の時刻についてのブロッブ包摂図形は掲載が省略されているが、もちろん、各フレームの原画像について、それぞれブロッブ包摂図形が抽出され、所定のトラッカー上に並べられることになる。たとえば、1秒間に30フレームの撮影画像からなる動画の場合、1/30秒ごとの各時刻に得られた各原画像のそれぞれについて、ブロッブ包摂図形が抽出され、トラッカー上に並べられる。   In the table shown in FIG. 12, for convenience of illustration, blob inclusion figures for times other than times t10, t20, and t40 are omitted, but of course, the blob inclusion figure for each original image of each frame is shown. It is extracted and arranged on a predetermined tracker. For example, in the case of a moving image composed of 30 frames of captured images per second, a blob inclusion figure is extracted for each original image obtained at each time every 1/30 seconds and arranged on the tracker.

この図12に例示するようなトラッカーの情報は、動体追跡の結果を示す情報に他ならない。たとえば、トラッカーT1は、馬を追跡した結果であり、表の左側から右側へと、各ブロッブ包摂図形...,B10a,...,B20a,...,B40aを追ってゆけば、動画上で馬を追跡することができる。具体的には、原画像P10,...,P20,...,P40,...から、各ブロッブ包摂図形B10a,...,B20a,...,B40a...を構成する矩形内部を切出して拡大表示すれば、馬をズームアップした状態で追跡することができる。   The tracker information as exemplified in FIG. 12 is nothing but the information indicating the result of moving body tracking. For example, the tracker T1 is the result of tracking a horse. From the left side of the table to the right side, following each blob inclusion figure ..., B10a, ..., B20a, ..., B40a, Can track the horse. More specifically, the rectangles constituting the blob inclusion figures B10a, ..., B20a, ..., B40a ... from the original images P10, ..., P20, ..., P40, ... If the inside is cut out and enlarged, the horse can be tracked in a zoomed up state.

ここに示す実施形態の場合、1つのブロッブ包摂図形は動体の輪郭線の外接矩形を示すものであり、ブロッブ包摂図形を示すデータの実体は、当該外接矩形の対角に位置する2頂点の座標値によって構成される。図13は、ブロッブ包摂図形Bの実体データを示す平面図である。図示の例は動体O3(車)に対応する前景領域F(ブロッブ)の外接矩形としてブロッブ包摂図形Bが抽出された例であり、このブロッブ包摂図形Bは、原画像P上に定義されたXY座標系を用いて、左上の頂点Q1(x1,y1)の座標値(x1,y1)と、右下の頂点Q2(x2,y2)の座標値(x2,y2)とによって定義することができる(もちろん、左下の頂点と右上の頂点とによって定義してもよい)。したがって、図12に示すトラッカーの各欄には、実際には、「x1,y1,x2,y2」のような座標値を示すデータが収容されていることになる。   In the case of the embodiment shown here, one blob inclusion figure indicates a circumscribed rectangle of the contour of the moving object, and the substance of the data indicating the blob inclusion figure is the coordinates of two vertices located at the diagonal of the circumscribed rectangle Consists of values. FIG. 13 is a plan view showing entity data of the blob inclusion figure B. FIG. The illustrated example is an example in which the blob inclusion figure B is extracted as a circumscribed rectangle of the foreground area F (blob) corresponding to the moving object O3 (car). The blob inclusion figure B is an XY defined on the original image P. Using the coordinate system, the coordinate value (x1, y1) of the upper left vertex Q1 (x1, y1) and the coordinate value (x2, y2) of the lower right vertex Q2 (x2, y2) can be defined. (Of course, it may be defined by the lower left vertex and the upper right vertex). Therefore, each column of the tracker shown in FIG. 12 actually contains data indicating coordinate values such as “x1, y1, x2, y2”.

図10に例示する動画の場合、馬O1,人O2,車O3は原画像P10からP40を経ても画面上に留まっているが、鳥O4は原画像P40に至る前に画面外へ去っており、犬は原画像P40において出現している。そのため、図12に示す動体追跡の結果では、トラッカーT1(馬),トラッカーT2(人),トラッカーT3(車)上には、時刻t10からt40を経てもなお、連続したブロッブ包摂図形の並びが存在しているが、トラッカーT4(鳥)上では、時刻t40の直前で連続したブロッブ包摂図形の並びが消滅しており、トラッカーT5(犬)上では、時刻t40から連続したブロッブ包摂図形の並びが始まっている。図の各トラッカー欄に示す太線の細長い楕円は、このような時系列に沿った一連の連続したブロッブ包摂図形の並びを示している。また、×印の欄は、当該時刻にはブロッブ包摂図形が登録されていないことを示している。別言すれば、×印の欄の存在により、一連の連続したブロッブ包摂図形の並び(すなわち、ある1つの動体についての追跡)が終焉することになる。   In the case of the moving image illustrated in FIG. 10, the horse O1, the person O2, and the car O3 remain on the screen through the original images P10 to P40, but the bird O4 has left the screen before reaching the original image P40. The dog appears in the original image P40. Therefore, in the result of the moving body tracking shown in FIG. 12, a continuous blob inclusion figure array is present on the tracker T1 (horse), the tracker T2 (person), and the tracker T3 (car) even after the time t10 to t40. Although it exists, on the tracker T4 (bird), the continuous blob inclusion graphic sequence disappears immediately before time t40, and on the tracker T5 (dog), the continuous blob inclusion graphic sequence from time t40. Has begun. The thick and narrow ellipses shown in each tracker column in the figure indicate a series of continuous blob inclusion figures arranged along such a time series. Further, the column marked with X indicates that no blob inclusion figure is registered at the time. In other words, the presence of the column marked with “X” ends a series of continuous blob inclusion figure arrangements (that is, tracking of a certain moving object).

図11に示す各ブロッブ包摂図形を、図12に示すトラッカー上に登録する際には、同一の動体に基づいて抽出されたと推定されるブロッブ包摂図形が同一のトラッカー上に登録されるようにする必要がある。たとえば、図11(a) に示すブロッブ包摂図形B10a(馬)が、図12に示すようにトラッカーT1の時刻t10欄に登録された場合、図11(b) に示すブロッブ包摂図形B20a(馬)も、図12に示すように同じトラッカーT1の時刻t20欄に登録されるようにし、図11(c) に示すブロッブ包摂図形B40a(馬)も、図12に示すように同じトラッカーT1の時刻t40欄に登録されるようにしなければならない。   When each blob inclusion figure shown in FIG. 11 is registered on the tracker shown in FIG. 12, the blob inclusion figure estimated to be extracted based on the same moving object is registered on the same tracker. There is a need. For example, when the blob inclusion figure B10a (horse) shown in FIG. 11 (a) is registered in the time t10 column of the tracker T1 as shown in FIG. 12, the blob inclusion figure B20a (horse) shown in FIG. 11 (b). 12 is registered in the time t20 column of the same tracker T1 as shown in FIG. 12, and the blob inclusion figure B40a (horse) shown in FIG. 11 (c) is also time t40 of the same tracker T1 as shown in FIG. Must be registered in the field.

ここで、人間が目視すれば、ブロッブ包摂図形B10a,B20a,B40a内の各原画像には、馬という同一の動体が含まれていることが認識できるが、コンピュータにそのような認識をさせるためには、複雑なアルゴリズムによる動体の特徴解析を行う必要がある。そこで、通常は、ブロッブ包摂図形の位置、面積、形状といった情報を手掛かりに、同一の動体が含まれているブロッブ包摂図形を推定する手法を採り、同一の動体に基づいて抽出されたと推定されるブロッブ包摂図形を同一のトラッカー上に登録する処理を行う。   Here, if a human visually observes, it can be recognized that each original image in the blob inclusion figure B10a, B20a, B40a contains the same moving object called a horse. It is necessary to analyze the characteristics of moving objects using complex algorithms. Therefore, it is usually estimated that a blob inclusion figure containing the same moving object is estimated based on information such as the position, area, and shape of the blob inclusion figure and extracted based on the same moving object. Process to register blob inclusion figure on the same tracker.

たとえば、原画像P10に基づいて、図12に示すように、トラッカーT1,T2,T3,T4にそれぞれブロッブ包摂図形B10a,B10b,B10c,B10dが登録された状態において、これらのブロッブ包摂図形に後続して、原画像P20に基づいて、ブロッブ包摂図形B20a,B20b,B20c,B20dをいずれかのトラッカーに登録する処理を例にとって考えてみる(実際には、その間に、原画像P11〜P19に基づくブロッブ包摂図形が登録される)。この場合、図11(a) に示すブロッブ包摂図形B10aに後続してトラッカーT1に登録するのに最も適したブロッブ包摂図形として、図11(b) に示す4つの候補ブロッブ包摂図形の中から、位置、面積、形状が最も類似しているブロッブ包摂図形B20aが選択されることになる。かくして、図12に示すように、トラッカーT1の時刻t20欄には、ブロッブ包摂図形B20aが登録される。   For example, based on the original image P10, as shown in FIG. 12, in the state where the blob inclusion figures B10a, B10b, B10c, and B10d are registered in the trackers T1, T2, T3, and T4, respectively, these blob inclusion figures are followed. Then, based on the original image P20, consider the process of registering the blob inclusion figures B20a, B20b, B20c, and B20d in any of the trackers (in practice, based on the original images P11 to P19 in the meantime). Blob inclusion figure is registered). In this case, among the four candidate blob inclusion figures shown in FIG. 11 (b), the most suitable blob inclusion figure to be registered in the tracker T1 following the blob inclusion figure B10a shown in FIG. The blob inclusion figure B20a having the most similar position, area, and shape is selected. Thus, as shown in FIG. 12, the blob inclusion figure B20a is registered in the time t20 column of the tracker T1.

要するに、ブロッブ包摂図形の実体が単純な矩形図形であったとしても、位置、面積、形状が類似するブロッブ包摂図形を時系列的に追跡してゆき、これを同一トラッカー上に登録してゆくという簡便な手法を採ることにより、図12に示すように、正しい動体追跡の結果が得られるのである。このような手法では、馬,人,車,鳥といった個別の動体の特徴を解析する複雑な処理を行う必要はない。   In short, even if the entity of the blob inclusion figure is a simple rectangular figure, the blob inclusion figure with similar position, area, and shape will be tracked in time series, and this will be registered on the same tracker. By adopting a simple method, a correct moving object tracking result can be obtained as shown in FIG. In such a method, it is not necessary to perform complicated processing for analyzing the characteristics of individual moving objects such as horses, people, cars, and birds.

<<< §3.複数の動体が交差した場合の問題点 >>>
上述したとおり、ブロッブ包摂図形(ここに示す実施形態では外接矩形)を時系列的に追跡してゆく手法を採れば、個別の動体の特徴を解析する複雑な処理を行うことなしに動体追跡が可能になる。実際、2つの矩形の位置、面積、形状の類似度を定量的に評価する処理は比較的単純な算術演算処理によって行うことができるので、ブロッブ包摂図形を時系列的に追跡してゆく処理の演算負担は小さい。これがブロッブ包摂図形を用いた動体追跡の手法の利点である。
<<< §3. Problems when multiple moving objects intersect >>>
As described above, if the technique of tracking the blob inclusion figure (the circumscribed rectangle in the embodiment shown here) in time series is used, the moving object tracking can be performed without performing complicated processing for analyzing the characteristics of the individual moving objects. It becomes possible. In fact, the process of quantitatively evaluating the similarity of the position, area, and shape of two rectangles can be performed by a relatively simple arithmetic operation process, so the process of tracking the blob inclusion figure in time series The computational burden is small. This is an advantage of the moving object tracking method using the blob inclusion figure.

しかしながら、同一画面内に存在する複数の動体は、それぞれが任意の方向に移動しているため、移動経路が画面上で交差する場合がある。図10(a) ,(b) ,(c) に示す3つの原画像P10,P20,P40は、説明の便宜上、複数の動体が交差した状態を避けたものであり、いずれの動体も画面上で重なり合っていないが、実際には、これらの中間時点において、複数の動体が画面上で重なり合う状態が生じる。   However, since a plurality of moving objects existing in the same screen are moving in arbitrary directions, there are cases where the movement paths intersect on the screen. For convenience of explanation, the three original images P10, P20, and P40 shown in FIGS. 10A, 10B, and 10C are obtained by avoiding a state in which a plurality of moving objects intersect with each other. However, in reality, a state occurs in which a plurality of moving objects overlap on the screen at these intermediate points in time.

図14(a) ,(b) ,(c) は、時系列上の時刻t20,t30,t40における原画像P20,P30,P40を示す平面図である。ここで、原画像P20およびP40は、図10に示す原画像P20およびP40と全く同じものであるが、原画像P30は、その中間時点の状態を示すものである。この原画像P30では、馬O1,人O2,車O3が部分的に重なり合っており、鳥O4だけが重なりを免れている。   FIGS. 14A, 14B, and 14C are plan views showing original images P20, P30, and P40 at times t20, t30, and t40 in time series. Here, the original images P20 and P40 are exactly the same as the original images P20 and P40 shown in FIG. 10, but the original image P30 shows the state at the intermediate point. In the original image P30, the horse O1, the person O2, and the car O3 partially overlap, and only the bird O4 is spared.

§2で述べた手法では、このように複数の動体の移動経路の交差により、動体同士に重なり合いが生じると、正確な追跡を行うことができない。これは、図14(b) に原画像P30として示すように、交差時点で複数の物体が、ひとかたまりの物体に融合し、その後、元通りの複数の物体に分離することになるためである。もちろん、人間が原画像P30を観察すれば、依然として、馬O1,人O2,車O3という動体を個別の動体として把握することが可能であるが、§2で述べたブロッブ包摂図形を用いた動体追跡の手法を採ると、馬O1,人O2,車O3が融合した状態でブロッブ包摂図形を構成することになるため、個々の動体を個別に認識することができなくなるのである。   In the method described in §2, if the moving bodies overlap with each other due to the intersection of the moving paths of the plurality of moving bodies, accurate tracking cannot be performed. This is because, as shown as an original image P30 in FIG. 14 (b), a plurality of objects are merged into a group of objects at the time of intersection, and then separated into a plurality of original objects. Of course, if a human observes the original image P30, it is still possible to grasp the moving objects of the horse O1, the person O2, and the car O3 as individual moving objects, but the moving object using the blob inclusion figure described in §2 If the tracking method is adopted, the blob inclusion figure is formed in a state where the horse O1, the person O2, and the vehicle O3 are fused, so that individual moving objects cannot be recognized individually.

図15(a) ,(b) ,(c) は、図14(a) ,(b) ,(c) に示す原画像P20,P30,P40から作成された動体識別画像M20,M30,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。ここで、動体識別画像M20およびM40は、図11に示す動体識別画像M20およびM40と全く同じものである。これに対して、動体識別画像M30は、その中間時点の状態を示すものであり、図14(b) に示す原画像P30に基づいて作成されたものである。図示のとおり、動体識別画像M30からは、2つのブロッブ包摂図形B30d,B30gが抽出されるだけである。ここで、ブロッブ包摂図形B30dは、鳥O4の輪郭を包摂するものであるが、ブロッブ包摂図形B30gは、馬O1,人O2,車O3の融合体の輪郭を包摂するものになっている。   FIGS. 15 (a), (b) and (c) show moving object identification images M20, M30 and M40 created from the original images P20, P30 and P40 shown in FIGS. 14 (a), (b) and (c). It is a top view which shows the blob inclusion figure extracted from these. Here, the moving body identification images M20 and M40 are exactly the same as the moving body identification images M20 and M40 shown in FIG. On the other hand, the moving object identification image M30 shows the state at the intermediate point, and is created based on the original image P30 shown in FIG. As shown in the drawing, only two blob inclusion figures B30d and B30g are extracted from the moving object identification image M30. Here, the blob inclusion figure B30d includes the outline of the bird O4, while the blob inclusion figure B30g includes the outline of the fusion of the horse O1, the person O2, and the car O3.

§2で述べた動体追跡の手法では、ブロッブ包摂図形B30gが、馬O1,人O2,車O3の融合体の輪郭を包摂するものと認識することはできないので、トラッカーに登録するプロセスにおいて、誤認識が生じることになり、正しい動体追跡を行うことができなくなる。どのような誤認識が生じるかは、ブロッブ包摂図形の位置、面積、形状といった情報を手掛かりに、同一の動体が含まれているブロッブ包摂図形を推定するために採用した具体的な方法によって様々である。   In the moving body tracking method described in §2, the blob inclusion figure B30g cannot be recognized as including the outline of the fusion of horse O1, person O2, and car O3. Recognition will occur, and correct moving body tracking cannot be performed. What kind of misrecognition occurs depends on the specific method used to estimate the blob inclusion figure that contains the same moving object, based on information such as the position, area, and shape of the blob inclusion figure. is there.

図16は、図15に示す動体識別画像M20,M30,M40に基づいて作成されたトラッカーの一例を示す図である。この例は、ブロッブ包摂図形B30g(人車馬)を車と誤認識した例である。すなわち、図15(b) に示すブロッブ包摂図形B30g(人車馬)が、図15(a) に示すブロッブ包摂図形B20c(車)の後続ブロッブ包摂図形として適している(すなわち、位置、面積、形状が類似している)と判断し、ブロッブ包摂図形B30g(人車馬)をトラッカーT3の時刻t30欄に登録している。一方、図15(b) に示すブロッブ包摂図形B30d(鳥)については、図15(a) に示すブロッブ包摂図形B20d(鳥)の後続ブロッブ包摂図形として適していると判断し(この判断は正しい)、ブロッブ包摂図形B30d(鳥)をトラッカーT4の時刻t30欄に登録している。動体識別画像M30には、その他のブロッブ包摂図形はないので、トラッカーT1,T2,T5,T6の時刻t30欄に登録するブロッブ包摂図形は存在せず、これらの欄は無登録状態(×印)となっている。   FIG. 16 is a diagram illustrating an example of a tracker created based on the moving object identification images M20, M30, and M40 illustrated in FIG. In this example, the blob inclusion figure B30g (human horse) is misrecognized as a car. That is, the blob inclusion figure B30g (human horse) shown in FIG. 15 (b) is suitable as the subsequent blob inclusion figure of the blob inclusion figure B20c (vehicle) shown in FIG. 15 (a) (ie, position, area, The shape is similar) and the blob inclusion figure B30g (carriage horse) is registered in the time t30 column of the tracker T3. On the other hand, the blob inclusion figure B30d (bird) shown in FIG. 15 (b) is determined to be suitable as the subsequent blob inclusion figure of the blob inclusion figure B20d (bird) shown in FIG. 15 (a) (this determination is correct). ), The blob inclusion figure B30d (bird) is registered in the time t30 column of the tracker T4. Since there is no other blob inclusion figure in the moving body identification image M30, there is no blob inclusion figure registered in the time t30 column of the trackers T1, T2, T5, and T6, and these columns are not registered (× mark). It has become.

一方、時刻t40になると、馬O1,人O2,車O3の融合状態は解消する。このため、動体識別画像M40からは、4つのブロッブ包摂図形B40a,B40b,B40c,B40eが抽出される。図16に示す例の場合、こうして抽出された4つのブロッブ包摂図形のうち、ブロッブ包摂図形B40b(人)がブロッブ包摂図形B30g(人車馬)の後続ブロッブ包摂図形として適している(すなわち、位置、面積、形状が類似している)と判断され、ブロッブ包摂図形B40b(人)がトラッカーT3の時刻t40欄に登録されている。また、鳥O4は画面から去ってしまっているので、トラッカーT4の時刻t40欄は無登録状態(×印)となっている。   On the other hand, at time t40, the fusion state of the horse O1, the person O2, and the car O3 is canceled. For this reason, four blob inclusion figures B40a, B40b, B40c, and B40e are extracted from the moving object identification image M40. In the case of the example shown in FIG. 16, among the four blob inclusion figures extracted in this way, the blob inclusion figure B40b (person) is suitable as the subsequent blob inclusion figure of the blob inclusion figure B30g (human horse) (that is, the position). The blob inclusion figure B40b (person) is registered in the time t40 column of the tracker T3. Since the bird O4 has left the screen, the time t40 column of the tracker T4 is in an unregistered state (x mark).

残りの3つのブロッブ包摂図形B40a(馬),B40c(車),B40e(犬)は、時刻t40になって出現した新参ブロッブ包摂図形(時刻t40になって初めて出現した新参動体についてのブロッブ包摂図形)と認識され、それぞれ空き状態のトラッカーT1,T2,T5の時刻t40欄に登録されている。ここで、ブロッブ包摂図形B40e(犬)が、新参ブロッブ包摂図形であるとの認識は正しいものであるが、ブロッブ包摂図形B40a(馬),B40c(車)が、新参ブロッブ包摂図形であるとの認識は誤りである。   The remaining three blob inclusion figures B40a (horse), B40c (car), and B40e (dog) are new blob inclusion figures that appeared at time t40 (blob inclusion figures for new moving bodies that first appeared at time t40) ) And are registered in the time t40 column of trackers T1, T2 and T5 in the empty state. Here, the recognition that the blob inclusion figure B40e (dog) is a new blob inclusion figure is correct, but the blob inclusion figure B40a (horse) and B40c (car) are new blob inclusion figures. Recognition is wrong.

この図16に示すような誤った動体追跡結果が得られると、特定の動体をズームアップした状態で追跡表示させるような処理を正しく行うことができない。たとえば、車O3をズームアップして追跡表示させるために、トラッカーT3に並べられたブロッブ包摂図形B20c(車),...,B30g(人車馬),...,B40b(人)...を構成する矩形内部を切出して拡大表示すると、拡大表示される追跡対象が車から人に途中で取り違えられてしまうことになる。また、トラッカーT1に基づいて馬O1を追跡した場合や、トラッカーT2に基づいて人O2を追跡した場合、時刻t30の直前で追跡は終了してしまう。   If an incorrect moving object tracking result as shown in FIG. 16 is obtained, it is not possible to correctly perform processing for tracking and displaying a specific moving object in a zoomed-up state. For example, in order to zoom in and display the car O3, the blob inclusion figures B20c (car),..., B30g (carriage horse), ..., B40b (person) arranged on the tracker T3. If the inside of the rectangle that constitutes. Is cut out and enlarged, the tracking target to be enlarged will be mistaken by the person on the way from the car. When the horse O1 is tracked based on the tracker T1 or the person O2 is tracked based on the tracker T2, the tracking ends immediately before time t30.

図17は、図15に示す動体識別画像M20,M30,M40に基づいて作成されたトラッカーの別な一例を示す図である。この例は、ブロッブ包摂図形B30g(人車馬)を新参動体と誤認識した例である。すなわち、図15(b) に示すブロッブ包摂図形B30g(人車馬)が、図15(a) に示すブロッブ包摂図形B20a(馬),B20b(人),B20c(車),B20d(鳥)のいずれの後続ブロッブ包摂図形としても適していない(すなわち、位置、面積、形状が類似していない)と判断し、ブロッブ包摂図形B30g(人車馬)をトラッカーT5の時刻t30欄に登録している。別言すれば、ブロッブ包摂図形B30g(人車馬)は、馬,人,車,鳥のいずれでもない新参動体と判断されたことになる。一方、図15(b) に示すブロッブ包摂図形B30d(鳥)については、図15(a) に示すブロッブ包摂図形B20d(鳥)の後続ブロッブ包摂図形として適していると判断し(この判断は正しい)、ブロッブ包摂図形B30d(鳥)をトラッカーT4の時刻t30欄に登録している。動体識別画像M30には、その他のブロッブ包摂図形はないので、トラッカーT1,T2,T3,T6の時刻t30欄に登録するブロッブ包摂図形は存在せず、これらの欄は無登録状態(×印)となっている。   FIG. 17 is a diagram illustrating another example of the tracker created based on the moving object identification images M20, M30, and M40 illustrated in FIG. In this example, the blob inclusion figure B30g (human carriage) is misrecognized as a new participant. That is, the blob inclusion figure B30g (human horse) shown in FIG. 15 (b) is replaced with the blob inclusion figure B20a (horse), B20b (person), B20c (car), and B20d (bird) shown in FIG. 15 (a). It is determined that it is not suitable for any subsequent blob inclusion graphic (that is, the position, area, and shape are not similar), and the blob inclusion graphic B30g (cart) is registered in the time t30 column of the tracker T5. . In other words, the blob inclusion figure B30g (human horse) is determined to be a new participant that is neither a horse, a person, a car nor a bird. On the other hand, the blob inclusion figure B30d (bird) shown in FIG. 15 (b) is determined to be suitable as the subsequent blob inclusion figure of the blob inclusion figure B20d (bird) shown in FIG. 15 (a) (this determination is correct). ), The blob inclusion figure B30d (bird) is registered in the time t30 column of the tracker T4. Since there is no other blob inclusion figure in the moving body identification image M30, there is no blob inclusion figure registered in the time t30 column of the trackers T1, T2, T3, and T6, and these columns are not registered (× mark). It has become.

一方、時刻t40になると、馬O1,人O2,車O3の融合状態は解消する。このため、動体識別画像M40からは、4つのブロッブ包摂図形B40a,B40b,B40c,B40eが抽出される。図17に示す例の場合、こうして抽出された4つのブロッブ包摂図形は、いずれも時刻t40になって出現した新参ブロッブ包摂図形と認識され、それぞれ空き状態のトラッカーT1,T2,T3,T6の時刻t40欄に登録されている。ここで、ブロッブ包摂図形B40e(犬)が、新参ブロッブ包摂図形であるとの認識は正しいものであるが、ブロッブ包摂図形B40a(馬),B40b(人),B40c(車)が、新参ブロッブ包摂図形であるとの認識は誤りである。   On the other hand, at time t40, the fusion state of the horse O1, the person O2, and the car O3 is canceled. For this reason, four blob inclusion figures B40a, B40b, B40c, and B40e are extracted from the moving object identification image M40. In the case of the example shown in FIG. 17, all of the four blob inclusion figures extracted in this way are recognized as new blob inclusion figures that appear at time t40, and the times of trackers T1, T2, T3, and T6 in the empty state, respectively. It is registered in the t40 column. Here, the recognition that the blob inclusion figure B40e (dog) is the new blob inclusion figure is correct, but the blob inclusion figure B40a (horse), B40b (person), and B40c (car) are the new blob inclusion figures. Recognition of a figure is an error.

この図17に示すような誤った動体追跡結果が得られると、やはり特定の動体をズームアップした状態で追跡表示させるような処理を正しく行うことができない。たとえば、トラッカーT1に基づいて馬O1を追跡した場合、トラッカーT2に基づいて人O2を追跡した場合、トラッカーT3に基づいて車O3を追跡した場合、いずれも時刻t30の直前で追跡は終了してしまう。   If an incorrect moving body tracking result as shown in FIG. 17 is obtained, it is impossible to correctly perform processing for tracking and displaying a specific moving body in a zoomed up state. For example, when the horse O1 is tracked based on the tracker T1, the person O2 is tracked based on the tracker T2, and the car O3 is tracked based on the tracker T3, the tracking ends immediately before time t30. End up.

前掲の特許文献7には、このような問題を解決するための一手法として、複数の動体を追跡する際に、動体同士が交差しているか否かの判定を行い、交差していると判定された場合には、重なり合った複数の動体の奥行き関係を認識して、正しい追跡を行う方法が開示されている。しかしながら、動体同士の交差を判定する処理や、奥行き関係を把握する処理のために、複雑なプロセスが必要になり、また、様々な状況において常に正確な処理を行うことは困難である。本発明は、複数の動体が交差した場合にも、効率的かつ正確に個々の動体を追跡することが可能な新しいアプローチを提案するものである。以下、本発明に係るこの新しいアプローチを詳述する。   In Patent Document 7 described above, as a technique for solving such a problem, when tracking a plurality of moving objects, it is determined whether or not the moving objects intersect with each other, and it is determined that they intersect. In such a case, a method for recognizing the depth relationship between a plurality of overlapping moving objects and performing correct tracking is disclosed. However, a complicated process is required for the process of determining the intersection of moving objects and the process of grasping the depth relationship, and it is difficult to always perform an accurate process in various situations. The present invention proposes a new approach capable of tracking individual moving objects efficiently and accurately even when a plurality of moving objects intersect. In the following, this new approach according to the present invention will be described in detail.

<<< §4.本発明に係る後続ブロッブ包摂図形の認識法 >>>
この§4では、§3でも説明した図14に示す事例について、本発明に係る後続ブロッブ包摂図形の認識法を適用した場合を説明する。この事例の問題点は、図14(b) に示すように、時刻t30における原画像P30上で複数の動体が交差しているため、図15(b) に示すように、動体識別画像M30から複数の動体の融合体についてのブロッブ包摂図形B30gが抽出されてしまう点である。本発明に係る後続ブロッブ包摂図形の認識法では、原画像P30のように、複数の動体が交差した場合でも、個々の動体について別個独立したブロッブ包摂図形を抽出することが可能になる。
<<< §4. Recognition method of subsequent blob inclusion figure according to the present invention >>>
In §4, a case where the method for recognizing subsequent blob inclusion figures according to the present invention is applied to the case shown in FIG. 14 described in §3 will be described. The problem of this example is that, as shown in FIG. 14 (b), since a plurality of moving objects intersect on the original image P30 at time t30, as shown in FIG. 15 (b), from the moving object identification image M30. A blob inclusion figure B30g for a fusion of a plurality of moving objects is extracted. In the method for recognizing subsequent blob inclusion figures according to the present invention, it is possible to extract independent blob inclusion figures for each moving object even when a plurality of moving objects intersect as in the original image P30.

そこで、以下、図18に示すように、時刻t29における原画像P29から、時刻t30における原画像P30への変遷が生じた場合に、原画像P29から抽出されたブロッブ包摂図形に対する後続ブロッブ包摂図形を、原画像P30から認識する方法を説明しよう。ただ、ここでは説明の便宜上、まず、次の2つの点を前提とした仮想的な例を考えてみる。   Therefore, as shown in FIG. 18, when the transition from the original image P29 at time t29 to the original image P30 at time t30 occurs, the subsequent blob inclusion graphic for the blob inclusion graphic extracted from the original image P29 is shown below. A method for recognizing from the original image P30 will be described. However, here, for convenience of explanation, let us first consider a hypothetical example based on the following two points.

第1の前提は、図18(a) に示す原画像P29から、既に、4つの動体O1〜O4のそれぞれについて別個独立したブロッブ包摂図形が抽出されている、という前提である。図示のとおり、この原画像P29上でも、既に動体O1〜O3が重なりを生じているため、§3で述べた方法では、動体O1〜O3の融合体について1つの合成ブロッブ包摂図形が抽出されてしまうが、ここでは、何らかの手法により、4つの動体O1〜O4のそれぞれについて、別個独立したブロッブ包摂図形が抽出されており、4つの異なるトラッカーの時刻t29欄に、これらのブロッブ包摂図形がそれぞれ登録されているものと仮定する。   The first premise is that a separate blob inclusion figure has been extracted for each of the four moving objects O1 to O4 from the original image P29 shown in FIG. 18 (a). As shown in the figure, since the moving objects O1 to O3 have already overlapped on the original image P29, one synthetic blob inclusion figure is extracted for the fusion of the moving objects O1 to O3 by the method described in §3. However, here, for each of the four moving objects O1 to O4, independent blob inclusion figures are extracted by some technique, and these blob inclusion figures are registered in the time t29 column of four different trackers. Assuming that

第2の前提は、図18(a) に示す原画像P29と図18(b) に示す原画像P30とが、全く同じ画像である、という前提である。実際には、時刻t29と時刻t30との間にはわずかながら時間差があり、各動体はそれぞれの進行方向に当該時間差に相当する距離だけ移動している。したがって、原画像P29と原画像P30とは若干異なる画像ということになる。ただ、ここでは、時刻t29と時刻t30との間において各動体の移動がなく、両画像が全く同じ画像であると仮定する。   The second premise is that the original image P29 shown in FIG. 18 (a) and the original image P30 shown in FIG. 18 (b) are exactly the same image. Actually, there is a slight time difference between the time t29 and the time t30, and each moving object has moved by a distance corresponding to the time difference in each traveling direction. Therefore, the original image P29 and the original image P30 are slightly different images. However, here, it is assumed that there is no movement of each moving body between time t29 and time t30, and both images are exactly the same image.

図19(a) ,(b) は、図18(a) ,(b) に示す原画像P29,P30から作成された動体識別画像M29,M30およびこれらから抽出されたブロッブ包摂図形を示す平面図である。図19(a) に示すように、動体識別画像M29からは、B29a(馬),B29b(人),B29c(車),B29d(鳥)という4つの独立したブロッブ包摂図形が抽出されており、これらのブロッブ包摂図形は、それぞれトラッカーT1,T2,T3,T4の時刻t29欄に登録されている。人・馬・車が重なり合って融合体を形成しているにもかかわらず、それぞれ独立したブロッブ包摂図形が抽出されているのは、上述した第1の前提に基づくものである。   19 (a) and 19 (b) are plan views showing moving object identification images M29 and M30 created from the original images P29 and P30 shown in FIGS. 18 (a) and 18 (b) and a blob inclusion figure extracted from them. It is. As shown in FIG. 19 (a), four independent blob inclusion figures B29a (horse), B29b (person), B29c (car), and B29d (bird) are extracted from the moving object identification image M29. These blob inclusion figures are registered in the time t29 column of trackers T1, T2, T3, and T4, respectively. The fact that independent blob inclusion figures are extracted despite the fact that humans, horses, and cars overlap to form a fusion is based on the first assumption described above.

これに対して、図19(b) には、動体識別画像M30から、§3で述べた方法により、ブロッブ包摂図形B30d,B30gが抽出された状態(図15(b) と同じ状態)が示されている。この状態で、トラッカーT1,T2,T3,T4の時刻t29欄に登録されている各ブロッブ包摂図形B29a(馬),B29b(人),B29c(車),B29d(鳥)の後続ブロッブ包摂図形(時刻t30欄に登録すべきブロッブ包摂図形)を認識しようとしても、既に述べたとおり、正しい認識を行うことはできない。その理由は、トラッカーT1,T2,T3の時刻t29欄に登録されている各ブロッブ包摂図形B29a(馬),B29b(人),B29c(車)に後続すべきブロッブ包摂図形が、1つのブロッブ包摂図形B30gとして融合してしまっているためである。したがって、トラッカーT4に登録されているブロッブ包摂図形B29d(鳥)に対しては、ブロッブ包摂図形B30d(鳥)という後続ブロッブ包摂図形を登録することができるが、他のブロッブ包摂図形については、後続ブロッブ包摂図形の登録に失敗することになる。   On the other hand, FIG. 19 (b) shows a state (the same state as FIG. 15 (b)) in which blob inclusion figures B30d and B30g are extracted from the moving object identification image M30 by the method described in §3. Has been. In this state, the subsequent blob inclusion figures (each) of the blob inclusion figures B29a (horse), B29b (person), B29c (car), and B29d (bird) registered in the time t29 column of the trackers T1, T2, T3, and T4 ( Even if an attempt is made to recognize a blob inclusion figure) to be registered in the time t30 column, correct recognition cannot be performed as described above. The reason is that the blob inclusion figure that should follow each blob inclusion figure B29a (horse), B29b (person), B29c (car) registered in the time t29 column of the tracker T1, T2, T3 is one blob inclusion. This is because the figure B30g has been merged. Therefore, for the blob inclusion figure B29d (bird) registered in the tracker T4, a subsequent blob inclusion figure B30d (bird) can be registered, but for other blob inclusion figures, Registration of blob inclusion figures will fail.

そこで、本発明では、複数の動体のうち、ある1つの動体に着目し、この着目動体のブロッブ包摂図形についての後続ブロッブ包摂図形を認識する際に、当該着目動体以外の動体についての先行ブロッブ包摂図形の領域をマスキングした動体識別画像を用いる、という手法を採る。ここでは、まず、動体O1(馬)を着目動体として、その後続ブロッブ包摂図形を認識する処理手順を説明しよう。別言すれば、図19(a) に示すブロッブ包摂図形B29a(馬)がトラッカーT1の時刻t29欄に登録されている状態において、トラッカーT1の時刻t30欄に登録すべき後続ブロッブ包摂図形を認識する処理を行うことになる。   Therefore, in the present invention, attention is paid to a certain moving object among a plurality of moving objects, and when the subsequent blob inclusion graphic for the blob inclusion graphic of this moving object is recognized, the preceding blob inclusion for moving objects other than the target moving object is recognized. A technique is used in which a moving object identification image in which a figure area is masked is used. Here, first, the processing procedure for recognizing the subsequent blob inclusion figure with the moving object O1 (horse) as the target moving object will be described. In other words, when the blob inclusion figure B29a (horse) shown in FIG. 19 (a) is registered in the time t29 field of the tracker T1, the subsequent blob inclusion figure to be registered in the time t30 field of the tracker T1 is recognized. Will be processed.

そのために、まず、図19(b) に示す動体識別画像M30に対して、マスキング処理を施す。図20(a) は、このようなマスキング処理を行うことにより得られた動体識別画像を示す平面図である。ここでは、このようなマスキング後の動体識別画像を個別動体識別画像M(30,1)と呼ぶことにする。図において、二重斜線によるハッチングを施して示されている領域は、各ブロッブ包摂図形に対応する矩形領域であり、これらの矩形領域によるマスキングを行うことにより、着目動体O1(馬)以外の動体が隠蔽されることになる。すなわち、トラッカーT2の時刻t29欄に登録されていたブロッブ包摂図形B29bにより動体O2(人)が隠蔽され、トラッカーT3の時刻t29欄に登録されていたブロッブ包摂図形B29cにより動体O3(車)が隠蔽され、トラッカーT4の時刻t29欄に登録されていたブロッブ包摂図形B29dにより動体O4(鳥)が隠蔽される。結局、このマスキング処理によって得られた個別動体識別画像M(30,1)には、着目動体O1(馬)のみが残ることになる。   For this purpose, first, a masking process is performed on the moving object identification image M30 shown in FIG. FIG. 20A is a plan view showing a moving object identification image obtained by performing such masking processing. Here, the moving object identification image after masking is referred to as an individual moving object identification image M (30, 1). In the figure, the hatched areas with double diagonal lines are rectangular areas corresponding to each blob inclusion figure, and moving objects other than the moving object O1 (horse) of interest by masking with these rectangular areas. Will be concealed. That is, the moving object O2 (person) is concealed by the blob inclusion figure B29b registered in the time t29 field of the tracker T2, and the moving object O3 (car) is concealed by the blob inclusion figure B29c registered in the time t29 field of the tracker T3. Then, the moving object O4 (bird) is concealed by the blob inclusion figure B29d registered in the time t29 column of the tracker T4. Eventually, only the target moving object O1 (horse) remains in the individual moving object identification image M (30, 1) obtained by the masking process.

なお、図20(a) では、説明の便宜上、二重斜線によるハッチングを施した矩形領域として、マスク領域(マスキング処理によって隠蔽される領域)を明示してあるが、実際には、このマスク領域は、背景領域の一部を構成することになるので、本来は、白地の領域として示すべき領域である。後述する図21以降においても、説明の便宜上、マスク領域を二重斜線によるハッチング領域として明示するが、実際には、いずれも背景領域の一部を構成する領域となるので、本来は、白地の領域として示すべき領域である。   In FIG. 20 (a), for convenience of explanation, a mask area (area hidden by the masking process) is clearly shown as a rectangular area hatched by double diagonal lines. Is a part of the background area, and is originally an area to be shown as a white area. In FIG. 21 and later to be described later, for the convenience of explanation, the mask area is clearly shown as a hatched area with double diagonal lines. However, since each of the areas actually constitutes a part of the background area, This is an area to be shown as an area.

図20(b) は、図20(a) に示す個別動体識別画像M(30,1)から抽出されたブロッブ包摂図形B30a(太線の矩形)を示す平面図である。前述したとおり、ここで述べる基本的実施形態では、前景領域の外接矩形をブロッブ包摂図形として抽出するため、ブロッブ包摂図形B30aは、着目動体O1(馬)の輪郭線の外接矩形となっている。このブロッブ包摂図形B30aは、トラッカーT1の時刻t30欄に登録すべき候補となるため、ここでは、候補ブロッブ包摂図形と呼ぶことにする。この例では、個別動体識別画像M(30,1)から抽出された候補ブロッブ包摂図形が、図20(b) に示す候補ブロッブ包摂図形B30aのみであるため、トラッカーT1の時刻t30欄には、この候補ブロッブ包摂図形B30aが後続ブロッブ包摂図形として登録されることになる。候補ブロッブ包摂図形が複数存在する場合には、§2で述べたとおり、候補ブロッブ包摂図形の中から、位置、面積、形状が最も類似しているものが後続ブロッブ包摂図形として選択される。   FIG. 20 (b) is a plan view showing a blob inclusion figure B30a (bold line rectangle) extracted from the individual moving object identification image M (30, 1) shown in FIG. 20 (a). As described above, in the basic embodiment described here, the circumscribed rectangle of the foreground region is extracted as the blob inclusion graphic, and thus the blob inclusion graphic B30a is a circumscribed rectangle of the contour line of the moving object O1 (horse) of interest. Since this blob inclusion figure B30a is a candidate to be registered in the time t30 column of the tracker T1, it will be referred to as a candidate blob inclusion figure here. In this example, since the candidate blob inclusion figure extracted from the individual moving body identification image M (30, 1) is only the candidate blob inclusion figure B30a shown in FIG. 20 (b), the time t30 column of the tracker T1 includes This candidate blob inclusion graphic B30a is registered as a subsequent blob inclusion graphic. When there are a plurality of candidate blob inclusion figures, as described in §2, the one having the most similar position, area, and shape is selected from the candidate blob inclusion figures as the subsequent blob inclusion figure.

なお、上述したマスキング処理により、個別動体識別画像M(30,1)上では、着目動体O1(馬)の一部分が欠けた状態になっている。図示の例では、たまたま馬の首の部分の一部が欠けたため、ブロッブ包摂図形B30aは、依然として、着目動体O1(馬)の輪郭線の外接矩形となっているが、たとえば、馬の鼻の部分が欠けると、本来の外接矩形よりも横幅が若干小さい矩形がブロッブ包摂図形として抽出されることになる。このように、マスキング処理後の個別動体識別画像から抽出したブロッブ包摂図形は、本来の着目動体の輪郭線の外接矩形とは若干異なる可能性があるが、トラッカーに登録して動体追跡を行う上では支障は生じない。   Note that, due to the masking process described above, a part of the target moving object O1 (horse) is missing on the individual moving object identification image M (30, 1). In the illustrated example, a part of the neck of the horse happens to be missing, so the blob inclusion figure B30a is still a circumscribed rectangle of the outline of the moving object O1 (horse) of interest. If the portion is missing, a rectangle having a slightly smaller width than the original circumscribed rectangle is extracted as a blob inclusion figure. As described above, the blob inclusion figure extracted from the individual moving object identification image after the masking process may be slightly different from the circumscribed rectangle of the contour line of the original target moving object. Then there will be no problem.

動体O2(人)を着目動体として、その後続ブロッブ包摂図形を認識する処理、すなわち、図19(a) に示すブロッブ包摂図形B29b(人)がトラッカーT2の時刻t29欄に登録されている状態において、時刻t30欄に登録すべき後続ブロッブ包摂図形を認識する処理も同様に行うことができる。具体的には、図19(b) に示す動体識別画像M30に対して、着目動体(人)以外のブロッブ包摂図形を用いたマスキング処理を行えばよい。図21(a) は、このようなマスキング処理を行うことにより得られた個別動体識別画像M(30,2)を示す平面図である。図示のとおり、トラッカーT1の時刻t29欄に登録されていたブロッブ包摂図形B29aにより動体O1(馬)が隠蔽され、トラッカーT3の時刻t29欄に登録されていたブロッブ包摂図形B29cにより動体O3(車)が隠蔽され、トラッカーT4の時刻t29欄に登録されていたブロッブ包摂図形B29dにより動体O4(鳥)が隠蔽され、個別動体識別画像M(30,2)には、着目動体O2(人)のみが残ることになる。   In the process in which the moving object O2 (person) is the target moving object and the subsequent blob inclusion figure is recognized, that is, the blob inclusion figure B29b (person) shown in FIG. 19A is registered in the time t29 column of the tracker T2. The process of recognizing the subsequent blob inclusion figure to be registered in the time t30 field can be performed in the same manner. Specifically, a masking process using a blob inclusion figure other than the target moving object (person) may be performed on the moving object identification image M30 shown in FIG. FIG. 21A is a plan view showing an individual moving body identification image M (30, 2) obtained by performing such masking processing. As shown in the figure, the moving object O1 (horse) is concealed by the blob inclusion figure B29a registered in the time t29 column of the tracker T1, and the moving object O3 (car) by the blob inclusion figure B29c registered in the time t29 column of the tracker T3. Is hidden, and the moving object O4 (bird) is concealed by the blob inclusion figure B29d registered in the time t29 column of the tracker T4, and only the moving object O2 (person) of interest is included in the individual moving object identification image M (30, 2). Will remain.

図21(b) は、図21(a) に示す個別動体識別画像M(30,2)から抽出された候補ブロッブ包摂図形B30b(太線の矩形)を示す平面図である。トラッカーT2の時刻t30欄には、この候補ブロッブ包摂図形B30bが後続ブロッブ包摂図形として登録されることになる。ここでも、マスキング処理により、個別動体識別画像M(30,2)上では、着目動体O2(人)の一部分が欠けた状態になっている。具体的には、着目動体O2(人)の下半身が欠けてしまっているため、ブロッブ包摂図形B30bは、上半身の輪郭線の外接矩形となっている。ただ、図18(b) に示す原画像P30を見ればわかるとおり、もともと原画像P30上においても動体O2(人)の下半身の画像情報は欠落しているので、ブロッブ包摂図形B30bが上半身のみを示すものであっても支障は生じない。   FIG. 21 (b) is a plan view showing a candidate blob inclusion figure B30b (thick rectangle) extracted from the individual moving object identification image M (30, 2) shown in FIG. 21 (a). The candidate blob inclusion graphic B30b is registered as a subsequent blob inclusion graphic in the time t30 column of the tracker T2. Also here, due to the masking process, a part of the target moving object O2 (person) is missing on the individual moving object identification image M (30, 2). Specifically, since the lower body of the target moving object O2 (person) is missing, the blob inclusion figure B30b is a circumscribed rectangle of the outline of the upper body. However, as can be seen from the original image P30 shown in FIG. 18B, since the image information of the lower body of the moving object O2 (person) is originally missing on the original image P30, the blob inclusion figure B30b only shows the upper body. It does not cause any trouble even if it is shown.

同様に、動体O3(車)を着目動体として、その後続ブロッブ包摂図形を認識する処理を行う場合は、図19(b) に示す動体識別画像M30に対して、着目動体(車)以外のブロッブ包摂図形を用いたマスキング処理を行えばよい。図22(a) は、このようなマスキング処理を行うことにより得られた個別動体識別画像M(30,3)を示す平面図である。図示のとおり、トラッカーT1の時刻t29欄に登録されていたブロッブ包摂図形B29aにより動体O1(馬)が隠蔽され、トラッカーT2の時刻t29欄に登録されていたブロッブ包摂図形B29bにより動体O2(人)が隠蔽され、トラッカーT4の時刻t29欄に登録されていたブロッブ包摂図形B29dにより動体O4(鳥)が隠蔽され、個別動体識別画像M(30,3)には、着目動体O3(車)のみが残ることになる。   Similarly, when the process of recognizing the subsequent blob inclusion figure is performed with the moving object O3 (car) as the target moving object, the blobs other than the target moving object (car) are displayed on the moving object identification image M30 shown in FIG. What is necessary is just to perform the masking process using an inclusion figure. FIG. 22A is a plan view showing an individual moving body identification image M (30, 3) obtained by performing such masking processing. As illustrated, the moving object O1 (horse) is concealed by the blob inclusion figure B29a registered in the time t29 column of the tracker T1, and the moving object O2 (person) is concealed by the blob inclusion figure B29b registered in the time t29 column of the tracker T2. Is hidden and the moving object O4 (bird) is concealed by the blob inclusion figure B29d registered in the time t29 column of the tracker T4, and only the moving object O3 (car) of interest is included in the individual moving object identification image M (30, 3). Will remain.

図22(b) は、図22(a) に示す個別動体識別画像M(30,3)から抽出された候補ブロッブ包摂図形B30c(太線の矩形)を示す平面図である。トラッカーT3の時刻t30欄には、この候補ブロッブ包摂図形B30cが後続ブロッブ包摂図形として登録されることになる。ここでも、マスキング処理により、個別動体識別画像M(30,3)上では、着目動体O3(車)の一部分が欠けた状態になっているが、動体追跡を行う上で支障は生じない。   FIG. 22 (b) is a plan view showing a candidate blob inclusion figure B30c (thick line rectangle) extracted from the individual moving object identification image M (30, 3) shown in FIG. 22 (a). The candidate blob inclusion figure B30c is registered as a subsequent blob inclusion figure in the time t30 column of the tracker T3. In this case as well, due to the masking process, a part of the target moving object O3 (car) is missing on the individual moving object identification image M (30, 3), but there is no problem in tracking the moving object.

最後に、動体O4(鳥)を着目動体として、その後続ブロッブ包摂図形を認識する処理が行われる。動体O4(鳥)は、他の動体と融合することなしに、常に、独立を維持した動体であるが、後続ブロッブ包摂図形を認識する処理を行う上では、これまで述べてきた他の動体と全く同じ手法が採られる。すなわち、図19(b) に示す動体識別画像M30に対して、着目動体(鳥)以外のブロッブ包摂図形を用いたマスキング処理を行うことにより、図23(a) に示すような個別動体識別画像M(30,4)を得る。図示のとおり、トラッカーT1の時刻t29欄に登録されていたブロッブ包摂図形B29aにより動体O1(馬)が隠蔽され、トラッカーT2の時刻t29欄に登録されていたブロッブ包摂図形B29bにより動体O2(人)が隠蔽され、トラッカーT3の時刻t29欄に登録されていたブロッブ包摂図形B29cにより動体O3(車)が隠蔽され、個別動体識別画像M(30,4)には、着目動体O4(鳥)のみが残ることになる。   Finally, the process of recognizing the subsequent blob inclusion figure is performed using the moving object O4 (bird) as the target moving object. The moving object O4 (bird) is a moving object that always maintains independence without merging with other moving objects, but in performing the process of recognizing the subsequent blob inclusion figure, The exact same approach is taken. That is, by performing a masking process using a blob inclusion figure other than the target moving object (bird) on the moving object identification image M30 shown in FIG. 19B, the individual moving object identification image as shown in FIG. Obtain M (30,4). As illustrated, the moving object O1 (horse) is concealed by the blob inclusion figure B29a registered in the time t29 column of the tracker T1, and the moving object O2 (person) is concealed by the blob inclusion figure B29b registered in the time t29 column of the tracker T2. Is hidden, and the moving object O3 (car) is concealed by the blob inclusion figure B29c registered in the time t29 column of the tracker T3, and only the moving object O4 (bird) of interest is included in the individual moving object identification image M (30, 4). Will remain.

図23(b) は、図23(a) に示す個別動体識別画像M(30,4)から抽出された候補ブロッブ包摂図形B30d(太線の矩形)を示す平面図である。トラッカーT4の時刻t30欄には、この候補ブロッブ包摂図形B30dが後続ブロッブ包摂図形として登録されることになる。   FIG. 23 (b) is a plan view showing a candidate blob inclusion figure B30d (bold line rectangle) extracted from the individual moving object identification image M (30, 4) shown in FIG. 23 (a). The candidate blob inclusion figure B30d is registered as a subsequent blob inclusion figure in the time t30 column of the tracker T4.

図24は、図20〜図23に示す候補ブロッブ包摂図形に基づいて、各トラッカーの時刻t30欄以降に後続ブロッブ包摂図形の登録を行った状態を示す図である。ここで、時刻t29欄に登録されているブロッブ包摂図形は、図19(a) に示す各ブロッブ包摂図形B29a〜B20dであり、時刻t30欄に登録されているブロッブ包摂図形は、前述した方法によって認識された後続ブロッブ包摂図形である。   FIG. 24 is a diagram showing a state in which subsequent blob inclusion figures are registered after the time t30 column of each tracker based on the candidate blob inclusion figures shown in FIGS. Here, the blob inclusion figures registered in the time t29 column are the blob inclusion figures B29a to B20d shown in FIG. 19 (a). Recognized subsequent blob inclusion figure.

すなわち、トラッカーT1について、ブロッブ包摂図形B29a(馬)に対する後続ブロッブ包摂図形(時刻t30欄に登録すべきブロッブ包摂図形)を認識する際には、トラッカーT1を着目トラッカーとして(すなわち、馬を着目動体として)、着目外トラッカーT2,T3,T4の時刻t29欄に登録されているブロッブ包摂図形B29b(人),B29c(車),B29d(鳥)を用いて、動体識別画像M30に対するマスキング処理を行い、図20(a) に示すような個別動体識別画像M(30,1)を生成し、図20(b) に示すような候補ブロッブ包摂図形B30a(馬)を抽出し、これを後続ブロッブ包摂図形として認識することになる。図24には、こうして後続ブロッブ包摂図形として認識された候補ブロッブ包摂図形B30a(馬)が着目トラッカーT1の時刻t30欄に登録された状態が示されている。   That is, for the tracker T1, when recognizing the subsequent blob inclusion graphic (the blob inclusion graphic to be registered in the time t30 column) for the blob inclusion graphic B29a (horse), the tracker T1 is used as the target tracker (that is, the horse is the target moving object). And) using the blob inclusion figures B29b (people), B29c (cars), and B29d (birds) registered in the time t29 field of the trackers T2, T3, and T4 that are not of interest. 20 (a), an individual moving object identification image M (30, 1) is generated, and a candidate blob inclusion figure B30a (horse) as shown in FIG. It will be recognized as a figure. FIG. 24 shows a state where the candidate blob inclusion figure B30a (horse) recognized as the subsequent blob inclusion figure is registered in the time t30 column of the tracker T1 of interest.

また、トラッカーT2について、ブロッブ包摂図形B29b(人)に対する後続ブロッブ包摂図形を認識する際には、今度はトラッカーT2を着目トラッカーとして(すなわち、人を着目動体として)、着目外トラッカーT1,T3,T4の時刻t29欄に登録されているブロッブ包摂図形B29a(馬),B29c(車),B29d(鳥)を用いて、動体識別画像M30に対するマスキング処理を行い、図21(a) に示すような個別動体識別画像M(30,2)を生成し、図21(b) に示すような候補ブロッブ包摂図形B30b(人)を抽出し、これを後続ブロッブ包摂図形として認識することになる。トラッカーT3,T4についての後続ブロッブ包摂図形認識処理も全く同様である。   When the subsequent blob inclusion figure for the blob inclusion figure B29b (person) is recognized for the tracker T2, this time, the tracker T2 is used as the notice tracker (that is, the person is the noticed moving object), and the non-target trackers T1, T3, Using the blob inclusion figures B29a (horse), B29c (car), and B29d (bird) registered in the time t29 column of T4, a masking process is performed on the moving body identification image M30, as shown in FIG. An individual moving object identification image M (30, 2) is generated, and a candidate blob inclusion figure B30b (person) as shown in FIG. 21 (b) is extracted and recognized as a subsequent blob inclusion figure. The subsequent blob inclusion graphic recognition processing for the trackers T3 and T4 is exactly the same.

図25は、こうして、各トラッカーT1〜T4について認識された後続ブロッブ包摂図形B30a〜B30dを、動体識別画像M30に重ねた状態を示す平面図である。結局、本発明に係る後続ブロッブ包摂図形の認識法を採用すると、動体識別画像M30から、図19(b) に示すブロッブ包摂図形B30d,B30gが抽出される代わりに、図25に示すようなブロッブ包摂図形B30a〜B30dが抽出されることになる。別言すれば、複数の動体が交差したために原画像P30上で融合体が形成されていたとしても、この融合体の輪郭を包摂するブロッブ包摂図形B30gではなく、個々の動体の輪郭を包摂するブロッブ包摂図形B30a,B30b,B30cが個別に抽出され、それぞれのトラッカーの後続ブロッブ包摂図形として登録されることになる。   FIG. 25 is a plan view showing a state in which the subsequent blob inclusion figures B30a to B30d recognized for the trackers T1 to T4 are superimposed on the moving object identification image M30. Eventually, when the subsequent blob inclusion figure recognition method according to the present invention is adopted, instead of extracting the blob inclusion figures B30d and B30g shown in FIG. 19 (b) from the moving object identification image M30, the blob as shown in FIG. The inclusion figures B30a to B30d are extracted. In other words, even if a fusion object is formed on the original image P30 because a plurality of moving objects intersect, the contour of each moving object is included instead of the blob inclusion figure B30g that includes the outline of the fusion object. The blob inclusion figures B30a, B30b, and B30c are individually extracted and registered as subsequent blob inclusion figures of the respective trackers.

以上、時刻t29から時刻t30への変遷を例にとって、各トラッカーの時刻t30欄に登録する後続ブロッブ包摂図形を認識する手順を説明したが、同様の手順がすべての時刻欄について実行されることになる。その結果、図24に示すとおり、トラッカーT1には、動体O1(馬)についてのブロッブ包摂図形を時系列に並べた情報が記録され、トラッカーT2には、動体O2(人)についてのブロッブ包摂図形を時系列に並べた情報が記録され、トラッカーT3には、動体O3(車)についてのブロッブ包摂図形を時系列に並べた情報が記録される。実際には、時刻t30の前後において、これら3つの動体は重なりを生じているが、上述した手順によれば、このような重なりを生じている期間であっても、個々の動体についてのブロッブ包摂図形が個別に抽出され、正しいトラッカーに登録されることになる。   As described above, taking the transition from time t29 to time t30 as an example, the procedure for recognizing the subsequent blob inclusion figure registered in the time t30 column of each tracker has been described, but the same procedure is executed for all the time columns. Become. As a result, as shown in FIG. 24, the tracker T1 records information including time series of blob inclusion figures for the moving object O1 (horse), and the tracker T2 stores the blob inclusion figure for the moving object O2 (person). Are recorded in time series, and information in which blob inclusion figures for the moving object O3 (car) are arranged in time series is recorded in the tracker T3. Actually, these three moving objects are overlapped before and after the time t30, but according to the above-described procedure, the blob inclusion for each moving object is obtained even during the overlapping period. The figures are extracted individually and registered in the correct tracker.

図24の表を、図16,図17の表と比較すれば、正しい動体追跡が行われていることが容易に理解できよう。たとえば、車O3をズームアップして追跡表示させるために、トラッカーT3に並べられたブロッブ包摂図形を構成する矩形内部を切出して拡大表示すれば、常に、車O3を追跡する正しい結果が得られる。   If the table of FIG. 24 is compared with the tables of FIGS. 16 and 17, it can be easily understood that correct moving body tracking is performed. For example, in order to zoom in on the car O3 and display it in a tracking manner, a correct result of tracking the car O3 can always be obtained by cutting out and enlarging the inside of the rectangles constituting the blob inclusion figures arranged in the tracker T3.

このように、本発明に係る後続ブロッブ包摂図形の認識法によって各トラッカーに後続ブロッブ包摂図形の登録を行うと、良好な動体追跡の結果が得られる理由は、個々のトラッカーごとに、それぞれ異なる個別動体識別画像(他のトラッカーの先行ブロッブ包摂図形を利用してマスキングした画像)を用意し、この個別動体識別画像から候補ブロッブ包摂図形を抽出するようにしたためである。   As described above, when the subsequent blob inclusion figure is registered in each tracker by the recognition method of the subsequent blob inclusion figure according to the present invention, the reason for obtaining a good moving body tracking result is different for each individual tracker. This is because a moving object identification image (an image masked using the preceding blob inclusion graphic of another tracker) is prepared, and a candidate blob inclusion graphic is extracted from the individual moving object identification image.

すなわち、§2,§3で述べた方法では、図19(b) に示すような共通の動体識別画像M30から候補ブロッブ包摂図形B30d,B30gを抽出していたため、正しい後続ブロッブ包摂図形の認識を行うことができなかった。これに対して、本発明に係る方法では、トラッカーT1の後続ブロッブ包摂図形は、図20(a) に示すようなマスキングされた個別動体識別画像M(30,1)から抽出し、トラッカーT2の後続ブロッブ包摂図形は、図21(a) に示すようなマスキングされた個別動体識別画像M(30,2)から抽出し、トラッカーT3の後続ブロッブ包摂図形は、図22(a) に示すようなマスキングされた個別動体識別画像M(30,3)から抽出し、トラッカーT4の後続ブロッブ包摂図形は、図23(a) に示すようなマスキングされた個別動体識別画像M(30,4)から抽出する、という手法を採るため、正しい後続ブロッブ包摂図形の認識を行うことが可能になる。   That is, in the method described in §2 and §3, candidate blob inclusion figures B30d and B30g are extracted from the common moving object identification image M30 as shown in FIG. 19 (b), so that the correct subsequent blob inclusion figure is recognized. Could not do. On the other hand, in the method according to the present invention, the subsequent blob inclusion figure of the tracker T1 is extracted from the masked individual moving object identification image M (30, 1) as shown in FIG. The subsequent blob inclusion graphic is extracted from the masked individual moving object identification image M (30, 2) as shown in FIG. 21 (a), and the subsequent blob inclusion graphic of the tracker T3 is as shown in FIG. 22 (a). Extracted from the masked individual moving object identification image M (30, 3), and the subsequent blob inclusion figure of the tracker T4 is extracted from the masked individual moving object identification image M (30, 4) as shown in FIG. Therefore, it is possible to recognize a correct subsequent blob inclusion figure.

なお、これまでの説明に用いた実例は、前述したとおり、2つの前提を仮定した実例である。まず、第1の前提として、図19(a) に示すように、時刻t29において、一部の動体が重なり合っているにもかかわらず、何らかの手法により、4つの動体O1〜O4のそれぞれについて、別個独立したブロッブ包摂図形が抽出されており、4つの異なるトラッカーの時刻t29欄に、これらのブロッブ包摂図形がそれぞれ登録されているものと仮定する前提をおいた。しかしながら、当該前提は、特別な前提条件ではなく、本発明に係る後続ブロッブ包摂図形の認識法を採用すれば、必然的に満たされる前提条件になる。   In addition, the example used so far is an example which assumed two assumptions as mentioned above. First, as a first premise, as shown in FIG. 19 (a), each of the four moving bodies O1 to O4 is individually separated by some technique even though some moving bodies overlap at time t29. It was assumed that independent blob inclusion figures were extracted and these blob inclusion figures were registered in the time t29 column of four different trackers. However, the premise is not a special precondition, and is a precondition that is necessarily satisfied if the method for recognizing subsequent blob inclusion figures according to the present invention is employed.

すなわち、初期時刻t1において、各動体に重なりが生じていないものとすれば、その後に動体の重なりが生じたとしても、上述した手順で後続ブロッブ包摂図形の認識を行う限り、個々の動体は別個独立したブロッブ包摂図形として登録されることになる。たとえば、図14に示す実例の場合、時刻t20における原画像P20では動体の重なりは生じていないので、その後、時刻t30に至る過程で、動体の重なりが生じたとしても、個々の動体は別個独立したブロッブ包摂図形として登録されるので、図19(a) に示す時刻t29においても、4つの動体O1〜O4のそれぞれについて、別個独立したブロッブ包摂図形が登録されている、という前提が成り立つことになる。したがって、この第1の前提は、特別な前提ではなく、上記手順を採用すれば当然満たされる前提である。   That is, if there is no overlap between the moving objects at the initial time t1, even if the moving objects overlap after that, as long as the subsequent blob inclusion figure is recognized in the above-described procedure, the individual moving objects are separated. It will be registered as an independent blob inclusion figure. For example, in the example shown in FIG. 14, since overlapping of moving objects does not occur in the original image P20 at time t20, even if overlapping of moving objects occurs in the process up to time t30, the individual moving objects are individually independent. As shown in FIG. 19 (a), at time t29 shown in FIG. 19 (a), it is assumed that a separate independent blob inclusion figure is registered for each of the four moving bodies O1 to O4. Become. Therefore, this first premise is not a special premise, but is a premise that is naturally satisfied if the above procedure is adopted.

次に、第2の前提として、図18(a) に示す原画像P29と図18(b) に示す原画像P30とが、全く同じ画像である、という前提をおいた。これは、時刻t29からt30に至る期間、すべての動体O1〜O4が静止していた、という前提であるから、現実的には成立しない前提である。このような前提を置いたのは、本発明の基本原理の説明を容易にするための便宜に他ならない。   Next, the second premise is that the original image P29 shown in FIG. 18A and the original image P30 shown in FIG. 18B are exactly the same image. This is a premise that all the moving bodies O1 to O4 are stationary during the period from the time t29 to the time t30. Such a premise is nothing but a convenience for facilitating the explanation of the basic principle of the present invention.

図20(a) に示すマスキング処理後の個別動体識別画像M(30,1)上で、着目動体である馬以外の動体(人,車,鳥)が、ブロッブ包摂図形B29b,B29c,B29dによって完全に隠蔽されているのは、上記前提を置いたためである。すなわち、ブロッブ包摂図形B29b,B29c,B29dは、時刻t29における人,車,鳥の位置に基づいて抽出された外接矩形であるから、時刻t29における動体識別画像M29に対するマスキング処理を行えば、図20(a) に示す例のように、人,車,鳥を完全に隠蔽することが可能である。ところが、実際には、図20(a) に示す例は、時刻t30における動体識別画像M30に対するマスキング処理を行った結果であるから、上記前提がなければ、人,車,鳥を完全に隠蔽することはできない。   On the individual moving body identification image M (30, 1) after the masking process shown in FIG. 20 (a), moving bodies (people, cars, birds) other than the horse that is the moving body of interest are represented by blob inclusion figures B29b, B29c, B29d. The reason why it is completely hidden is because of the above assumption. That is, since the blob inclusion figures B29b, B29c, and B29d are circumscribed rectangles extracted based on the positions of people, cars, and birds at time t29, if masking processing is performed on the moving object identification image M29 at time t29, FIG. As in the example shown in (a), people, cars and birds can be completely hidden. However, in practice, the example shown in FIG. 20 (a) is the result of performing the masking process on the moving object identification image M30 at the time t30. It is not possible.

図26は、図20に示すマスキング処理では完全なマスキングがなされなかった状態を示す平面図(図(a) )およびこの状態から抽出された候補ブロッブ包摂図形を示す平面図(図(b) )である。実際には、時刻t29からt30に至る期間も、各動体O1〜O4は移動しているので、図26(a) に示す例のように、動体の一部がマスクから食み出すことになり前景領域の一部を構成する。その結果、この個別動体識別画像M(30,1)からは、図26(b) に示すように、4つの候補ブロッブ包摂図形B30a−1〜B30a−4が抽出されることになる。   FIG. 26 is a plan view (FIG. (A)) showing a state where complete masking is not performed by the masking process shown in FIG. 20, and a plan view showing candidate blob inclusion figures extracted from this state (FIG. (B)). It is. Actually, since the moving objects O1 to O4 are also moving during the period from time t29 to t30, a part of the moving object protrudes from the mask as in the example shown in FIG. Configure a part of the foreground area. As a result, four candidate blob inclusion figures B30a-1 to B30a-4 are extracted from the individual moving object identification image M (30, 1) as shown in FIG.

ただ、このように複数の候補ブロッブ包摂図形が抽出された場合でも、その中から後続ブロッブ包摂図形として最適な候補ブロッブ包摂図形を選択すれば、結局、候補ブロッブ包摂図形B30a−1が後続ブロッブ包摂図形として選択され、トラッカーT1の時刻t30欄に登録されることになる。具体的には、図19(a) に示す先行ブロッブ包摂図形B29aに対して、位置、面積、形状が最も類似している候補ブロッブ包摂図形を後続ブロッブ包摂図形として選択する作業を行えばよい。選択されなかった候補ブロッブ包摂図形B30a−2〜B30a−4は、トラッカーに登録されることなく捨てられる。   However, even when a plurality of candidate blob inclusion figures are extracted in this way, if the optimum candidate blob inclusion figure is selected as the subsequent blob inclusion figure from among them, the candidate blob inclusion figure B30a-1 will eventually become the subsequent blob inclusion figure. The figure is selected and registered in the time t30 column of the tracker T1. Specifically, an operation of selecting a candidate blob inclusion graphic having the most similar position, area, and shape as the subsequent blob inclusion graphic may be performed on the previous blob inclusion graphic B29a shown in FIG. 19 (a). The candidate blob inclusion figures B30a-2 to B30a-4 that have not been selected are discarded without being registered in the tracker.

このように、上述した第2の前提は、説明の便宜のために意図的に設けた前提であり、本発明に係る後続ブロッブ包摂図形の認識法を実行する上で必須の前提条件ではない。したがって、本発明を実行する上で、特別な前提条件は必要ない。   Thus, the second premise described above is a premise intentionally provided for convenience of explanation, and is not an essential precondition for executing the method for recognizing subsequent blob inclusion figures according to the present invention. Therefore, no special preconditions are necessary for carrying out the present invention.

<<< §5.本発明に係る新参ブロッブ包摂図形の認識法 >>>
さて、§4では、本発明に係る後続ブロッブ包摂図形の認識法の基本原理を説明した。この後続ブロッブ包摂図形の認識処理は、既に登録されている先行ブロッブ包摂図形に後続して、新たなブロッブ包摂図形を追加する処理を行うための処理であり、画面上を継続して移動中の動体についての追跡を続行するための処理と言うことができる。
<<< §5. Recognition method of new blob inclusion figure according to the present invention >>>
In §4, the basic principle of the method for recognizing subsequent blob inclusion figures according to the present invention has been described. This subsequent blob inclusion figure recognition process is a process for adding a new blob inclusion figure following the previously registered previous blob inclusion figure, and is continuously moving on the screen. It can be said that it is a process for continuing the tracking of the moving object.

しかしながら、通常、画面上に存在する動体はやがて消え去り、一方で、新たな動体が画面上に出現する、という現象が繰り返される。したがって、実際には、画面上を移動中の動体を追跡する処理に加えて、既存動体が消滅した場合の処理と、新参動体が出現した場合の処理を行う必要がある。図14に示す実例の場合も、時刻t40で得られる原画像P40には、もはや動体O4(鳥)は存在せず、その代わりに新参者の動体O5(犬)が出現している。その結果、図24に示す表では、トラッカーT4の鳥についての一連のブロッブ包摂図形群は時刻t40に至るまでの途中で終焉を迎えており、時刻t40欄は無登録状態(×印)になっている。一方で、トラッカーT5の時刻t40欄には、新参者の動体O5(犬)についてのブロッブ包摂図形B40eが新参ブロッブ包摂図形として登録されている。   However, usually, the phenomenon that the moving object existing on the screen disappears in the meantime and the new moving object appears on the screen is repeated. Therefore, in practice, in addition to the process of tracking the moving object moving on the screen, it is necessary to perform the process when the existing moving object disappears and the process when the new moving object appears. Also in the case of the example shown in FIG. 14, the moving object O4 (bird) no longer exists in the original image P40 obtained at time t40, and a newcomer moving object O5 (dog) appears instead. As a result, in the table shown in FIG. 24, the series of blob inclusion figures for the bird of the tracker T4 has ended in the middle of reaching the time t40, and the time t40 column is in an unregistered state (x mark). ing. On the other hand, in the time t40 column of the tracker T5, a blob inclusion graphic B40e for the newcomer moving object O5 (dog) is registered as a new blob inclusion graphic.

ここで、既存動体が消滅した場合の処理は、§4で述べた手順において、後続ブロッブ包摂図形が認識できなかった場合の処理として実行することができる。たとえば、動体O4(鳥)が、時刻t38までは存在したが(画面の枠の近くに一部だけ存在した場合も含む)、時刻t39において画面外へ飛び去った、という場合を考えてみる。この場合、トラッカーT4の時刻t39欄に登録すべき後続ブロッブ包摂図形を認識する処理を行っても、後続ブロッブ包摂図形に適した候補ブロッブ包摂図形が認識できないことになり、結局、時刻t39欄は無登録状態(×印)になる。これは、動体O4(鳥)が消滅した場合の処理に他ならない。すなわち、トラッカーT4上では、時系列的に連続して登録されてきた一連のブロッブ包摂図形群が、時刻t38欄の末尾ブロッブ包摂図形をもって途絶えることになり、これにより、動体O4(鳥)が消滅したという情報が記録されることになる。   Here, the process when the existing moving object disappears can be executed as a process when the subsequent blob inclusion figure cannot be recognized in the procedure described in §4. For example, consider a case where the moving object O4 (bird) exists until time t38 (including a case where only a part exists near the frame of the screen) but jumps out of the screen at time t39. In this case, even if the process for recognizing the subsequent blob inclusion graphic to be registered in the time t39 field of the tracker T4 is performed, the candidate blob inclusion graphic suitable for the subsequent blob inclusion graphic cannot be recognized. Unregistered state (x mark). This is nothing but the process when the moving object O4 (bird) disappears. That is, on the tracker T4, a series of blob inclusion graphic groups that have been continuously registered in time series are interrupted by the last blob inclusion graphic in the time t38 column, and thereby the moving object O4 (bird) disappears. Information that it was done will be recorded.

なお、動体が消滅するのは、必ずしも画面外に移動した場合に限られるわけではない。たとえば、人が建物に入った場合、車が地下駐車場へ降りた場合などでは、画面の中央付近で動体が消滅することも起こりうる。ただ、動体がどこで消滅しようと、トラッカー上では、後続ブロッブ包摂図形が認識できない、という状態に変わりはなく、無登録状態(×印)として記録されることになる。   Note that the disappearance of the moving object is not necessarily limited to the case of moving out of the screen. For example, when a person enters a building or a car gets off to an underground parking lot, the moving object may disappear near the center of the screen. However, no matter where the moving object disappears, there is no change in the state that the following blob inclusion figure cannot be recognized on the tracker, and it is recorded as an unregistered state (x mark).

これに対して、新参動体が出現した場合は、新参ブロッブ包摂図形を認識した上で、これを所定のトラッカー(空き状態の任意のトラッカー)に新規登録する処理を行う必要がある。そこで、以下、図27に示すように、時刻t39における原画像P39から、時刻t40における原画像P40への変遷が生じた場合に、原画像P40に突然出現した新参動体O5についての新参ブロッブ包摂図形を、トラッカー上に登録する処理の手順を説明する。   On the other hand, when a new participant appears, it is necessary to recognize the new blob inclusion figure and perform a process of newly registering it in a predetermined tracker (any tracker in an empty state). Therefore, as shown in FIG. 27, when a transition from the original image P39 at time t39 to the original image P40 at time t40 occurs, a new blob inclusion figure about the new participant O5 that suddenly appeared in the original image P40. The procedure of the process of registering on the tracker will be described.

図28(a) ,(b) は、図27(a) ,(b) に示す原画像P39,P40から作成された動体識別画像M39,M40およびこれらから抽出されたブロッブ包摂図形を示す平面図である。ここでは、図28(a) に示す動体識別画像M39に基づいて、ブロッブ包摂図形B39a(馬),B39b(人),B39c(車)が、既にトラッカーに登録されている状態において、図28(b) に示す動体識別画像M40に基づいて、時刻t40欄に新たなブロッブ包摂図形を登録する作業を述べる。   28 (a) and 28 (b) are plan views showing moving object identification images M39 and M40 created from the original images P39 and P40 shown in FIGS. 27 (a) and 27 (b) and a blob inclusion figure extracted from them. It is. Here, based on the moving body identification image M39 shown in FIG. 28 (a), the blob inclusion figure B39a (horse), B39b (person), and B39c (car) are already registered in the tracker. An operation for registering a new blob inclusion graphic in the time t40 field based on the moving object identification image M40 shown in b) will be described.

図29は、図28に示すブロッブ包摂図形に基づいて作成されたトラッカーを示す図である。時刻t39欄には、既に、ブロッブ包摂図形B39a(馬),B39b(人),B39c(車)が、それぞれトラッカーT1,T2,T3に登録されているものとする。一方、時刻t40欄については、まず、§4で述べた後続ブロッブ包摂図形の認識法を適用して、ブロッブ包摂図形B40a(馬),B40b(人),B40c(車)の登録が行われる。当該登録は、図28(b) に示す動体識別画像M40に対してマスキング処理を施すことにより得られた個別動体識別画像M(40,1),M(40,2),M(40,3)を利用して行われる。   FIG. 29 is a diagram showing a tracker created based on the blob inclusion graphic shown in FIG. It is assumed that the blob inclusion figure B39a (horse), B39b (person), and B39c (car) are already registered in the trackers T1, T2, and T3 in the time t39 column, respectively. On the other hand, in the time t40 column, first, the recognition method of the subsequent blob inclusion figure described in §4 is applied to register the blob inclusion figure B40a (horse), B40b (person), and B40c (car). In the registration, the individual moving object identification images M (40,1), M (40,2), M (40,3) obtained by performing the masking process on the moving object identification image M40 shown in FIG. ).

具体的には、動体識別画像M40に対して、ブロッブ包摂図形B39b(人),B39c(車)を用いたマスキング処理により個別動体識別画像M(40,1)が得られ、ここから抽出されたブロッブ包摂図形B40a(馬)がトラッカーT1に登録される。同様に、ブロッブ包摂図形B39a(馬),B39c(車)を用いたマスキング処理により得られた個別動体識別画像M(40,2)から抽出されたブロッブ包摂図形B40b(人)がトラッカーT2に登録され、ブロッブ包摂図形B39a(馬),B39b(人)を用いたマスキング処理により得られた個別動体識別画像M(40,3)から抽出されたブロッブ包摂図形B40c(車)がトラッカーT3に登録される。図29には、これらの後続ブロッブ包摂図形の登録が完了した状態が示されている。   Specifically, the individual moving object identification image M (40, 1) is obtained from the moving object identification image M40 by the masking process using the blob inclusion figure B39b (person) and B39c (car), and extracted from here. The blob inclusion figure B40a (horse) is registered in the tracker T1. Similarly, the blob inclusion figure B40b (person) extracted from the individual moving object identification image M (40, 2) obtained by the masking process using the blob inclusion figure B39a (horse) and B39c (car) is registered in the tracker T2. The blob inclusion figure B40c (car) extracted from the individual moving object identification image M (40, 3) obtained by the masking process using the blob inclusion figure B39a (horse) and B39b (person) is registered in the tracker T3. The FIG. 29 shows a state where registration of these subsequent blob inclusion figures is completed.

図27(b) に示す原画像P40から新参動体を認識して、これをトラッカーに登録する処理は、このような後続ブロッブ包摂図形の登録が完了した後に行われる。その基本原理は、図28(b) に示す動体識別画像M40から抽出されたブロッブ包摂図形B40a(馬),B40b(人),B40c(車),B40e(犬)の中に、上記処理によって登録された後続ブロッブ包摂図形に対応しないブロッブ包摂図形が存在するか否かを判断し、そのようなブロッブ包摂図形が存在する場合には、これを新参ブロッブ包摂図形と認識し、時刻t40欄が未登録状態のトラッカーに先頭ブロッブ包摂図形として登録するというものである。   The process of recognizing a new participant from the original image P40 shown in FIG. 27 (b) and registering it in the tracker is performed after the registration of the subsequent blob inclusion figure is completed. The basic principle is registered in the blob inclusion figure B40a (horse), B40b (person), B40c (car), and B40e (dog) extracted from the moving object identification image M40 shown in FIG. It is determined whether there is a blob inclusion figure that does not correspond to the succeeding blob inclusion figure, and if such a blob inclusion figure exists, it is recognized as a new blob inclusion figure, and the time t40 column is not yet displayed. The first blob inclusion figure is registered in the registered tracker.

具体的には、上例の場合、図29に示すとおり、トラッカーT1,T2,T3には、既に後続ブロッブ包摂図形B40a(馬),B40b(人),B40c(車)が登録されているので、図28(b) に示す動体識別画像M40から抽出された4つのブロッブ包摂図形のうち、既に登録された後続ブロッブ包摂図形に対応しないブロッブ包摂図形は、ブロッブ包摂図形B40e(犬)のみである。よって、このブロッブ包摂図形B40e(犬)が、新参ブロッブ包摂図形と判断され、時刻t40欄が未登録状態(空欄状態)のトラッカーに先頭ブロッブ包摂図形として登録される。もちろん、新参ブロッブ包摂図形が複数存在する場合には、それぞれが異なるトラッカーに登録されることになる。   Specifically, in the case of the above example, as shown in FIG. 29, the subsequent blob inclusion figures B40a (horse), B40b (person), and B40c (car) are already registered in the trackers T1, T2, and T3. Of the four blob inclusion figures extracted from the moving object identification image M40 shown in FIG. 28 (b), the blob inclusion figure that does not correspond to the subsequent registered blob inclusion figure is only the blob inclusion figure B40e (dog). . Therefore, this blob inclusion figure B40e (dog) is determined to be a new blob inclusion figure, and the time t40 column is registered as the first blob inclusion figure in the unregistered (blank state) tracker. Of course, if there are multiple new blob inclusion figures, each will be registered in a different tracker.

図29に示す例の場合、トラッカーT4,T5,T6は、いずれも時刻t40欄が未登録状態であるので、新参ブロッブ包摂図形B40e(犬)は、これらのいずれに登録してもかまわない。図24に示す例は、この新参ブロッブ包摂図形B40e(犬)を、トラッカーT5に登録した例である。残りのトラッカーT4,T6の時刻t40欄は、登録すべきブロッブ包摂図形がないため、無登録状態(×印)となっている。こうして登録された新参ブロッブ包摂図形B40e(犬)は、先頭ブロッブ包摂図形として機能し、トラッカーT5には、以後、動体O5(犬)が消滅するまで、後続ブロッブ包摂図形が並べられることになる。   In the case of the example shown in FIG. 29, since the tracker T4, T5, and T6 are all unregistered in the time t40 column, the new blob inclusion figure B40e (dog) may be registered in any of these. The example shown in FIG. 24 is an example in which this new blob inclusion figure B40e (dog) is registered in the tracker T5. The time t40 column of the remaining trackers T4 and T6 is in an unregistered state (x mark) because there is no blob inclusion figure to be registered. The newly added blob inclusion figure B40e (dog) registered in this way functions as a leading blob inclusion figure, and subsequent blob inclusion figures are arranged in the tracker T5 until the moving object O5 (dog) disappears thereafter.

図27(b) に示すとおり、原画像P40上には、互いに重なり合う動体が存在しないため、図28(b) に示す動体識別画像M40から抽出されたブロッブ包摂図形B40a(馬),B40b(人),B40c(車)と、図29に示す表における時刻t40欄に登録されている後続ブロッブ包摂図形B40a(馬),B40b(人),B40c(車)とは、互いに1対1に対応する。たとえば、図29のトラッカーT1の時刻t40欄に登録されているブロッブ包摂図形B40a(馬)は、図28(b) に示す動体識別画像M40に対するマスキング処理後の個別動体識別画像M(40,1)から抽出されたブロッブ包摂図形であるから、もともと動体識別画像M40に含まれていたブロッブ包摂図形B40a(馬)に一致する。ところが、図28(b) に示す動体識別画像M40から抽出されたブロッブ包摂図形B40e(犬)は、図29に示すいずれのトラッカー上にも対応する後続ブロッブ包摂図形が存在しない。このため、当該ブロッブ包摂図形B40e(犬)を、新参ブロッブ包摂図形と認識することができる。   As shown in FIG. 27 (b), there are no moving objects that overlap each other on the original image P40. Therefore, blob inclusion figures B40a (horse) and B40b (people) extracted from the moving object identification image M40 shown in FIG. 28 (b). ), B40c (car) and the subsequent blob inclusion figures B40a (horse), B40b (person), and B40c (car) registered in the time t40 column in the table shown in FIG. 29 have a one-to-one correspondence. . For example, the blob inclusion figure B40a (horse) registered in the time t40 column of the tracker T1 in FIG. 29 is the individual moving object identification image M (40, 1) after the masking process for the moving object identification image M40 shown in FIG. The blob inclusion figure extracted from (1)) matches the blob inclusion figure B40a (horse) originally included in the moving object identification image M40. However, the blob inclusion figure B40e (dog) extracted from the moving object identification image M40 shown in FIG. 28B does not have a corresponding subsequent blob inclusion figure on any of the trackers shown in FIG. Therefore, the blob inclusion graphic B40e (dog) can be recognized as a new blob inclusion graphic.

なお、原画像上に互いに重なり合う動体が存在する場合は、上例のような単純な1対1の対応にはならない。たとえば、図18(b) に示す原画像P30上では、3つの動体O1,O2,O3が重なり合っているため、動体識別画像M30からは、図19(b) に示すような2つのブロッブ包摂図形B30d(鳥),B30g(人車馬)が抽出される。一方、図24に示す表において、トラッカーT1,T2,T3の時刻t30欄に登録されている後続ブロッブ包摂図形B30a(馬),B30b(人),B30c(車)は、それぞれマスキング処理後の個別動体識別画像M(30,1),M(30,2),M(30,3)から抽出されたものであるため、図19(b) に示すブロッブ包摂図形B30g(人車馬)とは1対1に対応するわけではない。   Note that when there are moving objects that overlap each other on the original image, a simple one-to-one correspondence as in the above example is not achieved. For example, since three moving objects O1, O2, and O3 overlap on the original image P30 shown in FIG. 18 (b), two blob inclusion figures as shown in FIG. 19 (b) are obtained from the moving object identification image M30. B30d (bird) and B30g (passenger horse) are extracted. On the other hand, in the table shown in FIG. 24, the subsequent blob inclusion figures B30a (horse), B30b (person), and B30c (car) registered in the time t30 column of the trackers T1, T2, and T3 are the individual after masking processing. Since it is extracted from the moving body identification images M (30,1), M (30,2), M (30,3), the blob inclusion figure B30g (human horse) shown in FIG. There is no one-to-one correspondence.

このように、複数n個の動体が互いに重なり合っている場合は、動体識別画像M上において、複数n個の動体の融合体に対して1つのブロッブ包摂図形が抽出されることになるので、トラッカーに登録されている後続ブロッブ包摂図形に対して1対1の対応は得られないが、その代わりに、1対nの対応が得られることになる。すなわち、上例の場合、図19(b) に示されているブロッブ包摂図形B30g(人車馬)に対して、図29の表の時刻t30欄に登録されている3つの後続ブロッブ包摂図形B30a(馬),B30b(人),B30c(車)が対応するという1対3の対応関係が得られることになる。一方、図19(b) のブロッブ包摂図形B30d(鳥)については、図29の表の時刻t30欄に登録されている後続ブロッブ包摂図形B30d(鳥)に対して1対1の対応が得られる。   Thus, when a plurality of n moving objects overlap with each other, one blob inclusion figure is extracted from the moving object identification image M for the fusion object of the plurality n moving objects. However, a one-to-one correspondence is not obtained for the subsequent blob inclusion figure registered in (1), but instead a one-to-n correspondence is obtained. That is, in the case of the above example, the three subsequent blob inclusion figures B30a registered in the time t30 column of the table of FIG. 29 with respect to the blob inclusion figure B30g (human horse) shown in FIG. 19 (b). A one-to-three correspondence relationship in which (horse), B30b (person), and B30c (car) correspond is obtained. On the other hand, for the blob inclusion graphic B30d (bird) in FIG. 19B, a one-to-one correspondence is obtained with the subsequent blob inclusion graphic B30d (bird) registered in the time t30 column of the table of FIG. .

このように、原画像上に互いに重なり合う動体が存在する場合でも、動体識別画像Mから抽出した各ブロッブ包摂図形と、トラッカー上に登録されている後続ブロッブ包摂図形との間には、1対1もしくは1対nの対応関係が得られる。したがって、上述したとおり、対応する後続ブロッブ包摂図形がトラッカー上に登録されていないブロッブ包摂図形を新参ブロッブ包摂図形と認識し、これを新たにトラッカー上に登録することが可能である。図19(b) に示す動体識別画像M30の場合、抽出されたブロッブ包摂図形B30g(人車馬)は、3つの後続ブロッブ包摂図形B30a(馬),B30b(人),B30c(車)に対応し、抽出されたブロッブ包摂図形B30d(鳥)は単一の後続ブロッブ包摂図形B30d(鳥)に対応することになるので、動体識別画像M30上には新参ブロッブ包摂図形は存在しない、との判断を行うことができる。   As described above, even when moving objects that overlap each other exist on the original image, there is a one-to-one correspondence between each blob inclusion graphic extracted from the moving object identification image M and the subsequent blob inclusion graphic registered on the tracker. Alternatively, a one-to-n correspondence is obtained. Therefore, as described above, it is possible to recognize a blob inclusion graphic whose corresponding subsequent blob inclusion graphic is not registered on the tracker as a new blob inclusion graphic, and newly register it on the tracker. In the case of the moving body identification image M30 shown in FIG. 19B, the extracted blob inclusion figure B30g (human horse) corresponds to the three subsequent blob inclusion figures B30a (horse), B30b (person), and B30c (vehicle). Since the extracted blob inclusion graphic B30d (bird) corresponds to a single subsequent blob inclusion graphic B30d (bird), it is determined that there is no new blob inclusion graphic on the moving object identification image M30. It can be performed.

なお、このような新参ブロッブ包摂図形の有無を判断する用途に資するため、実用上は、トラッカー上に後続ブロッブ包摂図形を登録する際に、当該後続ブロッブ包摂図形と、当該後続ブロッブ包摂図形を抽出する元になった動体識別画像M上のブロッブ包摂図形と、の対応関係を示すテーブルを作成しておくのが好ましい。図30に、このようなテーブルの一例を示す。この例は、図24の表の時刻t30の欄に登録された後続ブロッブ包摂図形と、図19(b) に示す動体識別画像M30上のブロッブ包摂図形と、の対応関係を示すテーブルであり、トラッカー上に各後続ブロッブ包摂図形を登録する作業を行う際に作成することができる。   In addition, in order to contribute to the use of determining the presence or absence of such a new blob inclusion figure, in practice, when registering the subsequent blob inclusion figure on the tracker, the subsequent blob inclusion figure and the subsequent blob inclusion figure are extracted. It is preferable to create a table indicating the correspondence relationship with the blob inclusion figure on the moving object identification image M that is the basis of the above. FIG. 30 shows an example of such a table. This example is a table showing the correspondence relationship between the subsequent blob inclusion graphic registered in the column of time t30 in the table of FIG. 24 and the blob inclusion graphic on the moving object identification image M30 shown in FIG. It can be created when performing the work of registering each subsequent blob inclusion figure on the tracker.

たとえば、図24の表のトラッカーT1の時刻t30欄に、図20(b) に示す個別動体識別画像M(30,1)から抽出された後続ブロッブ包摂図形B30a(馬)を登録する場合を考えよう。この場合、この図20(b) に示す後続ブロッブ包摂図形B30a(馬)と、図19(b) に示すブロッブ包摂図形B30g(人車馬)とは、後者が前者を包含する関係になっていることがわかる。このように、一方が他方を包含する関係になっているブロッブ包摂図形については、互いに対応するブロッブ包摂図形と認識し、テーブル上に当該対応関係を記録しておくようにする。図30に示すテーブルの1行目に記録された対応関係は、このようにして記録されたものである。   For example, consider the case where the subsequent blob inclusion figure B30a (horse) extracted from the individual moving object identification image M (30, 1) shown in FIG. 20B is registered in the time t30 column of the tracker T1 in the table of FIG. Like. In this case, the subsequent blob inclusion figure B30a (horse) shown in FIG. 20 (b) and the blob inclusion figure B30g (human horse) shown in FIG. 19 (b) have a relationship in which the latter includes the former. I understand that. In this way, the blob inclusion figures in which one of them includes the other are recognized as blob inclusion figures corresponding to each other, and the corresponding relation is recorded on the table. The correspondence recorded in the first row of the table shown in FIG. 30 is recorded in this way.

同様に、図24の表のトラッカーT2の時刻t30欄に、図21(b) に示す個別動体識別画像M(30,2)から抽出された後続ブロッブ包摂図形B30b(人)を登録する場合や、図24の表のトラッカーT3の時刻t30欄に、図22(b) に示す個別動体識別画像M(30,3)から抽出された後続ブロッブ包摂図形B30c(車)を登録する場合にも、包含関係にあるブロッブ包摂図形B30g(人車馬)との対応関係が記録される。図30に示すテーブルの2行目および3行目に記録された対応関係は、このようにして記録されたものである。   Similarly, when the subsequent blob inclusion figure B30b (person) extracted from the individual moving body identification image M (30, 2) shown in FIG. 21B is registered in the time t30 column of the tracker T2 in the table of FIG. 24, when the subsequent blob inclusion figure B30c (car) extracted from the individual moving object identification image M (30, 3) shown in FIG. 22B is registered in the time t30 column of the tracker T3 in the table of FIG. The correspondence relationship with the blob inclusion figure B30g (human horse) in the inclusion relationship is recorded. The correspondence recorded in the second and third rows of the table shown in FIG. 30 is recorded in this way.

また、図24の表のトラッカーT4の時刻t30欄に、図23(b) に示す個別動体識別画像M(30,4)から抽出された後続ブロッブ包摂図形B30d(鳥)を登録する場合は、当該後続ブロッブ包摂図形B30d(鳥)と図19(b) に示すブロッブ包摂図形B30d(鳥)とが一致する関係(1対1の対応関係)になっているので、やはり両者が互いに対応するブロッブ包摂図形と認識し、テーブル上に当該対応関係を記録しておくようにする。図30に示すテーブルの4行目に記録された対応関係は、このようにして記録されたものである。   Also, when registering the subsequent blob inclusion figure B30d (bird) extracted from the individual moving body identification image M (30, 4) shown in FIG. 23 (b) in the time t30 column of the tracker T4 in the table of FIG. 24, Since the subsequent blob inclusion graphic B30d (bird) and the blob inclusion graphic B30d (bird) shown in FIG. 19 (b) are in a matching relationship (one-to-one correspondence), the blob that corresponds to each other again. It is recognized as an inclusion figure, and the corresponding relationship is recorded on a table. The correspondence recorded in the fourth row of the table shown in FIG. 30 is recorded in this way.

要するに、トラッカー上に個々の後続ブロッブ包摂図形を登録する処理を行う際に、登録対象となる後続ブロッブ包摂図形と動体識別画像M上の各ブロッブ包摂図形とを比較し、両者が一致するか、もしくは、一方が他方を包含する関係になっているものを互いに対応するブロッブ包摂図形と認識し、当該対応関係をテーブルに記録しておくようにすればよい。このようなテーブルを用意しておけば、前述したように、動体識別画像M上に新参ブロッブ包摂図形が存在するか否かの判断を容易に行うことが可能になる。すなわち、動体識別画像M上の個々のブロッブ包摂図形のうち、後続ブロッブ包摂図形との対応関係が記録されていないブロッブ包摂図形を新参ブロッブ包摂図形と認識することができる。   In short, when performing the process of registering each subsequent blob inclusion figure on the tracker, the subsequent blob inclusion figure to be registered is compared with each blob inclusion figure on the moving object identification image M, and they match. Alternatively, what is in a relationship including one of the other may be recognized as a blob inclusion figure corresponding to each other, and the corresponding relationship may be recorded in a table. If such a table is prepared, it is possible to easily determine whether or not a new blob inclusion graphic exists on the moving object identification image M as described above. That is, among the individual blob inclusion figures on the moving object identification image M, a blob inclusion figure in which the correspondence relationship with the subsequent blob inclusion figure is not recorded can be recognized as a new blob inclusion figure.

<<< §6.基本的実施形態に係る動体追跡装置 >>>
本発明に係る動体追跡装置は、§4で述べた後続ブロッブ包摂図形の認識法と、§5で述べた新参ブロッブ包摂図形の認識法とを採用し、トラッカー上に新参ブロッブ包摂図形の登録および後続ブロッブ包摂図形の登録を行い、個々の動体を追跡する処理を行うものである。以下、図31のブロック図を参照しながら、本発明の基本的な実施形態に係る動体追跡装置の構成および動作を説明する。
<<< §6. Moving body tracking device according to basic embodiment >>
The moving body tracking apparatus according to the present invention employs the subsequent blob inclusion graphic recognition method described in §4 and the new blob inclusion graphic recognition method described in §5 to register the new blob inclusion graphic on the tracker and The subsequent blob inclusion figure is registered, and the process of tracking individual moving objects is performed. The configuration and operation of the moving object tracking device according to the basic embodiment of the present invention will be described below with reference to the block diagram of FIG.

この動体追跡装置は、入力した動画画像について動体を検出し、これを追跡する処理を行う装置であり、その基本的な役割は、これまで述べてきたトラッカーの情報を作成し、保持することにある。図示のとおり、この装置の基本的な構成要素は、画像入力部110,背景画像提供部120,動体識別画像生成部130,マスキング処理部140,トラッカー格納部150,トラッカー登録部160,ブロッブ包摂図形抽出部170である。以下、これらの構成要素の機能を順に説明する。   This moving body tracking device is a device that detects a moving body from an input moving image and performs processing for tracking the moving body. Its basic role is to create and hold tracker information described so far. is there. As shown in the figure, the basic components of this apparatus are an image input unit 110, a background image providing unit 120, a moving object identification image generating unit 130, a masking processing unit 140, a tracker storage unit 150, a tracker registration unit 160, a blob inclusion figure. This is the extraction unit 170. Hereinafter, functions of these components will be described in order.

<6−1:画像入力部110>
画像入力部110は、時系列で連続する複数の原画像P(i)からなる動画画像を入力し、これを動体識別画像生成部130に提供する構成要素である。ここで、iは時系列の順序を示す自然数(i=1,2,3,... )である。§3では、図14(a) ,(b) ,(c) に示すように、時刻t20,t30,t40において原画像P20,P30,P40が入力された実例を用いた説明を行ったが、ここでは、画像入力部110に対して、時刻t(1)において原画像P(1)が与えられ、次の時刻t(2)において原画像P(2)が与えられ、... 、時刻t(i)において原画像P(i)が与えられたものとする。こうして与えられた時系列で連続する複数の原画像P(i)は動画画像を構成する。たとえば、30フレーム/秒の動画画像の場合は、原画像P(i+1)は原画像(i)の1/30秒後のフレームということになる。
<6-1: Image Input Unit 110>
The image input unit 110 is a component that inputs a moving image composed of a plurality of original images P (i) continuous in time series and provides the moving image to the moving object identification image generation unit 130. Here, i is a natural number (i = 1, 2, 3,...) Indicating the order of time series. In §3, as shown in FIGS. 14 (a), (b), and (c), an explanation was given using an example in which original images P20, P30, and P40 were input at times t20, t30, and t40. Here, the original image P (1) is given to the image input unit 110 at time t (1), the original image P (2) is given at the next time t (2),. Assume that an original image P (i) is given at t (i). A plurality of original images P (i) continuous in time series thus provided constitute a moving image. For example, in the case of a moving image of 30 frames / second, the original image P (i + 1) is a frame 1/30 seconds after the original image (i).

なお、画像入力部110を、ハードディスク装置などの記憶装置によって構成しておけば、入力した複数の原画像P(i)からなる動画画像を動画データとして蓄積することができ、必要に応じて、必要なフレームの原画像を動体識別画像生成部130に提供することができる。したがって、動画の任意のパートについての動体追跡処理を随時行うことが可能になる。また、動体識別画像生成部130に対して、時系列を遡るように逆順で原画像を提供するようにすれば、動画を逆送りしながら動体追跡を行うことも可能になる。もちろん、リアルタイムで撮影された動画に基づいて、その場で動体追跡を行う用途に利用する場合には、画像入力部110に動画画像を蓄積保存する機能を設けておく必要はない。   In addition, if the image input unit 110 is configured by a storage device such as a hard disk device, a moving image composed of a plurality of input original images P (i) can be accumulated as moving image data. An original image of a necessary frame can be provided to the moving object identification image generation unit 130. Therefore, it is possible to perform the moving body tracking process for any part of the moving image at any time. Further, if the original image is provided in reverse order so as to go back in time series to the moving object identification image generation unit 130, moving object tracking can be performed while moving the moving image backward. Of course, when used for the purpose of tracking a moving object on the spot based on a moving image captured in real time, it is not necessary to provide a function for accumulating and storing moving image in the image input unit 110.

<6−2:背景画像提供部120>
背景画像提供部120は、こうして画像入力部110に与えられた動画画像の背景を構成する背景画像を、動体識別画像生成部130に対して提供する機能をもった構成要素である。たとえば、背景画像提供部120に、外部から与えられた静止画像を取り込んで保存する機能をもたせておき、予め所定の静止画像を背景画像として与えておくようにすれば、背景画像提供部120は、当該静止画像をそのまま背景画像として提供することができる。このような方法で背景画像を提供するのであれば、背景画像提供部120を、静止画像のデータを記憶する単純なデータ記憶装置によって構成することができる。
<6-2: Background Image Providing Unit 120>
The background image providing unit 120 is a component having a function of providing the background image constituting the background of the moving image provided to the image input unit 110 to the moving object identification image generating unit 130. For example, if the background image providing unit 120 has a function of capturing and storing a still image given from the outside, and a predetermined still image is given as a background image in advance, the background image providing unit 120 The still image can be provided as a background image as it is. If the background image is provided by such a method, the background image providing unit 120 can be configured by a simple data storage device that stores still image data.

もっとも、照明環境に変化のない室内を定点カメラで撮影した動画画像を取り扱う場合であれば、上述のように、単純なデータ記憶装置によって背景画像提供部120を構成することも可能であるが、外光により照明環境が時々刻々と変化してゆく室内や、屋外を撮影した動画画像を取り扱う場合は、当然、背景画像も時間とともに変化させる必要がある。すなわち、定点カメラで撮影した動画画像であっても、朝、昼、晩といった時間経過により背景画像は変化し、また、雲の動き、日照状態の変化などの天候によっても背景画像は変化する。また、定点カメラの設置場所や撮影方向を変更した場合にも背景画像は変化する。   Of course, as described above, the background image providing unit 120 can be configured by a simple data storage device when handling a moving image captured by a fixed point camera in a room where the lighting environment does not change. When dealing with moving images taken indoors or outdoors where the lighting environment changes from time to time due to external light, naturally the background image also needs to change over time. That is, even a moving image captured by a fixed point camera changes with the passage of time such as morning, noon, and evening, and the background image also changes due to weather such as movement of clouds and changes in sunshine conditions. The background image also changes when the location of the fixed point camera and the shooting direction are changed.

このような背景画像の変化にも対応できるようにするためには、背景画像提供部120に、画像入力部110が過去の所定期間にわたって入力した原画像の単純平均もしくは重みづけ平均を求める機能をもたせておき、求めた平均画像を背景画像として提供するようにすればよい。平均画像は、動体の情報が希釈されているため、背景画像として利用するのに適している。図31に示す実施形態の背景画像提供部120は、このような機能をもった構成要素である。すなわち、画像入力部110が入力した原画像P(i)は、逐次、背景画像提供部120に与えられる。背景画像提供部120は、こうして与えられた原画像P(i)に基づいて平均画像を作成し、この平均画像を背景画像として動体識別画像生成部130に提供する機能を果たす。   In order to cope with such a change in the background image, the background image providing unit 120 has a function of obtaining a simple average or a weighted average of the original images input by the image input unit 110 over a predetermined period in the past. The average image obtained may be provided as a background image. The average image is suitable for use as a background image because the moving object information is diluted. The background image providing unit 120 of the embodiment shown in FIG. 31 is a component having such a function. That is, the original image P (i) input by the image input unit 110 is sequentially given to the background image providing unit 120. The background image providing unit 120 has a function of creating an average image based on the original image P (i) thus provided and providing the average image as a background image to the moving object identification image generating unit 130.

過去の原画像の平均をとることにより背景画像を作成する具体的な方法は、§1でいくつか述べたとおりである。たとえば、過去10分間に得られた原画像の単純平均を示す画像(個々の画素ごとの画素値の単純平均を求めた画像)を背景画像とするのであれば、背景画像提供部120には、常に、現時点から10分間だけ遡った分の原画像を蓄積するデータ記憶場所と、画素値の平均演算を行う演算機能と、を組み込んでおけばよい。もちろん、現時点に近い原画像の画素ほど大きな重みをつけるような重みづけ平均を求めることも可能である。   The specific method for creating the background image by taking the average of the past original images is as described in section 1 above. For example, if an image indicating a simple average of original images obtained in the past 10 minutes (an image obtained by calculating a simple average of pixel values for each pixel) is used as a background image, the background image providing unit 120 includes: It is always necessary to incorporate a data storage location for accumulating the original image that has been traced back for 10 minutes from the present time, and a calculation function for performing an average calculation of pixel values. Of course, it is also possible to obtain a weighted average that gives higher weight to the pixels of the original image closer to the current time.

ただ、30フレーム/秒程度の動画の10分間の画像データを蓄積するには、かなりの記憶容量が必要になるので、実用上は、§1で述べたとおり、第i番目の原画像P(i)が与えられたときに、第(i−1)番目の平均画像A(i−1)と、当該第i番目の原画像P(i)との2枚の画像に基づいて、第i番目の平均画像A(i)を作成する手法を採るのが好ましい。その具体的な手法は、図3で説明したとおりである。   However, in order to accumulate 10-minute image data of a moving image of about 30 frames / second, a considerable storage capacity is required. Therefore, as described in §1, in practice, the i-th original image P ( i), the i-th average image A (i-1) and the i-th original image P (i) are used to determine the i-th It is preferable to adopt a method of creating the th average image A (i). The specific method is as described in FIG.

<6−3:動体識別画像生成部130>
動体識別画像生成部130は、画像入力部110から提供された第i番目の原画像P(i)と、背景画像提供部120から提供された背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する構成要素である。ここに示す実施形態の場合、図2で説明したように、第i番目の原画像P(i)と、第(i−1)番目の平均画像(すなわち背景画像)A(i−1)と、を比較することにより、第i番目の動体識別画像M(i)の生成が行われる。この動体識別画像M(i)は、背景領域K(i)と前景領域F(i)とを区別する二値画像である。
<6-3: Moving Object Identification Image Generation Unit 130>
The moving object identification image generation unit 130 compares the i-th original image P (i) provided from the image input unit 110 with the background image provided from the background image providing unit 120, and compares the background region and the foreground region. And the i-th moving object identification image M (i) for distinguishing between them. In the case of the embodiment shown here, as described with reference to FIG. 2, the i-th original image P (i), the (i−1) -th average image (ie, the background image) A (i−1), , The i-th moving object identification image M (i) is generated. The moving object identification image M (i) is a binary image that distinguishes the background region K (i) and the foreground region F (i).

ここで、動体識別画像M(i)を生成するには、図5で説明したとおり、原画像P(i)上の特定位置にある画素p(i)の色と、背景画像A(i−1)上の前記特定位置にある画素a(i−1)の色とを比較し、両画素の色の近似度が所定条件を満たす場合には当該特定位置にある画素m(i)を背景領域Kの画素とし、所定条件を満たさない場合には当該特定位置にある画素m(i)を前景領域Fの画素とすればよい。近似度の所定条件としては、たとえば、§1で述べたように、色空間上でのユークリッド距離を設定することができる。   Here, in order to generate the moving object identification image M (i), as described in FIG. 5, the color of the pixel p (i) at a specific position on the original image P (i) and the background image A (i− 1) Compare the color of the pixel a (i-1) at the specific position above, and if the degree of approximation of the colors of both pixels satisfies a predetermined condition, the pixel m (i) at the specific position If the pixel in the region K is not satisfied and the predetermined condition is not satisfied, the pixel m (i) at the specific position may be the pixel in the foreground region F. As the predetermined condition for the degree of approximation, for example, as described in §1, the Euclidean distance in the color space can be set.

<6−4:トラッカー格納部150>
トラッカー格納部150は、トラッカーの情報を個々の動体ごとに格納する構成要素であり、具体的には、図24や図29に例示したような表の情報を格納する機能を果たす。ここで、トラッカーとは、既に説明したとおり、同一の動体に基づいて抽出されたと推定される複数のブロッブ包摂図形を先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べた情報である。
<6-4: Tracker storage unit 150>
The tracker storage unit 150 is a component that stores tracker information for each moving object. Specifically, the tracker storage unit 150 has a function of storing table information as illustrated in FIGS. 24 and 29. Here, as described above, the tracker is information in which a plurality of blob inclusion figures estimated to be extracted based on the same moving object are arranged in time series from the first blob inclusion figure to the last blob inclusion figure. .

図31のトラッカー格納部150のブロック内には、横方向に時系列をとったトラッカーを縦方向に複数並べた表が例示されている。ここで、T1,T2,... ,Tj,... は、個々のトラッカーの名称であり、各トラッカーには、それぞれ特定の時刻に対応する欄が設けられており、特定のブロッブ包摂図形を示す情報が登録される。たとえば、第j番目のトラッカーTjの欄を見ると、時刻t(i−1)の欄にはブロッブ包摂図形Bj(i−1)が登録されており、時刻t(i)の欄にはブロッブ包摂図形Bj(i)が登録されている。もちろん、まだブロッブ包摂図形の登録が行われていない未登録状態の欄もあれば、登録すべきブロッブ包摂図形がないことを示す無登録状態の欄もある。   In the block of the tracker storage unit 150 in FIG. 31, a table in which a plurality of trackers taking time series in the horizontal direction are arranged in the vertical direction is illustrated. Here, T1, T2,..., Tj,... Are names of individual trackers, and each tracker is provided with a column corresponding to a specific time, and a specific blob inclusion figure. Is registered. For example, looking at the column of the j-th tracker Tj, the blob inclusion figure Bj (i−1) is registered in the column of time t (i−1), and the blob in the column of time t (i). An inclusion figure Bj (i) is registered. Of course, there is an unregistered state column where the blob inclusion figure has not yet been registered, and there is an unregistered state column indicating that there is no blob inclusion figure to be registered.

なお、ここに示す実施形態の場合、図13に示すように、個々のブロッブ包摂図形Bは動体の外接矩形によって構成されており、その実体は、2頂点Q1(x1,y1),Q2(x2,y2)の座標値である。したがって、トラッカー格納部150の各欄に格納される情報の実体は、(x1,y1,x2,y2)のような外接矩形の2頂点を示す座標値のデータということになる。すなわち、トラッカー格納部150は、外接矩形の対角に位置する2頂点の座標値をトラッカーの情報として格納することになる。   In the case of the embodiment shown here, as shown in FIG. 13, each blob inclusion figure B is constituted by a circumscribed rectangle of a moving object, and its substance is two vertices Q1 (x1, y1), Q2 (x2 , Y2). Therefore, the substance of information stored in each column of the tracker storage unit 150 is data of coordinate values indicating two vertices of a circumscribed rectangle such as (x1, y1, x2, y2). That is, the tracker storage unit 150 stores the coordinate values of the two vertices located at the diagonal of the circumscribed rectangle as tracker information.

もちろん、トラッカー格納部150は、一連のブロッブ包摂図形を時系列で並べた情報を示すトラッカーを複数格納する機能をもっていれば足り、個々のブロッブ包摂図形をどのようなデータで表現し、時系列の並びの情報をどのような形態で記録するかは任意である。したがって、トラッカー格納部150内に格納される具体的なデータ構造は、ここに例示した形態に限定されるものではない。   Of course, the tracker storage unit 150 only needs to have a function of storing a plurality of trackers indicating information obtained by arranging a series of blob inclusion figures in time series. In what form the information of the line is recorded is arbitrary. Therefore, the specific data structure stored in the tracker storage unit 150 is not limited to the form illustrated here.

<6−5:マスキング処理部140>
マスキング処理部140は、動体識別画像生成部130が生成した動体識別画像Mの前景領域Fに対して、トラッカー格納部150に格納されている特定のブロッブ包摂図形を利用したマスキングを行う構成要素である。より具体的には、トラッカー格納部150に格納されている第j番目のトラッカーTjを着目トラッカーとして、着目外トラッカー(Tj以外のトラッカー)の第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)となる矩形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うことにより、着目トラッカーTj用の個別動体識別画像M(i,j)を生成し、これをブロッブ包摂図形抽出部に提供する。
<6-5: Masking processing unit 140>
The masking processing unit 140 is a component that performs masking using a specific blob inclusion figure stored in the tracker storage unit 150 on the foreground region F of the moving object identification image M generated by the moving object identification image generation unit 130. is there. More specifically, the jth tracker Tj stored in the tracker storage unit 150 is used as the target tracker, and the blob belonging to the (i-1) th time series of the non-target tracker (tracker other than Tj). The individual moving object identification image M (i, j) for the tracker Tj of interest is masked by masking the i-th moving object identification image M (i) using the rectangle that is the inclusion figure B (i-1). Is generated and provided to the blob inclusion figure extraction unit.

たとえば、j=1とすれば、トラッカーT1が着目トラッカーになり、トラッカーT2以降の全トラッカーが着目外トラッカーになる。そして、動体識別画像M(i)に対して、各着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)となる矩形を利用したマスキング処理を行うことにより、着目トラッカーT1用の個別動体識別画像M(i,1)が生成される。同様に、J=2とすれば、着目トラッカーT2用の個別動体識別画像M(i,2)が生成され、J=3とすれば、着目トラッカーT3用の個別動体識別画像M(i,3)が生成される。   For example, if j = 1, the tracker T1 becomes the target tracker, and all the trackers after the tracker T2 become the non-target trackers. Then, a masking process is performed on the moving object identification image M (i) using a rectangle that is the blob inclusion figure B (i-1) belonging to the (i-1) th time series of each non-target tracker. As a result, the individual moving object identification image M (i, 1) for the tracker T1 of interest is generated. Similarly, if J = 2, an individual moving object identification image M (i, 2) for the target tracker T2 is generated, and if J = 3, an individual moving object identification image M (i, 3) for the target tracker T3. ) Is generated.

図20(b) ,図21(b) ,図22(b) ,図23(b) に示されている個別動体識別画像M(30,1),M(30,2),M(30,3),M(30,4)は、こうして作成された個別動体識別画像の実例である。なお、これらの個別動体識別画像は、トラッカー登録部160における後続ブロッブ包摂図形登録処理に利用されるものであるので、後続ブロッブ包摂図形をみつける必要のないトラッカーについては作成する必要はない。   20 (b), 21 (b), 22 (b), and 23 (b), the individual moving body identification images M (30, 1), M (30, 2), M (30, 3) and M (30, 4) are actual examples of the individual moving object identification images created in this way. Since these individual moving body identification images are used for the subsequent blob inclusion graphic registration process in the tracker registration unit 160, it is not necessary to create a tracker that does not need to find the subsequent blob inclusion graphic.

たとえば、図24に示す例の場合、トラッカーT1〜T4については、時刻t29欄にブロッブ包摂図形が登録されており、時刻t30欄に登録すべき後続ブロッブ包摂図形をみつける必要があるので、トラッカーT1〜T4をそれぞれ着目トラッカーとして、個別動体識別画像M(30,1),M(30,2),M(30,3),M(30,4)を作成する必要があるが、トラッカーT5,T6については、時刻t29欄が無登録状態(×印)であるため、時刻t30欄に登録すべき後続ブロッブ包摂図形は存在しない。したがって、トラッカーT5,T6を着目トラッカーとして、個別動体識別画像M(30,5),M(30,6)を作成する必要はない。結局、マスキング処理部140は、第(i−1)番目の時系列にブロッブ包摂図形B(i−1)が登録されているトラッカーについてのみ個別動体識別画像M(i,j)を生成すれば足りる。   For example, in the case of the example shown in FIG. 24, for the trackers T1 to T4, the blob inclusion graphic is registered in the time t29 column, and it is necessary to find the subsequent blob inclusion graphic to be registered in the time t30 column. It is necessary to create individual moving body identification images M (30,1), M (30,2), M (30,3), and M (30,4) with T4 as the target tracker. For T6, since the time t29 column is in an unregistered state (x mark), there is no subsequent blob inclusion figure to be registered in the time t30 column. Therefore, it is not necessary to create the individual moving object identification images M (30, 5) and M (30, 6) using the trackers T5 and T6 as the target tracker. After all, if the masking processing unit 140 generates the individual moving object identification image M (i, j) only for the tracker in which the blob inclusion figure B (i-1) is registered in the (i-1) th time series. It ’s enough.

<6−6:ブロッブ包摂図形抽出部170>
ブロッブ包摂図形抽出部170は、動体識別画像生成部130が生成した第i番目の動体識別画像M(i)に基づいて、前景領域Fを構成するひとまとまりの画素集団(ブロッブ)を動体と認識し、当該画素集団の外接矩形を第i番目の時系列に所属するブロッブ包摂図形B(i)として抽出する機能と、マスキング処理部140が生成した個別動体識別画像M(i,j)について、マスキングされた部分を除いた前景領域Fを構成するひとまとまりの画素集団(ブロッブ)を動体と認識し、動体と認識した画素集団の外接矩形を第i番目の時系列に所属させるべき第j番目のトラッカー用の候補ブロッブ包摂図形として抽出する機能と、を有する構成要素である。
<6-6: Blob inclusion figure extraction unit 170>
The blob inclusion figure extraction unit 170 recognizes a group of pixels (blob) constituting the foreground region F as a moving object based on the i-th moving object identification image M (i) generated by the moving object identification image generation unit 130. And the function of extracting the circumscribed rectangle of the pixel group as a blob inclusion figure B (i) belonging to the i-th time series and the individual moving object identification image M (i, j) generated by the masking processing unit 140, A group of pixels (blob) constituting the foreground area F excluding the masked portion is recognized as a moving object, and the circumscribed rectangle of the pixel group recognized as a moving object is to belong to the i-th time series. And a function of extracting as a candidate blob inclusion figure for the tracker.

具体的には、図19(b) に示すブロッブ包摂図形B30g,B30d(太線で示す矩形)が、動体識別画像M30から抽出されたブロッブ包摂図形であり、図20(b) ,図21(b) ,図22(b) ,図23(b) に示すブロッブ包摂図形B30a,B30b,B30c,B30dが、それぞれ個別動体識別画像M(30,1),M(30,2),M(30,3),M(30,4)から抽出されたブロッブ包摂図形である。   Specifically, blob inclusion figures B30g and B30d (rectangles indicated by bold lines) shown in FIG. 19 (b) are blob inclusion figures extracted from the moving object identification image M30. FIG. 20 (b) and FIG. ), Blob inclusion figures B30a, B30b, B30c, and B30d shown in FIG. 22 (b) and FIG. 3) A blob inclusion figure extracted from M (30, 4).

なお、動体識別画像M上の前景領域Fを構成するひとまとまりの画素集団から、その外接矩形をブロッブ包摂図形として抽出する方法には、いくつかの具体的な方法が知られている。ここでは、動体識別画像Mが、小さな矩形状の画素を縦横に行列状に並べた画素配列から構成される一般的な画像であった場合を例にとって、比較的単純なアルゴリズムに基づく方法を以下に例示しておく。図32は、このブロッブ包摂図形抽出処理の手順の一例を示す流れ図である。   Note that several specific methods are known for extracting a circumscribed rectangle as a blob inclusion figure from a group of pixels constituting the foreground region F on the moving object identification image M. Here, a method based on a relatively simple algorithm is described below, taking as an example a case where the moving object identification image M is a general image composed of a pixel array in which small rectangular pixels are arranged in rows and columns. An example is given below. FIG. 32 is a flowchart showing an example of the procedure of the blob inclusion figure extraction process.

まず、ステップS1において、動体識別画像M上に初期着目画素を設定する。動体識別画像Mが、縦横の画素配列をもつ一般的な画像であった場合、たとえば、左上の画素(1行1列目の画素)を初期着目画素に設定すればよい。続くステップS2では、着目画素が前景画素か否かの判定を行う。たとえば、図5に示す方法で作成された動体識別画像Mの場合、画素値=1であれば前景画素ということになる。   First, in step S1, an initial target pixel is set on the moving object identification image M. When the moving object identification image M is a general image having vertical and horizontal pixel arrays, for example, the upper left pixel (the pixel in the first row and the first column) may be set as the initial target pixel. In subsequent step S2, it is determined whether or not the pixel of interest is a foreground pixel. For example, in the case of the moving object identification image M created by the method shown in FIG. 5, if the pixel value = 1, it is a foreground pixel.

このステップS2において、前景画素との判定がなされた場合には、ステップS3において、当該着目画素のn画素以内の距離に登録矩形が存在するか否かの判定がなされる。ここで、登録矩形とは、後述するように、ステップS4で登録された矩形、もしくは、当該矩形に基づいてステップS5により拡張された矩形である。一方、ステップS2において、前景画素との判定がなされなかった場合(すなわち、着目画素が背景画素であった場合)には、ステップS6へと進むことになる。   If it is determined in step S2 that the pixel is a foreground pixel, it is determined in step S3 whether or not a registered rectangle exists at a distance within n pixels of the pixel of interest. Here, as described later, the registered rectangle is the rectangle registered in step S4 or the rectangle expanded in step S5 based on the rectangle. On the other hand, if it is not determined in step S2 that the pixel is a foreground pixel (that is, if the target pixel is a background pixel), the process proceeds to step S6.

続いて、ステップS3の判定結果に基づく分岐を説明しよう。まず、ステップS3において、着目画素のn画素以内の距離に登録矩形が存在しないと判定された場合には、ステップS4において、当該着目画素自身の輪郭矩形を登録する処理が行われる。一方、ステップS3において、着目画素のn画素以内の距離に登録矩形が存在すると判定された場合には、ステップS5において、当該登録矩形の領域を、当該着目画素を含む外接矩形にまで拡張する処理が行われる。   Subsequently, a branch based on the determination result of step S3 will be described. First, in step S3, when it is determined that there is no registered rectangle at a distance within n pixels of the target pixel, in step S4, processing for registering the outline rectangle of the target pixel itself is performed. On the other hand, if it is determined in step S3 that the registered rectangle exists at a distance within n pixels of the target pixel, in step S5, the region of the registered rectangle is expanded to a circumscribed rectangle including the target pixel. Is done.

このような処理を、ステップS6,S7を経て、全画素について着目するまで繰り返し実行すれば、すなわち、全画素を着目画素とする走査を行えば、このブロッブ包摂図形抽出処理は完了である。完了時点で登録されていた矩形が、ブロッブ包摂図形として抽出すべき外接矩形になる。   If such processing is repeatedly executed through steps S6 and S7 until all the pixels are focused, that is, if scanning is performed with all the pixels as the focused pixels, this blob inclusion figure extraction processing is completed. The rectangle registered at the time of completion becomes a circumscribed rectangle to be extracted as a blob inclusion figure.

ここでは、図33に示すような具体的な画像を処理対象として、図32に示すブロッブ包摂図形抽出処理を施した場合のプロセスを簡単に説明しておこう。図34は、このブロッブ包摂図形抽出処理の手順を施したプロセスの各段階を示す平面図である。   Here, the process when the blob inclusion figure extraction process shown in FIG. 32 is performed with a specific image as shown in FIG. 33 as a processing target will be briefly described. FIG. 34 is a plan view showing each stage of the process to which the procedure of the blob inclusion figure extraction process is applied.

図33に例示する画像は、6行12列に配列された合計72個の画素からなる単純な画像である。ここでは、ハッチングを施した画素が前景画素、白地の画素が背景画素であるものとする。図示のとおり、この画像には、前景領域を構成するひとまとまりの画素集団(ハッチングを施した前景画素の集団:すなわちブロッブ)が2組含まれており、正しいブロッブ包摂図形抽出処理が実行されれば、これら2組の画素集団(ブロッブ)についての外接矩形が、それぞれブロッブ包摂図形として抽出されるはずである。なお、着目画素の走査は、同一行に含まれる左側の画素から右側の画素へと順に行い、1行の走査が完了したら、次の行の走査に移ることにする。   The image illustrated in FIG. 33 is a simple image composed of a total of 72 pixels arranged in 6 rows and 12 columns. Here, it is assumed that the hatched pixels are foreground pixels and the white pixels are background pixels. As shown in the figure, this image includes two sets of a group of pixels (a group of foreground pixels with hatching: that is, a blob) constituting the foreground region, and correct blob inclusion figure extraction processing is executed. For example, circumscribed rectangles for these two sets of pixel groups (blobs) should be extracted as blob inclusion figures, respectively. Note that the pixel of interest is scanned sequentially from the left pixel to the right pixel included in the same row, and when the scanning of one row is completed, the scanning of the next row is started.

まず、ステップS1において、1行1列目の画素が初期着目画素として設定される。この初期着目画素は前景画素ではないので、ステップS2からステップS6,S7を経て、1行2列目の画素が次の着目画素になる。当該着目画素も前景画素ではないので、1行3列目の画素が次の着目画素になる。図33に示す例の場合、1行目には前景画素が存在しないので、2行目の画素について着目する処理が続行される。   First, in step S1, the pixel in the first row and the first column is set as the initial target pixel. Since the initial target pixel is not a foreground pixel, the pixel in the first row and the second column becomes the next target pixel through steps S2 to S6 and S7. Since the target pixel is not a foreground pixel, the pixel in the first row and the third column becomes the next target pixel. In the case of the example shown in FIG. 33, since there is no foreground pixel in the first row, the process focusing on the pixel in the second row is continued.

そうすると、2行2列目の画素が着目画素となった段階で、はじめて着目画素が前景画素になる。そこで、ステップS3の判定が行われるが、この時点では、まだ登録された矩形は存在しないので、ステップS4に進み、当該着目画素自身の輪郭矩形が登録矩形として登録されることになる。図34(a) は、このような登録がなされた状態を示している。図に太線で示す矩形が登録矩形である。続いて、ステップS6,S7を経て、2行3列目の画素が次の着目画素になるが、2行目には、以降、前景画素が存在しないので、3行目の画素について着目する処理が続行される。   Then, the pixel of interest becomes the foreground pixel only when the pixel in the second row and second column becomes the pixel of interest. Therefore, the determination in step S3 is performed. At this point, since there is no registered rectangle, the process proceeds to step S4, and the outline rectangle of the pixel of interest itself is registered as a registered rectangle. FIG. 34 (a) shows a state in which such registration has been made. A rectangle indicated by a thick line in the figure is a registered rectangle. Subsequently, through steps S6 and S7, the pixel in the second row and the third column becomes the next pixel of interest, but since the foreground pixel does not exist in the second row thereafter, the processing focusing on the pixel in the third row Will continue.

すると、3行2列目の画素が着目画素となった段階で、再び着目画素が前景画素になる。そこで、ステップS3の判定が行われる。ここでは、説明の便宜上、n=3に設定した場合を考えてみよう(実用上は、より大きなnを設定するのが一般的である)。すると、図34(a) に示すとおり、3行2列目の着目画素に対して、3画素以内の距離に登録矩形(太線の矩形)が存在するので、ステップS5へと進み、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(b) は、このような拡張がなされた状態を示している。これまで1画素分の大きさしかなかった登録矩形が、縦長の2画素分の登録矩形に拡張されている。   Then, when the pixel in the third row and the second column becomes the target pixel, the target pixel becomes the foreground pixel again. Therefore, the determination in step S3 is performed. Here, for convenience of explanation, let us consider a case where n = 3 (practically, a larger n is generally set). Then, as shown in FIG. 34 (a), since there is a registered rectangle (thick rectangle) within a distance of 3 pixels or less with respect to the pixel of interest in the third row and the second column, the process proceeds to step S5, and the registered rectangle Is expanded to a circumscribed rectangle including the target pixel. FIG. 34 (b) shows a state where such an extension has been made. The registration rectangle, which has been only one pixel in size so far, has been expanded to a vertically long registration rectangle for two pixels.

続いて、ステップS6,S7を経て、3行3列目の画素が次の着目画素になるが、この画素も前景画素である。そこで、ステップS3の判定を行うと、図34(b) に示すとおり、3行3列目の着目画素に対して、3画素以内の距離に登録矩形(太線の矩形)が存在するので、ステップS5へと進み、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(c) は、このような拡張がなされた状態を示している。これまで2画素分の大きさしかなかった登録矩形が、4画素分の登録矩形に拡張されている。   Subsequently, through steps S6 and S7, the pixel in the third row and the third column becomes the next pixel of interest, and this pixel is also a foreground pixel. Therefore, when the determination in step S3 is performed, as shown in FIG. 34 (b), there is a registered rectangle (thick rectangle) within a distance of 3 pixels or less for the pixel of interest in the third row and the third column. Proceeding to S5, processing for expanding the area of the registered rectangle to a circumscribed rectangle including the pixel of interest is performed. FIG. 34 (c) shows a state where such an extension has been made. The registration rectangle that has been only two pixels in size so far has been expanded to a registration rectangle for four pixels.

続いて、ステップS6,S7を経て、3行4列目の画素が次の着目画素になるが、この画素は前景画素ではない。そこで、ステップS6,S7を経て、3行5列目の画素が次の着目画素になるが、この画素は前景画素である。そこで、ステップS3の判定を行うと、図34(c) に示すとおり、3行5列目の着目画素に対して、3画素以内の距離に登録矩形(太線の矩形)が存在するので、ステップS5へと進み、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(d) は、このような拡張がなされた状態を示している。これまで4画素分の大きさしかなかった登録矩形が、8画素分の登録矩形に拡張されている。   Subsequently, through steps S6 and S7, the pixel in the third row and the fourth column becomes the next pixel of interest, but this pixel is not the foreground pixel. Therefore, through steps S6 and S7, the pixel in the third row and the fifth column becomes the next pixel of interest, and this pixel is a foreground pixel. Therefore, when the determination in step S3 is performed, as shown in FIG. 34 (c), there is a registered rectangle (thick line rectangle) at a distance within 3 pixels for the pixel of interest in the third row and the fifth column. Proceeding to S5, processing for expanding the area of the registered rectangle to a circumscribed rectangle including the pixel of interest is performed. FIG. 34 (d) shows a state where such an extension has been made. The registration rectangle that has been only 4 pixels in size so far has been expanded to a registration rectangle of 8 pixels.

再び前景画素が着目画素となるのは、3行10列目である。この3行10列目の画素を着目画素として、ステップS3の判定を行うと、図34(d) に示すとおり、登録矩形(太線の矩形)は存在するものの、5画素分だけ離れているため、着目画素に対して3画素以内の距離の登録矩形は存在しない。そこで、ステップS4に進み、当該着目画素自身の輪郭矩形が登録矩形として登録されることになる。図34(e) は、このような登録がなされた状態を示している。これにより、第2の登録矩形が生成されたことになる。   The foreground pixel becomes the target pixel again at the third row and the tenth column. When the pixel in the third row and the tenth column is the target pixel and the determination in step S3 is performed, as shown in FIG. 34 (d), although there are registered rectangles (thick rectangles), they are separated by 5 pixels. There is no registered rectangle with a distance within 3 pixels with respect to the pixel of interest. Therefore, the process proceeds to step S4, and the outline rectangle of the pixel of interest itself is registered as a registration rectangle. FIG. 34 (e) shows a state where such registration has been made. As a result, the second registered rectangle is generated.

続いて、3行11列目の画素が着目画素になる。当該着目画素は前景画素であり、左隣に登録矩形が存在するので、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(f) は、このような拡張がなされた状態を示している。これまで1画素分の大きさしかなかった第2の登録矩形が、2画素分の登録矩形に拡張されている。   Subsequently, the pixel in the third row and the eleventh column becomes the target pixel. Since the target pixel is a foreground pixel and a registration rectangle exists on the left side, a process of expanding the area of the registration rectangle to a circumscribed rectangle including the target pixel is performed. FIG. 34 (f) shows a state where such an extension has been made. The second registration rectangle, which has been only one pixel in size so far, has been expanded to a registration rectangle for two pixels.

次に、4行2列目の画素が着目画素になると、図34(f) に示すとおり、上隣に第1の登録矩形が存在するので、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(g) は、このような拡張がなされた状態を示している。これまで8画素分の大きさしかなかった第1の登録矩形が、12画素分の登録矩形に拡張されている。   Next, when the pixel in the 4th row and the 2nd column becomes the target pixel, as shown in FIG. 34 (f), the first registered rectangle exists on the upper side, so that the region of the registered rectangle includes the target pixel. Processing to expand to the circumscribed rectangle is performed. FIG. 34 (g) shows a state where such an extension has been made. The first registered rectangle, which has been only 8 pixels in size, has been expanded to a 12-pixel registered rectangle.

続いて、4行3列目〜5列目の画素が着目画素になった場合、当該着目画素自身が登録矩形内の画素になるため、当然、3画素以内の距離に登録矩形が存在するため、ステップS5へ進むが、既に当該登録矩形は当該着目画素を含む外接矩形に拡張されているため、実質的な登録矩形の拡張は行われない。ただ、4行6列目の画素が着目画素になると、左隣に第1の登録矩形が存在するので、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図34(h) は、このような拡張がなされた状態を示している。これまで12画素分の大きさしかなかった第1の登録矩形が、15画素分の登録矩形に拡張されている。   Subsequently, when the pixel in the 4th row, the 3rd column to the 5th column becomes the target pixel, the target pixel itself becomes a pixel in the registration rectangle, and naturally, the registration rectangle exists within a distance of 3 pixels or less. However, since the registration rectangle has already been extended to the circumscribed rectangle including the target pixel, the registration rectangle is not substantially extended. However, when the pixel in the 4th row and the 6th column becomes the target pixel, the first registered rectangle exists on the left side, so that the process of expanding the region of the registered rectangle to the circumscribed rectangle including the target pixel is performed. FIG. 34 (h) shows a state where such an extension has been made. The first registration rectangle, which has been only 12 pixels in size, has been expanded to a registration rectangle of 15 pixels.

続いて、4行11列目の前景画素が着目画素になると、図34(h) に示すとおり、上隣に第2の登録矩形が存在するので、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図35(i) は、このような拡張がなされた状態を示している。これまで2画素分の大きさしかなかった第2の登録矩形が、4画素分の登録矩形に拡張されている。   Subsequently, when the foreground pixel in the fourth row and the eleventh column becomes the target pixel, as shown in FIG. 34 (h), the second registration rectangle exists on the upper side. The process of expanding to a circumscribed rectangle is performed. FIG. 35 (i) shows a state where such expansion has been performed. The second registration rectangle that has been only two pixels in size so far has been expanded to a registration rectangle for four pixels.

歳後に、5行11列目の前景画素が着目画素になると、図34(i) に示すとおり、上隣に第2の登録矩形が存在するので、当該登録矩形の領域を、当該着目画素を含む外接矩形に拡張する処理が行われる。図35(j) は、このような拡張がなされた状態を示している。これまで4画素分の大きさしかなかった第2の登録矩形が、6画素分の登録矩形に拡張されている。かくして、15画素分の画素の輪郭を包摂する第1の登録矩形と、6画素分の画素の輪郭を包摂する第2の登録矩形とが、それぞれブロッブ包摂図形として抽出されることになる。   When the foreground pixel in the fifth row and the eleventh column becomes the target pixel after the age, as shown in FIG. 34 (i), the second registration rectangle exists on the upper side. The process of expanding to a circumscribed rectangle is performed. FIG. 35 (j) shows a state where such an extension has been made. The second registration rectangle, which has been only a size of 4 pixels so far, has been expanded to a registration rectangle of 6 pixels. Thus, the first registered rectangle that includes the outline of the pixels for 15 pixels and the second registered rectangle that includes the outline of the pixels for 6 pixels are respectively extracted as blob inclusion figures.

結局、ブロッブ包摂図形抽出部170が、上述した方法でブロッブ包摂図形抽出を行うには、動体識別画像Mを構成する個々の画素に順に着目し、各着目画素について、(a) 着目画素が前景画素であり、かつ、所定近傍範囲(上例の場合、3画素以内の距離)に登録矩形が存在しない場合には、当該着目画素の輪郭を構成する矩形を登録する処理を行い、(b) 着目画素が前景画素であり、かつ、所定近傍範囲に登録された矩形が存在する場合には、当該登録矩形の領域を着目画素を含む外接矩形に拡張して登録する処理を行い、最終的に登録された矩形に基づいてブロッブ包摂図形の抽出を行うようにすればよい。   Eventually, in order for the blob inclusion graphic extraction unit 170 to extract the blob inclusion graphic by the above-described method, pay attention to the individual pixels constituting the moving object identification image M in order, and for each target pixel: (a) If the registered rectangle does not exist within a predetermined neighborhood range (distance within 3 pixels in the above example), the pixel forming the outline of the pixel of interest is registered, and (b) If the target pixel is a foreground pixel and there is a registered rectangle in the predetermined neighborhood range, the registration rectangle area is expanded to a circumscribed rectangle including the target pixel, and finally registered. The blob inclusion figure may be extracted based on the registered rectangle.

もちろん、上述したブロッブ包摂図形抽出処理の方法は、一例を示すものであり、図31に示すブロッブ包摂図形抽出部170によるブロッブ包摂図形抽出処理の方法は、上述した方法に限定されるものではない。   Of course, the blob inclusion graphic extraction processing method described above is merely an example, and the blob inclusion graphic extraction processing method performed by the blob inclusion graphic extraction unit 170 illustrated in FIG. 31 is not limited to the above-described method. .

<6−7:トラッカー登録部160>
トラッカー登録部160の基本機能は、ブロッブ包摂図形抽出部170によって抽出された第i番目の時系列に所属するブロッブ包摂図形B(i)を、第j番目のトラッカーTjの第i番目の時系列に所属するメンバーとして、トラッカー格納部150に登録することである。実際には、このトラッカー登録部160によって実行される処理は、後続ブロッブ包摂図形登録処理と新参ブロッブ包摂図形登録処理とに分けて行われる。ここで、後続ブロッブ包摂図形登録処理は先行して行われる前半段階の処理であり、新参ブロッブ包摂図形登録処理は、後続ブロッブ包摂図形登録処理が実行された後に行われる後半段階の処理である。
<6-7: Tracker registration unit 160>
The basic function of the tracker registration unit 160 is that the blob inclusion figure B (i) belonging to the i-th time series extracted by the blob inclusion figure extraction unit 170 is used as the i-th time series of the j-th tracker Tj. Is registered in the tracker storage unit 150 as a member belonging to. Actually, the process executed by the tracker registration unit 160 is divided into a subsequent blob inclusion graphic registration process and a new blob inclusion graphic registration process. Here, the subsequent blob inclusion graphic registration process is a first-stage process performed in advance, and the new blob inclusion graphic registration process is a second-stage process performed after the subsequent blob inclusion graphic registration process is executed.

まず、後続ブロッブ包摂図形登録処理は、トラッカーの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形(末尾ブロッブ包摂図形ではないブロッブ包摂図形)に対して、第i番目の時系列として後続ブロッブ包摂図形を登録するための処理である。ここで、後続ブロッブ包摂図形の登録は必ず行われるわけではなく、後続ブロッブ包摂図形に適したブロッブ包摂図形が存在しない場合には、登録は行われず、当該先行ブロッブ包摂図形は末尾ブロッブ包摂図形となり、ブロッブ包摂図形の継続性は絶たれる。この後続ブロッブ包摂図形登録処理の具体的な手法は、既に、§4において、後続ブロッブ包摂図形の認識法として説明したとおりである。   First, the subsequent blob inclusion figure registration processing is performed for the i-th time with respect to the preceding blob inclusion figure registered in the (i-1) -th time series of the tracker (the blob inclusion figure that is not the last blob inclusion figure). This is a process for registering subsequent blob inclusion figures as time series. Here, the registration of the subsequent blob inclusion graphic is not necessarily performed. If there is no blob inclusion graphic suitable for the subsequent blob inclusion graphic, the registration is not performed and the preceding blob inclusion graphic becomes the last blob inclusion graphic. The continuity of the blob inclusion figure is cut off. The specific method of the subsequent blob inclusion graphic registration process is as described in §4 as the method for recognizing the subsequent blob inclusion graphic.

すなわち、この後続ブロッブ包摂図形登録処理は、第j番目のトラッカーTjの第(i−1)番目の時系列に末尾ブロッブ包摂図形ではないブロッブ包摂図形が登録されている場合に、当該ブロッブ包摂図形を先行ブロッブ包摂図形として、これに後続させるのに適したブロッブ包摂図形が、ブロッブ包摂図形抽出部170から与えられた第j番目のトラッカー用の候補ブロッブ包摂図形内に存在するか否かを判定し、存在するときには、当該候補ブロッブ包摂図形を第i番目の時系列に所属する後続ブロッブ包摂図形として登録する処理を行い、存在しないときには、前記先行ブロッブ包摂図形が末尾ブロッブ包摂図形となったことを示す処理を行うことによって構成される。   That is, this subsequent blob inclusion graphic registration process is performed when a blob inclusion graphic that is not the last blob inclusion graphic is registered in the (i-1) th time series of the jth tracker Tj. As a preceding blob inclusion figure, it is determined whether or not a blob inclusion figure suitable for following is included in the candidate blob inclusion figure for the jth tracker given from the blob inclusion figure extraction unit 170 If it exists, the candidate blob inclusion figure is registered as a subsequent blob inclusion figure belonging to the i-th time series, and if it does not exist, the preceding blob inclusion figure has become the last blob inclusion figure It is comprised by performing the process which shows.

たとえば、図24に示す例の場合、トラッカーT1の第29番目の時系列(時刻t29欄)には、末尾ブロッブ包摂図形ではないブロッブ包摂図形B29a(馬)が登録されているので、当該ブロッブ包摂図形を先行ブロッブ包摂図形として、第30番目の時系列(時刻t30欄)に登録するのに適した後続ブロッブ包摂図形の認識が行われる。既に述べたとおり、後続ブロッブ包摂図形は、たとえば、図26(b) に示すような4つの候補ブロッブ包摂図形B30a−1,B30a−2,B30a−3,B30a−4の中から選択される。もちろん、この4つの候補の中に、後続ブロッブ包摂図形として適したブロッブ包摂図形が存在しない場合には、後続ブロッブ包摂図形の登録は行われない。   For example, in the example shown in FIG. 24, since the blob inclusion figure B29a (horse) which is not the last blob inclusion figure is registered in the 29th time series (time t29 column) of the tracker T1, the blob inclusion The subsequent blob inclusion graphic suitable for registering the graphic as the preceding blob inclusion graphic in the 30th time series (time t30 column) is recognized. As described above, the subsequent blob inclusion graphic is selected from, for example, four candidate blob inclusion graphic B30a-1, B30a-2, B30a-3, and B30a-4 as shown in FIG. Of course, if there is no blob inclusion figure suitable as the subsequent blob inclusion figure among these four candidates, the subsequent blob inclusion figure is not registered.

このため、トラッカー登録部160は、後続ブロッブ包摂図形登録処理を行う際に、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形に対して、第j番目のトラッカー用として抽出された個々の候補ブロッブ包摂図形の適合性評価を行い、所定の基準以上の評価、かつ、最も高い評価を得た候補ブロッブ包摂図形を、先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形と判定し、これを後続ブロッブ包摂図形として登録する処理を行う。上例の場合、図19(a) に示す先行ブロッブ包摂図形B29a(馬)に対して、図26(b) に示す4つの候補ブロッブ包摂図形B30a−1,B30a−2,B30a−3,B30a−4の適合性評価が行われ、最も高い評価を得たブロッブ包摂図形が、所定の基準以上の評価であれば、これを後続ブロッブ包摂図形として登録することになる。   For this reason, when the tracker registration unit 160 performs the subsequent blob inclusion graphic registration process, for the preceding blob inclusion graphic registered in the (i−1) th time series of the jth tracker Tj, The suitability evaluation of each candidate blob inclusion figure extracted for the jth tracker is performed, and the candidate blob inclusion figure that has obtained the highest evaluation and the evaluation higher than a predetermined standard follows the preceding blob inclusion figure. It is determined that the blob inclusion figure is suitable for the processing, and a process of registering this as a subsequent blob inclusion figure is performed. In the case of the above example, four candidate blob inclusion figures B30a-1, B30a-2, B30a-3, and B30a shown in FIG. 26 (b) with respect to the preceding blob inclusion figure B29a (horse) shown in FIG. 19 (a). If the blob inclusion figure having the highest evaluation is subjected to the evaluation of −4, the registration is registered as the subsequent blob inclusion figure.

たとえば、図26(b) に示す例の場合、既に述べたように、候補ブロッブ包摂図形B30a−1が、最も高い評価、かつ、所定の基準以上の評価を得ることになるため、先行ブロッブ包摂図形B29a(馬)に後続する後続ブロッブ包摂図形として、トラッカーT1の時刻t30欄に登録されることになる。なお、最も高い評価を得た候補でも、所定の基準に満たない場合には、後続ブロッブ包摂図形として登録されることはない。たとえば、図26(b) において、候補ブロッブ包摂図形B30a−1が存在しなかった場合、たとえ、候補ブロッブ包摂図形B30a−3が最も高い評価を得たとしても、当該評価が所定の基準に満たない場合には、候補ブロッブ包摂図形B30a−3が後続ブロッブ包摂図形として登録されることはない。   For example, in the case of the example shown in FIG. 26 (b), as described above, the candidate blob inclusion figure B30a-1 obtains the highest evaluation and the evaluation above a predetermined standard. The subsequent blob inclusion figure following the figure B29a (horse) is registered in the time t30 column of the tracker T1. Note that even the candidate with the highest evaluation is not registered as a subsequent blob inclusion graphic if it does not meet the predetermined criteria. For example, in FIG. 26 (b), when the candidate blob inclusion figure B30a-1 does not exist, even if the candidate blob inclusion figure B30a-3 has the highest evaluation, the evaluation satisfies a predetermined standard. Otherwise, the candidate blob inclusion graphic B30a-3 is not registered as a subsequent blob inclusion graphic.

後続ブロッブ包摂図形としての適合性評価は、判定対象となる先行ブロッブ包摂図形と候補ブロッブ包摂図形との位置、面積、形状の類似性に基づいて行うようにすればよい。図35は、このような後続ブロッブ包摂図形の適合性評価の方法を示す平面図である。   The suitability evaluation as the subsequent blob inclusion graphic may be performed based on the position, area, and shape similarity between the preceding blob inclusion graphic to be determined and the candidate blob inclusion graphic. FIG. 35 is a plan view showing a method for evaluating the suitability of such subsequent blob inclusion figures.

図35(a) は、位置の類似性に基づく適合性評価の方法を示している。ここで、太線の矩形は、先行ブロッブ包摂図形B(i−1)であり、他の3つの矩形は、比較対象となる候補ブロッブ包摂図形B(i)a,B(i)b,B(i)cである。ここに示す例では、各ブロッブ包摂図形を構成する矩形の中心点Q,Qa,Qb,Qcを、各ブロッブ包摂図形の位置と定義し、中心点間の距離が小さいほど、類似性に関して高い評価値を与えるようにしている。たとえば、2点Q/Qa間の距離、2点Q/Qb間の距離、2点Q/Qc間の距離を求め、これらの距離の逆数を位置の類似性を示す評価値とすれば、類似性を定量的に示す評価値を得ることができる。図示の例の場合、先行ブロッブ包摂図形B(i−1)に最も近い位置にある候補ブロッブ包摂図形B(i)bが、最高の評価値を得ることになる。   FIG. 35 (a) shows a method for evaluating suitability based on positional similarity. Here, the bold rectangle is the preceding blob inclusion figure B (i-1), and the other three rectangles are candidate blob inclusion figures B (i) a, B (i) b, B ( i) c. In the example shown here, the rectangular center points Q, Qa, Qb, and Qc constituting each blob inclusion figure are defined as the positions of each blob inclusion figure, and the smaller the distance between the center points, the higher the similarity is evaluated. A value is given. For example, if the distance between two points Q / Qa, the distance between two points Q / Qb, and the distance between two points Q / Qc are obtained, and the reciprocal of these distances is used as an evaluation value indicating the similarity in position, the similarity An evaluation value quantitatively indicating the sex can be obtained. In the case of the illustrated example, the candidate blob inclusion figure B (i) b located closest to the preceding blob inclusion figure B (i-1) obtains the highest evaluation value.

このような評価は、同一の動体が短時間に移動した場合、別な動体の位置よりも近い位置に存在する可能性が高いであろう、という推定に基づくものである。   Such an evaluation is based on the assumption that if the same moving object moves in a short time, it is likely that the moving object is present at a position closer to the position of another moving object.

なお、位置の類似性の評価材料としては、必ずしも距離を用いる必要はなく、重なり部分の面積を評価材料として用いることも可能である。たとえば、30フレーム/秒といったレートで撮影された動画画像の場合、動体のフレーム単位の移動時間はわずか1/30秒であるから、原画像P(i−1)上の動体の位置と、原画像P(i)上の動体の位置とに大きな差はなく、動体の輪郭を包摂するブロッブ包摂図形は、互いに重なりを生じているのが一般的である。そして、この重なり部分の面積が大きいほど、位置の類似性も高いことになるので、やはり位置の類似性を定量的に示す評価値を得ることができる。   Note that it is not always necessary to use the distance as the evaluation material for positional similarity, and the area of the overlapping portion can be used as the evaluation material. For example, in the case of a moving image captured at a rate of 30 frames / second, the moving time of the moving object in units of frames is only 1/30 seconds, so the position of the moving object on the original image P (i-1) and the original There is no significant difference in the position of the moving object on the image P (i), and the blob inclusion figures that include the outline of the moving object generally overlap each other. And the larger the area of this overlapping portion, the higher the similarity of the position, so that an evaluation value that quantitatively indicates the similarity of the position can be obtained.

図35(a) に示す例の場合、重なり部分の面積を求めると、B(i−1)とB(i)aとは重なっていないので面積は0になり、B(i−1)とB(i)bとは、図にハッチングを施した部分の面積となり、B(i−1)とB(i)cとは重なっていないので面積は0になる。したがって、重なり部分の面積を評価値として利用すれば、やはり候補ブロッブ包摂図形B(i)bが、最高の評価値を得ることになる。   In the case of the example shown in FIG. 35 (a), when the area of the overlapping portion is obtained, B (i-1) and B (i) a do not overlap, so the area becomes 0, and B (i-1) and B (i) b is the area of the hatched portion in the figure, and B (i-1) and B (i) c do not overlap, so the area is zero. Therefore, if the area of the overlapping portion is used as the evaluation value, the candidate blob inclusion figure B (i) b also obtains the highest evaluation value.

一方、図35(b) は、面積の類似性に基づく適合性評価の方法を示している。すなわち、先行ブロッブ包摂図形B(i−1)の面積をAとして、候補ブロッブ包摂図形B(i)a,B(i)b,B(i)cの面積をそれぞれAa,Ab,Acとすれば、面積の類似性を示す評価値を得ることができる。たとえば、比較対象となる2つの矩形のうち、大きい方の面積をα、小さい方の面積をβとすれば、β/αが面積の類似性を定量的に示す評価値になる。評価値β/αの最大値は1であり、評価値が1に近いほど、面積の類似性が高いことになる。   On the other hand, FIG. 35B shows a method for evaluating suitability based on the similarity of areas. That is, let the area of the preceding blob inclusion figure B (i-1) be A, and the area of the candidate blob inclusion figure B (i) a, B (i) b, B (i) c be Aa, Ab, Ac, respectively. For example, an evaluation value indicating the similarity in area can be obtained. For example, if the larger area of two rectangles to be compared is α and the smaller area is β, β / α is an evaluation value that quantitatively indicates the similarity of the areas. The maximum value of the evaluation value β / α is 1, and the closer the evaluation value is to 1, the higher the area similarity.

このような評価は、同一の動体が短時間に移動した場合、原画像上での大きさが急激に変化することはないであろう、という推定に基づくものである。もちろん、人が手足を動かして歩行した場合、原画像上での大きさは若干変化するであろう。また、動体がカメラに近づいたり、遠ざかったりする動きをした場合も、大きさは若干変化するであろう。しかしながら、1/30秒程度の移動時間では、動体の大きさに、それほど大きな変化は生じないであろう。したがって、面積の類似性に基づく適合性評価は、上述した位置の類似性に基づく適合性評価と同様に、合理的な評価方法である。   Such an evaluation is based on the assumption that the size on the original image will not change suddenly when the same moving object moves in a short time. Of course, when a person walks with their limbs moving, the size on the original image will change slightly. Also, the size will change slightly if the moving object moves closer to or away from the camera. However, if the moving time is about 1/30 second, the size of the moving body will not change so much. Therefore, the suitability evaluation based on the similarity of areas is a rational evaluation method, similar to the suitability evaluation based on the similarity of positions described above.

そして、図35(c) は、形状の類似性に基づく適合性評価の方法を示している。ここに示す実施形態の場合、各ブロッブ包摂図形は矩形によって構成されているので、形状は、縦横比(アスペクト比)として定量化することができる。すなわち、先行ブロッブ包摂図形B(i−1)の形状は、アスペクト比v/hで表現することができ、候補ブロッブ包摂図形B(i)a,B(i)b,B(i)cの形状も、それぞれアスペクト比va/ha,vb/hb,vc/hcで表現することができる。したがって、たとえば、比較対象となる2つの矩形のアスペクト比のうち、大きい方のアスペクト比をα、小さい方のアスペクト比をβとすれば、面積を比較する場合と同様に、β/αが形状の類似性を定量的に示す評価値になる。評価値β/αの最大値は1であり、評価値が1に近いほど、形状の類似性が高いことになる。   FIG. 35 (c) shows a conformity evaluation method based on shape similarity. In the case of the embodiment shown here, since each blob inclusion figure is configured by a rectangle, the shape can be quantified as an aspect ratio (aspect ratio). That is, the shape of the preceding blob inclusion figure B (i-1) can be expressed by the aspect ratio v / h, and the candidate blob inclusion figure B (i) a, B (i) b, B (i) c The shape can also be expressed by aspect ratios va / ha, vb / hb, and vc / hc, respectively. Therefore, for example, if the larger aspect ratio is α and the smaller aspect ratio is β of the two rectangular aspect ratios to be compared, β / α is the shape as in the case of comparing the areas. This is an evaluation value that quantitatively shows the similarity of. The maximum value of the evaluation value β / α is 1, and the closer the evaluation value is to 1, the higher the similarity in shape.

このような評価は、同一の動体が短時間に移動した場合、原画像上での形状が急激に変化することはないであろう、という推定に基づくものである。やはり、人が手足を動かして歩行した場合、原画像上での形状は若干変化するであろうが、同一の動体であれば、形状にそれほど大きな変化は生じないであろう。したがって、形状の類似性に基づく適合性評価は、上述した位置や面積の類似性に基づく適合性評価と同様に、合理的な評価方法である。   Such evaluation is based on the assumption that the shape on the original image will not change suddenly when the same moving object moves in a short time. Again, when a person walks while moving their limbs, the shape on the original image will change slightly, but with the same moving object, the shape will not change much. Therefore, the suitability evaluation based on the similarity in shape is a rational evaluation method, similar to the suitability evaluation based on the similarity in position and area described above.

結局、後続ブロッブ包摂図形としての適合性評価は、判定対象となる先行ブロッブ包摂図形と候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて行うようにすればよい。複数の評価値を組み合わせて類似性の評価を行う場合は、上述したような方法で定量的に求めた各評価値に、それぞれ所定の重み係数を乗じ、これを積算して総合評価値を求めるようにすればよい。   After all, the suitability evaluation as a subsequent blob inclusion figure compares the preceding blob inclusion figure and the candidate blob inclusion figure to be judged with respect to any one or more combinations of position, area, and shape, and their similarity Based on the above. When similarity evaluation is performed by combining a plurality of evaluation values, each evaluation value obtained quantitatively by the method as described above is multiplied by a predetermined weighting factor, and this is integrated to obtain a comprehensive evaluation value. What should I do?

こうして求めた評価値が所定の基準値以上となるブロッブ包摂図形が、候補ブロッブ包摂図形の中に存在しない場合には、後続ブロッブ包摂図形として登録するのに適したブロッブ包摂図形が存在しないことになる。このように、後続ブロッブ包摂図形登録処理において、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形B(i−1)に後続させるのに適したブロッブ包摂図形が、第j番目のトラッカー用の候補ブロッブ包摂図形内に存在しない場合には、先行ブロッブ包摂図形B(i−1)に後続する後続ブロッブ包摂図形の登録を行わずに、当該先行ブロッブ包摂図形B(i−1)が末尾ブロッブ包摂図形となったことを示す処理を行う。   If a blob inclusion figure whose evaluation value obtained in this way is equal to or greater than a predetermined reference value does not exist in the candidate blob inclusion figure, there is no blob inclusion figure suitable for registration as a subsequent blob inclusion figure. Become. In this way, in the subsequent blob inclusion graphic registration process, it is suitable for following the preceding blob inclusion graphic B (i-1) registered in the (i-1) th time series of the jth tracker Tj. If the blob inclusion figure does not exist in the candidate blob inclusion figure for the jth tracker, the subsequent blob inclusion figure following the preceding blob inclusion figure B (i-1) is not registered, Processing is performed to indicate that the preceding blob inclusion graphic B (i-1) has become the last blob inclusion graphic.

ここで、第j番目のトラッカーTjの先行ブロッブ包摂図形B(i−1)が末尾ブロッブ包摂図形となったことを示す処理としては、第j番目のトラッカーTjの第i番目の時系列を無登録状態とする処理を行えばよい。ここで、無登録状態とは、登録すべきブロッブ包摂図形が存在しないことを示す状態であり、まだ登録が行われていない未登録状態とは意味合いが異なっている。たとえば、図29に示す例の場合、トラッカー上の×印欄は無登録状態を示し、空白欄は未登録状態を示している。   Here, as a process indicating that the preceding blob inclusion figure B (i−1) of the jth tracker Tj has become the last blob inclusion figure, the i-th time series of the jth tracker Tj is not included. What is necessary is just to perform the process which makes it a registration state. Here, the unregistered state is a state indicating that there is no blob inclusion figure to be registered, and has a different meaning from an unregistered state where registration has not yet been performed. For example, in the case of the example shown in FIG. 29, the x mark column on the tracker indicates an unregistered state, and the blank column indicates an unregistered state.

もっとも、実用上は、無登録状態を示すデータと未登録状態を示すデータとを、必ずしも区別する必要はない。たとえば、図29に示すトラッカーT4,T5,T6の時刻t40欄は空白欄(未登録状態)になっているが、トラッカー登録部160による時刻t40に関する処理(後続ブロッブ包摂図形登録処理および新参ブロッブ包摂図形登録処理)が完了した時点では、これらの空白欄は×印欄と把握されることになる。もちろん、無登録状態と未登録状態とを明確に区別したい場合は、無登録状態を示すデータ(×印に対応するデータ)を積極的に書き込む処理を行うようにしてもよい。   However, in practice, it is not always necessary to distinguish between data indicating an unregistered state and data indicating an unregistered state. For example, although the time t40 column of trackers T4, T5, and T6 shown in FIG. When the graphic registration process) is completed, these blank fields are recognized as x mark fields. Of course, when it is desired to clearly distinguish the unregistered state from the unregistered state, a process of actively writing data indicating the unregistered state (data corresponding to the x mark) may be performed.

このように、これまで述べてきた実施形態の場合、第j番目のトラッカーTjの先行ブロッブ包摂図形B(i−1)が末尾ブロッブ包摂図形となったことを示すための処理として、第i番目の時系列を無登録状態とする処理が行われている。たとえば、図29に示す例は、§5で述べたとおり、動体O4(鳥)が、時刻t38までは存在したが、時刻t39において画面外へ飛び去った、という場合の例である。この場合、トラッカーT4の時刻t39欄に登録すべき後続ブロッブ包摂図形を認識する処理を行っても、後続ブロッブ包摂図形に適した候補ブロッブ包摂図形が存在しなかったため、時刻t39欄を無登録状態(×印)とする処理が行われている。別言すれば、時刻t39欄が無登録状態(×印)となっていることにより、間接的に、時刻t38欄のブロッブ包摂図形B38d(鳥)が末尾ブロッブ包摂図形であることが示されている。   As described above, in the embodiment described so far, the i-th processing is performed to indicate that the preceding blob inclusion graphic B (i−1) of the j-th tracker Tj is the last blob inclusion graphic. The process of making the time series of the unregistered state is performed. For example, the example shown in FIG. 29 is an example in which the moving object O4 (bird) has existed until time t38 as described in §5, but has jumped off the screen at time t39. In this case, even if the process of recognizing the subsequent blob inclusion graphic to be registered in the time t39 field of the tracker T4 does not exist, the candidate blob inclusion graphic suitable for the subsequent blob inclusion graphic does not exist, so the time t39 field is not registered. The process of (x mark) is performed. In other words, the fact that the time t39 field is in the unregistered state (x mark) indirectly indicates that the blob inclusion figure B38d (bird) in the time t38 field is the last blob inclusion figure. Yes.

要するに、これまで述べてきた実施形態の場合、無登録状態(×印)の欄が、時系列で連続する一連のブロッブ包摂図形群の区切りとして機能し、何らかのブロッブ包摂図形が登録されている欄の左側の欄が無登録状態(×印)である場合には、当該ブロッブ包摂図形は先頭ブロッブ包摂図形ということになり、何らかのブロッブ包摂図形が登録されている欄の右側の欄が無登録状態(×印)である場合には、当該ブロッブ包摂図形は末尾ブロッブ包摂図形ということになる。このように、無登録状態(×印)の欄を、一連のブロッブ包摂図形群の区切りとして利用すれば、無登録状態(×印)の欄で挟まれた一連のブロッブ包摂図形群を、先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べられた同一の動体の追跡結果として把握することができる。   In short, in the embodiment described so far, the column of the unregistered state (x mark) functions as a delimiter of a series of blob inclusion graphic groups that are continuous in time series, and a column in which some blob inclusion graphic is registered. If the left column of is in the unregistered state (x mark), the blob inclusion figure is the first blob inclusion figure, and the right column of the column where some blob inclusion figure is registered is unregistered In the case of (x mark), the blob inclusion graphic is a tail blob inclusion graphic. In this way, if the unregistered state (× mark) field is used as a delimiter for a series of blob inclusion figure groups, a series of blob inclusion figure groups sandwiched between the unregistered state (x mark) fields It can be grasped as a tracking result of the same moving object arranged in time series from the blob inclusion figure to the end blob inclusion figure.

ただ、一連のブロッブ包摂図形群の区切りを示す方法は、このような無登録状態(×印)の欄を設ける方法に限定されるものではない。たとえば、先頭ブロッブ包摂図形には、当該ブロッブ包摂図形が先頭ブロッブ包摂図形であることを示す識別コードを付してトラッカー上の該当欄に格納するようにし、末尾ブロッブ包摂図形には、当該ブロッブ包摂図形が末尾ブロッブ包摂図形であることを示す識別コードを付してトラッカー上の該当欄に格納するようにすれば、無登録状態(×印)の欄を設けなくても、上記識別コードに基づいて、個々のブロッブ包摂図形が先頭ブロッブ包摂図形であるのか、末尾ブロッブ包摂図形であるのか、あるいはこれらの間に挟まれた中間ブロッブ包摂図形であるのか、を判別することができる。   However, the method for indicating the separation of a series of blob inclusion graphic groups is not limited to the method for providing such a column of the unregistered state (x mark). For example, an identification code indicating that the blob inclusion figure is the first blob inclusion figure is attached to the first blob inclusion figure and stored in the corresponding field on the tracker. If an identification code indicating that the figure is a tail blob inclusion figure is attached and stored in the corresponding column on the tracker, the non-registered state (× mark) column is not provided, and the above identification code is used. Thus, it is possible to determine whether each blob inclusion graphic is a head blob inclusion graphic, a tail blob inclusion graphic, or an intermediate blob inclusion graphic sandwiched between them.

このように、識別コードにより先頭ブロッブ包摂図形や末尾ブロッブ包摂図形の判別を行う方法を採用した場合、無登録状態(×印)の欄による区切りは不要になるので、末尾ブロッブ包摂図形に後続させて、別な動体(新参動体)についての先頭ブロッブ包摂図形を格納することが可能になる。たとえば、図29に示す例の場合、もし時刻t39に新参動体が出現した場合、当該新参動体についての新参ブロッブ包摂図形を、トラッカーT4の時刻t39欄に先頭ブロッブ包摂図形として登録することができる。この場合、トラッカーT4の時刻t38欄にはブロッブ包摂図形B38d(鳥)が登録されているが、当該ブロッブ包摂図形には、末尾ブロッブ包摂図形である識別コードが付されており、時刻t39欄に登録された新参ブロッブ包摂図形には、先頭ブロッブ包摂図形である識別コードが付されているので、無登録状態(×印)の欄による区切りがなくても支障は生じない。   In this way, when the method of discriminating the leading blob inclusion graphic and the trailing blob inclusion graphic by the identification code is adopted, the separation by the column of unregistered state (x mark) becomes unnecessary, so that the trailing blob inclusion graphic is followed. Thus, it is possible to store the leading blob inclusion figure for another moving body (new moving body). For example, in the case of the example shown in FIG. 29, if a new participant appears at time t39, the new blob inclusion figure for the new participant can be registered as the first blob inclusion figure in the time t39 column of tracker T4. In this case, the blob inclusion figure B38d (bird) is registered in the time t38 column of the tracker T4. However, the blob inclusion figure has an identification code that is the last blob inclusion figure, and the time t39 field contains the identification code. Since the registered new blob inclusion figure has an identification code that is the leading blob inclusion figure, there is no problem even if there is no delimiter in the unregistered state (x mark) column.

上例の場合、トラッカーT4の時刻t38欄のブロッブ包摂図形B38d(鳥)が末尾ブロッブ包摂図形となったことを示すための処理として、時刻t39欄を無登録状態(×印)とする処理を行う代わりに、時刻t38欄のブロッブ包摂図形B38d(鳥)に、当該ブロッブ包摂図形が末尾ブロッブ包摂図形であることを示す識別コードを書き込む処理を行うことになる。   In the case of the above example, as a process for indicating that the blob inclusion graphic B38d (bird) in the time t38 field of the tracker T4 has become the last blob inclusion graphic, a process for setting the time t39 field to the unregistered state (x mark). Instead, a process of writing an identification code indicating that the blob inclusion graphic is the last blob inclusion graphic in the blob inclusion graphic B38d (bird) in the time t38 column is performed.

以上、トラッカー登録部160が前半段階の処理として行う後続ブロッブ包摂図形登録処理を説明した。続いて、後半段階の処理として行う新参ブロッブ包摂図形登録処理について説明しよう。この新参ブロッブ包摂図形登録処理は、第i番目の時系列の原画像P(i)で新たに出現した新参動体を、先頭ブロッブ包摂図形としてトラッカーに登録する処理であり、その具体的な手法は、既に、§5において、新参ブロッブ包摂図形の認識法として説明したとおりである。   In the above, the subsequent blob inclusion figure registration process which the tracker registration part 160 performs as a process of the first half step was demonstrated. Next, let's explain the new blob inclusion figure registration process that is performed in the latter half of the process. This new blob inclusion figure registration process is a process of registering a new participant that has newly appeared in the i-th time-series original image P (i) to the tracker as a first blob inclusion figure, and its specific method is As already described in §5 as a method for recognizing a new blob inclusion figure.

すなわち、この新参ブロッブ包摂図形登録処理は、後続ブロッブ包摂図形登録処理を各トラッカーについて行った後、動体識別画像M(i)に基づいて抽出されたブロッブ包摂図形B(i)の中に、後続ブロッブ包摂図形登録処理によって登録された後続ブロッブ包摂図形に対応しない新参ブロッブ包摂図形が存在する場合に、当該新参ブロッブ包摂図形を第i番目の時系列が未登録状態のトラッカーに先頭ブロッブ包摂図形として登録する処理である。   That is, this new blob inclusion figure registration process performs subsequent blob inclusion figure registration processing for each tracker and then adds the subsequent blob inclusion figure registration process to the blob inclusion figure B (i) extracted based on the moving object identification image M (i). When there is a new blob inclusion figure that does not correspond to the subsequent blob inclusion figure registered by the blob inclusion figure registration process, the new blob inclusion figure is used as the first blob inclusion figure for the tracker whose i-th time series is not registered. It is a process to register.

たとえば、図24に示す例の場合、前半段階の後続ブロッブ包摂図形登録処理により、トラッカーT1,T2,T3の時刻t40欄に、それぞれブロッブ包摂図形B40a(馬),B40b(人),B40c(車)が登録されている。そこで、後半段階の新参ブロッブ包摂図形登録処理では、図28(b) に示すように、動体識別画像M40に基づいて抽出された4つのブロッブ包摂図形B40a,B40b,B40c,B40eについて、図24に示す時刻t40欄に登録されているブロッブ包摂図形B40a(馬),B40b(人),B40c(車)に対応しない新参ブロッブ包摂図形が存在するか否かが判定される。その結果、ブロッブ包摂図形B40e(犬)については、対応する後続ブロッブ包摂図形が登録されていないことが判明するので、このブロッブ包摂図形B40e(犬)を新参ブロッブ包摂図形として、時刻t40欄が未登録状態となっている任意のトラッカーに先頭ブロッブ包摂図形として登録する処理が行われる。   For example, in the case of the example shown in FIG. 24, the blob inclusion figure B40a (horse), B40b (person), B40c (car) are respectively stored in the time t40 column of the trackers T1, T2, T3 by the subsequent blob inclusion figure registration process in the first half. ) Is registered. Therefore, in the new-stage blob inclusion graphic registration process in the latter half stage, as shown in FIG. 28 (b), four blob inclusion figures B40a, B40b, B40c, and B40e extracted based on the moving object identification image M40 are shown in FIG. It is determined whether there is a new blob inclusion figure that does not correspond to the blob inclusion figure B40a (horse), B40b (person), or B40c (car) registered in the indicated time t40 column. As a result, for the blob inclusion graphic B40e (dog), it is found that the corresponding subsequent blob inclusion graphic is not registered. A process of registering as a leading blob inclusion figure in an arbitrary tracker in the registered state is performed.

なお、§5で述べたとおり、原画像上に互いに重なり合う動体が存在する場合は、動体識別画像に基づいて抽出されたブロッブ包摂図形と、前半段階の後続ブロッブ包摂図形登録処理により登録された後続ブロッブ包摂図形との間の対応関係は、1対1ではなく、1対n(n≧2)になる。すなわち、2つのブロッブ包摂図形を構成する矩形が完全に一致する対応関係ではなく、一方のブロッブ包摂図形を構成する矩形が他方のブロッブ包摂図形を構成する矩形を包含する対応関係になる。この場合でも、図30に示すようなテーブルを作成しておけば、両者の対応関係を認識することができるので、対応する後続ブロッブ包摂図形の有無の判定を行うことができ、新参ブロッブ包摂図形の存在を認識することができる。   As described in §5, if there are moving objects that overlap each other on the original image, the blob inclusion graphic extracted based on the moving object identification image and the subsequent blob inclusion graphic registration process registered in the first half stage are registered. The correspondence between blob inclusion figures is not one-to-one but one-to-n (n ≧ 2). That is, the correspondence between the rectangles constituting the two blob inclusion figures is not a correspondence relation in which the rectangles constituting the two blob inclusion figures are completely matched, but the correspondence relation including the rectangle constituting the other blob inclusion figure. Even in this case, if the table as shown in FIG. 30 is prepared, the correspondence between the two can be recognized, so the presence or absence of the corresponding subsequent blob inclusion figure can be determined, and the new blob inclusion figure can be determined. Can recognize the existence of

結局、トラッカー登録部160は、後半段階の新参ブロッブ包摂図形登録処理を行う際に、動体識別画像M(i)に基づいて抽出されたブロッブ包摂図形B(i)と、前半段階の後続ブロッブ包摂図形登録処理によって第i番目の時系列に登録された後続ブロッブ包摂図形とを比較し、両者が一致するか、もしくは、一方が他方を包含する関係になっているものを互いに対応するブロッブ包摂図形と認識し、前記ブロッブ包摂図形B(i)の中で対応関係が認識できないブロッブ包摂図形を新参ブロッブ包摂図形と認識すればよい。   Eventually, when the tracker registration unit 160 performs the new-stage blob inclusion figure registration process in the second half, the blob inclusion figure B (i) extracted based on the moving object identification image M (i) and the subsequent blob inclusion in the first half stage. Compare the subsequent blob inclusion figures registered in the i-th time series by the figure registration process, and the blob inclusion figures corresponding to each other if they match or one of them includes the other And the blob inclusion figure whose correspondence cannot be recognized in the blob inclusion figure B (i) may be recognized as a new blob inclusion figure.

<6−8:コンピュータを用いた構成>
以上、図31に示すブロック図を参照しながら、本発明の基本的な実施形態に係る動体追跡装置の構成および動作を説明したが、実際には、この装置は、コンピュータに専用のプログラムを組み込むことにより構成することができる。たとえば、トラッカー格納部150は、コンピュータの記憶装置によって実現することができ、画像入力部110は、コンピュータの入出力インターフェイスによって実現することができ、その余の構成要素は、コンピュータがプログラムと協働して実行する機能として実現することができる。
<6-8: Configuration using computer>
The configuration and operation of the moving object tracking device according to the basic embodiment of the present invention have been described above with reference to the block diagram shown in FIG. 31. In practice, this device incorporates a dedicated program into a computer. Can be configured. For example, the tracker storage unit 150 can be realized by a storage device of a computer, the image input unit 110 can be realized by an input / output interface of a computer, and the other components are such that the computer cooperates with a program. And can be realized as a function to be executed.

<<< §7.いくつかの変形例 >>>
続いて、ここでは、§6で述べた基本的な実施形態に係る動体追跡装置の変形例をいくつか述べておく。
<<< §7. Some variations >>>
Subsequently, here, some modified examples of the moving object tracking device according to the basic embodiment described in §6 will be described.

<7−1:マスキング処理時のブロッブ包摂図形の位置修正>
§6で述べたとおり、マスキング処理部140は、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)を利用して、第i番目の時系列の動体識別画像M(i)についてのマスキングを行うため、マスクと動体との間に若干の時差が生じる。このような時差の存在により、たとえば、図26(a) に例示する個別動体識別画像M(30,1)の場合、マスクとなるブロッブ包摂図形B29b,B29c,B29dから動体の一部が食み出してしまっている。その結果、個別動体識別画像M(30,1)からは、図26(b) に示すように、合計4組の候補ブロッブ包摂図形B30a−1,B30a−2,B30a−3,B30a−4が抽出されることになる。
<7-1: Position correction of blob inclusion figure during masking process>
As described in §6, the masking processing unit 140 uses the blob inclusion figure B (i−1) belonging to the (i−1) th time series to identify the i th time series moving object identification image. Since masking is performed for M (i), there is a slight time difference between the mask and the moving object. Due to the existence of such a time difference, for example, in the case of the individual moving object identification image M (30, 1) illustrated in FIG. 26 (a), a part of the moving object eats away from the blob inclusion figures B29b, B29c, B29d used as masks. It has been put out. As a result, a total of four sets of candidate blob inclusion figures B30a-1, B30a-2, B30a-3, and B30a-4 are obtained from the individual moving object identification image M (30, 1) as shown in FIG. Will be extracted.

これら4組の候補ブロッブ包摂図形のうち、先行ブロッブ包摂図形B29a(馬)に後続させるべきブロッブ包摂図形は、候補ブロッブ包摂図形B30a−1であり、残りの3つの候補ブロッブ包摂図形は、いわばノイズブロッブ包摂図形というべき無用なブロッブ包摂図形である。もちろん、このようなノイズブロッブ包摂図形が混入していたとしても、トラッカー登録部160は、位置、面積、形状に関する類似性を評価し、先行ブロッブ包摂図形B29a(馬)に最も類似している候補ブロッブ包摂図形B30a−1を後続ブロッブ包摂図形として選択するので問題は生じない。しかしながら、このようなノイズブロッブ包摂図形の存在は、誤った選択を誘発する要因になるため、できるだけ避けるのが好ましい。すなわち、理想的には、図26(b) に示す個別動体識別画像M(30,1)ではなく、図20(b) に示す個別動体識別画像M(30,1)が得られるのが好ましい。   Of these four sets of candidate blob inclusion figures, the blob inclusion figure to be followed by the preceding blob inclusion figure B29a (horse) is the candidate blob inclusion figure B30a-1, and the remaining three candidate blob inclusion figures are so-called noise. It is a useless blob inclusion figure that should be called a blob inclusion figure. Of course, even if such noise blob inclusion figure is mixed, the tracker registration unit 160 evaluates the similarity regarding the position, area, and shape, and the candidate most similar to the preceding blob inclusion figure B29a (horse). Since the blob inclusion graphic B30a-1 is selected as the subsequent blob inclusion graphic, no problem occurs. However, the presence of such noise blob inclusion figures is a factor that induces erroneous selection and is preferably avoided as much as possible. That is, ideally, it is preferable to obtain the individual moving body identification image M (30, 1) shown in FIG. 20B instead of the individual moving body identification image M (30, 1) shown in FIG. .

そのためには、マスキング処理時に、マスクとして機能するブロッブ包摂図形の位置を修正すればよい。たとえば、図26(a) において、動体O2(人)を隠蔽する役割を果たしているブロッブ包摂図形B29bは、図19(a) に示すように、時刻t29の時点における動体O2(人)の位置を示すものである。ところが、動体O2(人)は画面の右方向へ移動しているため、時刻t30の時点では、図26(a) に示すように、動体O2(人)の一部がマスクとなるブロッブ包摂図形B29bの右側に食み出してしまっている。このような食み出しを防止するには、ブロッブ包摂図形B29bが動体O2(人)の移動とともに画面の右方向へ移動していったものと推定して、時刻t30の時点におけるブロッブ包摂図形B29bの予測位置を求め、マスクとなるブロッブ包摂図形B29bに対して、当該予測位置への位置修正を施すようにすればよい。   For this purpose, the position of the blob inclusion figure that functions as a mask may be corrected during the masking process. For example, in FIG. 26 (a), the blob inclusion figure B29b that plays the role of concealing the moving object O2 (person) shows the position of the moving object O2 (person) at the time t29 as shown in FIG. 19 (a). It is shown. However, since the moving object O2 (person) is moving rightward on the screen, as shown in FIG. 26 (a), a blob inclusion figure in which a part of the moving object O2 (person) serves as a mask at time t30. It is sticking out to the right side of B29b. In order to prevent such protrusion, it is presumed that the blob inclusion figure B29b has moved to the right of the screen along with the movement of the moving object O2 (person), and the blob inclusion figure B29b at time t30. And the position correction to the predicted position may be performed on the blob inclusion figure B29b serving as a mask.

図26(a) に示す例の場合、右方向に移動中の動体O2(人)のマスクとして機能するブロッブ包摂図形B29bは若干右方向に位置修正し、左方向に移動中の動体O3(車)および動体O4(鳥)のマスクとして機能するブロッブ包摂図形B29c,B29dは若干左方向に位置修正すればよい。もちろん、このような位置修正は、あくまでも予想位置への修正であるため、実際には、位置修正後のマスクによっても、各動体を完全に隠蔽することはできないかもしれないが、少なくとも、食み出しの程度を低減することができるので、上述したノイズブロッブ包摂図形の面積を低減させる効果は得られる。   In the example shown in FIG. 26 (a), the blob inclusion figure B29b that functions as a mask for the moving object O2 (person) moving in the right direction is slightly corrected in the right direction, and the moving object O3 moving in the left direction (vehicle) ) And the blob inclusion figures B29c and B29d that function as a mask for the moving object O4 (bird) may be slightly corrected in the left direction. Of course, since such position correction is only correction to the expected position, each moving object may not be completely hidden by the mask after position correction. Since the degree of projection can be reduced, the effect of reducing the area of the noise blob inclusion figure described above can be obtained.

このように、マスキング処理時にマスクとして機能するブロッブ包摂図形の位置修正を行うには、マスキング処理部140に、各トラッカーに格納されている第(i−1)番目以前の連続した時系列に所属するブロッブ包摂図形の位置の変遷に基づいて、第i番目の時系列に所属するブロッブ包摂図形の予測位置を求める機能を付加しておき、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)となる矩形に対して、前記予測位置への位置修正を施し、位置修正後の外接矩形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うようにすればよい。   Thus, in order to correct the position of the blob inclusion figure that functions as a mask at the time of masking processing, the masking processing unit 140 belongs to the (i−1) th consecutive time series stored before each tracker. When a function for obtaining a predicted position of a blob inclusion figure belonging to the i-th time series is added based on the transition of the position of the blob inclusion figure to be generated, and the individual moving object identification image M (i, j) is generated The position correction to the predicted position is performed on the rectangle that becomes the blob inclusion figure B (i-1) belonging to the (i-1) th time series of the non-focused tracker, and the circumscribed position after the position correction Masking for the i-th moving body identification image M (i) may be performed using a rectangle.

たとえば、図26(a) に示す例において、動体O2(人)のマスクとして機能するブロッブ包摂図形B29bについての時刻t30の時点での予測位置は、図24に示すトラッカーT2の時刻t29以前の欄に格納されているブロッブ包摂図形の位置の変遷に基づいて求めることができる。以下、このような過去の位置(時刻t(i−1)以前の位置)の変遷に基づいて、次の時点(時刻t(i)の時点)の予測位置を求める具体的な方法を2例だけ述べておく。   For example, in the example shown in FIG. 26 (a), the predicted position at the time t30 for the blob inclusion figure B29b that functions as a mask for the moving object O2 (person) is the column before the time t29 of the tracker T2 shown in FIG. Can be obtained based on the transition of the position of the blob inclusion figure stored in the. Hereinafter, two examples of specific methods for obtaining the predicted position of the next time point (time t (i)) based on the transition of the past position (position before time t (i-1)). Just to mention.

図36は、このような予測位置を求めるための第1の具体的な方法を示す平面図である。ここでは、同一のトラッカーの時刻t(i−4),t(i−3),t(i−2),t(i−1)の各欄に、それぞれ図示のようなブロッブ包摂図形B(i−4),B(i−3),B(i−2),B(i−1)が登録されている状態において、この一連のブロッブ包摂図形の時刻t(i)の時点での予測位置を示すブロッブ包摂図形B(i)′を求める具体的な方法を説明しよう。ここでは、各ブロッブ包摂図形を構成する矩形の中心点を、当該ブロッブ包摂図形の位置の基準点R0〜R4と定義することにする。もちろん、各ブロッブ包摂図形の位置の基準点は、必ずしも矩形の中心点に定義する必要はなく、たとえば、矩形の左上隅点などに定義してもかまわない。あるいは、ブロッブ包摂図形の抽出時に前景領域Fの重心点を求めておき、この重心点をブロッブ包摂図形の位置の基準点としてもよい。   FIG. 36 is a plan view showing a first specific method for obtaining such a predicted position. Here, a blob inclusion figure B (shown in the figure) is shown in each column of times t (i-4), t (i-3), t (i-2), and t (i-1) of the same tracker. i-4), B (i-3), B (i-2), and B (i-1) in a registered state, the prediction of the series of blob inclusion figures at time t (i) A specific method for obtaining the blob inclusion figure B (i) ′ indicating the position will be described. Here, the center point of the rectangle constituting each blob inclusion graphic is defined as reference points R0 to R4 of the position of the blob inclusion graphic. Of course, the reference point for the position of each blob inclusion figure is not necessarily defined at the center point of the rectangle, and may be defined at the upper left corner of the rectangle, for example. Alternatively, the barycentric point of the foreground area F may be obtained at the time of extracting the blob inclusion graphic, and this barycentric point may be used as a reference point for the position of the blob inclusion graphic.

この第1の具体的な方法の要点は、第(i−L)番目(Lは2以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)の位置の基準点から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)の位置の基準点へ向かうベクトルに対して、その長さを(L/(L−1))倍に伸ばすことにより得られるベクトルの先端を予測位置の基準点とすることにある。   The main point of this first specific method is that from the reference point of the position of the blob inclusion figure B (i-L) belonging to the (i-L) -th (L is an integer of 2 or more) time series. (I-1) Extending the length of the vector toward the reference point at the position of the blob inclusion figure B (i-1) belonging to the 1st time series by (L / (L-1)) times. The tip of the vector obtained by the above is used as the reference point of the predicted position.

図36に示す例は、L=4の場合であり、時刻t(i−4)欄に登録されているブロッブ包摂図形B(i−4)の位置の基準点R4から、時刻t(i−1)欄に登録されているブロッブ包摂図形B(i−1)の位置の基準点R1へ向かうベクトル「R4→R1」に対して、その長さを(4/(4−1))倍に伸ばすことにより得られるベクトル「R4→R0」の先端の点R0が、予測位置の基準点として求められることになる。   The example shown in FIG. 36 is a case where L = 4, and from the reference point R4 at the position of the blob inclusion figure B (i-4) registered in the time t (i-4) column, the time t (i− 1) The length of the vector “R4 → R1” directed to the reference point R1 at the position of the blob inclusion figure B (i−1) registered in the column is increased by (4 / (4-1)) times. The point R0 at the tip of the vector “R4 → R0” obtained by extending is obtained as the reference point of the predicted position.

一方、図37は、予測位置を求めるための第2の具体的な方法を示す平面図である。この第2の具体的な方法の要点は、第(i−L)番目(Lは3以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)まで、合計L個のブロッブ包摂図形の各位置の基準点を近似的に通る二次曲線Cを求め、この二次曲線C上の点を予測位置の基準点とすることにある。このような二次曲線Cを求める具体的な方法は、種々のアルゴリズムに基づく方法が公知であるため、ここでは詳しい説明は省略する。   On the other hand, FIG. 37 is a plan view showing a second specific method for obtaining the predicted position. The main point of this second concrete method is that the (i-1) th from the blob inclusion figure B (iL) belonging to the (i-L) th (L is an integer of 3 or more) time series. A quadratic curve C that approximately passes through the reference points at the respective positions of the total L blob inclusion figures up to the blob inclusion figure B (i-1) belonging to the th time series is obtained. The point is to use the point as a reference point of the predicted position. As a specific method for obtaining such a quadratic curve C, methods based on various algorithms are known, and thus detailed description thereof is omitted here.

図37に示す例は、L=4の場合であり、時刻t(i−4)欄に登録されているブロッブ包摂図形B(i−4)から、時刻t(i−1)欄に登録されているブロッブ包摂図形B(i−1)まで、合計4個のブロッブ包摂図形の各位置の基準点R4,R3,R2,R1を近似的に通る二次曲線Cを求め、この二次曲線C上の点R0が、予測位置の基準点として求められることになる。二次曲線C上に点R0を求めるには、たとえば、2点R4/R3間、R3/R2間、R2/R1間の二次曲線Cに沿った距離を求め、これらの距離の平均だけ点R1から隔たった二次曲線C上の点を、点R0とすればよい。   The example shown in FIG. 37 is a case where L = 4, and is registered in the time t (i-1) column from the blob inclusion figure B (i-4) registered in the time t (i-4) column. A quadratic curve C that approximately passes through the reference points R4, R3, R2, and R1 at each position of the total four blob inclusion figures up to the blob inclusion figure B (i-1) is obtained. The upper point R0 is obtained as the reference point of the predicted position. In order to obtain the point R0 on the quadratic curve C, for example, the distances along the quadratic curve C between the two points R4 / R3, between R3 / R2, and between R2 / R1 are obtained, and only the average of these distances A point on the quadratic curve C separated from R1 may be a point R0.

図36に例示する方法はいわゆる一次補間によって予測位置の基準点R0を決定する方法であり、図37に例示する方法はいわゆる二次補間によって予測位置の基準点R0を決定する方法である。一般に、後者の方法の方が、より正確な予測ができるものとされている。いずれの場合も、ブロッブ包摂図形B(i−1)の位置が、ブロッブ包摂図形B(i)′の位置に修正された上で、マスキングが行われることになる。もちろん、ブロッブ包摂図形B(i)′は、あくまでも予測によって位置修正されたマスクの位置を示すものであり、トラッカーの時刻t(i)欄に実際に登録されるブロッブ包摂図形B(i)とは異なるものである。   The method illustrated in FIG. 36 is a method of determining the reference point R0 of the predicted position by so-called primary interpolation, and the method illustrated in FIG. 37 is a method of determining the reference point R0 of the predicted position by so-called secondary interpolation. In general, the latter method can be predicted more accurately. In either case, masking is performed after the position of the blob inclusion figure B (i−1) is corrected to the position of the blob inclusion figure B (i) ′. Of course, the blob inclusion figure B (i) ′ merely indicates the position of the mask whose position has been corrected by prediction, and the blob inclusion figure B (i) actually registered in the time t (i) column of the tracker. Are different.

<7−2:マスキング処理時のブロッブ包摂図形の拡張修正>
上述した§7−1では、ノイズブロッブ包摂図形を低減させるために、マスキング処理時にブロッブ包摂図形の位置を修正する方法を述べたが、ここで述べる方法は、同じ目的のために、ブロッブ包摂図形の大きさを拡張修正する方法である。
<7-2: Extended correction of blob inclusion figure during masking process>
In §7-1 described above, a method of correcting the position of the blob inclusion figure during the masking process is described in order to reduce the noise blob inclusion figure. However, the method described here is a blob inclusion figure for the same purpose. This is a method of expanding and correcting the size of the.

この方法を採用する場合、マスキング処理部140は、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)となる矩形に対して、輪郭線を所定量だけ外方へ拡張する修正を施し、拡張修正後の図形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うようにすればよい。   When this method is adopted, the masking processing unit 140 generates the individual moving object identification image M (i, j), and the blob inclusion figure B belonging to the (i−1) th time series of the tracker not of interest. The rectangle which becomes (i-1) is corrected to extend the outline outward by a predetermined amount, and the expanded corrected graphic is used to determine the i-th moving object identification image M (i). Masking may be performed.

図38は、このような拡張修正の具体例を示す平面図である。図38(a) は、図26(a) と同様に、個別動体識別画像M(30,1)を示す平面図である。ここで、ブロッブ包摂図形B29b,B29c,B29dは、マスクとなるブロッブ包摂図形であり、前述したとおり、これらのマスクから動体の一部が食み出した状態となっている。上述した§7−1では、マスクの位置を修正することにより、この食み出し状態を解消するアプローチが採られたが、ここでは、マスクを広げることにより、食み出し部分まで隠蔽するアプローチが採られる。すなわち、図に破線で示す矩形B29b′,B29c′,B29d′は、ブロッブ包摂図形B29b,B29c,B29dとなる矩形に対して、輪郭線を所定量だけ外方へ拡張する修正を施して得られる拡張修正後のマスク図形である。   FIG. 38 is a plan view showing a specific example of such extended correction. FIG. 38 (a) is a plan view showing the individual moving body identification image M (30, 1), similarly to FIG. 26 (a). Here, the blob inclusion figures B29b, B29c, and B29d are blob inclusion figures that serve as masks, and as described above, a part of the moving object protrudes from these masks. In §7-1 described above, an approach to eliminate this protruding state by correcting the position of the mask is taken, but here, an approach of concealing the protruding portion by expanding the mask is used. Taken. That is, rectangles B29b ′, B29c ′, and B29d ′ indicated by broken lines in the figure are obtained by correcting the rectangles that become the blob inclusion figures B29b, B29c, and B29d by extending the outline outward by a predetermined amount. It is a mask figure after extended correction.

このような拡張修正後のマスク図形を用いたマスキング処理が施された個別動体識別画像M(30,1)からブロッブ包摂図形抽出処理を行うと、図38(b) に示すように、合計3組の候補ブロッブ包摂図形B30a−1,B30a−3,B30a−4が抽出される。この図38(b) を図26(b) と比較すると、候補ブロッブ包摂図形B30a−2は消滅し、候補ブロッブ包摂図形B30a−3,B30a−4の面積は縮小していることがわかる。すなわち、ノイズブロッブ包摂図形を低減する効果が得られたことになる。もちろん、このような拡張修正と、§7−1で述べた位置修正とを併用してもよい。   When the blob inclusion graphic extraction process is performed from the individual moving object identification image M (30, 1) subjected to the masking process using the extended corrected mask graphic as shown in FIG. A set of candidate blob inclusion figures B30a-1, B30a-3, and B30a-4 is extracted. Comparing FIG. 38 (b) with FIG. 26 (b), it can be seen that the candidate blob inclusion figure B30a-2 disappears and the areas of the candidate blob inclusion figures B30a-3 and B30a-4 are reduced. That is, the effect of reducing the noise blob inclusion figure is obtained. Of course, such extended correction and the position correction described in §7-1 may be used in combination.

<7−3:マスキング処理時のブロッブ包摂図形の取捨選択>
本発明において、マスキング処理部140によるマスキング処理により、個別動体識別画像を作成する理由は、複数の動体が交差した場合の問題を解決するためである。したがって、他の動体と重なりを生じていない動体については、必ずしもマスキングによる隠蔽を行う必要はない。
<7-3: Selection of blob inclusion figure during masking process>
In the present invention, the reason why the individual moving object identification image is created by the masking process by the masking processing unit 140 is to solve the problem when a plurality of moving objects intersect. Therefore, it is not always necessary to conceal a moving object that does not overlap with another moving object by masking.

たとえば、図26(a) に示す例の場合、動体O1(馬)についてのブロッブ包摂図形が登録されている着目トラッカーT1用の個別動体識別画像M(30,1)を生成するために、ブロッブ包摂図形B29b(人),ブロッブ包摂図形B29c(車),ブロッブ包摂図形B29d(鳥)を用いたマスキングを行っている。しかしながら、この例の場合、時刻t30において、動体O1(馬),動体O2(人),動体O3(車)は重なりを生じているが、動体O4(鳥)は重なりを生じていない。したがって、動体O4(鳥)については、ブロッブ包摂図形B29d(鳥)を用いたマスキング処理による隠蔽を行わなくても支障は生じない。すなわち、図26(b) に示す例において、ブロッブ包摂図形B30a−4の代わりに、動体O4(鳥)の全体に対応するブロッブ包摂図形が候補ブロッブ包摂図形として残っていたとしても、後続ブロッブ包摂図形として選択される候補がブロッブ包摂図形B30a−1(馬)であることに変わりはない。   For example, in the case of the example shown in FIG. 26 (a), in order to generate the individual moving object identification image M (30, 1) for the target tracker T1 in which the blob inclusion figure for the moving object O1 (horse) is registered, Masking is performed using the inclusion figure B29b (person), the blob inclusion figure B29c (car), and the blob inclusion figure B29d (bird). However, in this example, at time t30, the moving body O1 (horse), the moving body O2 (person), and the moving body O3 (car) overlap, but the moving body O4 (bird) does not overlap. Therefore, for the moving object O4 (bird), there is no problem even if the masking process using the blob inclusion figure B29d (bird) is not performed. That is, in the example shown in FIG. 26 (b), even if the blob inclusion figure corresponding to the whole moving object O4 (bird) remains as the candidate blob inclusion figure instead of the blob inclusion figure B30a-4, the subsequent blob inclusion figure The candidate selected as the graphic is still the blob inclusion graphic B30a-1 (horse).

このような点を考慮すれば、マスキング処理部140によるマスキング処理には、必ずしも着目外トラッカーに登録されているすべてのブロッブ包摂図形を用いる必要はないことがわかる。たとえば、マスキング処理部140が、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形のうち、着目トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形の所定の近傍範囲内に位置するブロッブ包摂図形のみを用いて、マスキングを行うようにしてもかまわない。   Considering such a point, it can be understood that it is not always necessary to use all blob inclusion figures registered in the non-target tracker for the masking process by the masking processing unit 140. For example, when the masking processing unit 140 generates the individual moving object identification image M (i, j), the blob inclusion figure registered in the (i-1) th time series of the non-focused tracker is focused on. Masking may be performed using only the blob inclusion figure located within a predetermined neighborhood range of the blob inclusion figure registered in the (i-1) th time series of the tracker.

図26(a) に示す例の場合、動体O1(馬)についてのブロッブ包摂図形が登録されている着目トラッカーT1用の個別動体識別画像M(30,1)を生成する際に、着目外トラッカーT2〜T4の時刻t29欄に登録されているブロッブ包摂図形のうち、着目トラッカーT1の時刻t29欄に登録されているブロッブ包摂図形B29a(馬)の所定の近傍範囲内に位置するブロッブ包摂図形B29b(人)およびB29c(車)のみを用いて、マスキングを行うようにしてもかまわない。この場合、ブロッブ包摂図形B29d(鳥)によるマスキングは行われないことになる。   In the case of the example shown in FIG. 26 (a), when generating the individual moving object identification image M (30, 1) for the target tracker T1 in which the blob inclusion figure for the moving object O1 (horse) is registered, the non-target tracker is generated. Among the blob inclusion figures registered in the time t29 field of T2 to T4, the blob inclusion figure B29b located within a predetermined vicinity range of the blob inclusion figure B29a (horse) registered in the time t29 field of the target tracker T1 Masking may be performed using only (person) and B29c (car). In this case, masking by the blob inclusion figure B29d (bird) is not performed.

<7−4:後続ブロッブ包摂図形登録時の大きさ修正>
一般に、同一の動体に基づいて抽出されたブロッブ包摂図形は、その大きさが急激に、あるいは極端に変化することはないと考えられる。図36や図37に例示したブロッブ包摂図形の変遷において、個々のブロッブ包摂図形が同一サイズの矩形で示されているのは、このような考え方に基づくものである。
<7-4: Size correction at subsequent blob inclusion figure registration>
In general, it is considered that the blob inclusion figure extracted based on the same moving object does not change abruptly or extremely. In the transition of the blob inclusion graphic illustrated in FIG. 36 and FIG. 37, each blob inclusion graphic is indicated by a rectangle of the same size based on such a concept.

しかしながら、人,馬,鳥のような動物は、絶えず形態を変えながら移動する動体であるから、抽出したブロッブ包摂図形を時系列的に並べれば、少なからず大きさの変化が生じることになる。また、車のような動体であっても、向きを変えたり、カメラに対して近付いたり遠ざかったりすれば、ブロッブ包摂図形に大きさの変化が生じることになる。   However, since animals such as humans, horses, and birds are moving bodies that constantly change their forms, if the extracted blob inclusion figures are arranged in time series, there will be a considerable change in size. Even a moving object such as a car changes its size in the blob inclusion figure if it changes its direction or moves closer to or away from the camera.

図39(a) は、同一の動体から抽出したブロッブ包摂図形を時系列的に並べた結果、大きさの変化が生じた例を示した平面図である。ここでは、動体の移動経路が破線で示すとおり直線であるものとし、各ブロッブ包摂図形の中心点が、この破線に沿って左から右へと移動するものとしよう。図示のブロッブ包摂図形B1〜B7は、同一の動体に基づいて、それぞれ時刻t1〜t7の時点で抽出されたブロッブ包摂図形であり、説明の便宜上、大きさの時間的な変化を誇張して描いてある。   FIG. 39 (a) is a plan view showing an example in which a change in size occurs as a result of arranging blob inclusion figures extracted from the same moving object in time series. Here, it is assumed that the moving path of the moving object is a straight line as shown by a broken line, and the center point of each blob inclusion figure moves from left to right along the broken line. The illustrated blob inclusion figures B1 to B7 are blob inclusion figures extracted at times t1 to t7 based on the same moving object, and are drawn with exaggerated temporal changes in size for convenience of explanation. It is.

このようなブロッブ包摂図形B1〜B7は、同一の動体の外接矩形として抽出されたものであるから、当該動体の画像上に示す領域を示す情報としては正しい情報になる。しかしながら、トラッカー上にこのようなブロッブ包摂図形B1〜B7の並びが登録された場合、これらのブロッブ包摂図形に基づいて、各原画像上から部分画像を切出して、当該動体をズームアップした状態で追跡する動画提示を行うと、ズームアップの倍率がブロッブ包摂図形B1〜B7の大きさの変動に応じて変動するという弊害が生じる。   Since the blob inclusion figures B1 to B7 are extracted as circumscribed rectangles of the same moving object, they are correct information as information indicating the area shown on the moving object image. However, when such a sequence of blob inclusion figures B1 to B7 is registered on the tracker, a partial image is cut out from each original image based on these blob inclusion figures, and the moving object is zoomed up. When the moving image to be tracked is presented, there is an adverse effect that the zoom-up magnification varies according to the variation in the size of the blob inclusion figures B1 to B7.

たとえば、図7の下段に示すズームアップ画像では、ブロッブ包摂図形B30とブロッブ包摂図形B40の大きさが等しいため、ズームアップの倍率は一定になる。したがって、動体(車)をズームアップした状態で追跡するような動画提示を行っても違和感は生じない。ところが、図39(a) に示すように、大きさが変動するブロッブ包摂図形B1〜B7に基づいて、動体をズームアップした追跡を行うと、画面上で動体のサイズが変動することになり、非常に見にくい動画にならざるを得ない。   For example, in the zoom-up image shown in the lower part of FIG. 7, since the size of the blob inclusion graphic B30 and the blob inclusion graphic B40 are equal, the zoom-up magnification is constant. Therefore, even if the moving image presentation is performed such that the moving object (car) is tracked in a zoomed-up state, there is no sense of incongruity. However, as shown in FIG. 39 (a), when tracking is performed by zooming up a moving object based on the blob inclusion figures B1 to B7 whose sizes vary, the size of the moving object changes on the screen. The video must be very difficult to watch.

このような問題を解決するには、図39(a) に示すブロッブ包摂図形B1〜B9を、トラッカーに後続ブロッブ包摂図形として登録する際に、大きさについての修正を施して、たとえば図39(b) に示すようなブロッブ包摂図形B1′〜B9′とし、これら修正後のブロッブ包摂図形をトラッカー上に登録するようにすればよい。   In order to solve such a problem, when the blob inclusion figures B1 to B9 shown in FIG. 39 (a) are registered in the tracker as subsequent blob inclusion figures, the size is corrected, for example, FIG. The blob inclusion figures B1 'to B9' as shown in b) may be registered, and the corrected blob inclusion figures may be registered on the tracker.

具体的には、トラッカー登録部160が、後続ブロッブ包摂図形登録処理において第j番目のトラッカーTjについての後続ブロッブ包摂図形を登録する際に、当該後続ブロッブ包摂図形の大きさが、連続して先行登録されている所定数のブロッブ包摂図形の平均サイズとなるように、当該後続ブロッブ包摂図形の大きさに対する修正を行うようにすればよい。たとえば、ブロッブ包摂図形B1が先頭ブロッブ包摂図形(新参ブロッブ包摂図形)の場合、ブロッブ包摂図形B1についてはそのままの大きさで登録し、これに続く後続ブロッブ包摂図形B2については、ブロッブ包摂図形B1,B2の平均サイズとなるような修正を加えて登録し、更に続く後続ブロッブ包摂図形B3については、ブロッブ包摂図形B1〜B3の平均サイズとなるような修正を加えて登録する、と言った具合である。予め、過去n個分のブロッブ包摂図形の平均サイズとなるような修正を加える、というように定めておけば、動体の緩やかな大きさ変動には追従することができる。なお、図39(b) に示すブロッブ包摂図形B1′〜B9′は、いずれも同じ大きさになっており、上記方法で得られたブロッブ包摂図形を示すものではない。   Specifically, when the tracker registration unit 160 registers the subsequent blob inclusion graphic for the jth tracker Tj in the subsequent blob inclusion graphic registration process, the size of the subsequent blob inclusion graphic is continuously preceded. What is necessary is just to correct | amend the magnitude | size of the said subsequent blob inclusion figure so that it may become the average size of the predetermined number of registered blob inclusion figures. For example, when the blob inclusion graphic B1 is the first blob inclusion graphic (new blob inclusion graphic), the blob inclusion graphic B1 is registered with the same size, and the subsequent blob inclusion graphic B2 is subsequently registered with the blob inclusion graphic B1, It is registered with the correction to be the average size of B2, and the subsequent subsequent blob inclusion figure B3 is registered with the correction to be the average size of the blob inclusion figures B1 to B3. is there. If a correction is made in advance so as to make the average size of the past n blob inclusion figures, it is possible to follow the gradual fluctuation of the moving object. Note that the blob inclusion figures B1 ′ to B9 ′ shown in FIG. 39 (b) are all the same size and do not represent the blob inclusion figures obtained by the above method.

<7−5:ブロッブ包摂図形抽出部の動体認識>
ブロッブ包摂図形抽出部170によるブロッブ包摂図形抽出処理の具体な方法は、図32の流れ図を参照しながら説明したとおりであり、図34には、当該方法によるブロッブ包摂図形抽出のプロセスの実例を示した。このブロッブ包摂図形抽出処理は、動体識別画像Mに基づいて、前景領域Fを構成するひとまとまりの画素集団(ブロッブ)を動体と認識し、当該画素集団の外接矩形を抽出する処理であるが、実際には、動体識別画像M上の前景領域Fが、必ずしも動体が存在する領域であるとは限らない。
<7-5: Motion recognition of blob inclusion figure extraction unit>
A specific method of blob inclusion graphic extraction processing by the blob inclusion graphic extraction unit 170 is as described with reference to the flowchart of FIG. 32, and FIG. 34 shows an example of the blob inclusion graphic extraction process by the method. It was. This blob inclusion figure extraction process is a process of recognizing a group of pixels (blob) constituting the foreground region F as a moving object based on the moving object identification image M and extracting a circumscribed rectangle of the pixel group. Actually, the foreground area F on the moving object identification image M is not necessarily an area where a moving object exists.

動体識別画像Mは、図5に示すように、原画像P(i)上の画素と背景画像A(i−1)上の画素との類否判定によって生成される画像であるため、本来は背景領域Kに所属する画素であっても、何らかの要因によって非類似と判定されると、前景領域Fに所属する画素になってしまう。たとえば、樹木の葉などに風が作用すると、光の反射状態が変動するため、前景領域Fと判定される可能性がある。また、海,川,池などを含む背景では、水面の変動が前景領域Fと判定される可能性もある。   As shown in FIG. 5, the moving body identification image M is an image generated by similarity determination between a pixel on the original image P (i) and a pixel on the background image A (i−1). Even if the pixel belongs to the background region K, if it is determined as dissimilar for some reason, the pixel belongs to the foreground region F. For example, when wind acts on the leaves of a tree or the like, the reflected state of light changes, so that there is a possibility that the foreground region F is determined. Further, in the background including the sea, river, pond, etc., the fluctuation of the water surface may be determined as the foreground region F.

そこで、実用上は、ブロッブ包摂図形抽出部170が、面積が所定の基準に満たない画素集団については、動体と認識せず、ブロッブ包摂図形の抽出を行わないようにするのが好ましい。一般に、画面上で動体として認識して追跡対象にしたい物体は、画面上である程度の大きさをもっている物と考えられるので、面積が所定の基準に満たない画素集団については、動体と認識しなくても支障は生じない。そして、このように小面積の画素集団をブロッブ包摂図形として抽出しないことにより、候補ブロッブ包摂図形の数を低減し、演算負担を軽減することができるようになる。   Therefore, in practice, it is preferable that the blob inclusion graphic extraction unit 170 does not recognize a pixel group whose area does not satisfy a predetermined standard as a moving object and does not extract a blob inclusion graphic. In general, an object that is recognized as a moving object on the screen and is to be tracked is considered to have a certain size on the screen, so a pixel group whose area does not meet a predetermined standard is not recognized as a moving object. However, there will be no problem. Then, by not extracting a pixel group having a small area as a blob inclusion figure in this way, the number of candidate blob inclusion figures can be reduced and the calculation burden can be reduced.

<7−6:ブロッブ包摂図形を構成する図形のバリエーション>
これまで述べてきた実施形態では、ブロッブ包摂図形抽出部170が、前景領域Fを構成するひとまとまりの画素集団(ブロッブ)の外接矩形をブロッブ包摂図形として抽出しているが、ブロッブ包摂図形は、必ずしもブロッブの外接矩形である必要はない。たとえば、外接円や外接三角形など、任意形状の外接図形をブロッブ包摂図形として抽出してもかまわない。また、これまで述べてきた実施形態では、外接矩形として、画素配列の縦横方向に平行な四辺をもった矩形(いわゆる正則な四角形)を用いているが、もちろん、ブロッブ包摂図形として抽出する矩形は、必ずしも正則な四角形である必要はない。
<7-6: Variation of figures composing blob inclusion figure>
In the embodiment described so far, the blob inclusion figure extraction unit 170 extracts a circumscribed rectangle of a group of pixels (blob) constituting the foreground region F as a blob inclusion figure. It does not necessarily have to be the bounding rectangle of the blob. For example, any shape of circumscribed figure such as a circumscribed circle or circumscribed triangle may be extracted as a blob inclusion figure. In the embodiments described so far, a rectangle having four sides parallel to the vertical and horizontal directions of the pixel array (so-called regular rectangle) is used as the circumscribed rectangle. Of course, the rectangle extracted as the blob inclusion figure is It does not necessarily have to be a regular rectangle.

また、ブロッブ包摂図形として抽出する図形は、必ずしも前景領域F(ブロッブ)に接する図形(外接図形)である必要はない。たとえば、外接図形をひとまわり大きくした図形をブロッブ包摂図形として抽出するようにしてもかまわない。もちろん、前景領域F(ブロッブ)の細かな輪郭形状をそのまま示す図形をブロッブ包摂図形として抽出してもよい。要するに、本発明を実施するにあたり、ブロッブ包摂図形は、前景領域Fを構成するひとまとまりの画素集団(ブロッブ)の大まかな輪郭を示すものであれば、任意の図形によって構成することができる。   Further, the graphic extracted as the blob inclusion graphic does not necessarily need to be a graphic (circumscribed graphic) in contact with the foreground area F (blob). For example, a figure obtained by enlarging the circumscribed figure may be extracted as a blob inclusion figure. Of course, a graphic showing the fine outline shape of the foreground area F (blob) as it is may be extracted as a blob inclusion graphic. In short, in implementing the present invention, the blob inclusion figure can be constituted by an arbitrary figure as long as it shows a rough outline of a group of pixels (blob) constituting the foreground region F.

要するに、本願にいう「ブロッブ包摂図形」には、様々な形状をもった図形を用いることができ、前景領域Fを構成するひとまとまりの画素集団(ブロッブ)に外接する任意形状の図形や、これらの図形を外方に拡張して得られる任意形状の図形 などを広く利用することができる。ただ、実用上は、これまで述べてきた実施形態のように、正則な四角形からなる外接矩形を「ブロッブ包摂図形」として用いるのが好ましい。正則な四角形からなる外接矩形をブロッブ包摂図形として利用すれば、図13に示すように、対角2頂点の座標値によってのみ定義することができ、また、内部の画像を切出すような演算負担も軽くなる。   In short, the “blob inclusion figure” referred to in the present application can be a figure having various shapes, such as a figure of any shape circumscribing a group of pixels (blob) constituting the foreground region F, It is possible to use a wide variety of figures of any shape that can be obtained by extending the figure to the outside. However, in practice, it is preferable to use a circumscribed rectangle made of a regular rectangle as the “blob inclusion figure” as in the embodiments described so far. If a circumscribed rectangle consisting of a regular rectangle is used as a blob inclusion figure, as shown in FIG. 13, it can be defined only by the coordinate values of two diagonal vertices, and the calculation burden is to cut out an internal image. Will also be lighter.

<<< §8.本発明の基本的な技術思想 >>>
これまで本発明を基本的な実施形態およびその変形例について説明してきたが、ここでは、本発明の基本的な技術思想をまとめておく。
<<< §8. Basic technical idea of the present invention >>
The present invention has been described with reference to the basic embodiment and the modifications thereof. Here, the basic technical idea of the present invention will be summarized.

まず、本発明に係る動体追跡装置は、動画画像について動体を検出し、これを追跡する機能をもった装置であり、その基本構成は、図31のブロック図に示すとおりである。   First, the moving object tracking device according to the present invention is a device having a function of detecting and tracking a moving object in a moving image, and its basic configuration is as shown in the block diagram of FIG.

すなわち、この動体追跡装置は、時系列で連続する複数の原画像P(i)からなる動画画像を入力する画像入力部110と、動画画像の背景を構成する背景画像を提供する背景画像提供部120と、第i番目の原画像P(i)と背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成部130と、同一の動体と推定される画素集団の包摂図形からなるブロッブ包摂図形を、先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べることにより構成されるトラッカーの情報を、個々の動体ごとに格納するトラッカー格納部150と、このトラッカー格納部150に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体を示すブロッブ包摂図形を利用して、動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理部140と、マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の包摂図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出部170と、トラッカー格納部150に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体を示す先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる、着目動体と同一と推定される動体を示すブロッブ包摂図形を、着目動体以外の動体を示すブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から選択し、これをトラッカー格納部150に、先行ブロッブ包摂図形に後続する第i番目の時系列の後続ブロッブ包摂図形として登録するとともに、マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形の登録が行われていない新参ブロッブ包摂図形を、第i番目の時系列が未登録状態のトラッカーに、先頭ブロッブ包摂図形として登録するトラッカー登録部と、によって構成されることになる。   That is, the moving object tracking device includes an image input unit 110 that inputs a moving image composed of a plurality of original images P (i) that are continuous in time series, and a background image providing unit that provides a background image that constitutes the background of the moving image. 120, the i th original image P (i) and the background image are compared to generate the i th moving body identification image M (i) for distinguishing the background area from the foreground area. 130, and tracker information constituted by arranging the blob inclusion figure consisting of the inclusion figure of the pixel group estimated to be the same moving object in time series from the first blob inclusion figure to the last blob inclusion figure, A tracker storage unit 150 for storing each moving object, and a moving object other than the moving object of interest included in the (i-1) th original image P (i-1) stored in the tracker storage unit 150 are shown. A masking processing unit 140 that performs masking processing on the foreground region of the moving object identification image M (i) using the lob inclusion figure, and a masked portion of the moving object identification image M (i) before and after the masking process are excluded. A group of pixel groups constituting the foreground region is recognized as a moving object, and a block inclusion figure extraction unit 170 that extracts an inclusion figure of the pixel group as a blob inclusion figure and a tracker storage unit 150 (No. i-1) The preceding blob inclusion figure indicating the target moving object included in the first original image P (i-1) is the same as the target moving object included in the i-th original image P (i). Candidates extracted from the moving object identification image M (i) masked by using the blob inclusion graphic indicating the moving object other than the moving object of interest, the blob inclusion graphic indicating the estimated moving object The lob inclusion figure is selected from the lob inclusion figures and registered in the tracker storage unit 150 as the i th time-series subsequent blob inclusion figure following the preceding blob inclusion figure, and the moving object identification image M (i before masking processing) ) The newly added blob inclusion figure for which the corresponding subsequent blob inclusion figure has not been registered is registered as the first blob inclusion figure in the tracker whose i-th time series is not registered. And a tracker registration unit.

ここで、トラッカー登録部160は、先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形の選択を行い、マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、第i番目の時系列の後続ブロッブ包摂図形として登録されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とする。   Here, the tracker registration unit 160 compares the preceding blob inclusion graphic and each candidate blob inclusion graphic with respect to any one or a plurality of combinations of position, area, and shape, and the subsequent blob inclusion graphic based on the similarity. Among the individual blob inclusion figures extracted from the moving object identification image M (i) before the masking process, or the blob inclusion figure registered as the subsequent blob inclusion figure of the i-th time series or A blob inclusion figure that is not in an inclusion relationship is defined as a new blob inclusion figure.

一方、本発明は、動画画像について動体を検出し、これを追跡する動体追跡方法として把握することも可能である。図40は、この動体追跡方法の手順を示す流れ図である。   On the other hand, the present invention can also be understood as a moving object tracking method for detecting a moving object in a moving image and tracking the moving object. FIG. 40 is a flowchart showing the procedure of this moving object tracking method.

図示のとおり、この動体追跡方法は、コンピュータが、時系列で連続する複数の原画像P(i)からなる動画画像を入力する画像入力段階S10と、コンピュータが、動画画像の背景を構成する背景画像と、第i番目の原画像P(i)とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成段階S20と、コンピュータが、第(i−1)番目の原画像P(i−1)内に含まれる着目動体の輪郭を包摂する先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる、着目動体と同一と推定される動体の輪郭を包摂する後続ブロッブ包摂図形を認識するとともに、第i番目の原画像P(i)において新たに出現した動体の輪郭を包摂する新参ブロッブ包摂図形を認識する後続/新参ブロッブ包摂図形認識段階S30と、を有している。   As shown in the figure, this moving body tracking method includes an image input stage S10 in which a computer inputs a moving image composed of a plurality of original images P (i) that are continuous in time series, and a background in which the computer constitutes the background of the moving image. A moving object identification image generation step S20 that compares the image with the i-th original image P (i) to generate an i-th moving object identification image M (i) that distinguishes the background region and the foreground region; In the i-th original image P (i), the computer compares the preceding blob inclusion figure including the outline of the moving object of interest included in the (i-1) -th original image P (i-1). A new blob inclusion that recognizes the subsequent blob inclusion figure that includes the outline of the moving object that is estimated to be the same as the moving object of interest and that includes the outline of the moving object that newly appears in the i-th original image P (i). Recognize shapes Has a junior blob subsumption figure recognition step S30, the.

ここで、後続/新参ブロッブ包摂図形認識段階S30は、第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体の輪郭を包摂するブロッブ包摂図形を利用して、動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理ステップS31と、マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の輪郭を包摂する図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出ステップS32と、着目動体以外の動体を包摂するブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から、着目動体の輪郭を包摂する先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形を後続ブロッブ包摂図形として選択する後続ブロッブ包摂図形選択ステップS33と、マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形が認識されていない新参ブロッブ包摂図形を、新たな動体の輪郭を包摂する新参ブロッブ包摂図形として認識する新参ブロッブ包摂図形認識ステップS34と、によって構成されている。   Here, the subsequent / new entry blob inclusion figure recognition step S30 uses a blob inclusion figure that includes the outline of a moving object other than the moving object of interest included in the (i-1) th original image P (i-1). Then, a masking process step S31 for performing masking processing on the foreground region of the moving object identification image M (i) and a foreground region excluding the masked portion are configured for the moving object identification image M (i) before and after the masking process. A blob inclusion figure extraction step S32 that recognizes a group of pixels as a moving object and extracts a figure including the outline of the pixel group as a blob inclusion figure, and a blob inclusion figure that includes a moving object other than the target movement. Preceding blob inclusion that includes the contour of the moving object of interest from among the candidate blob inclusion figures extracted from the masked moving object identification image M (i) A subsequent blob inclusion graphic selection step S33 for selecting a blob inclusion graphic suitable for following the shape as a subsequent blob inclusion graphic, and a blob inclusion graphic extracted from the moving object identification image M (i) before the masking process. A new blob inclusion figure recognition step S34 for recognizing a new blob inclusion figure in which a subsequent blob inclusion figure is not recognized as a new blob inclusion figure that includes the outline of a new moving object.

また、後続ブロッブ包摂図形選択ステップS33では、先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形を選択する処理が行われ、新参ブロッブ包摂図形認識ステップS34では、マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、後続ブロッブ包摂図形として認識されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とする処理が行われる。   In the subsequent blob inclusion graphic selection step S33, the preceding blob inclusion graphic and each candidate blob inclusion graphic are compared with respect to any one or a plurality of combinations of position, area, and shape, and the subsequent blob inclusion graphic is selected based on the similarity. The inclusion figure is selected, and in the new blob inclusion figure recognition step S34, the individual blob inclusion figure extracted from the moving object identification image M (i) before the masking process is recognized as the subsequent blob inclusion figure. A process is performed in which a blob inclusion figure that does not match or contain the existing blob inclusion figure is used as a new blob inclusion figure.

<<< §9.監視システムへの応用 >>>
最後に、本発明に係る動体追跡装置を監視システムに応用した実施形態を、図41に示すブロック図を参照しながら説明する。この監視システムは、図31に示す動体追跡装置に、ビデオカメラ210と部分動画提示部220とを付加したものである。
<<< §9. Application to monitoring system >>
Finally, an embodiment in which the moving body tracking apparatus according to the present invention is applied to a monitoring system will be described with reference to the block diagram shown in FIG. In this monitoring system, a video camera 210 and a partial moving image presentation unit 220 are added to the moving object tracking device shown in FIG.

ここで、ビデオカメラ210は、定点に設置され、周囲の動画画像を撮影して画像入力部110に与える構成要素である。一方、部分動画提示部220は、トラッカー格納部150から、1つの選択トラッカーに連続して登録されているブロッブ包摂図形B(i)を順次取り出し、画像入力部110が入力した原画像P(i)から、取り出したブロッブ包摂図形B(i)の内部の画像を切出して表示することにより、特定の動体を追跡した部分動画画像を提示する構成要素である。   Here, the video camera 210 is a component that is installed at a fixed point, captures a surrounding moving image, and gives it to the image input unit 110. On the other hand, the partial video presenting unit 220 sequentially extracts the blob inclusion figure B (i) continuously registered in one selected tracker from the tracker storage unit 150, and the original image P (i) input by the image input unit 110. ) From the extracted blob inclusion figure B (i) is cut out and displayed to display a partial moving image that tracks a specific moving object.

たとえば、図24に示すようなトラッカー情報がトラッカー格納部150に格納されている場合に、ユーザが、部分動画提示部220に対して、トラッカーT1を選択する指示を与えると、部分動画提示部220は、トラッカーT1の先頭から、ブロッブ包摂図形B1a,B2a,B3a,... ,B40aを順次取り出し、これらのブロッブ包摂図形に基づいて、それぞれ原画像P1,P2,P3,... ,P40から各ブロッブ包摂図形内を含む部分画像の切出しを行い提示する処理を行う。その結果、画面上には、動体O1(馬)をズームアップして追跡する動画が表示されることになる。   For example, when tracker information as shown in FIG. 24 is stored in the tracker storage unit 150, when the user gives an instruction to select the tracker T1 to the partial video presentation unit 220, the partial video presentation unit 220 is displayed. , B40a are sequentially extracted from the head of the tracker T1, and based on these blob inclusion figures, from the original images P1, P2, P3,..., P40, respectively. A process of cutting out and presenting a partial image including each blob inclusion figure is performed. As a result, a moving image in which the moving object O1 (horse) is zoomed in and tracked is displayed on the screen.

もちろん、ビデオカメラ210がリアルタイムで撮影した動画画像に基づいて、所定の動体追跡を行うことも可能である。この場合、トラッカー格納部150内には、リアルタイムで各時刻欄のブロッブ包摂図形が登録されてゆくので、部分動画提示部220は、選択トラッカーについてブロッブ包摂図形の登録が行われたその時点で、当該ブロッブ包摂図形を取り出して部分画像の切出処理を行うことになる。   Of course, it is also possible to perform predetermined moving body tracking based on the moving image captured by the video camera 210 in real time. In this case, since the blob inclusion figure of each time column is registered in real time in the tracker storage unit 150, the partial moving picture presentation unit 220 at the time when the blob inclusion figure is registered for the selected tracker, The blob inclusion figure is extracted and the partial image is cut out.

なお、通常は、画像を表示するディスプレイ画面のアスペクト比とブロッブ包摂図形のアスペクト比とは異なっているため、部分動画提示部220は、ブロッブ包摂図形B(i)を所定量だけ外方へ拡張し、拡張された包摂図形の内部の画像を切出して表示するようにすればよい。たとえば、図7に示す例の場合、ブロッブ包摂図形B30,B40を構成する矩形(太線で示す矩形)のアスペクト比と、表示画面のアスペクト比とが異なっているため、ブロッブ包摂図形B30,B40を構成する矩形を所定量だけ外方へ拡張し、拡張された矩形(部分画像f30,f40の輪郭)の内部の画像が切出されている。こうすることにより、追跡対象となる動体が、画面内に常に正しく表示された状態でのズームアップ表示が可能になる。   Since the aspect ratio of the display screen for displaying the image is different from the aspect ratio of the blob inclusion graphic, the partial video presentation unit 220 expands the blob inclusion graphic B (i) outward by a predetermined amount. Then, an image inside the expanded inclusion figure may be cut out and displayed. For example, in the case of the example shown in FIG. 7, the aspect ratio of the rectangles (rectangles indicated by bold lines) constituting the blob inclusion figures B30 and B40 is different from the aspect ratio of the display screen. A rectangle constituting the image is expanded outward by a predetermined amount, and an image inside the expanded rectangle (the contours of the partial images f30 and f40) is cut out. By doing so, it is possible to perform zoom-up display in a state where the moving object to be tracked is always correctly displayed on the screen.

110:画像入力部
120:背景画像提供部
130:動体識別画像生成部
140:マスキング処理部
150:トラッカー格納部
160:トラッカー登録部
170:ブロッブ包摂図形抽出部
210:ビデオカメラ
220:部分動画提示部
A,Aa,Ab,Ac:ブロッブ包摂図形の面積
A(i−1),A(i):背景画像(平均画像)
a(i−1),a(i):背景画像を構成する1つの画素もしくはその画素値
B,B1〜B7,B1′〜B7′:ブロッブ包摂図形
B30〜B40:ブロッブ包摂図形
B10a〜B10d:ブロッブ包摂図形
B20a〜B20d:ブロッブ包摂図形
B29a〜B29d:ブロッブ包摂図形
B30a〜B30g:ブロッブ包摂図形
B30a−1〜B30a−5:ブロッブ包摂図形
B40a〜B40e:ブロッブ包摂図形
B(i−4)〜B(i−1):ブロッブ包摂図形
B1(i−1)〜Bj(i−1):ブロッブ包摂図形
B1(i)〜Bj(i):ブロッブ包摂図形
B(i)a,B(i)b,B(i)c:ブロッブ包摂図形
B(i)′:ブロッブ包摂図形の予測位置
B29b′,B29c′,B29d′:拡張修正後のマスク図形
C:二次曲線
F,F20〜F40,F(i):前景領域
F10a〜F10d:前景領域
F20a〜F20d:前景領域
F30a〜F30d:前景領域
F40a〜F40e:前景領域
f30,f40:部分画像
h,ha,hb,hc:ブロッブ包摂図形の横寸法
K,K10〜K40,K(i):背景領域
M10〜M40,M(i):動体識別画像
M(i,j),M30a〜M30d:個別動体識別画像
m(i):動体識別画像を構成する1つの画素もしくはその画素値
O1〜O5:動体
P(1)〜P(i):原画像(動画を構成する個々の静止画像)
P10〜P40:原画像(動画を構成する個々の静止画像)
p(i):原画像を構成する1つの画素もしくはその画素値
Q1(x1,y1),Q2(x2,y2):矩形の頂点座標
Q,Qa〜Qc:ブロッブ包摂図形の位置の基準点
R0〜R4:ブロッブ包摂図形の位置の基準点
S1〜S7,S10〜S33:流れ図のステップ
T1〜T6,Tj:トラッカー
t10〜t40,t(i−1),t(i):時刻
v,va,vb,vc:ブロッブ包摂図形の縦寸法
w:重みを示すパラメータ
110: Image input unit 120: Background image providing unit 130: Moving object identification image generation unit 140: Masking processing unit 150: Tracker storage unit 160: Tracker registration unit 170: Blob inclusion figure extraction unit 210: Video camera 220: Partial video presentation unit A, Aa, Ab, Ac: Area of the blob inclusion figure A (i-1), A (i): Background image (average image)
a (i-1), a (i): One pixel constituting the background image or its pixel values B, B1-B7, B1'-B7 ': Blob inclusion graphic B30-B40: Blob inclusion graphic B10a-B10d: Blob inclusion graphic B20a-B20d: Blob inclusion graphic B29a-B29d: Blob inclusion graphic B30a-B30g: Blob inclusion graphic B30a-1 to B30a-5: Blob inclusion graphic B40a-B40e: Blob inclusion graphic B (i-4) -B (I-1): Blob inclusion graphic B1 (i-1) to Bj (i-1): Blob inclusion graphic B1 (i) to Bj (i): Blob inclusion graphic B (i) a, B (i) b , B (i) c: Blob inclusion figure B (i) ': Blob inclusion figure predicted position B29b', B29c ', B29d': Extended corrected mask figure C: Quadratic curve F , F20 to F40, F (i): Foreground areas F10a to F10d: Foreground areas F20a to F20d: Foreground areas F30a to F30d: Foreground areas F40a to F40e: Foreground areas f30, f40: Partial images h, ha, hb, hc: Horizontal dimensions K, K10 to K40, K (i) of background inclusion M10, M40, M (i): moving object identification image M (i, j), M30a to M30d: individual moving object identification image m (i) : One pixel constituting the moving object identification image or its pixel values O1 to O5: Moving object P (1) to P (i): Original image (individual still images constituting the moving image)
P10 to P40: Original image (individual still images constituting a moving image)
p (i): one pixel constituting the original image or its pixel values Q1 (x1, y1), Q2 (x2, y2): rectangular vertex coordinates Q, Qa to Qc: reference point R0 of the position of the blob inclusion figure R4: Reference points S1 to S7, S10 to S33 of the position of the blob inclusion figure: steps T1 to T6 and Tj of the flowchart: trackers t10 to t40, t (i-1), t (i): times v, va, vb, vc: vertical dimension of blob inclusion figure w: parameter indicating weight

Claims (25)

動画画像について動体を検出し、これを追跡する動体追跡装置であって、
時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力部と、
前記動画画像の背景を構成する背景画像を提供する背景画像提供部と、
第i番目の原画像P(i)と前記背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成部と、
前記第i番目の動体識別画像M(i)に基づいて、前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の包摂図形を第i番目の時系列に所属するブロッブ包摂図形B(i)として抽出するブロッブ包摂図形抽出部と、
同一の動体に基づいて抽出されたと推定される複数のブロッブ包摂図形を先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べることにより構成されるトラッカーの情報を、個々の動体ごとに格納するトラッカー格納部と、
前記ブロッブ包摂図形抽出部によって抽出された第i番目の時系列に所属するブロッブ包摂図形B(i)を、第j番目のトラッカーTj(但し、jはトラッカーの番号を示す自然数)の第i番目の時系列に所属するメンバーとして、前記トラッカー格納部に登録するトラッカー登録部と、
前記動体識別画像生成部が生成した動体識別画像の前景領域に対して、前記トラッカー格納部に格納されている特定のブロッブ包摂図形を利用したマスキングを行うマスキング処理部と、
を備え、
前記マスキング処理部は、前記トラッカー格納部に格納されている第j番目のトラッカーTjを着目トラッカーとして、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うことにより、前記着目トラッカーTj用の個別動体識別画像M(i,j)を生成し、これを前記ブロッブ包摂図形抽出部に提供し、
前記ブロッブ包摂図形抽出部は、前記動体識別画像M(i)に基づいて前記ブロッブ包摂図形B(i)を抽出する機能に加えて、前記個別動体識別画像M(i,j)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、動体と認識した画素集団の包摂図形を第i番目の時系列に所属させるべき第j番目のトラッカー用の候補ブロッブ包摂図形として抽出する機能を有し、
前記トラッカー登録部は、
(a) 第j番目のトラッカーTjの第(i−1)番目の時系列に末尾ブロッブ包摂図形ではないブロッブ包摂図形が登録されている場合に、当該ブロッブ包摂図形を先行ブロッブ包摂図形として、これに後続させるのに適したブロッブ包摂図形が前記第j番目のトラッカー用の候補ブロッブ包摂図形内に存在するか否かを判定し、存在するときには、当該候補ブロッブ包摂図形を第i番目の時系列に所属する後続ブロッブ包摂図形として登録する処理を行い、存在しないときには、前記先行ブロッブ包摂図形が末尾ブロッブ包摂図形となったことを示す処理を行う後続ブロッブ包摂図形登録処理と、
(b) 前記後続ブロッブ包摂図形登録処理を各トラッカーについて行った後、前記動体識別画像M(i)に基づいて抽出された前記ブロッブ包摂図形B(i)の中に、前記後続ブロッブ包摂図形登録処理によって登録された後続ブロッブ包摂図形に対応しない新参ブロッブ包摂図形が存在する場合に、当該新参ブロッブ包摂図形を第i番目の時系列が未登録状態のトラッカーに先頭ブロッブ包摂図形として登録する新参ブロッブ包摂図形登録処理と、
を行うことを特徴とする動体追跡装置。
A moving body tracking device that detects and tracks a moving object in a moving image,
An image input unit for inputting a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
A background image providing unit for providing a background image constituting a background of the moving image,
A moving object identification image generating unit that compares the i-th original image P (i) with the background image to generate an i-th moving object identification image M (i) that distinguishes a background region from a foreground region;
Based on the i th moving object identification image M (i), a group of pixels constituting the foreground area is recognized as a moving object, and the inclusion figure of the pixel group is included in the i th time series blob inclusion. A blob inclusion figure extraction unit that extracts as figure B (i);
Tracker information configured by arranging multiple blob inclusion figures estimated to be extracted based on the same moving object in time series from the first blob inclusion figure to the end blob inclusion figure is stored for each moving object. A tracker storage unit,
The blob inclusion figure B (i) belonging to the i-th time series extracted by the blob inclusion figure extraction unit is the i-th of the j-th tracker Tj (where j is a natural number indicating the tracker number). As a member belonging to the time series of, the tracker registration unit to register in the tracker storage unit,
A masking processing unit that performs masking using a specific blob inclusion figure stored in the tracker storage unit for the foreground region of the moving object identification image generated by the moving object identification image generation unit;
With
The masking processing unit uses the jth tracker Tj stored in the tracker storage unit as a target tracker, and the blob inclusion figure B (i−) belonging to the (i−1) th time series of the non-target tracker. 1) is used to generate an individual moving object identification image M (i, j) for the tracker Tj of interest by masking the i-th moving object identification image M (i), and the blob To the inclusion figure extraction unit,
The blob inclusion graphic extraction unit masks the individual moving object identification image M (i, j) in addition to the function of extracting the blob inclusion graphic B (i) based on the moving object identification image M (i). A candidate blob for the jth tracker that recognizes a group of pixels constituting the foreground area excluding the portion as a moving object, and that the inclusion figure of the pixel group recognized as a moving object belongs to the i-th time series It has a function to extract as an inclusion figure,
The tracker registration unit
(a) When a blob inclusion figure that is not the last blob inclusion figure is registered in the (i-1) th time series of the jth tracker Tj, this blob inclusion figure is used as the preceding blob inclusion figure. To determine whether there is a blob inclusion figure suitable for following the candidate blob inclusion figure for the jth tracker, and if so, the candidate blob inclusion figure is the i th time series A subsequent blob inclusion figure registration process for performing processing to indicate that the preceding blob inclusion figure has become a tail blob inclusion figure when there is no subsequent blob inclusion figure belonging to
(b) After performing the subsequent blob inclusion graphic registration process for each tracker, the subsequent blob inclusion graphic registration in the blob inclusion graphic B (i) extracted based on the moving object identification image M (i) If there is a new blob inclusion figure that does not correspond to the subsequent blob inclusion figure registered by processing, the new blob inclusion figure is registered as the first blob inclusion figure in the tracker whose i-th time series is not registered. Inclusion pattern registration processing;
A moving body tracking device characterized by
請求項1に記載の動体追跡装置において、
背景画像提供部が、外部から与えられた静止画像を取り込んで保存する機能を有し、前記静止画像を背景画像として提供することを特徴とする動体追跡装置。
The moving body tracking device according to claim 1,
A moving object tracking device, wherein a background image providing unit has a function of capturing and storing a still image given from the outside, and provides the still image as a background image.
請求項1に記載の動体追跡装置において、
背景画像提供部が、画像入力部が過去の所定期間にわたって入力した原画像の単純平均もしくは重みづけ平均を求める機能を有し、求めた平均画像を背景画像として提供することを特徴とする動体追跡装置。
The moving body tracking device according to claim 1,
The moving object tracking, wherein the background image providing unit has a function of obtaining a simple average or a weighted average of the original images input by the image input unit over a predetermined period in the past, and provides the obtained average image as a background image apparatus.
請求項1〜3のいずれかに記載の動体追跡装置において、
動体識別画像生成部が、原画像P(i)上の特定位置にある画素の色と、背景画像上の前記特定位置にある画素の色とを比較し、両画素の色の近似度が所定条件を満たす場合には当該特定位置にある画素を背景領域の画素とし、前記所定条件を満たさない場合には当該特定位置にある画素を前景領域の画素とすることにより、動体識別画像M(i)を生成することを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-3,
The moving object identification image generation unit compares the color of the pixel at the specific position on the original image P (i) with the color of the pixel at the specific position on the background image, and the degree of approximation of the colors of both pixels is predetermined. If the condition is satisfied, the pixel at the specific position is set as a pixel in the background area. If the predetermined condition is not satisfied, the pixel at the specific position is set as a pixel in the foreground area. ) Is generated.
請求項1〜4のいずれかに記載の動体追跡装置において、
ブロッブ包摂図形抽出部が、面積が所定の基準に満たない画素集団については、動体と認識せず、ブロッブ包摂図形の抽出を行わないことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-4,
A moving object tracking device, wherein the blob inclusion graphic extraction unit does not recognize a pixel group whose area does not satisfy a predetermined standard as a moving object and does not extract a blob inclusion graphic.
請求項1〜5のいずれかに記載の動体追跡装置において、
ブロッブ包摂図形抽出部が、画素集団の外接矩形をその包摂図形として用いることを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-5,
A moving object tracking device, wherein a blob inclusion figure extraction unit uses a circumscribed rectangle of a pixel group as its inclusion figure.
請求項6に記載の動体追跡装置において、
ブロッブ包摂図形抽出部が、動体識別画像M(i)を構成する個々の画素に順に着目し、各着目画素について、
(a) 着目画素が前景画素であり、かつ、所定近傍範囲に登録矩形が存在しない場合には、当該着目画素の輪郭を構成する矩形を登録する処理を行い、
(b) 着目画素が前景画素であり、かつ、所定近傍範囲に登録された矩形が存在する場合には、当該登録矩形の領域を着目画素を含む外接矩形に拡張して登録する処理を行い、
最終的に登録された矩形に基づいてブロッブ包摂図形の抽出を行うことを特徴とする動体追跡装置。
The moving body tracking device according to claim 6,
The blob inclusion figure extraction unit pays attention to the individual pixels constituting the moving object identification image M (i) in order,
(a) When the target pixel is a foreground pixel and there is no registration rectangle in the predetermined vicinity range, a process of registering a rectangle that forms the outline of the target pixel is performed.
(b) If the pixel of interest is a foreground pixel and there is a rectangle registered in the predetermined neighborhood range, the registration rectangle is expanded to a circumscribed rectangle including the pixel of interest and registered.
A moving object tracking device for extracting a blob inclusion figure based on a finally registered rectangle.
請求項6または7に記載の動体追跡装置において、
トラッカー格納部が、外接矩形の対角に位置する2頂点の座標値をトラッカーの情報として格納することを特徴とする動体追跡装置。
The moving body tracking device according to claim 6 or 7,
A tracker storage unit that stores coordinate values of two vertices positioned at diagonals of a circumscribed rectangle as tracker information.
請求項1〜8のいずれかに記載の動体追跡装置において、
マスキング処理部が、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形のうち、着目トラッカーの第(i−1)番目の時系列に登録されているブロッブ包摂図形の所定の近傍範囲内に位置するブロッブ包摂図形のみを用いて、マスキングを行うことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-8,
When the masking processing unit generates the individual moving object identification image M (i, j), the blob inclusion figure registered in the (i-1) -th time series of the non-focused tracker is the first of the focused tracker. (I-1) A moving object tracking device characterized in that masking is performed using only a blob inclusion figure located within a predetermined neighborhood range of a blob inclusion figure registered in the first time series.
請求項1〜9のいずれかに記載の動体追跡装置において、
マスキング処理部が、各トラッカーに格納されている第(i−1)番目以前の連続した時系列に所属するブロッブ包摂図形の位置の変遷に基づいて、第i番目の時系列に所属するブロッブ包摂図形の予測位置を求める機能を有し、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)に対して、前記予測位置への位置修正を施し、位置修正後の包摂図形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-9,
The blob inclusion belonging to the i-th time series based on the transition of the position of the blob inclusion figure belonging to the (i−1) -th consecutive time series stored in each tracker. When generating the individual moving object identification image M (i, j), the function includes a function for obtaining a predicted position of the figure, and the blob inclusion figure B (i belonging to the (i-1) th time series of the tracker not of interest -1) is subjected to position correction to the predicted position, and masking is performed on the i-th moving object identification image M (i) using the inclusion figure after position correction. Tracking device.
請求項10に記載の動体追跡装置において、
マスキング処理部が、第(i−L)番目(Lは2以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)の位置の基準点から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)の位置の基準点へ向かうベクトルに対して、その長さを(L/(L−1))倍に伸ばすことにより得られるベクトルの先端を予測位置の基準点とすることを特徴とする動体追跡装置。
The moving body tracking device according to claim 10,
The masking processing unit performs the (i−1) th from the reference point at the position of the blob inclusion figure B (i−L) belonging to the (i−L) th (L is an integer of 2 or more) time series. The tip of the vector obtained by extending the length to the reference point at the position of the blob inclusion figure B (i-1) belonging to the time series is multiplied by (L / (L-1)) times. A moving object tracking device, characterized by using a reference point for a predicted position.
請求項10に記載の動体追跡装置において、
マスキング処理部が、第(i−L)番目(Lは3以上の整数)の時系列に所属するブロッブ包摂図形B(i−L)から、第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)まで、合計L個のブロッブ包摂図形の各位置の基準点を近似的に通る二次曲線を求め、この二次曲線上の点を予測位置の基準点とすることを特徴とする動体追跡装置。
The moving body tracking device according to claim 10,
The masking processing unit belongs to the (i-1) th time series from the blob inclusion figure B (iL) belonging to the (i-L) th (L is an integer of 3 or more) time series. A quadratic curve that approximately passes through the reference points at each position of the total L blob inclusion figures up to the blob inclusion figure B (i-1) is obtained, and a point on the quadratic curve is set as a reference point of the predicted position. A moving body tracking device characterized by that.
請求項1〜12のいずれかに記載の動体追跡装置において、
マスキング処理部が、個別動体識別画像M(i,j)を生成する際に、着目外トラッカーの第(i−1)番目の時系列に所属するブロッブ包摂図形B(i−1)に対して、輪郭線を所定量だけ外方へ拡張する修正を施し、拡張修正後の包摂図形を利用して、第i番目の動体識別画像M(i)についてのマスキングを行うことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-12,
When the masking processing unit generates the individual moving object identification image M (i, j), the blob inclusion figure B (i-1) belonging to the (i-1) th time series of the tracker not of interest The moving body tracking is characterized in that the contour line is corrected to extend outward by a predetermined amount, and masking is performed on the i-th moving body identification image M (i) by using the inclusion figure after the extended correction. apparatus.
請求項1〜13のいずれかに記載の動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理を行う際に、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形に対して、第j番目のトラッカー用として抽出された個々の候補ブロッブ包摂図形の適合性評価を行い、所定の基準以上の評価、かつ、最も高い評価を得た候補ブロッブ包摂図形を、前記先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形と判定し、これを後続ブロッブ包摂図形として登録することを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-13,
When the tracker registration unit performs the subsequent blob inclusion graphic registration process, the jth track inclusion graphic is registered with respect to the preceding blob inclusion graphic registered in the (i-1) th time series of the jth tracker Tj. The suitability evaluation of individual candidate blob inclusion figures extracted for tracker is performed, and the candidate blob inclusion figure with the highest evaluation and the highest evaluation is followed by the preceding blob inclusion figure. A moving body tracking apparatus characterized by determining a suitable blob inclusion figure and registering it as a subsequent blob inclusion figure.
請求項14に記載の動体追跡装置において、
トラッカー登録部が、判定対象となる先行ブロッブ包摂図形と候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて適合性評価を行うことを特徴とする動体追跡装置。
The moving body tracking device according to claim 14,
The tracker registration unit compares the preceding blob inclusion figure to be determined and the candidate blob inclusion figure with respect to any one or a combination of position, area, and shape, and performs suitability evaluation based on the similarity. A moving body tracking device characterized by that.
請求項1〜15のいずれかに記載の動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理で、第j番目のトラッカーTjについての後続ブロッブ包摂図形を登録する際に、当該後続ブロッブ包摂図形の大きさが、連続して先行登録されている所定数のブロッブ包摂図形の平均サイズとなるように、当該後続ブロッブ包摂図形の大きさに対する修正を行うことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-15,
When the tracker registration unit registers the subsequent blob inclusion graphic for the jth tracker Tj in the subsequent blob inclusion graphic registration process, the size of the subsequent blob inclusion graphic is registered in advance as a predetermined value. A moving body tracking device, wherein the size of the subsequent blob inclusion figure is corrected so as to be an average size of a number of blob inclusion figures.
請求項1〜16のいずれかに記載の動体追跡装置において、
トラッカー登録部が、後続ブロッブ包摂図形登録処理において、第j番目のトラッカーTjの第(i−1)番目の時系列に登録されている先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形が、第j番目のトラッカー用の候補ブロッブ包摂図形内に存在しない場合に、第j番目のトラッカーTjの第i番目の時系列を無登録状態とする処理を行うことにより、前記先行ブロッブ包摂図形が末尾ブロッブ包摂図形となったことを示すことを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-16,
A blob inclusion figure suitable for the tracker registration unit to follow the preceding blob inclusion figure registered in the (i-1) th time series of the jth tracker Tj in the subsequent blob inclusion figure registration process When the candidate blob inclusion figure for the j-th tracker does not exist in the candidate blob inclusion figure, the preceding blob inclusion figure is obtained by performing the process of making the i-th time series of the j-th tracker Tj unregistered. A moving object tracking device characterized by showing that it becomes an end blob inclusion figure.
請求項1〜17のいずれかに記載の動体追跡装置において、
トラッカー登録部が、新参ブロッブ包摂図形登録処理を行う際に、動体識別画像M(i)に基づいて抽出されたブロッブ包摂図形B(i)と、後続ブロッブ包摂図形登録処理によって第i番目の時系列に登録された後続ブロッブ包摂図形とを比較し、両者が一致するか、もしくは、一方が他方を包含する関係になっているものを互いに対応するブロッブ包摂図形と認識し、前記ブロッブ包摂図形B(i)の中で対応関係が認識できないブロッブ包摂図形を新参ブロッブ包摂図形とすることを特徴とする動体追跡装置。
In the moving body tracking device in any one of Claims 1-17,
When the tracker registration unit performs the new blob inclusion figure registration process, the blob inclusion figure B (i) extracted based on the moving object identification image M (i) and the subsequent blob inclusion figure registration process are the i-th time. The subsequent blob inclusion graphic registered in the series is compared, and if both match or one of them includes the other, the blob inclusion graphic corresponding to each other is recognized, and the blob inclusion graphic B A moving body tracking apparatus characterized in that a blob inclusion figure whose correspondence cannot be recognized in (i) is a new blob inclusion figure.
動画画像について動体を検出し、これを追跡する動体追跡装置であって、
時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力部と、
前記動画画像の背景を構成する背景画像を提供する背景画像提供部と、
第i番目の原画像P(i)と前記背景画像とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成部と、
同一の動体と推定される画素集団の包摂図形からなるブロッブ包摂図形を、先頭ブロッブ包摂図形から末尾ブロッブ包摂図形に至るまで時系列で並べることにより構成されるトラッカーの情報を、個々の動体ごとに格納するトラッカー格納部と、
前記トラッカー格納部に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体を示すブロッブ包摂図形を利用して、前記動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理部と、
マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の包摂図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出部と、
前記トラッカー格納部に格納されている、第(i−1)番目の原画像P(i−1)内に含まれる着目動体を示す先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる前記着目動体と同一と推定される動体を示すブロッブ包摂図形を、前記着目動体以外の動体を示すブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から選択し、これを前記トラッカー格納部に、前記先行ブロッブ包摂図形に後続する第i番目の時系列の後続ブロッブ包摂図形として登録するとともに、マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形の登録が行われていない新参ブロッブ包摂図形を、第i番目の時系列が未登録状態のトラッカーに、先頭ブロッブ包摂図形として登録するトラッカー登録部と、
を備えることを特徴とする動体追跡装置。
A moving body tracking device that detects and tracks a moving object in a moving image,
An image input unit for inputting a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
A background image providing unit for providing a background image constituting a background of the moving image,
A moving object identification image generating unit that compares the i-th original image P (i) with the background image to generate an i-th moving object identification image M (i) that distinguishes a background region from a foreground region;
Tracker information consisting of blob inclusion figures consisting of inclusion figures of pixel groups estimated to be the same moving object in time series from the beginning blob inclusion figure to the end blob inclusion figure, for each moving object A tracker storage to store;
The moving object identification image M is stored using a blob inclusion figure indicating a moving object other than the moving object of interest included in the (i-1) th original image P (i-1) stored in the tracker storage unit. A masking processing unit that performs a masking process on the foreground region of (i);
For the moving object identification image M (i) before and after the masking process, a block that recognizes a group of pixels constituting the foreground area excluding the masked portion as a moving object and extracts the inclusion figure of the pixel group as a blob inclusion figure An inclusion figure extraction unit;
With respect to the preceding blob inclusion figure indicating the moving object of interest contained in the (i−1) th original image P (i−1) stored in the tracker storage unit, the i th original image P ( i) from a moving object identification image M (i) masked by using a blob inclusion graphic indicating a moving object estimated to be the same as the moving object of interest included in i) using a blob inclusion graphic indicating a moving object other than the moving object of interest. Select from among the extracted candidate blob inclusion figures extracted, and register them in the tracker storage unit as the i th time-series subsequent blob inclusion figures following the preceding blob inclusion figure, and the moving object before masking processing Among the blob inclusion figures extracted from the identification image M (i), a new blob inclusion figure for which no corresponding subsequent blob inclusion figure has been registered is represented by the i-th time series. In the recording state tracker, and the tracker registration unit to be registered as a top blob inclusion figure,
A moving body tracking device comprising:
請求項19に記載の動体追跡装置において、
トラッカー登録部が、
先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形の選択を行い、
マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、第i番目の時系列の後続ブロッブ包摂図形として登録されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とすることを特徴とする動体追跡装置。
The moving body tracking device according to claim 19,
The tracker registration department
Comparing the preceding blob inclusion graphic and each candidate blob inclusion graphic with respect to any one or more combinations of position, area, and shape, and selecting the subsequent blob inclusion graphic based on the similarity,
Of the individual blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the blob inclusion figure registered as the subsequent blob inclusion figure of the i-th time series matches or is included. A moving object tracking device characterized in that a new blob inclusion figure is used as a new blob inclusion figure.
請求項1〜20のいずれかに記載の動体追跡装置としてコンピュータを機能させるプログラム。   A program that causes a computer to function as the moving object tracking device according to any one of claims 1 to 20. 請求項1〜20のいずれかに記載の動体追跡装置に加えて、更に、
動画画像を撮影して画像入力部に与えるビデオカメラと、
トラッカー格納部から、1つの選択トラッカーに連続して登録されているブロッブ包摂図形B(i)を順次取り出し、前記画像入力部が入力した原画像P(i)から前記ブロッブ包摂図形B(i)の内部の画像を切出して表示することにより、特定の動体を追跡した部分動画画像を提示する部分動画提示部と、
を備えることを特徴とする監視システム。
In addition to the moving body tracking device according to any one of claims 1 to 20,
A video camera that captures a video image and gives it to the image input unit;
The blob inclusion figure B (i) successively registered in one selected tracker is sequentially extracted from the tracker storage unit, and the blob inclusion figure B (i) is obtained from the original image P (i) input by the image input unit. A partial video presenting unit that presents a partial video image tracking a specific moving object by cutting out and displaying the internal image of
A monitoring system comprising:
請求項22に記載の監視システムにおいて、
部分動画提示部が、ブロッブ包摂図形B(i)を所定量だけ外方へ拡張し、拡張された包摂図形の内部の画像を切出して表示することを特徴とする監視システム。
The monitoring system according to claim 22,
A monitoring system characterized in that the partial moving picture presentation unit expands the blob inclusion graphic B (i) outward by a predetermined amount and cuts out and displays an image inside the expanded inclusion graphic.
動画画像について動体を検出し、これを追跡する動体追跡方法であって、
コンピュータが、時系列で連続する複数の原画像P(i)(但し、iは時系列の順序を示す自然数)からなる動画画像を入力する画像入力段階と、
コンピュータが、前記動画画像の背景を構成する背景画像と、第i番目の原画像P(i)とを比較して、背景領域と前景領域とを区別する第i番目の動体識別画像M(i)を生成する動体識別画像生成段階と、
コンピュータが、第(i−1)番目の原画像P(i−1)内に含まれる着目動体の輪郭を包摂する先行ブロッブ包摂図形に対して、第i番目の原画像P(i)内に含まれる前記着目動体と同一と推定される動体の輪郭を包摂する後続ブロッブ包摂図形を認識するとともに、第i番目の原画像P(i)において新たに出現した動体の輪郭を包摂する新参ブロッブ包摂図形を認識する後続/新参ブロッブ包摂図形認識段階と、
を有し、
前記後続/新参ブロッブ包摂図形認識段階は、
第(i−1)番目の原画像P(i−1)内に含まれる着目動体以外の動体の輪郭を包摂するロッブ包摂図形を利用して、前記動体識別画像M(i)の前景領域に対してマスキング処理を行うマスキング処理ステップと、
マスキング処理前後の動体識別画像M(i)について、マスキングされた部分を除いた前景領域を構成するひとまとまりの画素集団を動体と認識し、当該画素集団の輪郭を包摂する図形をブロッブ包摂図形として抽出するブロッブ包摂図形抽出ステップと、
前記着目動体以外の動体を包摂するブロッブ包摂図形を利用してマスキング処理された動体識別画像M(i)から抽出された候補ブロッブ包摂図形の中から、前記着目動体の輪郭を包摂する先行ブロッブ包摂図形に後続させるのに適したブロッブ包摂図形を後続ブロッブ包摂図形として選択する後続ブロッブ包摂図形選択ステップと、
マスキング処理前の動体識別画像M(i)から抽出されたブロッブ包摂図形のうち、対応する後続ブロッブ包摂図形が認識されていない新参ブロッブ包摂図形を、新たな動体の輪郭を包摂する新参ブロッブ包摂図形として認識する新参ブロッブ包摂図形認識ステップと、
を有することを特徴とする動体追跡方法。
A moving body tracking method for detecting and tracking a moving object in a video image,
An image input stage in which a computer inputs a moving image composed of a plurality of original images P (i) continuous in time series (where i is a natural number indicating the order of time series);
The computer compares the background image constituting the background of the moving image and the i-th original image P (i) to distinguish the background region and the foreground region from the i-th moving object identification image M (i ) To generate a moving object identification image generation step;
In the i-th original image P (i), the computer compares the preceding blob inclusion figure including the outline of the moving object of interest included in the (i-1) -th original image P (i-1). A new blob inclusion that recognizes a subsequent blob inclusion figure that includes the outline of a moving object that is estimated to be the same as the included moving object, and that includes a new appearance of the moving object in the i-th original image P (i). Subsequent / newcomer blob inclusion figure recognition stage to recognize the figure,
Have
The subsequent / newcomer blob inclusion figure recognition stage includes:
A foreground region of the moving object identification image M (i) is obtained using a lob inclusion figure that includes the outline of a moving object other than the moving object of interest included in the (i-1) th original image P (i-1). Masking processing step for performing masking processing on,
In the moving object identification image M (i) before and after the masking process, a group of pixels constituting the foreground area excluding the masked portion is recognized as a moving object, and a figure including the outline of the pixel group is defined as a blob inclusion figure. Blob inclusion figure extraction step to extract;
Preceding blob inclusion that includes the outline of the moving object from candidate blob inclusion figures extracted from the moving object identification image M (i) masked using the blob inclusion figure that includes moving objects other than the moving object. A subsequent blob inclusion shape selection step for selecting a blob inclusion shape suitable for following the shape as a subsequent blob inclusion shape;
Among the blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the new blob inclusion figure in which the new blob inclusion figure in which the corresponding subsequent blob inclusion figure is not recognized is included in the outline of the new moving object is included. A new blob inclusion figure recognition step that recognizes as
A moving body tracking method characterized by comprising:
請求項24に記載の動体追跡方法において、
後続ブロッブ包摂図形選択ステップで、先行ブロッブ包摂図形と各候補ブロッブ包摂図形とを、位置、面積、形状のいずれか1つもしくは複数の組み合わせに関して比較し、その類似性に基づいて後続ブロッブ包摂図形の選択を行い、
新参ブロッブ包摂図形認識ステップで、マスキング処理前の動体識別画像M(i)から抽出された個々のブロッブ包摂図形のうち、後続ブロッブ包摂図形として認識されているブロッブ包摂図形と一致もしくは包含する関係になっていないブロッブ包摂図形を新参ブロッブ包摂図形とすることを特徴とする動体追跡方法。
The moving body tracking method according to claim 24,
In the subsequent blob inclusion graphic selection step, the previous blob inclusion graphic and each candidate blob inclusion graphic are compared with respect to one or more combinations of position, area, and shape, and the subsequent blob inclusion graphic is determined based on the similarity. Make a selection
In the new blob inclusion figure recognition step, among the individual blob inclusion figures extracted from the moving object identification image M (i) before the masking process, the blob inclusion figure recognized as the subsequent blob inclusion figure is matched or included in the relation A moving object tracking method characterized in that a blob inclusion figure which is not formed is used as a new blob inclusion figure.
JP2011180559A 2011-08-22 2011-08-22 Dynamic body tracker Pending JP2013045152A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011180559A JP2013045152A (en) 2011-08-22 2011-08-22 Dynamic body tracker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011180559A JP2013045152A (en) 2011-08-22 2011-08-22 Dynamic body tracker

Publications (1)

Publication Number Publication Date
JP2013045152A true JP2013045152A (en) 2013-03-04

Family

ID=48009042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011180559A Pending JP2013045152A (en) 2011-08-22 2011-08-22 Dynamic body tracker

Country Status (1)

Country Link
JP (1) JP2013045152A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218829A (en) * 2013-04-01 2013-07-24 上海交通大学 Foreground extracting method suitable for dynamic background
JP2018036870A (en) * 2016-08-31 2018-03-08 富士ゼロックス株式会社 Image processing device, and program
KR101837482B1 (en) * 2017-03-28 2018-03-13 (주)이더블유비엠 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
JP2018185724A (en) * 2017-04-27 2018-11-22 Kddi株式会社 Device, program and method for tracking object using pixel change processing image
JP2020149642A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Object tracking device and object tracking method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198807A (en) * 1997-01-13 1998-07-31 Omron Corp Object recognizing method and its device
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2001285850A (en) * 2000-03-30 2001-10-12 Nec Corp Device and method for automatic following, and recording medium for recording automatic following program
JP2009015827A (en) * 2007-06-29 2009-01-22 Fuji Xerox Co Ltd Object tracking method, object tracking system and object tracking program
JP2009077394A (en) * 2007-09-05 2009-04-09 Sony United Kingdom Ltd Communication system and communication method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198807A (en) * 1997-01-13 1998-07-31 Omron Corp Object recognizing method and its device
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2001285850A (en) * 2000-03-30 2001-10-12 Nec Corp Device and method for automatic following, and recording medium for recording automatic following program
JP2009015827A (en) * 2007-06-29 2009-01-22 Fuji Xerox Co Ltd Object tracking method, object tracking system and object tracking program
JP2009077394A (en) * 2007-09-05 2009-04-09 Sony United Kingdom Ltd Communication system and communication method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218829A (en) * 2013-04-01 2013-07-24 上海交通大学 Foreground extracting method suitable for dynamic background
JP2018036870A (en) * 2016-08-31 2018-03-08 富士ゼロックス株式会社 Image processing device, and program
CN107798285A (en) * 2016-08-31 2018-03-13 富士施乐株式会社 Image processing apparatus and image processing method
KR101837482B1 (en) * 2017-03-28 2018-03-13 (주)이더블유비엠 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
JP2018185724A (en) * 2017-04-27 2018-11-22 Kddi株式会社 Device, program and method for tracking object using pixel change processing image
JP2020149642A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Object tracking device and object tracking method
JP7272024B2 (en) 2019-03-15 2023-05-12 オムロン株式会社 Object tracking device, monitoring system and object tracking method

Similar Documents

Publication Publication Date Title
US11758082B2 (en) System for automatic video reframing
Lu et al. SUPER: A novel lane detection system
JP2013045152A (en) Dynamic body tracker
CN110781806A (en) Pedestrian detection tracking method based on YOLO
CN103577875A (en) CAD (computer-aided design) people counting method based on FAST (features from accelerated segment test)
CN114724082A (en) Pedestrian tracking method based on improved YOLOv5 and DeepsORT
Huang et al. OEC-RNN: Object-oriented delineation of rooftops with edges and corners using the recurrent neural network from the aerial images
CN106228570A (en) A kind of Truth data determines method and apparatus
Suleymanov et al. Online inference and detection of curbs in partially occluded scenes with sparse lidar
CN112200035A (en) Image acquisition method and device for simulating crowded scene and visual processing method
CN108710879B (en) Pedestrian candidate region generation method based on grid clustering algorithm
CN110909625A (en) Computer vision basic network training, identifying and constructing method and device
JP7292178B2 (en) Region dividing device, region dividing method and region dividing program
CN112069983A (en) Low-illumination pedestrian detection method and system for multi-task feature fusion shared learning
CN115311518A (en) Method, device, medium and electronic equipment for acquiring visual attribute information
CN113673478B (en) Port large-scale equipment detection and identification method based on deep learning panoramic stitching
Wang et al. Improving facade parsing with vision transformers and line integration
CN114332163A (en) High-altitude parabolic detection method and system based on semantic segmentation
Ng et al. Scalable Feature Extraction with Aerial and Satellite Imagery.
Stumper et al. Offline object extraction from dynamic occupancy grid map sequences
CN115994925B (en) Multi-row person rapid tracking method based on key point detection
CN107832732A (en) Method for detecting lane lines based on ternary tree traversal
WO2012153868A1 (en) Information processing device, information processing method and information processing program
CN116740624A (en) Concentrated crowd detection algorithm based on improved YOLO and fused attention mechanism
CN115132370A (en) Flow adjustment auxiliary method and device based on machine vision and deep learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150901