JP2010117946A - Object tracking method and image processing apparatus - Google Patents

Object tracking method and image processing apparatus Download PDF

Info

Publication number
JP2010117946A
JP2010117946A JP2008291488A JP2008291488A JP2010117946A JP 2010117946 A JP2010117946 A JP 2010117946A JP 2008291488 A JP2008291488 A JP 2008291488A JP 2008291488 A JP2008291488 A JP 2008291488A JP 2010117946 A JP2010117946 A JP 2010117946A
Authority
JP
Japan
Prior art keywords
search block
tracking
search
block
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008291488A
Other languages
Japanese (ja)
Other versions
JP5253101B2 (en
Inventor
Masafumi Hagiwara
将文 萩原
Teppei Inomata
哲平 猪俣
Koji Kimura
晃治 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Industries Ltd
Original Assignee
Koito Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Industries Ltd filed Critical Koito Industries Ltd
Priority to JP2008291488A priority Critical patent/JP5253101B2/en
Publication of JP2010117946A publication Critical patent/JP2010117946A/en
Application granted granted Critical
Publication of JP5253101B2 publication Critical patent/JP5253101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object tracking method continuously tracking a same object as the same object before and after it is temporarily hidden behind an intersection or an obstacle. <P>SOLUTION: When an object to be tracked is newly detected, a plurality of search blocks D for which the object is the subject of tracking are produced near the center of gravity of the object (t1), and the object's feature information is associated with each search block and stored. Next, the object is tracked by comparison between the feature information of an image at the previous time and that of an image at the current time, etc., and each search block is moved to follow the object to be tracked (t2). If the tracking fails (t3), the search blocks for which the object is the subject of tracking are moved in such a manner that random movements are dominant. By comparing the features of the object (image) present in the area of each search block with the feature information of the object, ie., the subject of tracking, stored in the search block, it is determined whether or not the object is the subject of tracking of the search block (t4). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、処理対象の画像内のオブジェクトを追尾するオブジェクト追尾方法および画像処理装置に関する。   The present invention relates to an object tracking method and an image processing apparatus for tracking an object in a processing target image.

駐車場などの監視対象領域における人の行動パターンを解析して不審人物か否かを判定する技術(特許文献1、2、3)がある。たとえば、監視対象領域をカメラで撮影し、その画像を複数のブロックに分割し、ブロック内での物体の動き量(動きベクトル)が最大のブロックを求め、この最大ブロックの位置が隣接ブロックへと連続して移動するパターンを検出し、このパターンがルール違反の異常行動パターンか否かを判定する映像監視方法がある(特許文献3参照。)。   There are technologies (Patent Documents 1, 2, and 3) for determining whether or not a person is a suspicious person by analyzing a behavior pattern of a person in a monitored area such as a parking lot. For example, an area to be monitored is photographed with a camera, the image is divided into a plurality of blocks, a block having the maximum amount of motion (motion vector) of an object in the block is obtained, and the position of the maximum block is moved to an adjacent block. There is a video monitoring method that detects a continuously moving pattern and determines whether this pattern is an abnormal behavior pattern that violates a rule (see Patent Document 3).

また、撮影した画像内で移動物体の重心などの位置情報を求め、時系列に得られた監視画像から当該位置情報の移動を比較することによって追尾を行う監視カメラシステムがある(たとえば、特許文献4参照。)。   In addition, there is a monitoring camera system that performs tracking by obtaining position information such as the center of gravity of a moving object in a captured image and comparing the movement of the position information from time-series monitoring images (for example, Patent Documents). 4).

特開2004−328622号公報JP 2004-328622 A 特開2005−354594号公報JP 2005-354594 A 特開2005−284652号公報JP 2005-284651 A 特開2003−259337号公報JP 2003-259337 A

広い駐車場などをカメラ画像に基づいて監視する場合、画像内に複数の人物、車両、障害物などが存在するため、追尾中の物体(たとえば、人)同士が交差したり、追尾中の物体が障害物(たとえば、駐車車両)の背後に一時的に隠れたりする場合がある。特許文献3、4に開示された技術のように時間的・空間的な連続性を基準に物体を追尾する方法では、上記の交差や隠れが発生すると連続性が途絶えるので、追尾中の物体を見失ってしまい、交差の前後や障害物に一時的に隠れて出現した場合の前後で、同一物体を同一物体として継続追尾することができないという問題があった。   When monitoring large parking lots based on camera images, because there are multiple people, vehicles, obstacles, etc. in the image, objects being tracked (for example, people) cross each other or objects being tracked May temporarily hide behind an obstacle (for example, a parked vehicle). In the method of tracking an object based on temporal and spatial continuity as in the techniques disclosed in Patent Documents 3 and 4, the continuity is lost when the above-described intersection or hiding occurs. There is a problem that the same object cannot be continuously tracked as the same object before and after the intersection and before and after appearing temporarily hidden behind an obstacle.

本発明は、上記の問題を解決しようとするものであり、交差や障害物の背後への一時的な隠れが発生してもその前後で同一物体を同一物体として継続追尾可能なオブジェクト追尾方法および画像処理装置を提供することを目的としている。   An object of the present invention is to solve the above-described problem, and an object tracking method capable of continuously tracking the same object as the same object before and after an intersection or a temporary hiding behind an obstacle, and An object of the present invention is to provide an image processing apparatus.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。   The gist of the present invention for achieving the object lies in the inventions of the following items.

[1]処理対象の画像内のオブジェクトを検出して追尾するオブジェクト追尾方法において、
前記処理対象の画像内のオブジェクトを検出するステップと、
新規に追尾対象のオブジェクトを検出した場合に、そのオブジェクトを追尾対象とする所定サイズの探索ブロックを前記オブジェクトの領域内に複数発生させると共に各探索ブロックに当該探索ブロックの存在領域における前記オブジェクトの特徴情報を対応付けて記憶するステップと、
探索ブロック毎に、その探索ブロックの存在領域に存在するオブジェクトの特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記オブジェクトと前記探索ブロックの追尾対象のオブジェクトとの適合度を演算するステップと、
探索ブロックの存在領域に存在するオブジェクトがその探索ブロックの追尾対象のオブジェクトであるか否かを該探索ブロックに係る前記適合度に基づいて判断し、該判断結果が真の場合に前記探索ブロックの追尾対象のオブジェクトを追尾成功オブジェクトと判断するステップと、
追尾成功オブジェクト毎に、そのオブジェクトを追尾対象とする複数の探索ブロック間で、適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換えるステップと、
前記追尾成功オブジェクトを追尾対象とする探索ブロックについて、その探索ブロックに対応付けて記憶されている前記特徴情報を更新するステップと、
各探索ブロックを、その探索ブロックの追尾対象のオブジェクトの動きとランダムな動きとを合成した動きに基づいて移動させるステップと、
を繰り返し行う
ことを特徴とするオブジェクト追尾方法。
[1] In an object tracking method for detecting and tracking an object in a processing target image,
Detecting an object in the image to be processed;
When a new tracking target object is detected, a plurality of search blocks having a predetermined size for the tracking target are generated in the area of the object, and each search block has a feature of the object in the search block existing area. Storing information in association with each other;
For each search block, the object and the object to be tracked by the search block based on the comparison between the feature information of the object existing in the search block existence area and the feature information stored in association with the search block Calculating the fitness with
A determination is made as to whether or not an object existing in the search block existence area is a tracking target object of the search block based on the fitness of the search block, and if the determination result is true, the search block Determining a tracking target object as a tracking success object;
For each tracking success object, probabilistically replacing a search block with a low fitness with a search block with a high fitness between a plurality of search blocks targeting the object,
Updating the feature information stored in association with the search block for the search block whose tracking target is the tracking target;
Moving each search block based on a combined motion of the object to be tracked in the search block and a random motion;
An object tracking method characterized by repeatedly performing.

上記発明では、追尾対象のオブジェクト毎に、そのオブジェクトの特徴情報を有する探索ブロックを複数発生させる。探索ブロックは、追尾対象のオブジェクトを探索する際の単位領域である。発生後は、これらの探索ブロックをそのオブジェクトの動きにランダムな動きを加えて移動(ランダム要素を加えて追従)させると共に、各探索ブロックの存在領域にあるオブジェクトの特徴情報とその探索ブロックに対応付けて記憶されている追尾対象のオブジェクトの特徴情報との比較(適合度の高低)に基づいて当該探索ブロックの存在領域に存在するオブジェクトが当該探索ブロックの追尾対象のオブジェクトか否かを判断する。これにより、交差や障害物背後への隠れなどによって追尾対象のオブジェクトが画像内から消失しても、移動する探索ブロックによってその消失したオブジェクトを探し続けるので、再び現れたそのオブジェクトを探索ブロックによって見出すことができ、交差や隠れの前後で同一オブジェクトを同一オブジェクトとして追尾することができる。   In the above invention, for each object to be tracked, a plurality of search blocks having characteristic information of the object are generated. The search block is a unit area for searching for an object to be tracked. After the occurrence, these search blocks are moved by adding random movement to the movement of the object (following by adding random elements), and feature information of the objects in each search block's existence area and corresponding search blocks Based on the comparison with the feature information of the tracking target object that is stored in addition (high or low fitness), it is determined whether or not the object existing in the search block existence region is the tracking target object of the search block . As a result, even if an object to be tracked disappears from the image due to an intersection or hiding behind an obstacle, it continues to search for the lost object by the moving search block, so the object that appears again is found by the search block. The same object can be tracked as the same object before and after crossing and hiding.

また、追尾成功オブジェクトについては、そのオブジェクトを追尾対象とする複数の探索ブロック間で、適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換える。すなわち、追尾対象のオブジェクト上にある探索ブロックの適合度は高く、追尾対象のオブジェクト外にある探索ブロックの適合度は低くなるので、適合度の低い探索ブロックを適合度の高い探索ブロックに置き換えることで、多くの探索ブロックが、追尾対象のオブジェクト上に存在するようになり、追尾対象のオブジェクトを追従するように移動することになる。   For a tracking success object, a search block with a low fitness is replaced with a search block with a high fitness between a plurality of search blocks whose tracking targets are the object. In other words, the search block on the tracking target object has a high fitness and the search block outside the tracking target object has a low fitness, so that a search block with a low fitness is replaced with a search block with a high fitness. Thus, many search blocks exist on the tracking target object, and move so as to follow the tracking target object.

一方、追尾失敗中のオブジェクトを追尾対象とする探索ブロックについては、適合度の低い探索ブロックを適合度の高い探索ブロックに置き換える処理を行わないので、探索ブロックの分散が促されて、探索範囲が広くなる。   On the other hand, for a search block whose tracking target is an object that has failed to be tracked, a process for replacing a search block with a low fitness with a search block with a high fitness is not performed. Become wider.

[2]前記適合度は、探索ブロックの存在領域におけるオブジェクト(画像)の特徴情報と該探索ブロックに対応付けて記憶されている前記特徴情報との差分が小さいほど、かつ探索ブロックの位置と該探索ブロックの追尾対象のオブジェクトの重心との距離が短いほど、高くなるように演算される
ことを特徴とする[1]に記載のオブジェクト追尾方法。
[2] The degree of matching is such that the smaller the difference between the feature information of the object (image) in the search block existing area and the feature information stored in association with the search block, and the position of the search block and The object tracking method according to [1], wherein the calculation is performed such that the shorter the distance from the center of gravity of the object to be tracked in the search block, the higher the distance.

上記発明では、探索ブロックの存在領域にあるオブジェクト(画像)の特徴情報と追尾対象のオブジェクトの特徴情報との一致性(類似性)と、探索ブロックの存在位置と追尾対象のオブジェクト重心との距離とに基づいて適合度を算出する。   In the above invention, the coincidence (similarity) between the feature information of the object (image) in the existence area of the search block and the feature information of the tracking target object, and the distance between the existence position of the search block and the object gravity center of the tracking target The fitness is calculated based on the above.

[3]追尾対象が同一オブジェクトの複数の探索ブロック間で適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換える処理は、前記オブジェクトを追尾対象とするすべての探索ブロックの適合度の和に対する個々の探索ブロックの適合度の比率をその探索ブロックの出現確率とするルーレットを生成し、前記オブジェクトを追尾対象とする探索ブロック毎に前記ルーレットに基づく乱数抽選を行い、その探索ブロックをその抽選結果の出目に対応する探索ブロックに置き換えることによって行う
ことを特徴とする[1]または[2]に記載のオブジェクト追尾方法。
[3] The process of probabilistically replacing a search block having a low fitness with a search block with a high fitness between a plurality of search blocks having the same tracking target is a fitness of all search blocks having the object as a tracking target. A roulette is generated with the ratio of the fitness of each search block to the sum of the occurrences as the appearance probability of the search block, and a random number lottery based on the roulette is performed for each search block whose tracking target is the object. The object tracking method according to [1] or [2], wherein the object tracking method is performed by replacing with a search block corresponding to the result of the lottery result.

[4]処理対象の画像を複数の小領域に分割し、
前記判断ステップでは、オブジェクトの存在する小領域毎に、その小領域に探索ブロックが存在する場合は、該小領域に存在する探索ブロックの中で最も適合度の高い探索ブロックの追尾対象のオブジェクトが該小領域に存在すると判断する
ことを特徴とする[1]乃至[3]のいずれか1つに記載のオブジェクト追尾方法。
[4] Divide the image to be processed into a plurality of small areas,
In the determining step, for each small area where an object exists, if a search block exists in the small area, the object to be tracked by the search block having the highest fitness among the search blocks present in the small area is The object tracking method according to any one of [1] to [3], wherein the object tracking method is determined to exist in the small region.

上記発明では、小領域毎にオブジェクトを追尾・探索するので、処理が簡略化され、計算量を削減することができる。なお、オブジェクトの全体像は該オブジェクトに所属する小領域の集合として認識される。   In the above invention, the object is tracked and searched for each small area, so that the processing is simplified and the amount of calculation can be reduced. Note that the entire image of an object is recognized as a set of small areas belonging to the object.

[5]処理対象の画像内のオブジェクトを検出して追尾するオブジェクト追尾方法において、
新規に追尾対象のオブジェクトを検出した場合は、そのオブジェクトを追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記オブジェクトの特徴情報を対応付けて記憶し、
前記各探索ブロックをその追尾対象のオブジェクトを追尾するように移動させ、
オブジェクトの追尾に失敗した場合は、そのオブジェクトを追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在するオブジェクトの特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記オブジェクトが当該探索ブロックの追尾対象のオブジェクトであるか否かを判断することで、前記追尾に失敗したオブジェクトを見出す
ことを特徴とするオブジェクト追尾方法。
[5] In an object tracking method for detecting and tracking an object in a processing target image,
When a new object to be tracked is detected, a plurality of search blocks of a predetermined size for which the object is tracked are generated and feature information of the object is stored in association with each search block,
Move each search block to track the object to be tracked,
When tracking of an object fails, the search block for tracking the object is moved according to a predetermined movement rule, and is stored in association with the feature information of the object existing in the search block existing area and the search block. An object tracking method comprising: finding out an object that has failed in tracking by determining whether or not the object is a tracking target object of the search block based on comparison with the feature information.

上記発明では、交差や障害物背後への隠れなどによって追尾対象のオブジェクトが画像内から消失しても、所定の移動ルールに従って移動する探索ブロックによってその消失したオブジェクトを探し続けるので、再び現れたそのオブジェクトを探索ブロックによって見出すことができ、交差や隠れの前後で同一オブジェクトを同一オブジェクトとして追尾することができる。移動ルールは、ランダムな動き、消失直前のオブジェクトの動き(慣性的な動き)とランダムな動きとを合成した動き、などとすることができる。追尾失敗後の移動ルールは、ランダムな動きが支配的となる動きが好ましい。   In the above invention, even if an object to be tracked disappears from the image due to an intersection or a hiding behind an obstacle, it continues to search for the lost object by a search block that moves according to a predetermined movement rule. The object can be found by the search block, and the same object can be tracked as the same object before and after crossing or hiding. The movement rule can be a random movement, a movement obtained by combining a movement of an object (inertial movement) immediately before disappearance and a random movement, or the like. The movement rule after the tracking failure is preferably a movement in which random movement is dominant.

[6]追尾失敗の状態が所定期間以上継続したオブジェクトを追尾対象から外し、該オブジェクトを追尾対象とする全ての探索ブロックを削除する
ことを特徴とする[1]乃至[5]のいずれか1つに記載のオブジェクト追尾方法。
[6] Any one of [1] to [5], wherein an object in which the tracking failure state has continued for a predetermined period or longer is excluded from the tracking target, and all search blocks having the object as the tracking target are deleted. Object tracking method described in one.

上記発明では、消失状態(追尾失敗の状態)が所定期間以上継続した場合、それ以上の探索は中止し、そのオブジェクトを追尾対象から外す。   In the above invention, when the disappearance state (tracking failure state) continues for a predetermined period or longer, the further search is stopped and the object is removed from the tracking target.

[7][1]乃至[6]のいずれか1つに記載のオブジェクト追尾方法によって、処理対象の画像内のオブジェクトを追尾する画像処理装置。 [7] An image processing apparatus that tracks an object in an image to be processed by the object tracking method according to any one of [1] to [6].

本発明に係わるオブジェクト追尾方法および画像処理装置によれば、追尾対象のオブジェクト同士の交差や追尾対象のオブジェクトの障害物の背後への一時的な隠れが発生した場合でも、その前後で同一オブジェクトを同一オブジェクトとして追尾することができる。   According to the object tracking method and the image processing apparatus according to the present invention, even when the tracking target objects intersect with each other and the tracking target object temporarily hides behind the obstacle, It can be tracked as the same object.

以下、図面に基づき本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るオブジェクト追尾方法を適用した画像処理装置10の概略構成を示している。画像処理装置10は、処理対象の画像を取り込むためのカメラ部11と、カメラ部11によって取り込まれた画像を解析して物体を検出し、その移動を追尾するなどの処理を行う処理部12と、処理部12の処理結果を出力する出力部13と、当該画像処理装置10に対する各種の設定や動作に関する指示を入力するための入力部14を備えて構成される。以後、画像データにおいて認識された物体はオブジェクトと呼ぶ。   FIG. 1 shows a schematic configuration of an image processing apparatus 10 to which an object tracking method according to an embodiment of the present invention is applied. The image processing apparatus 10 includes a camera unit 11 for capturing an image to be processed, a processing unit 12 that performs processing such as detecting an object by analyzing an image captured by the camera unit 11 and tracking its movement. And an output unit 13 for outputting the processing result of the processing unit 12 and an input unit 14 for inputting instructions regarding various settings and operations for the image processing apparatus 10. Hereinafter, an object recognized in the image data is referred to as an object.

カメラ部11は動画を撮影する。カメラ部11は、フレーム毎の画像(1画面分の静止画像)を1秒間に数十フレーム取り込むことで動画を撮影する機能を果たす。処理部12は、CPU(Central Processing Unit)と、このCPUが実行するプログラムや固定データが記憶されたROM(Read Only Memory)と、カメラ部11によって取り込まれた画像データや追尾対象のオブジェクトの特徴量データを記憶するためのエリア、CPUがプログラムを実行する際のワークエリアとして使用されるRAM(Random Access Memory)などを主要部として構成される。   The camera unit 11 captures a moving image. The camera unit 11 functions to capture a moving image by capturing several tens of frames of images per frame (a still image for one screen) per second. The processing unit 12 is characterized by a CPU (Central Processing Unit), a ROM (Read Only Memory) in which a program executed by the CPU and fixed data are stored, image data captured by the camera unit 11, and a tracking target object. An area for storing quantity data, a RAM (Random Access Memory) used as a work area when the CPU executes a program, and the like are mainly configured.

出力部13は、処理結果のデータ信号を外部に出力するためのインターフェース回路、各種設定画面や操作画面、処理結果等を視覚的に表示するためのディスプレイ装置などで構成される。入力部14は、各種の設定や動作に関する指示に係る信号を入力するためのインターフェース回路のほか、各種の操作スイッチなどで構成される。   The output unit 13 includes an interface circuit for outputting a processing result data signal to the outside, various setting screens and operation screens, a display device for visually displaying processing results, and the like. The input unit 14 includes various operation switches in addition to an interface circuit for inputting signals relating to various settings and instructions regarding operations.

画像処理装置10は、追尾対象のオブジェクト同士の交差や追尾対象のオブジェクトの障害物の背後への一時的な隠れといった現象が発生した場合でも、その前後で同一オブジェクトを同一のオブジェクトとして追尾する機能を備えている。画像処理装置10は、たとえば、広い駐車場内で不審人物を監視するシステムなどに組み込まれ、人、車両などのオブジェクトを追尾するために使用される。   The image processing apparatus 10 has a function of tracking the same object as the same object before and after the occurrence of a phenomenon such as the intersection of the tracking target objects or the temporary hiding of the tracking target object behind the obstacle. It has. The image processing apparatus 10 is incorporated in, for example, a system that monitors a suspicious person in a large parking lot, and is used to track an object such as a person or a vehicle.

図2は、画像処理装置10の処理部12が追尾するオブジェクトの状態遷移を表している。オブジェクトの状態は、未検出であるUNDETECTEDと、UNDETECTEDの状態で検出されたオブジェクトが追尾対象たり得るオブジェクトか否かを判定中のPENDING、追尾対象のオブジェクトと認定されかつ追尾成功中のACTIVE、追尾対象のオブジェクトであるが追尾失敗中(消失中あるいは探索中)のLOST、の4状態で管理される。   FIG. 2 shows a state transition of an object tracked by the processing unit 12 of the image processing apparatus 10. The object status is undetected UNDETECTED, PENDING determining whether the object detected in the UNDETECTED state is an object that can be tracked, ACTIVE being tracked and successfully tracked, and tracking It is managed in four states: LOST, which is the target object, but tracking has failed (disappearing or searching).

オブジェクト未検出の間はUNDETECTED状態が継続する(図中のE1)。UNDETECTED状態でオブジェクトが検出されるとPENDING状態に移行する(E2)。PENDING状態ではその継続時間を計時しており(E4)、PENDING状態で所定時間(PENDING_TIME)が経過するとそのオブジェクトはACTIVE状態に遷移する(E5)。PENDING状態からACTIVE状態に遷移する前に画像から消滅したオブジェクトはUNDETECTED状態に遷移し(E3)、追尾対象から外される。   While the object is not detected, the UNDETECTED state continues (E1 in the figure). When an object is detected in the UNDETECTED state, the state shifts to the PENDING state (E2). In the PENDING state, the duration is counted (E4), and when a predetermined time (PENDING_TIME) elapses in the PENDING state, the object transitions to the ACTIVE state (E5). An object that disappears from the image before transitioning from the PENDING state to the ACTIVE state transitions to the UNDETECTED state (E3), and is excluded from the tracking target.

ACTIVE状態ではその継続時間を計時している(E6)。ACTIVE状態のオブジェクトの追尾に失敗(当該オブジェクトが消失)するとそのオブジェクトはLOST状態に遷移し、ACTIVE状態の継続時間はリセットされる(E7)。LOST状態でもその継続時間を計時しており(E9)、継続時間が所定時間(LOST_TIME)経過すると、該オブジェクトは追尾対象から外されUNDETECTED状態になる(E10)。LOST状態になってから所定時間(LOST_TIME)内に探索ブロックによる探索によって見出されたオブジェクトはACTIVE状態に戻る(E8)。   In the ACTIVE state, the duration is counted (E6). If tracking of an object in the ACTIVE state fails (the object disappears), the object transitions to the LOST state, and the duration of the ACTIVE state is reset (E7). Even in the LOST state, the duration is measured (E9), and when the predetermined duration (LOST_TIME) elapses, the object is removed from the tracking target and becomes the UNDETECTED state (E10). An object found by the search by the search block within a predetermined time (LOST_TIME) after entering the LOST state returns to the ACTIVE state (E8).

図3は、画像処理装置10の処理部12が行うオブジェクト追尾処理における各処理フェーズを示している。また、図4はオブジェクト追尾処理の流れを示している。図3に示すように、オブジェクト追尾処理は、オブジェクト検出フェーズP1と、追尾・探索フェーズP2で構成される。オブジェクト検出フェーズP1は図4の流れ図のステップS1〜S4が対応し、追尾・探索フェーズP2はステップS5〜S9が対応する。   FIG. 3 shows each processing phase in the object tracking process performed by the processing unit 12 of the image processing apparatus 10. FIG. 4 shows the flow of the object tracking process. As shown in FIG. 3, the object tracking process includes an object detection phase P1 and a tracking / search phase P2. The object detection phase P1 corresponds to steps S1 to S4 in the flowchart of FIG. 4, and the tracking / search phase P2 corresponds to steps S5 to S9.

まず、フレーム時刻tを0に初期化し(図4;ステップS1)、続いて、カメラ部11によって取り込まれた処理対象の画像内からオブジェクト候補領域を検出する(ステップS2)。オブジェクト候補領域の検出は、フレーム間の差分処理、二値化処理など公知の手法により行う。   First, the frame time t is initialized to 0 (FIG. 4; step S1), and then an object candidate area is detected from the processing target image captured by the camera unit 11 (step S2). The object candidate area is detected by a known method such as a difference process between frames or a binarization process.

次に、処理対象の画像内においてオブジェクト候補領域が1つ以上検出されたかどうかを確認する(ステップS3)。1つ以上のオブジェクト候補領域が検出された場合は(ステップS3;Yes)、ステップS5へ移行する。オブジェクト候補領域が1つも検出されなかった場合は(ステップS3;No)、状態がLOSTのオブジェクト(以後、これをLOSTオブジェクトと呼ぶ。)が存在するか否かを確認する(ステップS4)。LOSTオブジェクトは、過去に追尾対象として検出されたオブジェクトが消失(追尾失敗)し、消失状態の継続時間が所定時間(LOST_TIME)未満のオブジェクトであり、探索ブロックによって探索中のオブジェクトである。   Next, it is confirmed whether or not one or more object candidate regions have been detected in the processing target image (step S3). When one or more object candidate areas are detected (step S3; Yes), the process proceeds to step S5. If no object candidate area is detected (step S3; No), it is confirmed whether or not there is an object whose state is LOST (hereinafter referred to as a LOST object) (step S4). The LOST object is an object in which an object detected as a tracking target in the past disappears (tracking failure), the duration of the disappearing state is less than a predetermined time (LOST_TIME), and is an object being searched by the search block.

LOSTオブジェクトが存在しない場合は(ステップS4;No)、フレーム時刻t=t+1として(ステップS9)、ステップS2に戻り、カメラ部11によって取り込まれる次のフレームの画像に対して同様の処理を行う。このように、オブジェクト検出フェーズP1は、オブジェクト候補領域が1つ以上存在するか否かを確認し、存在しない場合はオブジェクト候補領域が検出されるのを待つ状態である。   If the LOST object does not exist (step S4; No), the frame time t = t + 1 is set (step S9), the process returns to step S2, and the same processing is performed on the next frame image captured by the camera unit 11. As described above, the object detection phase P1 is a state in which it is confirmed whether or not one or more object candidate areas exist, and when there is no object candidate area, the detection of the object candidate area is awaited.

ステップS5では、オブジェクト検出フェーズP1にて検出されたオブジェクト候補領域に対する追尾・探索処理を行う。オブジェクト追尾・探索処理では、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付けを行う追尾処理と、隠れや交差により消失したオブジェクトを探索する探索処理とが行われる。追尾処理は動きベクトルなど公知の手法により、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付けにより行う。   In step S5, a tracking / search process is performed on the object candidate area detected in the object detection phase P1. In the object tracking / search process, a tracking process for associating an object in the image at the previous time with an object in the image at the current time and a search process for searching for an object that disappears due to hiding or crossing are performed. The tracking process is performed by associating an object in the image at the previous time with an object in the image at the current time by a known method such as a motion vector.

消失したオブジェクトを探索するための探索処理は、新規に検出された追尾対象のオブジェクトに対して、その重心周辺に複数の探索ブロックを発生させ、その後は各探索ブロックを追尾対象のオブジェクトに追従させて移動させ、オブジェクト領域内の局所領域(ここでは、探索ブロック単位の領域)に着目して追尾を行う。探索ブロックは、オブジェクトを追尾・探索する際の単位領域である。消失したオブジェクトの探索が所定時間(LOST_TIME)内に成功しなかった場合は、探索しているオブジェクトは消滅したものとみなしてUNDETECTEDの状態にし、追尾対象から外す。オブジェクト追尾・探索処理の詳細は後述する。   The search process for searching for a lost object generates a plurality of search blocks around the center of gravity of a newly detected tracking target object, and then causes each search block to follow the tracking target object. Tracking is performed by paying attention to a local area in the object area (in this case, an area in units of search blocks). The search block is a unit area for tracking and searching for an object. If the search for the lost object is not successful within a predetermined time (LOST_TIME), the searched object is regarded as having been lost and is set to the UNDETECTED state, and is excluded from the tracking target. Details of the object tracking / search process will be described later.

オブジェクト追尾・探索処理にて追尾・探索に成功したオブジェクト(ACTIVE状態のオブジェクト)については、形状、動き、テクスチャ等の特徴量を抽出(算出)する(ステップS6)。形状や動きなどオブジェクトの特徴量の抽出は公知の任意の手法で行えばよい。抽出したオブジェクト特徴量データは順次蓄積し、時系列データとして更新あるいは新規に生成する(ステップS7)。オブジェクト毎の時系列に蓄積された特徴量データは、たとえば、そのオブジェクトが人か車両かの判別に利用される。   For an object that has been successfully tracked / searched in the object tracking / searching process (an object in the ACTIVE state), feature quantities such as shape, motion, and texture are extracted (calculated) (step S6). Extraction of object feature quantities such as shape and movement may be performed by any known method. The extracted object feature data is sequentially accumulated and updated or newly generated as time series data (step S7). The feature amount data accumulated in time series for each object is used, for example, to determine whether the object is a person or a vehicle.

その後、図2の状態遷移に従って、各オブジェクトの状態(ステータス)を更新し(ステップS8)、t=t+1としてフレーム時刻をインクリメント更新し(ステップS9)、ステップS2に戻り、カメラ部11によって取り込まれる次のフレームの画像に対して同様の処理を行う。   Thereafter, according to the state transition of FIG. 2, the state (status) of each object is updated (step S8), the frame time is incremented and updated with t = t + 1 (step S9), the process returns to step S2, and is captured by the camera unit 11. The same processing is performed on the next frame image.

次に、図4のステップS5のオブジェクト追尾・探索処理の詳細を説明する。   Next, details of the object tracking / searching process in step S5 of FIG. 4 will be described.

オブジェクト追尾・探索処理では、公知の手法によりオブジェクトの追尾と、追尾に失敗(消失)したオブジェクト(LOSTオブジェクト)の探索が行われる。探索は、消失した追尾対象のオブジェクトを追尾するように移動する複数の探索ブロックによって行われる。   In the object tracking / search process, tracking of an object and searching for an object (LOST object) that has failed (disappeared) in tracking are performed by a known method. The search is performed by a plurality of search blocks that move so as to track the disappeared tracking target object.

図5は、探索ブロックによる探索の概略を示している。新規に検出された追尾対象のオブジェクトA(図5の例では人物A)に対して、そのオブジェクトAを追尾対象とする所定サイズの探索ブロックDを複数発生させると共にこれらの各探索ブロックDにその追尾対象のオブジェクトAの特徴情報を対応付けて記憶する(t1)。図5では、斜線を施した各矩形領域が探索ブロックDである。なお、追尾対象の各オブジェクトにはそのオブジェクトを一意に特定する識別情報として固有のオブジェクトIDを割り当ててあり、各探索ブロックにその追尾対象のオブジェクトのオブジェクトIDを登録することで、追尾対象のオブジェクトと探索ブロックとを関連付けする。   FIG. 5 shows an outline of the search by the search block. For a newly detected object A to be tracked (person A in the example of FIG. 5), a plurality of search blocks D having a predetermined size for which the object A is tracked are generated, and each of these search blocks D is The characteristic information of the tracking target object A is associated and stored (t1). In FIG. 5, each shaded rectangular area is a search block D. Each object to be tracked is assigned a unique object ID as identification information for uniquely identifying the object, and the object ID of the object to be tracked is registered by registering the object ID of the object to be tracked in each search block. Is associated with the search block.

その後は、前時刻のフレームの画像と現在時刻のフレームの画像とのマッチング等の既存の手法によりオブジェクトの追尾を行うと共に、各探索ブロックDをその追尾対象のオブジェクトを追尾するように(オブジェクトの動きベクトルに追従するように)移動させる(図5;t2)。   After that, the object is tracked by an existing method such as matching of the image of the frame at the previous time and the image of the frame at the current time, and each search block D is tracked to the object to be tracked (the object's object). Move so as to follow the motion vector (FIG. 5; t2).

交差や隠れによってオブジェクトの追尾に失敗した場合(消失した場合)は(図5;t3)、そのオブジェクトを追尾対象とする探索ブロックDの移動を所定の移動ルールに従って継続させる。たとえば、ランダムに移動させる、あるいは消失前のオブジェクトの動きにランダムな動きを合成した動きで移動を継続させる。図5では、時刻t3においてオブジェクトAが障害物21の背後に隠れており、各探索ブロックDは、現在時刻までのオブジェクトAの動きとランダムな動きとを合成した動きで移動している。オブジェクトAの消失前の動きの影響は次第に少なくなりランダムな動きが支配的になり、探索ブロックは次第に広い範囲に分散するように移動する(t4)。なお、図5では、時刻t3における各探索ブロックに「t3」の文字を、時刻t4における各探索ブロックに「t4」の文字を付してある。   If tracking of an object fails (disappears) due to crossing or hiding (FIG. 5; t3), the movement of the search block D with the object being tracked is continued according to a predetermined movement rule. For example, the movement is continued at random, or the movement is continued by combining the movement of the object before disappearance with the random movement. In FIG. 5, the object A is hidden behind the obstacle 21 at time t3, and each search block D moves with a motion that combines the motion of the object A up to the current time and a random motion. The influence of the motion before the disappearance of the object A gradually decreases, and the random motion becomes dominant, and the search block gradually moves so as to be spread over a wide range (t4). In FIG. 5, the character “t3” is attached to each search block at time t3, and the character “t4” is attached to each search block at time t4.

このように、消失したオブジェクトを探索するように継続的に移動させている探索ブロックの位置(存在領域)にオブジェクトが存在する場合は、そのオブジェクトの特徴情報と各探索ブロックに対応付けて記憶されている追尾対象のオブジェクトの特徴情報とを比較し、該比較結果に基づいて、その探索ブロックの位置に存在するオブジェクトがその探索ブロックの追尾対象のオブジェクトであるか否かを判断する。追尾対象のオブジェクトであればそのオブジェクトに当該探索ブロックに登録されている追尾対象オブジェクトのオブジェクトIDを割り当てる。これにより、消失の前後で同一オブジェクトを同一オブジェクトとして追尾するようになる。   As described above, when an object exists at the position (existing region) of the search block continuously moved so as to search for the lost object, the feature information of the object is stored in association with each search block. The feature information of the tracking target object is compared, and based on the comparison result, it is determined whether or not the object existing at the position of the search block is the tracking target object of the search block. If the object is a tracking target, the object ID of the tracking target object registered in the search block is assigned to the object. Thereby, the same object is tracked as the same object before and after disappearance.

図5の例では時刻t4に探索ブロックD1によってオブジェクトAが見出(検出)される。追尾対象のオブジェクトが消失した後は、各探索ブロックはランダムな動きが支配的となって移動し拡散しているので、仮にオブジェクトAが破線で示したA’の位置に現れた場合は、その位置に移動していた探索ブロックD2によって発見されることになる。こうして、交差や障害物の背後への一時的な隠れが発生してもその前後で同一のオブジェクトを同一オブジェクトとして(同じオブジェクトIDで)追尾するようになっている。   In the example of FIG. 5, the object A is found (detected) by the search block D1 at time t4. After the object to be tracked disappears, each search block moves and spreads with the random movement dominant, so if the object A appears at the position A ′ indicated by the broken line, It will be discovered by the search block D2 which has moved to the position. In this way, even if an intersection or a temporary hiding behind an obstacle occurs, the same object is tracked as the same object (with the same object ID) before and after that.

本実施の形態では、図6に示すように、処理対象の画像(1フレーム分の画像)を複数の小領域(分割ブロックBk)に分割し、オブジェクトを分割ブロック単位で捉える。これにより、追尾に係る計算量が軽減される。ここでは、各分割ブロックBkが矩形となるように処理対象の画像を格子状の境界線で分割している。   In the present embodiment, as shown in FIG. 6, an image to be processed (image for one frame) is divided into a plurality of small areas (divided blocks Bk), and an object is captured in units of divided blocks. Thereby, the amount of calculation related to tracking is reduced. Here, the image to be processed is divided by a grid-like boundary line so that each divided block Bk is rectangular.

図6の例では、オブジェクトAは、斜線を施した33個の矩形の分割ブロックBkに分けられる。オブジェクトAの追尾・探索は分割ブロックBk単位に行われる。これら33個の分割ブロックBkの集合体としてオブジェクトAは認識され、オブジェクトA全体としての形状や重心位置、動きなどの特徴情報が把握される。ここでは、分割ブロックBkの中に占めるオブジェクトの面積が所定の占有率以上(たとえば、50パーセント以上)の場合に、その分割ブロックをオブジェクトの存在する分割ブロックとみなしている。   In the example of FIG. 6, the object A is divided into 33 rectangular divided blocks Bk that are shaded. Tracking / searching of the object A is performed for each divided block Bk. The object A is recognized as an aggregate of the 33 divided blocks Bk, and the feature information such as the shape, the center of gravity position, and the movement of the object A as a whole is grasped. Here, when the area of the object occupying the divided block Bk is equal to or greater than a predetermined occupancy ratio (for example, 50% or more), the divided block is regarded as a divided block where the object exists.

図7は、オブジェクト追尾・探索処理(図4;ステップS5)の流れを示している。オブジェクト追尾(図7;ステップS21)では、新規に検出されたオブジェクトについてオブジェクトIDを割り当てると共に図8に示すようなオブジェクトデータテーブル30を生成する。   FIG. 7 shows the flow of the object tracking / search process (FIG. 4; step S5). In object tracking (FIG. 7; step S21), an object ID is assigned to a newly detected object and an object data table 30 as shown in FIG. 8 is generated.

過去時刻において検出済みで既にオブジェクトIDが割り当てられているオブジェクトについては、動きベクトルなど公知の手法により、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付け等の手法により追尾する。   For objects that have been detected at the past time and have already been assigned an object ID, tracking is performed by a method such as associating an object in the previous time image with an object in the current time image by a known method such as a motion vector. To do.

次に、新たに追尾対象となったオブジェクトについて探索ブロックを発生させる探索ブロック発生処理を行う(ステップS22)。探索ブロック発生処理の詳細は図9に示してある。処理対象の画像内に存在する、状態(ステータス)がACTIVEであって(ステップS42;Yes)当該オブジェクトを追尾対象とする探索ブロックが0個のオブジェクト(ステップS43;Yes)について、そのオブジェクト領域の重心周辺に複数の探索ブロックを発生させる(ステップS44〜S55)。   Next, search block generation processing for generating a search block for an object that is newly tracked is performed (step S22). Details of the search block generation process are shown in FIG. A state (status) that is present in the image to be processed is ACTIVE (step S42; Yes), and there is no search block for which the object is a tracking target (step S43; Yes). A plurality of search blocks are generated around the center of gravity (steps S44 to S55).

探索ブロックは、追尾対象のオブジェクトを追尾・探索する際の単位領域であり、探索ブロックを単位として、その探索ブロックの存在領域に存在するオブジェクトがその探索ブロックが追尾対象としているオブジェクトか否かが判断される。探索ブロックは、追尾対象のオブジェクトが存在する分割ブロック毎に所定(BLOCKFACTOR)個ずつ発生させる。すなわち、追尾対象のオブジェクトのサイズに応じた数の探索ブロックを発生させる。BLOCKFACTOR個は1個以上で任意に設定変更可能な数であり、分割ブロックの領域サイズと探索ブロックの領域サイズとの比率等に基づいて適宜の個数に設定すればよい。たとえば、BLOCKFACTOR個は2〜5個に設定される。図10は、探索ブロックの原点(px0,py0)と中心位置(px,py)との関係を示している。探索ブロックはBLOCK_SIZE×BLOCK_SIZEの画素領域となっている(図10の例では5×5画素の領域)。ここでは、探索ブロックを矩形としたが、探索ブロックの形状はこれに限定されず、円など他の形状であってもかまわない。   A search block is a unit area for tracking / searching an object to be tracked. Whether or not an object existing in the search block's existing area is the object to be tracked by the search block, with the search block as a unit. To be judged. A predetermined number (BLOCKFACTOR) of search blocks is generated for each divided block in which an object to be tracked exists. That is, the number of search blocks corresponding to the size of the tracking target object is generated. The number of BLOCKFACTOR is one or more and is a number that can be arbitrarily changed, and may be set to an appropriate number based on the ratio of the area size of the divided block and the area size of the search block. For example, the number of BLOCKFACTOR is set to 2 to 5. FIG. 10 shows the relationship between the origin (px0, py0) and the center position (px, py) of the search block. The search block is a pixel area of BLOCK_SIZE × BLOCK_SIZE (5 × 5 pixel area in the example of FIG. 10). Here, although the search block is rectangular, the shape of the search block is not limited to this, and may be another shape such as a circle.

また、発生させた探索ブロック毎に図11に示すような探索ブロックデータテーブル40を生成する。探索ブロックデータテーブル40には、対応する探索ブロックの属性を示す情報が登録される。発生時に初期値として以下の値等を探索ブロックデータテーブル40に登録する。   Further, a search block data table 40 as shown in FIG. 11 is generated for each generated search block. In the search block data table 40, information indicating the attribute of the corresponding search block is registered. The following values are registered in the search block data table 40 as initial values when they occur.

・オブジェクトID:obj_id → 追尾対象のオブジェクトID
・探索ブロックの状態(ステータス):stateobj_id n_block → ON
・探索ブロック位置(x座標):bxobj_id n_block → x
・探索ブロック位置(y座標):byobj_id n_block → y
・探索ブロックの動きベクトル(水平方向):dxobj_id n_block → dx(gx, gy)
・探索ブロックの動きベクトル(垂直方向):dyobj_id n_block → dy(gx, gy)
・探索ブロックの適合度:corobj_id n_block → 1.0
-Object ID: obj_id → Object ID to be tracked
Search block state (status): state obj_id n_block → ON
Search block position (x coordinate): bx obj_id n_block → x
-Search block position (y coordinate): by obj_id n_block → y
Search block motion vector (horizontal direction): dx obj_id n_block → dx (gx, gy)
Search block motion vector (vertical direction): dy obj_id n_block → dy (gx, gy)
Fitness of search block: cor obj_id n_block → 1.0

また、探索ブロックの存在領域内における各画素のHSV値(HSV色空間で表現した画素値)から図12に示すようなHSV色空間累積ヒストグラムを生成する。この累積ヒストグラムは、探索ブロック領域を画素単位で走査して導出する。画素値iの場合、j≧iであれば、
histH,S,V(t, j)obj_id n_block = histH,S,V(t, j)obj_id n_block + 1
とする。すなわち、画素値の取り得る値を所定数の階級に区分し、当該画素の画素値がiであれば、iが属する階級以上の各階級の累積値をそれぞれ「1」加算する。この処理を探索ブロック内の全画素に対して行う。
Further, an HSV color space cumulative histogram as shown in FIG. 12 is generated from the HSV value (pixel value expressed in the HSV color space) of each pixel in the search block existence region. This cumulative histogram is derived by scanning the search block area in units of pixels. For pixel value i, if j ≧ i,
hist H, S, V (t, j) obj_id n_block = hist H, S, V (t, j) obj_id n_block + 1
And That is, the possible values of the pixel value are divided into a predetermined number of classes, and if the pixel value of the pixel is i, “1” is added to each of the accumulated values of the classes to which i belongs. This process is performed for all the pixels in the search block.

なお、HSV色空間は色相(Hue)、彩度(Saturation・Chroma)、明度(Brightness・Lightness・Value)の三つの成分からなる色空間であり、HSV色空間累積ヒストグラムは、H(色相)成分、S(彩度)成分、V(明度)成分のそれぞれについて生成される。これらのHSV色空間累積ヒストグラムに係る各値は、探索ブロックの位置(存在領域)におけるオブジェクト(画像)の特徴情報としてその探索ブロックに対応付けて記憶される。   The HSV color space is a color space composed of three components: hue, saturation (saturation / chroma), and brightness (brightness / lightness / value), and the HSV color space cumulative histogram is the H (hue) component. , S (saturation) component and V (lightness) component. Each value related to the HSV color space cumulative histogram is stored in association with the search block as feature information of the object (image) at the position (existing region) of the search block.

次に、全探索ブロックに関する適合度を更新する(図7:ステップS23、詳細は図13に示す)。適合度を更新する処理では、探索ブロックの状態(ステータス)がONとなっている(図13;ステップS63;Yes)すべての探索ブロックに関して、適合度の更新(ステップS64〜S67)を行う。適合度は、探索ブロックの位置(存在領域)に存在するオブジェクトと当該探索ブロックの追尾対象のオブジェクトとの一致度を示す指標である。適合度は、探索ブロックの存在領域に存在するオブジェクトの特徴情報(色など画像としての特徴情報と重心位置に係る特徴情報)とその探索ブロックに対応付けて記憶されているオブジェクトの特徴情報(当該探索ブロックの前時刻の位置に存在していたオブジェクトの特徴情報)との比較に基づいて算出する。本実施の形態では、HSV色空間累積ヒストグラムを用いた場合について記述する。具体的には、探索ブロックの存在領域におけるHSV色空間累積ヒストグラムの時間差分と、当該探索ブロックが追尾対象とするオブジェクトの重心位置と該探索ブロックの中心との距離に基づく距離係数との積により導出する。適合度は1〜0の範囲をとる。具体的には以下の式の通りである。   Next, the fitness for all search blocks is updated (FIG. 7: step S23, details are shown in FIG. 13). In the process of updating the fitness level, the fitness level is updated (steps S64 to S67) for all search blocks whose search block status (status) is ON (FIG. 13; step S63; Yes). The goodness of fit is an index indicating the degree of coincidence between the object existing at the position (existing area) of the search block and the tracking target object of the search block. The degree of fitness is the feature information of the object existing in the existence area of the search block (feature information as an image such as color and the feature information related to the center of gravity position) and the feature information of the object stored in association with the search block (the relevant It is calculated based on a comparison with the feature information of the object existing at the previous time position of the search block. In this embodiment, a case where an HSV color space cumulative histogram is used will be described. Specifically, by the product of the time difference of the HSV color space cumulative histogram in the search block existence area and the distance coefficient based on the distance between the center of gravity of the object to be tracked by the search block and the center of the search block. To derive. The goodness of fit ranges from 1 to 0. Specifically, it is as the following formula.

HSV色空間累積ヒストグラムの時間差分total_diffについては、たとえば下記の式で表わされる。
The time difference total_diff of the HSV color space cumulative histogram is expressed by the following equation, for example.

距離係数に関しては、たとえば下記の式で表わされる。
For example, the distance coefficient is expressed by the following equation.

従って、探索ブロックの中心とオブジェクト領域の重心との距離が近い程、探索ブロックの適合度は高くなる。なお、消失中のオブジェクト(LOSTオブジェクト)についてはLOST状態になる直前のフレーム時刻における重心位置をオブジェクトの重心位置として距離係数を求める。   Therefore, the closer the distance between the center of the search block and the center of gravity of the object area is, the higher the fitness of the search block is. For the disappearing object (LOST object), the distance coefficient is obtained by using the center of gravity position at the frame time immediately before the LOST state as the center of gravity of the object.

図14は、探索ブロックの中心とその追尾対象のオブジェクトの重心との距離と適合度との関係を例示したものである。探索ブロックD1、D2は、追尾対象のオブジェクト上にないので、オブジェクト重心との距離が大きく(距離係数(dist_factor)→小)、かつオブジェクト(画像)の特徴情報の一致度(HSV色空間累積ヒストグラムの一致度)も低い(total_diff→小)ので、適合度は低くなる(0に近づく)。探索ブロックD3、D4は追尾対象のオブジェクト上にあるので、オブジェクト重心との距離が小さく(距離係数(dist_factor)→大)、かつオブジェクト(画像)の特徴情報の一致度(HSV色空間累積ヒストグラムの一致度)も高い(total_diff→大)ので、適合度は高くなる(1に近づく)。   FIG. 14 exemplifies the relationship between the distance between the center of the search block and the center of gravity of the object to be tracked and the fitness. Since the search blocks D1 and D2 are not on the tracking target object, the distance from the object center of gravity is large (distance factor (dist_factor) → small), and the degree of coincidence of the object (image) feature information (HSV color space cumulative histogram) ) Is low (total_diff → small), so the fitness is low (approaching 0). Since the search blocks D3 and D4 are on the object to be tracked, the distance from the object center of gravity is small (distance factor (dist_factor) → large), and the degree of coincidence of object (image) feature information (HSV color space cumulative histogram) Since the degree of matching is also high (total_diff → large), the degree of matching is high (close to 1).

次に、分割ブロック領域ID割り当て処理を行う(図7:ステップS24、詳細は図15に示す)。当該処理では、分割ブロック領域内に何らかのオブジェクトが存在しかつ1個以上の探索ブロックが存在している分割ブロックBkに対して、それらの探索ブロックの中で最も優位な(最高適合度を有する)探索ブロックに登録されている追尾対象のオブジェクトIDを割り当てることでその分割ブロックBkに該オブジェクトIDを付与し、該オブジェクトIDのオブジェクトをACTIVE状態にする、ことを行う。元々ACTIVE状態であったオブジェクトはACTIVE状態が継続される。   Next, a divided block area ID assignment process is performed (FIG. 7: step S24, details are shown in FIG. 15). In this process, the divided block Bk in which some object exists in the divided block area and one or more search blocks exist has the highest priority (having the highest fitness) among those search blocks. By assigning the tracking target object ID registered in the search block, the object ID is assigned to the divided block Bk, and the object of the object ID is set to the ACTIVE state. The object that was originally in the ACTIVE state continues to be in the ACTIVE state.

上記処理により、LOSTオブジェクトを追尾対象とする探索ブロックに登録されているオブジェクトIDがいずれかの分割ブロックBkに割り当てられた場合、LOST状態であったその追尾対象のオブジェクトが見出された(検出された)ことになる。なお、追尾対象のオブジェクトであるがいずれの分割ブロックBkにもオブジェクトIDが付与されなかったオブジェクトは、図4のオブジェクト状態更新処理(S8)においてLOSTオブジェクトと判定されて状態が保持あるいは更新される。   When the object ID registered in the search block whose tracking target is the LOST object is assigned to any one of the divided blocks Bk by the above processing, the tracking target object in the LOST state is found (detection) Was). Note that an object that is a tracking target object but has not been assigned an object ID to any of the divided blocks Bk is determined to be a LOST object in the object state update process (S8) of FIG. 4, and the state is maintained or updated. .

次に、探索ブロック消去処理を行う(図7:ステップS25、詳細は図16に示す)。オブジェクトの状態(ステータス)がUNDETECTEDである場合、あるいは状態がLOSTでありかつオブジェクトの継続時間obj_timeがLOST_TIME以上である(LOST状態がLOST_TIME以上継続した)場合に、当該オブジェクトに属する(当該オブジェクトを追尾対象とする)すべての探索ブロックを削除する。削除は、当該オブジェクトに属するすべての探索ブロックデータテーブルをクリアすることで行う。   Next, search block erasure processing is performed (FIG. 7: step S25, details are shown in FIG. 16). If the object state is UNDETECTED, or if the state is LOST and the object duration obj_time is longer than LOST_TIME (LOST state lasts longer than LOST_TIME), it belongs to the object (track the object) Delete all search blocks. Deletion is performed by clearing all search block data tables belonging to the object.

次に、探索ブロックリサンプリング処理を行う(図7:ステップS28、詳細は図17に示す)。探索ブロックリサンプリング処理は、ACTIVE状態のオブジェクトに属するすべての探索ブロックについて行われる(図7;ステップS27;Yes)。探索ブロックリサンプリング処理では、追尾対象のオブジェクトが同一の複数の探索ブロック間で、適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換えることが行われる。   Next, search block resampling processing is performed (FIG. 7: step S28, details are shown in FIG. 17). The search block resampling process is performed for all search blocks belonging to the object in the ACTIVE state (FIG. 7; step S27; Yes). In the search block resampling process, a search block with a low fitness is replaced with a search block with a high fitness between a plurality of search blocks with the same tracking target object.

ここでは、同一オブジェクト(たとえば、オブジェクトA)を追尾対象とするすべての探索ブロックの適合度の和に対する個々の探索ブロックの適合度の比率をその探索ブロックの出現確率とするルーレットを生成し、該オブジェクトを追尾対象とする探索ブロック毎に前記ルーレットに基づく乱数抽選を行い、その探索ブロックをその抽選結果の出目に対応する探索ブロックに置き換える。すなわち、当該オブジェクトを追尾対象とする全探索ブロックの個数と同じ回数の乱数抽選を前記ルーレットに基づいて行い、抽選毎にその当たりとなった出目に対応する探索ブロックに置き換えることによって、適合度の低い探索ブロックを適合度の高い探索ブロックに置き換わりやすいようにしている。   Here, a roulette is generated in which the ratio of the fitness of each search block to the sum of the fitness of all search blocks that track the same object (for example, object A) is the appearance probability of the search block, A random number lottery based on the roulette is performed for each search block whose object is to be tracked, and the search block is replaced with a search block corresponding to the result of the lottery result. That is, the randomness lottery is performed the same number of times as the number of all search blocks for which the object is tracked based on the roulette, and replaced by the search block corresponding to the winning point for each lottery, The search block having a low match is easily replaced with a search block having a high fitness.

より詳細には、処理対象の画像内に存在するオブジェクトの中で、状態(ステータス)がACTIVEであるオブジェクト毎に以下の処理を行う。まず、注目しているオブジェクトobj_idに関して、そのオブジェクトに属する探索ブロックn_blockの適合度cor obj_id n_blockを基に、下記の通りルーレットを生成する。 More specifically, the following processing is performed for each object whose state (status) is ACTIVE among the objects existing in the processing target image. First, for the object obj_id of interest, a roulette is generated as follows based on the fitness cor obj_id n_block of the search block n_block belonging to the object.

探索ブロックn_blockの状態(ステータス)stateobj_id n_blockがONであるならば、
rouletteobj_id n_block = rouletteobj_id n_block-1 + cor obj_id n_block
探索ブロックn_blockの状態(ステータス)stateobj_id n_blockがOFFであるならば、
rouletteobj_id n_block = rouletteobj_id n_block-1
Search block n_block state (status) If state obj_id n_block is ON,
roulette obj_id n_block = roulette obj_id n_block-1 + cor obj_id n_block
Search block n_block state (status) If state obj_id n_block is OFF,
roulette obj_id n_block = roulette obj_id n_block-1

次に、注目しているオブジェクトobj_idに属する探索ブロック毎に乱数データを生成し、その乱数データをもとにその探索ブロックに関するルーレットの出目を決定した後、当該探索ブロックをその出目に対応する探索ブロックに置き換える。   Next, after generating random number data for each search block belonging to the object of interest obj_id and determining the roulette output for the search block based on the random number data, the search block corresponds to the output Replace with search block.

図18は、任意のオブジェクトについて生成したルーレットの一例を示している。このオブジェクトを追尾対象とする探索ブロックは全部でM個存在する。探索ブロック1からMまでの全探索ブロックの適合度の合計を360度としたルーレット上に、個々の探索ブロックの出目をその適合度の比率に応じた占有角度で配置してある。たとえば、探索ブロック1の出目の占有角度は、((探索ブロック1の適合度)/(全探索ブロックの適合度の合計))×360度となる。   FIG. 18 shows an example of a roulette generated for an arbitrary object. There are a total of M search blocks that use this object as a tracking target. On the roulette where the total fitness of all search blocks from search blocks 1 to M is 360 degrees, the output of each search block is arranged at an occupation angle corresponding to the ratio of the fitness. For example, the occupancy angle of the search block 1 is ((the suitability of search block 1) / (the sum of the suitability of all search blocks)) × 360 degrees.

適合度の高い探索ブロックは出目の占有角度も大きいので、その分、乱数抽選で当たりになる確率は高い。一方、適合度の低い探索ブロックは出目の占有角度は小さく、当たりになる確率も低い。したがって、適合度の低い探索ブロックが適合度の高い探索ブロックに置き換えられ易くなる。   Since the search block with a high degree of matching has a large occupancy angle, the probability of winning in the random number lottery is high. On the other hand, a search block with a low degree of fitness has a small occupancy angle and a low probability of winning. Therefore, a search block with a low fitness is easily replaced with a search block with a high fitness.

ここで、探索ブロックを置き換えるとは、探索ブロックデータテーブル40の内容を、探索ブロックIDを除く項目についてコピーすることである。   Here, replacing the search block means copying the contents of the search block data table 40 for items other than the search block ID.

先に説明したように、探索ブロックの適合度はその探索ブロックが追尾対象のオブジェクト上に存在する場合は高く、追尾対象のオブジェクト上から外れた位置にある場合は低くなる。したがって、図19(a)に示すように、ACTIVEオブジェクトについて探索ブロックの置き換え(探索ブロックリサンプリング)を行うと、追尾対象のオブジェクトA上にある探索ブロックD5〜D7とオブジェクトA上にない探索ブロックD1〜D4との間で適合度に大きな差が生じる。したがって、探索ブロックリサンプリングにより生成されるルーレットは図19(b)のように(D1〜D4については占有角度が小さく、D5〜D7は占有角度が大きく)なる。   As described above, the suitability of a search block is high when the search block exists on the tracking target object, and is low when the search block is at a position outside the tracking target object. Accordingly, as shown in FIG. 19A, when search block replacement (search block resampling) is performed for the ACTIVE object, search blocks D5 to D7 on the tracking target object A and search blocks not on the object A There is a large difference in fitness between D1 and D4. Therefore, the roulette generated by the search block resampling is as shown in FIG. 19B (the occupied angle is small for D1 to D4 and the occupied angle is large for D5 to D7).

このルーレットを使用して探索ブロックの個数回分(ここでは7回)の乱数抽選を行った場合、その結果は、たとえば同図(c)に示すようになり、適合度の低い探索ブロックが適合度の高い探索ブロックに確率的に置き換えられる。図19(d)に示すように、追尾対象のオブジェクト上になかった探索ブロックの多くが追尾対象のオブジェクト上の探索ブロックに置き換えられ、探索ブロックが追尾対象のオブジェクト上に集約されやすくなる。   When random number lottery is performed for the number of search blocks (in this case, seven times) using this roulette, the result is as shown in, for example, (c) of FIG. Is replaced with a search block having a high value. As shown in FIG. 19D, many of the search blocks that were not on the tracking target object are replaced with search blocks on the tracking target object, and the search blocks are easily aggregated on the tracking target object.

次に、探索ブロック更新処理を行う(図7:ステップS29、詳細は図20に示す)。探索ブロック更新処理は、各探索ブロックの移動と各探索ブロックに対応付けて記憶してある追尾対象のオブジェクトに関する特徴情報の更新とを行う。画像内に存在するすべての探索ブロックについて、その位置情報、動きベクトルの情報が更新される(ステップS147、S148)。さらに状態(ステータス)がACTIVEであるオブジェクトに属する(当該オブジェクトを追尾対象とする)探索ブロックであって、ステータスがON状態であり、かつ追尾対象のオブジェクトのIDと当該探索ブロックの存在位置の分割ブロックに付与されているオブジェクトのIDとが一致する探索ブロックについては、HSV色空間累積ヒストグラムについても更新する(ステップS146)。   Next, search block update processing is performed (FIG. 7: step S29, details are shown in FIG. 20). In the search block update process, the movement of each search block and the update of the feature information regarding the tracking target object stored in association with each search block are performed. The position information and motion vector information of all search blocks existing in the image are updated (steps S147 and S148). Further, a search block belonging to an object whose status (status) is ACTIVE (with the object as a tracking target), the status is ON, and the ID of the tracking target object and the location of the search block are divided For the search block that matches the object ID assigned to the block, the HSV color space cumulative histogram is also updated (step S146).

位置情報の更新は以下の通りである。
ここで、rnd_x、rnd_yはそれぞれx、y方向に関する乱数を示す。乱数を加えることで、探索ブロックにランダムな動きを加えることになる。
The location information is updated as follows.
Here, rnd_x and rnd_y indicate random numbers in the x and y directions, respectively. By adding a random number, a random motion is added to the search block.

動きベクトル情報の更新は以下の通りであり、前時刻の探索ブロックの動きベクトルと現在の探索ブロック存在位置の分割ブロックにおける動きベクトルの線形荷重和となっている。
ここで、kは更新割合(慣性定数)を表す。kの値は設定変更可能となっている。追尾に成功している場合はオブジェクトの動きベクトルが支配的になり、追尾に失敗している(追尾対象のオブジェクトが消失している(LOST状態))場合は、乱数による移動が支配的になる。
The update of the motion vector information is as follows, and is a linear load sum of the motion vector of the search block at the previous time and the motion vector in the divided block at the current search block location.
Here, k represents an update rate (inertia constant). The value of k can be changed. If tracking has succeeded, the motion vector of the object becomes dominant, and if tracking has failed (the tracking target object has disappeared (LOST state)), movement by random numbers becomes dominant. .

上記のようにしてオブジェクトの追尾・探索を行うことにより、図5に示すように追尾対象のオブジェクトが障害物21に一時的に隠れた場合でも、障害物21に隠れる前後で同一オブジェクトを同一オブジェクトとして、すなわち、障害物21に隠れる前後の同一オブジェクトに対して同一のオブジェクトIDを割り当てて、追尾することができる。   By tracking and searching for an object as described above, even if the object to be tracked is temporarily hidden behind the obstacle 21 as shown in FIG. That is, the same object ID can be assigned to the same object before and after being hidden by the obstacle 21 for tracking.

同様に追尾対象のオブジェクト同士が交差した場合にも、交差の前後で同一のオブジェクトに対して同一のオブジェクトIDを付与して追尾することができる(図21(a)〜(d))。交差領域においては、適合度の高い探索ブロックに優位性がある。図21(b)では、オブジェクトAがオブジェクトBの背後を通過するので前面側のオブジェクトBを追尾している探索ブロックが優位となる。同図(c)に示すように、交差状態からオブジェクトAとBが互いに離れる際には、オブジェクトAに属する探索ブロックはオブジェクトAに追従し、オブジェクトBに属する探索ブロックはオブジェクトBを追従するように移動する(同図(d))。   Similarly, even when tracking target objects intersect, tracking can be performed by assigning the same object ID to the same object before and after the intersection (FIGS. 21A to 21D). In the intersection area, a search block having a high degree of matching has an advantage. In FIG. 21B, since the object A passes behind the object B, the search block that tracks the object B on the front side is superior. As shown in FIG. 5C, when the objects A and B are separated from each other from the intersection state, the search block belonging to the object A follows the object A, and the search block belonging to the object B follows the object B. (Fig. 4D).

このように、本実施の形態に係るオブジェクト追尾・探索方法では、新規に追尾対象のオブジェクトを検出した場合に、そのオブジェクトの重心付近に複数の探索ブロックを生成しかつ各探索ブロックにその探索ブロックの存在領域における追尾対象オブジェクトの特徴情報を対応付けて記憶し、その後は、探索ブロックを追尾対象のオブジェクトに追従するように移動させると共に探索ブロックに記憶している追尾対象のオブジェクトの特徴情報の更新を行い、追尾に失敗した後はランダムな動きが支配的となるように探索ブロックの移動を継続させ、探索ブロックという局所領域を単位に適合度を判断して消失した追尾対象のオブジェクトを探索することで、交差や隠れの前後で同一オブジェクトを同一オブジェクトとして追尾する。   As described above, in the object tracking / search method according to the present embodiment, when a new object to be tracked is detected, a plurality of search blocks are generated near the center of gravity of the object, and each search block has its search block. Is stored in association with the feature information of the tracking target object in the existing region, and after that, the search block is moved so as to follow the tracking target object and the feature information of the tracking target object stored in the search block is stored. After updating and tracking fails, the search block continues to move so that the random movement becomes dominant, and the tracking target object that disappeared is judged by determining the fitness based on the local area called the search block By doing so, the same object is tracked as the same object before and after crossing and hiding.

なお、追尾しているオブジェクトから図4のステップS6で抽出した形状、動き、テクスチャ等のオブジェクトに関する特徴情報を示す特徴量データは、図22に示すような、FIFO(First in First out)形式の記憶領域50に、時系列データとして保存される(図4、ステップS7)。図22の記憶領域50は時刻毎の特徴量データを現在時刻から最大でLmax回前まで時系列に保存するようになっている。図22(a)は記憶領域50の途中まで特徴量データを蓄積(L回分の蓄積:LはLmax未満の任意の正整数)した状態で、図22(b)はLmax回分の特徴量データで記憶領域50が埋まった状態を示している。記憶領域50に時系列に記憶された特徴量データは、たとえば、画像内の各オブジェクトが人か車両か等の判断に使用される。また交差や隠れがあっても同一オブジェクトを同一オブジェクトとして追尾できるので、追尾中に交差や隠れがあってもその前後をつなげて同一オブジェクトの時系列の特徴量データを収集することができる。   Note that the feature amount data indicating the feature information about the object such as the shape, movement, and texture extracted from the tracked object in step S6 in FIG. 4 is in a FIFO (First in First Out) format as shown in FIG. The time-series data is stored in the storage area 50 (FIG. 4, step S7). The storage area 50 in FIG. 22 stores feature data for each time in a time series from the current time up to Lmax times. FIG. 22A shows a state in which feature amount data is accumulated up to the middle of the storage area 50 (accumulation for L times: L is an arbitrary positive integer less than Lmax), and FIG. 22B shows feature amount data for Lmax times. A state in which the storage area 50 is filled is shown. The feature amount data stored in time series in the storage area 50 is used, for example, to determine whether each object in the image is a person or a vehicle. In addition, since the same object can be tracked as the same object even if there is a crossing or hiding, even if there is a crossing or hiding during tracking, the time series feature amount data of the same object can be collected.

以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。   The embodiment of the present invention has been described with reference to the drawings. However, the specific configuration is not limited to that shown in the embodiment, and there are changes and additions within the scope of the present invention. Are also included in the present invention.

たとえば、実施の形態では、分割ブロック単位にオブジェクトを追尾・探索するようにしたが、オブジェクト単位に追尾を行っても構わない。   For example, in the embodiment, the object is tracked / searched in divided block units, but tracking may be performed in object units.

また実施の形態では、追尾対象のオブジェクトの動きとランダムな動き(乱数に基づく位置変更…数4)との合成によって探索ブロックを移動させることと、ACTIVEオブジェクトに属する探索ブロックを対象にした探索ブロックリサンプリング処理(適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換える処理)との組み合わせにより、追尾に成功している間は探索ブロックを追尾対象のオブジェクトを追尾するように移動させ、消失中はランダムな動きが支配的となるように探索ブロックを移動させたが、探索ブロックの移動方法は実施の形態に例示した方法に限定されない。すなわち、追尾成功中は追尾対象のオブジェクトを追尾し、消失中はランダムな動きが支配的となるという移動ルールで移動すればよく、たとえば、追尾成功中はランダム要素なしに追尾対象の動きベクトルに従って移動させ、消失中は慣性的な動きを排除しランダムな動きのみで移動させるように構成されてもかまわない。   In the embodiment, the search block is moved by synthesizing the movement of the object to be tracked and the random movement (position change based on the random number, Equation 4), and the search block targeted for the search block belonging to the ACTIVE object Combined with resampling (probabilistic replacement of search block with low fitness with search block with high fitness), the search block moves to track the tracking target object while tracking is successful The search block is moved so that the random motion becomes dominant during the disappearance, but the method of moving the search block is not limited to the method exemplified in the embodiment. That is, the tracking target object may be tracked during tracking success, and it may be moved according to the movement rule that random motion becomes dominant during disappearance.For example, according to the tracking target motion vector without random elements during tracking success. It may be configured to move and move only with random movement while eliminating the inertial movement during disappearance.

消失中の移動のルールは、消失直前のオブジェクトの動きにランダムな動きを加えることが好ましく、さらには時間の経過と共にランダムな動きがより支配的になるとよい。   As the rule of movement during disappearance, it is preferable to add a random motion to the motion of the object immediately before the disappearance, and it is preferable that the random motion becomes more dominant as time passes.

実施の形態では、HSV色空間累積ヒストグラムの時間差分とオブジェクトと探索ブロックとの間の距離による距離係数とに基づいて各探索ブロックの適合度を決定するようにしたが、他の基準で適合度を定めてもよい。適合度は、画像としての一致度と、オブジェクトと探索ブロックとの位置関係とを要素として決定されることが好ましい。   In the embodiment, the fitness of each search block is determined based on the time difference of the HSV color space cumulative histogram and the distance coefficient based on the distance between the object and the search block. May be determined. The degree of matching is preferably determined using the degree of coincidence as an image and the positional relationship between the object and the search block as elements.

本発明の実施の形態に係る画像処理装置のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of an image processing apparatus according to an embodiment of the present invention. オブジェクトの状態遷移図である。It is a state transition diagram of an object. 本発明の実施の形態に係る画像処理装置が行うオブジェクト追尾処理における処理フェーズを示す説明図である。It is explanatory drawing which shows the process phase in the object tracking process which the image processing apparatus which concerns on embodiment of this invention performs. 発明の実施の形態に係る画像処理装置が行うオブジェクト追尾処理を示す流れ図である。It is a flowchart which shows the object tracking process which the image processing apparatus which concerns on embodiment of an invention performs. 探索ブロックによる探索の概略を示す説明図である。It is explanatory drawing which shows the outline of the search by a search block. 処理対象の画像(1フレーム分の画像)を複数の分割ブロックに分割した状態の一例を示す説明図である。It is explanatory drawing which shows an example of the state which divided | segmented the image (image for 1 frame) of a process target into the some division block. オブジェクト追尾・探索処理(図4;ステップS5)を示す流れ図である。It is a flowchart which shows an object tracking and search process (FIG. 4; step S5). オブジェクトデータテーブルを示す説明図である。It is explanatory drawing which shows an object data table. 探索ブロック発生処理(図7;ステップS22)を示す流れ図である。It is a flowchart which shows search block generation processing (FIG. 7; step S22). 探索ブロックの原点(px0,py0)と中心位置(px,py)との関係を示す説明図である。It is explanatory drawing which shows the relationship between the origin (px0, py0) and center position (px, py) of a search block. 探索ブロックデータテーブルを示す説明図である。It is explanatory drawing which shows a search block data table. HSV色空間累積ヒストグラムの一例を示す説明図である。It is explanatory drawing which shows an example of an HSV color space accumulation histogram. 適合度更新処理(図7:ステップS23)の詳細を示す流れ図である。It is a flowchart which shows the detail of a fitness update process (FIG. 7: step S23). 探索ブロック中心・追尾対象のオブジェクト重心間の距離と適合度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the distance between search block center and the object gravity center of tracking object, and a fitness. 分割ブロック領域ID割り当て処理(図7:ステップS24)の詳細を示す流れ図である。It is a flowchart which shows the detail of a division | segmentation block area ID allocation process (FIG. 7: step S24). 探索ブロック消去処理(図7:ステップS25)の詳細を示す流れ図である。It is a flowchart which shows the detail of search block erasure | elimination process (FIG. 7: step S25). 探索ブロックリサンプリング処理(図7:ステップS28)の詳細を示す流れ図である。It is a flowchart which shows the detail of search block resampling process (FIG. 7: step S28). 探索ブロックリサンプリング処理で生成されるルーレットの一例を示す説明図である。It is explanatory drawing which shows an example of the roulette produced | generated by the search block resampling process. 探索ブロックリサンプリング処理による探索ブロックの置き換え状況の一例を示す説明図である。It is explanatory drawing which shows an example of the replacement condition of the search block by search block resampling processing. 探索ブロック更新処理(図7:ステップS29)の詳細を示す流れ図である。It is a flowchart which shows the detail of search block update process (FIG. 7: step S29). 交差の前後での探索ブロックによるオブジェクトの追尾・探索状況の一例を示す説明図である。It is explanatory drawing which shows an example of the tracking and search condition of the object by the search block before and behind an intersection. オブジェクトの特徴量データを時系列に記憶する記憶領域の一例を示す説明図である。It is explanatory drawing which shows an example of the memory area which memorize | stores the feature-value data of an object in time series.

符号の説明Explanation of symbols

10…画像処理装置
11…カメラ部
12…処理部
13…出力部
14…入力部
21…障害物
30…オブジェクトデータテーブル
40…探索ブロックデータテーブル
50…記憶領域
P1…オブジェクト検出フェーズ
P2…追尾・探索フェーズ
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus 11 ... Camera part 12 ... Processing part 13 ... Output part 14 ... Input part 21 ... Obstacle 30 ... Object data table 40 ... Search block data table 50 ... Storage area P1 ... Object detection phase P2 ... Tracking / search Phase

Claims (7)

処理対象の画像内のオブジェクトを検出して追尾するオブジェクト追尾方法において、
前記処理対象の画像内のオブジェクトを検出するステップと、
新規に追尾対象のオブジェクトを検出した場合に、そのオブジェクトを追尾対象とする所定サイズの探索ブロックを前記オブジェクトの領域内に複数発生させると共に各探索ブロックに当該探索ブロックの存在領域における前記オブジェクトの特徴情報を対応付けて記憶するステップと、
探索ブロック毎に、その探索ブロックの存在領域に存在するオブジェクトの特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記オブジェクトと前記探索ブロックの追尾対象のオブジェクトとの適合度を演算するステップと、
探索ブロックの存在領域に存在するオブジェクトがその探索ブロックの追尾対象のオブジェクトであるか否かを該探索ブロックに係る前記適合度に基づいて判断し、該判断結果が真の場合に前記探索ブロックの追尾対象のオブジェクトを追尾成功オブジェクトと判断するステップと、
追尾成功オブジェクト毎に、そのオブジェクトを追尾対象とする複数の探索ブロック間で、適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換えるステップと、
前記追尾成功オブジェクトを追尾対象とする探索ブロックについて、その探索ブロックに対応付けて記憶されている前記特徴情報を更新するステップと、
各探索ブロックを、その探索ブロックの追尾対象のオブジェクトの動きとランダムな動きとを合成した動きに基づいて移動させるステップと、
を繰り返し行う
ことを特徴とするオブジェクト追尾方法。
In an object tracking method for detecting and tracking an object in a processing target image,
Detecting an object in the image to be processed;
When a new tracking target object is detected, a plurality of search blocks having a predetermined size for the tracking target are generated in the area of the object, and each search block has a feature of the object in the search block existing area. Storing information in association with each other;
For each search block, the object and the object to be tracked by the search block based on the comparison between the feature information of the object existing in the search block existence area and the feature information stored in association with the search block Calculating the fitness with
A determination is made as to whether or not an object existing in the search block existence area is a tracking target object of the search block based on the fitness of the search block, and if the determination result is true, the search block Determining a tracking target object as a tracking success object;
For each tracking success object, probabilistically replacing a search block with a low fitness with a search block with a high fitness between a plurality of search blocks targeting the object,
Updating the feature information stored in association with the search block for the search block whose tracking target is the tracking target;
Moving each search block based on a combined motion of the object to be tracked in the search block and a random motion;
An object tracking method characterized by repeatedly performing.
前記適合度は、探索ブロックの存在領域におけるオブジェクト(画像)の特徴情報と該探索ブロックに対応付けて記憶されている前記特徴情報との差分が小さいほど、かつ探索ブロックの位置と該探索ブロックの追尾対象のオブジェクトの重心との距離が短いほど、高くなるように演算される
ことを特徴とする請求項1に記載のオブジェクト追尾方法。
The degree of matching is such that the smaller the difference between the feature information of the object (image) in the search block existing area and the feature information stored in association with the search block, and the position of the search block and the search block The object tracking method according to claim 1, wherein the object tracking method is calculated so that the distance from the center of gravity of the tracking target object is shorter.
追尾対象が同一オブジェクトの複数の探索ブロック間で適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換える処理は、前記オブジェクトを追尾対象とするすべての探索ブロックの適合度の和に対する個々の探索ブロックの適合度の比率をその探索ブロックの出現確率とするルーレットを生成し、前記オブジェクトを追尾対象とする探索ブロック毎に前記ルーレットに基づく乱数抽選を行い、その探索ブロックをその抽選結果の出目に対応する探索ブロックに置き換えることによって行う
ことを特徴とする請求項1または2に記載のオブジェクト追尾方法。
The process of stochastically replacing a search block having a low fitness with a search block with a high fitness between a plurality of search blocks of the same object as the tracking target is based on the sum of the fitness of all search blocks having the object as a tracking target. A roulette with the ratio of the fitness of each search block as the appearance probability of the search block is generated, a random lottery based on the roulette is performed for each search block whose tracking target is the object, and the search block is the lottery result The object tracking method according to claim 1, wherein the object tracking method is performed by replacing the search block with a corresponding search result.
処理対象の画像を複数の小領域に分割し、
前記判断ステップでは、オブジェクトの存在する小領域毎に、その小領域に探索ブロックが存在する場合は、該小領域に存在する探索ブロックの中で最も適合度の高い探索ブロックの追尾対象のオブジェクトが該小領域に存在すると判断する
ことを特徴とする請求項1乃至3のいずれか1つに記載のオブジェクト追尾方法。
Divide the image to be processed into multiple small areas,
In the determining step, for each small area where an object exists, if a search block exists in the small area, the object to be tracked by the search block having the highest fitness among the search blocks present in the small area is The object tracking method according to claim 1, wherein the object tracking method is determined to exist in the small area.
処理対象の画像内のオブジェクトを検出して追尾するオブジェクト追尾方法において、
新規に追尾対象のオブジェクトを検出した場合は、そのオブジェクトを追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記オブジェクトの特徴情報を対応付けて記憶し、
前記各探索ブロックをその追尾対象のオブジェクトを追尾するように移動させ、
オブジェクトの追尾に失敗した場合は、そのオブジェクトを追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在するオブジェクトの特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記オブジェクトが当該探索ブロックの追尾対象のオブジェクトであるか否かを判断することで、前記追尾に失敗したオブジェクトを見出す
ことを特徴とするオブジェクト追尾方法。
In an object tracking method for detecting and tracking an object in a processing target image,
When a new object to be tracked is detected, a plurality of search blocks of a predetermined size for which the object is tracked are generated and feature information of the object is stored in association with each search block,
Move each search block to track the object to be tracked,
When tracking of an object fails, the search block for tracking the object is moved according to a predetermined movement rule, and is stored in association with the feature information of the object existing in the search block existing area and the search block. An object tracking method comprising: finding out an object that has failed in tracking by determining whether or not the object is a tracking target object of the search block based on comparison with the feature information.
追尾失敗の状態が所定期間以上継続したオブジェクトを追尾対象から外し、該オブジェクトを追尾対象とする全ての探索ブロックを削除する
ことを特徴とする請求項1乃至5のいずれか1つに記載のオブジェクト追尾方法。
The object according to any one of claims 1 to 5, wherein an object whose tracking failure state has continued for a predetermined period or longer is excluded from the tracking target, and all search blocks having the tracking target as the tracking target are deleted. Tracking method.
請求項1乃至6のいずれか1つに記載のオブジェクト追尾方法によって、処理対象の画像内のオブジェクトを追尾する画像処理装置。   An image processing apparatus that tracks an object in a processing target image by the object tracking method according to claim 1.
JP2008291488A 2008-11-13 2008-11-13 Object tracking method and image processing apparatus Active JP5253101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008291488A JP5253101B2 (en) 2008-11-13 2008-11-13 Object tracking method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008291488A JP5253101B2 (en) 2008-11-13 2008-11-13 Object tracking method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2010117946A true JP2010117946A (en) 2010-05-27
JP5253101B2 JP5253101B2 (en) 2013-07-31

Family

ID=42305578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008291488A Active JP5253101B2 (en) 2008-11-13 2008-11-13 Object tracking method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5253101B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140042521A (en) * 2012-09-28 2014-04-07 삼성전자주식회사 Video segmentation apparatus and control method thereof
KR101913648B1 (en) * 2017-01-23 2018-10-31 광주과학기술원 Method for tracking multiple objects
CN109643452A (en) * 2016-08-12 2019-04-16 高通股份有限公司 The method and system of lost objects tracker is maintained in video analysis
JP2023514121A (en) * 2020-02-03 2023-04-05 グーグル エルエルシー Spatial audio enhancement based on video information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027480A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Dynamic image processing method and apparatus thereof
JP2005149509A (en) * 2003-11-17 2005-06-09 Samsung Electronics Co Ltd Landmark detection apparatus, landmark detection method, and computer-readable recording medium with landmark detection program recorded
JP2007272436A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Object tracking device, abnormal state detector and object tracking method
JP2008211506A (en) * 2007-02-26 2008-09-11 Casio Comput Co Ltd Image processing apparatus, imaging apparatus and its program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027480A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Dynamic image processing method and apparatus thereof
JP2005149509A (en) * 2003-11-17 2005-06-09 Samsung Electronics Co Ltd Landmark detection apparatus, landmark detection method, and computer-readable recording medium with landmark detection program recorded
JP2007272436A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Object tracking device, abnormal state detector and object tracking method
JP2008211506A (en) * 2007-02-26 2008-09-11 Casio Comput Co Ltd Image processing apparatus, imaging apparatus and its program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140042521A (en) * 2012-09-28 2014-04-07 삼성전자주식회사 Video segmentation apparatus and control method thereof
KR102032173B1 (en) 2012-09-28 2019-10-15 삼성전자주식회사 Video segmentation apparatus and control method thereof
CN109643452A (en) * 2016-08-12 2019-04-16 高通股份有限公司 The method and system of lost objects tracker is maintained in video analysis
US10360456B2 (en) 2016-08-12 2019-07-23 Qualcomm Incorporated Methods and systems of maintaining lost object trackers in video analytics
KR101913648B1 (en) * 2017-01-23 2018-10-31 광주과학기술원 Method for tracking multiple objects
JP2023514121A (en) * 2020-02-03 2023-04-05 グーグル エルエルシー Spatial audio enhancement based on video information
JP7464730B2 (en) 2020-02-03 2024-04-09 グーグル エルエルシー Spatial Audio Enhancement Based on Video Information

Also Published As

Publication number Publication date
JP5253101B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
KR101064573B1 (en) System for tracking a moving object, by using particle filtering
JP4541316B2 (en) Video surveillance search system
Senior et al. Appearance models for occlusion handling
US8837781B2 (en) Video object fragmentation detection and management
JP6904346B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
JP4971191B2 (en) Identification of spurious areas in video frames
WO2016147644A1 (en) Image processing apparatus, image processing system, method for image processing, and computer program
JP5253102B2 (en) Object discrimination method and object discrimination device
JP4874150B2 (en) Moving object tracking device
CN106663325B (en) Image processing apparatus and image processing method thereof
JP5496566B2 (en) Suspicious behavior detection method and suspicious behavior detection device
US10762372B2 (en) Image processing apparatus and control method therefor
JP2011076255A (en) Gesture recognizing device, gesture recognizing method and gesture recognizing program
JP4969291B2 (en) Moving object tracking device
JP5358851B2 (en) Suspicious behavior detection method and suspicious behavior detection device
CN113065397B (en) Pedestrian detection method and device
JP5253101B2 (en) Object tracking method and image processing apparatus
US20170053172A1 (en) Image processing apparatus, and image processing method
US20150023554A1 (en) Image processing apparatus, computer-readable medium storing an image processing program, and image processing method
JPH10255057A (en) Mobile object extracting device
JP2014110020A (en) Image processor, image processing method and image processing program
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP4787424B2 (en) Video object detection and tracking device
JP2017041869A (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5253101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250