JP2012108798A - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP2012108798A
JP2012108798A JP2010258213A JP2010258213A JP2012108798A JP 2012108798 A JP2012108798 A JP 2012108798A JP 2010258213 A JP2010258213 A JP 2010258213A JP 2010258213 A JP2010258213 A JP 2010258213A JP 2012108798 A JP2012108798 A JP 2012108798A
Authority
JP
Japan
Prior art keywords
moving object
predicted position
predicted
unit
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010258213A
Other languages
Japanese (ja)
Other versions
JP5687035B2 (en
Inventor
Masahiro Maeda
昌宏 前田
Yuji Nakazawa
裕二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010258213A priority Critical patent/JP5687035B2/en
Publication of JP2012108798A publication Critical patent/JP2012108798A/en
Application granted granted Critical
Publication of JP5687035B2 publication Critical patent/JP5687035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, in a device for tracking a moving object in a monitoring space based on plural prediction positions generated at each time, tracking accuracy is deteriorated when a prediction position of the moving object at the current time is set in an obstacle area in the monitoring space.SOLUTION: A prediction position setting unit performs motion prediction using past position information stored in a storage unit to calculate plural prediction positions of a moving object at the current time. At that time, a prediction position correction unit 53 corrects, among the plural prediction positions, a prediction position 221 with an obstacle area 42a existing between the prediction position 221 and a prediction position 220 preceding one time being their movement source to a prediction position 241 being a position nearer to the movement source position than the obstacle area 42a. An object position calculation unit 56 determines a movement destination position of the moving object at the current time based on an image feature of the moving object which each of the plural prediction positions including the corrected prediction position has.

Description

本発明は、空間内を移動する物体を追跡する移動物体追跡装置に関し、特に、空間を撮像した画像を用いて追跡処理を行う移動物体追跡装置に関する。   The present invention relates to a moving object tracking apparatus that tracks an object moving in a space, and more particularly to a moving object tracking apparatus that performs tracking processing using an image obtained by imaging a space.

監視等の目的で、監視空間を撮像した監視画像を用いて人物等の位置を追跡することが行われている。追跡に際しては、追跡対象物の過去の動きからその現時刻における予測位置を求め、監視画像において予測位置と対応する部分が追跡対象物の画像特徴を有しているかを評価して現時刻における追跡対象物の位置を特定する方法が採られることがあり、そのような方法の一つにパーティクルフィルタが挙げられる(特許文献1)。   For the purpose of monitoring or the like, the position of a person or the like is tracked using a monitoring image obtained by imaging a monitoring space. At the time of tracking, the predicted position at the current time is obtained from the past movement of the tracked object, and whether the part corresponding to the predicted position in the monitoring image has the image feature of the tracked object is evaluated to track at the current time. A method for specifying the position of an object is sometimes used, and one of such methods is a particle filter (Patent Document 1).

パーティクルフィルタでは、各追跡対象物に対して多数の予測位置を設定することで予測のずれを補えるため精度の高い追跡が可能である。   Since the particle filter can compensate for the misalignment of prediction by setting a large number of predicted positions for each tracking target, it is possible to track with high accuracy.

特開2010−49296号公報JP 2010-49296 A

監視空間内には壁や什器などの物体が追跡対象物である人の進行を妨げる障害物として存在し得る。従来技術では、追跡対象物の空間内での進行を妨げる障害物の中又は障害物を跨いだ位置に予測位置が設定されて当該予測位置も追跡処理にて評価されることがあるという問題があった。つまり、実際には追跡対象物が障害物に進入したり通過したりすることはないため、これらの予測位置に対する評価は無効である。これら無効な予測位置は無駄な処理を発生させるばかりでなく、有効な予測位置が減少するため予測のずれを補う効果が稀釈されてしまい、追跡精度劣化の原因にもなるという問題があった。また、監視空間には、障害物以外にも堀などの人の行く手を阻む領域が存在し、そのような領域へは基本的には立ち入ることが困難である。よって、このような領域も障害物と同様の上記問題を生じ得る。以下、障害物を含め進行が阻害される空間領域を障害領域と称する。   In the surveillance space, objects such as walls and furniture may exist as obstacles that obstruct the progress of the person who is the tracking target. In the prior art, there is a problem in that a predicted position is set at a position in or across an obstacle that prevents the tracking object from proceeding in the space, and the predicted position may be evaluated in the tracking process. there were. That is, since the tracking object does not actually enter or pass through the obstacle, the evaluation with respect to these predicted positions is invalid. These invalid prediction positions not only cause unnecessary processing, but also reduce the effective prediction positions, so that the effect of compensating for the misalignment of the prediction is diluted, which causes a deterioration in tracking accuracy. In addition to the obstacles, there are areas in the monitoring space that block people from reaching, such as moats, and it is basically difficult to enter such areas. Therefore, such a region can cause the same problem as the obstacle. Hereinafter, a spatial region in which the progress is inhibited including an obstacle is referred to as an obstacle region.

本発明は上記課題を鑑みてなされたものであり、空間内に存在する障害領域周辺においても移動物体の高精度な追跡を実現することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to realize highly accurate tracking of a moving object even in the vicinity of an obstacle area existing in a space.

本発明に係る移動物体追跡装置は、所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する物体を追跡するものであって、前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記物体の過去位置の情報を記憶する記憶部と、前記過去位置を用いて前記物体の動き予測を行い、前記注目時刻における当該物体の移動先候補を複数予測する位置予測部と、前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記物体の画像特徴に基づいて前記注目時刻における当該物体の移動先を判定する物体位置判定部と、を有し、前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備える。   The moving object tracking device according to the present invention uses a time-series image obtained by photographing a predetermined space to track an object moving in the space, and obstructs the movement in the space. Is stored in advance, the storage unit that stores information on the past position of the object in the past from the attention time, and the motion prediction of the object is performed using the past position, and the movement destination candidate of the object at the attention time is determined. A plurality of position predicting units for predicting and an object position determining unit that determines a moving destination of the object at the attention time based on an image feature of the object included in a corresponding portion of the movement destination candidate in the image at the attention time. And the position predicting unit determines an invalid destination candidate in which the failure area exists between the movement destination candidates and the past position that is the movement source, rather than the failure area. Comprising a correction unit for correcting the Domoto the side position.

他の本発明に係る移動物体追跡装置においては、前記修正部は、前記移動元から前記無効な移動先候補への経路をその経路長を維持したままで変形し、当該無効な移動先候補を前記変形後の経路の終点に修正する。   In the moving object tracking device according to another aspect of the present invention, the correcting unit transforms a route from the moving source to the invalid moving destination candidate while maintaining its route length, and converts the invalid moving destination candidate. It is corrected to the end point of the route after the deformation.

本発明の好適な態様は、前記修正部が、前記無効な移動先候補への経路が前記障害領域に達した点にて当該経路の方向を変化させることにより前記変形を行う移動物体追跡装置である。   A preferred aspect of the present invention is the moving object tracking device in which the correction unit performs the deformation by changing the direction of the route at the point where the route to the invalid destination candidate reaches the obstacle area. is there.

本発明の他の好適な態様は、前記修正部が、前記無効な移動先候補への経路の方向を前記移動元にて変化させることにより前記変形を行う移動物体追跡装置である。   Another preferable aspect of the present invention is the moving object tracking device in which the correction unit performs the deformation by changing a direction of a route to the invalid movement destination candidate at the movement source.

別の本発明に係る移動物体追跡装置においては、前記修正部は、前記障害領域における前記移動元側の境界線上で前記無効な移動先候補から最短距離にある直近点を算出し、当該無効な移動先候補を前記直近点から所定距離内の位置に修正する。   In the moving object tracking device according to another aspect of the invention, the correction unit calculates the nearest point that is the shortest distance from the invalid destination candidate on the boundary of the source in the obstacle area, and The destination candidate is corrected to a position within a predetermined distance from the nearest point.

本発明によれば、障害領域内又は障害領域を越えた領域に設定される予測位置が排除されると共に、これらの予測位置を障害領域の手前に修正することにより有効な予測位置の数を維持・確保できるので、障害領域周辺においても移動物体の高精度な追跡が可能となる。   According to the present invention, the predicted positions set in the area within or beyond the failure area are excluded, and the number of effective predicted positions is maintained by correcting these predicted positions before the failure area. -Since it can be secured, it is possible to track a moving object with high accuracy even around the obstacle area.

本発明の実施形態に係る移動物体追跡装置のブロック構成図である。It is a block block diagram of the moving object tracking apparatus which concerns on embodiment of this invention. 三次元モデルの一例を模式的に示す斜視図である。It is a perspective view which shows an example of a three-dimensional model typically. 図2の三次元モデルに対応して作成された障害物マップの模式図である。It is a schematic diagram of the obstacle map created corresponding to the three-dimensional model of FIG. 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。It is a general | schematic flowchart of the tracking process of the moving object tracking apparatus which concerns on embodiment of this invention. 予測位置設定部により時刻ごとに設定される予測位置の一例を示す模式的な平面図である。It is a typical top view which shows an example of the prediction position set for every time by the prediction position setting part. 修正処理の第1の形態に関する処理例を説明する模式的な平面図である。It is a typical top view explaining the example of processing about the 1st form of correction processing. 修正処理の第2の形態に関する処理例を説明する模式的な平面図である。It is a typical top view explaining the example of processing about the 2nd form of correction processing. 修正処理の第3の形態に関する処理例を説明する模式的な平面図である。It is a typical top view explaining the example of a process regarding the 3rd form of correction processing. 修正処理の第4〜第6の形態における物体位置及び現時刻の予測位置の一例を示す模式的な平面図である。It is a typical top view which shows an example of the object position in the 4th-6th form of a correction process, and the predicted position of the present time. 修正処理の第4〜第6の形態に関する処理例を説明する模式的な平面図である。It is a typical top view explaining the process example regarding the 4th-6th form of a correction process.

以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋を監視対象の空間とし、当該監視空間内を移動する人物を追跡対象物(以下、移動物体と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して移動物体の追跡を行う。ここで、監視空間において什器が設置された領域は移動物体の進行を妨げる障害領域である。障害領域の他の例としては壁や柱や給湯器などがある。障害領域は移動せず予めその位置が判っている。なお、監視空間は屋内に限定されず屋外であってもよい。屋外の場合、家屋、塀、各種エクステリアの他、池や堀等が障害領域となる。本移動物体追跡装置1は障害領域の存在に配慮して追跡処理を行うように構成され、追跡の精度向上を図っている。   Hereinafter, a moving object tracking device 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The moving object tracking device 1 sets a room in which furniture is placed as a monitoring target space, and sets a person moving in the monitoring space as a tracking target (hereinafter referred to as a moving object). The moving object tracking device 1 processes a monitoring image obtained by imaging a monitoring space to track a moving object. Here, the area where the fixture is installed in the monitoring space is an obstacle area that hinders the movement of the moving object. Other examples of obstacle areas include walls, pillars and water heaters. The position of the obstacle area is known in advance without moving. The monitoring space is not limited to indoors but may be outdoor. In the case of outdoors, ponds, moats, etc., as well as houses, fences and various exteriors are obstacle areas. The moving object tracking device 1 is configured to perform tracking processing in consideration of the presence of an obstacle region, and improves tracking accuracy.

[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
[Configuration of moving object tracking device]
FIG. 1 is a block diagram of a moving object tracking device 1 according to the embodiment. The moving object tracking device 1 includes an imaging unit 2, a setting input unit 3, a storage unit 4, a control unit 5, and an output unit 6. The imaging unit 2, the setting input unit 3, the storage unit 4, and the output unit 6 are connected to the control unit 5.

撮像部2は監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。   The imaging unit 2 is a monitoring camera, is installed so as to face the monitoring space, and images the monitoring space at a predetermined time interval. The captured monitoring images of the monitoring space are sequentially output to the control unit 5. In order to grasp the position and movement of a person who moves along a reference plane such as the floor surface or the ground surface, the imaging unit 2 is basically installed at a height that allows a bird's-eye photography, for example, in this embodiment, The moving object tracking device 1 is used for indoor monitoring, and the imaging unit 2 is installed on the ceiling. The time interval at which the monitoring image is captured is 1/5 second, for example. Hereinafter, the unit of time recorded at the time interval of imaging is referred to as time.

設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。   The setting input unit 3 is an input means for the administrator to perform various settings for the control unit 5, and is a user interface device such as a touch panel display, for example.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、カメラパラメータ41、障害物マップ42、予測位置43及び物体位置44が含まれる。   The storage unit 4 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 4 stores various programs and various data, and inputs / outputs such information to / from the control unit 5. The various data includes a three-dimensional model 40, a camera parameter 41, an obstacle map 42, a predicted position 43, and an object position 44.

三次元モデル40は、監視空間を模した仮想空間に移動物体の立体形状を近似した移動物体モデル及び/又は障害物の立体形状を近似した障害物モデルを配置した状態を記述したデータである。障害物は障害領域を形成する物体や地形である。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での障害物モデルの配置は監視空間内での実際の障害物の配置に合わせる。一方、移動物体モデルの配置は任意位置に設定することができる。   The three-dimensional model 40 is data describing a state in which a moving object model that approximates the three-dimensional shape of a moving object and / or an obstacle model that approximates the three-dimensional shape of an obstacle is arranged in a virtual space that simulates a monitoring space. An obstacle is an object or terrain that forms an obstacle area. In the present embodiment, the monitoring space and the virtual space are represented by a right-handed orthogonal coordinate system including the X, Y, and Z axes, and the vertically upward direction is set to the positive direction of the Z axis. A reference surface such as a floor surface is horizontal and is defined by an XY plane represented by Z = 0. The arrangement of the obstacle model in the virtual space is matched with the actual arrangement of the obstacle in the monitoring space. On the other hand, the arrangement of the moving object model can be set at an arbitrary position.

移動物体モデルは、例えば、移動物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする移動物体は立位の人であり、本実施形態では、例えば、人の頭部、胴部、脚部の3部分の立体形状を近似する回転楕円体をZ軸方向に積み重ねた移動物体モデルを設定する。基準面から頭部中心までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは標準的な人物サイズとし任意の移動物体に共通とする。また、頭部中心を移動物体の代表位置とする。なお、移動物体モデルはより単純化して1つの回転楕円体で近似してもよい。   The moving object model is, for example, data describing a partial model representing a three-dimensional shape for each of a plurality of constituent parts constituting the moving object, and an arrangement relationship between the partial models. The moving object to be monitored by the moving object tracking device 1 is a standing person. In this embodiment, for example, a spheroid approximating the three-dimensional shape of the three parts of the person's head, torso, and leg is used. A moving object model stacked in the Z-axis direction is set. The height from the reference plane to the center of the head is represented by H, and the maximum width of the trunk (the trunk minor axis diameter) is represented by W. In this embodiment, in order to simplify the description, the height H and the width W are standard human sizes and are common to any moving object. The center of the head is set as the representative position of the moving object. Note that the moving object model may be further simplified and approximated by one spheroid.

障害物モデルは、移動物体の検出・追跡処理に先だって予め障害物毎に設定される。障害物モデルは、監視空間に実在する障害物の形状・寸法のデータ、及び監視空間での障害物の配置のデータを含む。障害物の形状・寸法は監視空間に置かれる障害物を実測して取得することができるほか、例えば什器メーカー等が提供する製品の三次元データを利用することもできる。障害物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた障害物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に障害物モデルを格納する。   The obstacle model is set for each obstacle in advance prior to the detection / tracking process of the moving object. The obstacle model includes data on the shape and dimensions of obstacles actually existing in the monitoring space, and data on the arrangement of obstacles in the monitoring space. The shape and dimensions of the obstacle can be obtained by actually measuring the obstacle placed in the monitoring space, and for example, three-dimensional data of a product provided by a fixture manufacturer or the like can be used. The arrangement of the obstacle can be obtained by actual measurement. For example, when designing the furniture layout of the room on the computer, the design data can be used. Data on the obstacle thus obtained is input to the control unit 5 from the setting input unit 3 or a connection interface (not shown) with an external device, and the control unit 5 stores the storage unit 4 based on the input data. The obstacle model is stored in.

カメラパラメータ41は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ41を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。   The camera parameter 41 includes information regarding a projection condition when the imaging unit 2 captures a monitoring image that projects the monitoring space. For example, external parameters such as the installation position and imaging direction of the imaging unit 2 in the actual monitoring space, focal length, angle of view, lens distortion, and other lens characteristics of the imaging unit 2, and internal parameters such as the number of pixels of the imaging element are included. These parameters obtained by actual measurement or the like are input in advance from the setting input unit 3 and stored in the storage unit 4. The three-dimensional model 40 can be projected onto the coordinate system of the monitoring image (imaging surface of the imaging unit 2; xy coordinate system) by a coordinate transformation formula in which the camera parameter 41 is applied to a camera model such as a known pinhole camera model.

障害物マップ42(障害領域)は、監視空間内にて障害物が存在する領域を特定する情報である。移動物体は監視空間内にて基本的にはXY平面に沿った水平移動をする。そこで本実施形態では上述のように、移動物体モデルの下端が基準面(Z=0)に接地するという拘束条件を課している。これに対応して、障害物マップ42は障害領域を基準面のXY座標系、つまり監視空間の床面座標で表す。ここで、障害物マップ42は障害物モデルそのもの、つまり障害物の存在範囲を監視空間内の三次元座標で特定する構成とすることもできるが、本実施形態では処理を高速化するために上述のように、障害領域を監視空間の水平面座標(XY座標系)で表し、この2次元で表された障害領域を障害物マップと称する。障害物マップ42のデータ形式は基準面(Z=0)に対応するディジタル画像データであり、監視空間を真上から見た画像に相当する。その各画素は基準面上の位置を量子化したものに相当し、基準面のX軸方向を例えばN画素、またY軸方向をM画素に量子化したN×M画素からなる画像データを構成する。各画素の画素値は、当該画素が障害物の存在する位置であるか否かを表す。本実施形態では、画素値が“1”である画素は障害物の存在位置であり、一方、画素値が“0”であれば、障害物が存在しない位置であると定義する。   The obstacle map 42 (obstacle area) is information for specifying an area where an obstacle exists in the monitoring space. The moving object basically moves horizontally along the XY plane in the monitoring space. Therefore, in the present embodiment, as described above, the constraint condition that the lower end of the moving object model is in contact with the reference plane (Z = 0) is imposed. Correspondingly, the obstacle map 42 represents the obstacle area in the XY coordinate system of the reference plane, that is, the floor plane coordinates of the monitoring space. Here, the obstacle map 42 may be configured to specify the obstacle model itself, that is, the existence range of the obstacle with the three-dimensional coordinates in the monitoring space. As described above, the obstacle area is represented by the horizontal coordinate (XY coordinate system) of the monitoring space, and the obstacle area represented in two dimensions is referred to as an obstacle map. The data format of the obstacle map 42 is digital image data corresponding to the reference plane (Z = 0), and corresponds to an image when the monitoring space is viewed from directly above. Each pixel corresponds to a quantized position on the reference plane, and constitutes image data composed of N × M pixels quantized with, for example, N pixels in the X-axis direction of the reference plane and M pixels in the Y-axis direction. To do. The pixel value of each pixel represents whether or not the pixel is a position where an obstacle exists. In this embodiment, a pixel with a pixel value “1” is an obstacle location, while a pixel value “0” is defined as a location where no obstacle exists.

予測位置43(仮説)は、各時刻における移動物体の位置の予測値(予測位置)に関する情報である。確率的に移動物体の位置(物体位置)を判定するために予測位置は移動物体ごとに多数(その個数をPで表す。例えば1移動物体あたり200個)設定される。具体的には、予測位置43は、移動物体の識別子と、各時刻における予測位置のインデックス(0〜P−1)及びその位置座標(XYZ座標系)とを対応付けた時系列データである。   The predicted position 43 (hypothesis) is information regarding the predicted value (predicted position) of the position of the moving object at each time. In order to determine the position (object position) of a moving object stochastically, a large number of predicted positions are set for each moving object (the number is represented by P. For example, 200 per moving object). Specifically, the predicted position 43 is time-series data in which the identifier of the moving object is associated with the predicted position index (0 to P-1) and the position coordinates (XYZ coordinate system) at each time.

物体位置44は各時刻における移動物体の位置に関する情報であり、具体的には、移動物体の識別子と位置座標(XYZ座標系)とを対応付けた時系列データである。   The object position 44 is information regarding the position of the moving object at each time, and specifically is time-series data in which the identifier of the moving object is associated with the position coordinates (XYZ coordinate system).

なお、予測位置43、物体位置44を監視空間の水平面座標(XY座標系)で特定する構成として処理を高速化することができる。本実施形態では、理解を容易にするために当該構成を例に説明する。   Note that the processing can be speeded up as a configuration in which the predicted position 43 and the object position 44 are specified by the horizontal coordinate (XY coordinate system) of the monitoring space. In the present embodiment, the configuration will be described as an example for easy understanding.

制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、障害物マップ作成部50、変化画素抽出部51、予測位置設定部52、予測位置修正部53、物体領域推定部54、尤度算出部55、物体位置算出部56、異常判定部57として機能する。   The control unit 5 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads out and executes a program from the storage unit 4 to create an obstacle map. Functions as a unit 50, a changed pixel extraction unit 51, a predicted position setting unit 52, a predicted position correction unit 53, an object region estimation unit 54, a likelihood calculation unit 55, an object position calculation unit 56, and an abnormality determination unit 57.

障害物マップ作成部50は三次元モデル40における全障害物モデルを監視空間の水平面に投影して障害領域を算出し、障害物マップ42を作成して記憶部4に記憶させる。例えば、投影する水平面として床面や地面等の基準面(Z=0)を設定することができる。   The obstacle map creation unit 50 projects all obstacle models in the three-dimensional model 40 onto the horizontal plane of the monitoring space, calculates an obstacle region, creates an obstacle map 42, and stores it in the storage unit 4. For example, a reference surface (Z = 0) such as a floor surface or the ground can be set as a horizontal plane to be projected.

変化画素抽出部51は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出部55へ出力する。そのために変化画素抽出部51は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。なお、差分処理に代えて新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。   The change pixel extraction unit 51 extracts a change pixel from the monitoring image newly input from the imaging unit 2, and outputs information about the extracted change pixel to the likelihood calculation unit 55. Therefore, the change pixel extraction unit 51 performs a difference process between the newly input monitoring image and the background image, and extracts a pixel whose difference is equal to or greater than a preset difference threshold as a change pixel. Note that the changed pixels may be extracted by a correlation process between the newly input monitoring image and the background image instead of the difference process, or the background model is learned instead of the background image and the difference process with the background model is performed. The change pixel may be extracted by.

予測位置設定部52(仮説設定部)及び予測位置修正部53は、移動物体の過去の位置情報(物体位置又は予測位置)を用いて当該移動物体の動き予測を行い、移動物体の現時刻における移動先候補位置である複数の予測位置を求める位置予測部として機能する。   The predicted position setting unit 52 (hypothesis setting unit) and the predicted position correcting unit 53 perform motion prediction of the moving object using past position information (object position or predicted position) of the moving object, and at the current time of the moving object. It functions as a position prediction unit that obtains a plurality of predicted positions that are candidate movement destination positions.

まず、予測位置設定部52は、過去に判定された各移動物体の物体位置又は過去に設定された各移動物体の予測位置から動き予測を行なって、新たに監視画像が入力された時刻において移動物体が存在する位置を予測し、予測された位置(予測位置)を物体領域推定部54、尤度算出部55及び物体位置算出部56へ出力する。上述したように予測位置は各移動物体に対してP個設定される。このように多数の予測位置を順次設定して確率的に移動物体の位置(物体位置)を判定する方法はパーティクルフィルタなどと呼ばれ、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の位置データに所定の運動モデルを適用するか、又は所定の予測フィルタを適用することで行なわれる。   First, the predicted position setting unit 52 performs motion prediction from the object position of each moving object determined in the past or the predicted position of each moving object set in the past, and moves at the time when a new monitoring image is input. The position where the object exists is predicted, and the predicted position (predicted position) is output to the object region estimation unit 54, the likelihood calculation unit 55, and the object position calculation unit 56. As described above, P predicted positions are set for each moving object. A method of determining a position (object position) of a moving object in a probabilistic manner by sequentially setting a large number of predicted positions in this manner is called a particle filter or the like, and the set predicted position is called a hypothesis or the like. The predicted position can be set in the xy coordinate system of the monitoring image, but in the present embodiment, it is set in the XYZ coordinate system of the monitoring space. Motion prediction is performed by applying a predetermined motion model or applying a predetermined prediction filter to past position data.

本実施形態では、注目時刻より前のT時刻分(例えばT=5)の予測位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の予測位置に加算して注目時刻における新たな予測位置を予測する。予測はP個の予測位置それぞれに対し行ない、新たな予測位置とその元となった過去の予測位置には同一の識別子を付与して循環記憶する。なお、1時刻前の予測位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな予測位置を1時刻前の予測された物体位置を中心とする所定範囲(例えば半径rの円内)にランダムに設定し、これらの予測位置と対応する2時刻前以前の予測位置を過去の物体位置の運動に合わせて外挿し求める。そのために過去の予測位置に加えて、過去T時刻分の物体位置も記憶部4に循環記憶させる。   In the present embodiment, the average speed vector is calculated from the predicted positions for T times (for example, T = 5) before the attention time. This average speed vector is added to the predicted position one time ago to predict a new predicted position at the time of interest. Prediction is performed for each of the P predicted positions, and the same identifier is assigned to the new predicted position and the previous predicted position that is the basis of the new predicted position, and is circularly stored. In addition, the prediction position whose likelihood is lower than a preset likelihood threshold value is deleted from the predicted position one hour ago. On the other hand, in order to compensate for this deletion, a new predicted position one hour before the same number as the deleted number is randomly selected within a predetermined range (for example, within a circle with a radius r) centered on the predicted object position one hour before. And the predicted positions two hours before before corresponding to these predicted positions are extrapolated in accordance with the motion of the past object position. Therefore, in addition to the past predicted position, the object position for the past T time is also circulated and stored in the storage unit 4.

なお、新規の移動物体が検出された場合は、予測位置設定部52はその検出位置を中心とする所定範囲にランダムにP個の予測位置を設定する。   When a new moving object is detected, the predicted position setting unit 52 randomly sets P predicted positions within a predetermined range centered on the detected position.

予測位置修正部53は、予測位置設定部52により新たに設定された予測位置(移動先候補位置)と当該予測位置に対応する前時刻における予測位置(移動元位置)との間に障害領域が存在する場合に、移動先候補位置を移動元位置から見て当該障害領域より手前の位置に修正する。この修正により、障害領域に設定された無効な予測位置及び障害領域を跨いで設定された無効な予測位置は排除され、これらに代えて障害領域手前に有効な予測位置が設定される。   The predicted position correcting unit 53 has a failure region between the predicted position (movement destination candidate position) newly set by the predicted position setting unit 52 and the predicted position (movement source position) at the previous time corresponding to the predicted position. If it exists, the movement destination candidate position is corrected to a position before the obstacle area when viewed from the movement source position. By this correction, the invalid prediction position set in the failure area and the invalid prediction position set across the failure area are excluded, and instead, the effective prediction position is set in front of the failure area.

物体領域推定部54は予測位置ごとに、監視空間内の当該予測位置に移動物体モデルを仮想的に配置した三次元モデル40を生成する。そして、カメラパラメータ41を用いて当該三次元モデル40を撮像部2の撮像面に対応して仮想的に設定される投影面に投影して、監視画像にて移動物体が撮像されている領域(物体領域)を推定し、推定結果を尤度算出部55へ出力する。物体領域推定部54は投影の際に、三次元モデル40にてカメラから見て移動物体モデルより手前に存在する障害物モデル又は他の移動物体モデルが物体領域の推定対象の移動物体モデルを隠蔽する効果をシミュレートし、移動物体の物体領域として隠蔽されていない部分(非隠蔽領域)を求める。   For each predicted position, the object region estimation unit 54 generates a three-dimensional model 40 in which a moving object model is virtually arranged at the predicted position in the monitoring space. Then, the camera parameter 41 is used to project the 3D model 40 onto a projection plane that is virtually set corresponding to the imaging surface of the imaging unit 2, and an area where the moving object is imaged in the monitoring image ( (Object region) is estimated, and the estimation result is output to the likelihood calculating section 55. The object region estimation unit 54 hides the moving object model whose object region is to be estimated by an obstacle model or other moving object model existing in front of the moving object model as viewed from the camera in the three-dimensional model 40 during projection. The non-hidden part (non-hidden area) is obtained as the object area of the moving object.

尤度算出部55は、各予測位置に対して推定された物体領域における移動物体の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該予測位置の物体位置としての尤度を算出して物体位置算出部56へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
(1)変化画素抽出部51により抽出された変化画素に物体領域を重ね合わせ、変化画素が物体領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に移動物体が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度の高さに応じた尤度を算出する。
(2)監視画像における物体領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に移動物体が存在する位置に近いほど、物体領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は高くなり、一方、遠ざかるほど抽出度は低くなりやすい。そこで、エッジの抽出度の高さに応じた尤度を算出する。
(3)各移動物体の過去の物体位置において監視画像から抽出された特徴量を当該移動物体の参照情報として記憶部4に記憶する。予測位置が現に移動物体が存在する位置に近いほど背景や他の移動物体の特徴量が混入しなくなるため、物体領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から物体領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
The likelihood calculating unit 55 extracts the feature amount of the moving object in the object region estimated for each predicted position from the monitoring image, and the likelihood as the object position of the predicted position according to the degree of feature amount extraction. Is output to the object position calculation unit 56. The following (1) to (4) are examples of likelihood calculation methods.
(1) The object region is superimposed on the change pixel extracted by the change pixel extraction unit 51, and the ratio (inclusion degree) in which the change pixel is included in the object region is obtained. Inclusion degree increases as the predicted position is closer to the position where the moving object actually exists, and tends to decrease as the distance increases. Therefore, the likelihood corresponding to the high degree of inclusion is calculated.
(2) Extract an edge from a portion corresponding to the contour of the object region in the monitoring image. The closer the predicted position is to the position where the moving object actually exists, the more the contour of the object area matches the edge position, so the degree of edge extraction (for example, the sum of the extracted edge strengths) increases, while the degree of extraction increases as the distance increases. Tends to be low. Therefore, the likelihood corresponding to the degree of edge extraction is calculated.
(3) The feature amount extracted from the monitoring image at the past object position of each moving object is stored in the storage unit 4 as reference information of the moving object. As the predicted position is closer to the position where the moving object actually exists, the feature quantity of the background and other moving objects will not be mixed, so the similarity between the feature quantity extracted from the object area and the reference information will be higher, but away from it The degree of similarity tends to be low. Therefore, the feature amount in the object region is extracted from the monitoring image, and the similarity between the extracted feature amount and the reference information is calculated as the likelihood. As the feature amount here, for example, various image feature amounts such as an edge distribution, a color histogram, or both of them can be used.
(4) The likelihood may be calculated according to a weighted addition value of a plurality of degrees of the above-described inclusion degree, edge extraction degree, and similarity degree.

ここで物体領域推定部54にて非隠蔽領域を物体領域として推定し尤度算出に利用することで、各対象物の隠蔽状態に適合した尤度を算出でき、追跡の信頼性向上が図られる。   Here, the object region estimation unit 54 estimates a non-concealed region as an object region and uses it for likelihood calculation, whereby the likelihood suitable for the concealment state of each target can be calculated, and the tracking reliability can be improved. .

物体位置算出部56は、移動物体の各予測位置、及び当該予測位置ごとに算出された尤度から当該移動物体の位置(物体位置)を判定し、判定結果を記憶部4に移動物体ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)移動物体ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該移動物体の物体位置とする。
(2)移動物体ごとに、最大の尤度が算出された予測位置を求め、これを物体位置とする。
(3)移動物体ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
The object position calculation unit 56 determines the position (object position) of the moving object from each predicted position of the moving object and the likelihood calculated for each predicted position, and the determination result is stored in the storage unit 4 for each moving object. Accumulate in time series. When all the likelihoods are less than a predetermined lower limit (likelihood lower limit), it is determined that there is no object position, that is, disappeared. The following (1) to (3) are examples of the object position calculation method.
(1) For each moving object, a weighted average value of predicted positions weighted by likelihood is calculated, and this is set as the object position of the moving object.
(2) For each moving object, a predicted position where the maximum likelihood is calculated is obtained and set as the object position.
(3) For each moving object, an average value of predicted positions at which likelihoods equal to or higher than a preset likelihood threshold value are calculated is set as the object position. Here, the likelihood threshold> the likelihood lower limit value.

上記尤度算出部55及び物体位置算出部56は、画像が各移動先候補位置にて有する移動物体の画像特徴に基づき、当該移動物体の現時刻における移動先位置を判定するという物体位置判定部としての機能を有する。   The likelihood calculating unit 55 and the object position calculating unit 56 determine the destination position of the moving object at the current time based on the image feature of the moving object that the image has at each destination candidate position. As a function.

異常判定部57は、記憶部4に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。   The abnormality determination unit 57 refers to the time-series object positions accumulated in the storage unit 4, determines that a suspicious movement that stays for a long time or a suspicious movement that deviates from the normal flow line is abnormal, and determines the abnormality. And output an abnormal signal to the output unit 6.

出力部6は警告音を出力するスピーカー又はブザー等の音響出力手段、異常が判定された監視画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなり、異常判定部57から異常信号が入力されると異常発生の旨を外部へ出力する。また、出力部6は通信回線を介して異常信号を警備会社の監視センタに設置されたセンタ装置へ送信する通信手段を含んでもよい。   The output unit 6 includes a sound output unit such as a speaker or a buzzer that outputs a warning sound, a display unit such as a liquid crystal display or a CRT that displays a monitoring image determined to be abnormal, and an abnormality signal is output from the abnormality determination unit 57. When input, the fact that an error has occurred is output to the outside. The output unit 6 may include a communication unit that transmits an abnormal signal to a center device installed in a monitoring center of a security company via a communication line.

[移動物体追跡装置の動作、及び修正処理の第1の形態]
次に、移動物体追跡装置1の追跡動作を説明する。追跡処理に先立ち、事前処理として設定入力部3からカメラパラメータ41及び障害物モデルの各種データが入力されて記憶部4に記憶され、障害物マップ作成部50はこれらのデータを用いて障害物マップ42を作成する。
[Operation of Moving Object Tracking Device and First Form of Correction Process]
Next, the tracking operation of the moving object tracking device 1 will be described. Prior to the tracking process, the camera parameter 41 and various data of the obstacle model are input from the setting input unit 3 and stored in the storage unit 4 as pre-processing, and the obstacle map creation unit 50 uses these data to check the obstacle map. 42 is created.

図2は、三次元モデル40の一例を模式的に示す斜視図であり、N×M画素の基準面100、カメラ位置101、障害物モデル102及び移動物体モデル103の配置例を示している。   FIG. 2 is a perspective view schematically showing an example of the three-dimensional model 40, and shows an arrangement example of the reference plane 100 of N × M pixels, the camera position 101, the obstacle model 102, and the moving object model 103.

図3は、図2の三次元モデル40に対応して作成された障害物マップ42の模式図である。図2において、白抜き部分は障害領域であり画素値“1”を設定され、斜線部分は障害物が存在しない領域であり、画素値“0”を設定される。   FIG. 3 is a schematic diagram of an obstacle map 42 created corresponding to the three-dimensional model 40 of FIG. In FIG. 2, a white portion is an obstacle region and a pixel value “1” is set, and a shaded portion is a region where no obstacle exists and a pixel value “0” is set.

図4は移動物体追跡装置1の追跡処理の概略のフロー図である。   FIG. 4 is a schematic flowchart of the tracking process of the moving object tracking device 1.

撮像部2は、監視空間を撮像するたびに監視画像を制御部5に入力する(S1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。   The imaging unit 2 inputs a monitoring image to the control unit 5 every time the monitoring space is imaged (S1). Hereinafter, the time when the latest monitoring image is input is called the current time, and the latest monitoring image is called the current image.

現画像は変化画素抽出部51により背景画像と比較され、変化画素抽出部51は変化画素を抽出する(S2)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。   The current image is compared with the background image by the change pixel extraction unit 51, and the change pixel extraction unit 51 extracts the change pixel (S2). Here, the isolated change pixel is excluded from the extraction result as being caused by noise. Immediately after the start of the operation without a background image, the current image is stored in the storage unit 4 as a background image, and there is no change pixel for convenience.

また、予測位置設定部52は追跡中の各移動物体に対して動き予測に基づきP個の予測位置を設定する(S3)。なお、後述するステップS15にて新規出現であると判定された移動物体の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の予測位置を設定する。また、後述するステップS15にて消失と判定された移動物体の予測位置は削除する。   The predicted position setting unit 52 sets P predicted positions based on the motion prediction for each moving object being tracked (S3). In addition, since the predicted position of the moving object determined to be a new appearance in step S15 described later cannot be predicted, P predicted positions are set in a wider range centering on the appearance position. Further, the predicted position of the moving object determined to be lost in step S15 described later is deleted.

図5は、予測位置設定部52により時刻ごとに設定される予測位置の一例を示す模式的な平面図であり、時刻(t−3)から時刻tへ至る予測位置の変化を示している。図5において“○”印は予測位置を、また“△”印は物体位置を表しており、当該“○”、“△”の中心がそれぞれ予測位置、物体位置に対応する。現時刻tより3時刻前の時刻(t−3)にはP個の予測位置200が設定され、これらに基づき物体位置210が判定された。続く時刻(t−2)には予測位置群200に対応するP個の予測位置201が設定され、これらに基づき物体位置211が判定された。同様に時刻(t−1)においてもP個の予測位置202の設定と物体位置212の判定が行なわれ、現時刻tにおいて予測位置群200、予測位置群201、予測位置群202からそれぞれに対応するP個の予測位置203が設定される。   FIG. 5 is a schematic plan view showing an example of a predicted position set for each time by the predicted position setting unit 52, and shows a change in the predicted position from time (t-3) to time t. In FIG. 5, “◯” indicates a predicted position, and “Δ” indicates an object position, and the centers of “◯” and “Δ” correspond to the predicted position and the object position, respectively. P predicted positions 200 were set at a time (t-3) three hours before the current time t, and the object position 210 was determined based on these. At the subsequent time (t−2), P predicted positions 201 corresponding to the predicted position group 200 are set, and the object position 211 is determined based on these. Similarly, at time (t−1), P predicted positions 202 are set and the object position 212 is determined. At the current time t, the predicted position group 200, the predicted position group 201, and the predicted position group 202 correspond to each. P predicted positions 203 to be set are set.

ここで、予測位置群203のうち障害領域42aの手前に設定された予測位置223は移動物体が移動し得る位置であるが、障害領域42a中に設定された予測位置221や障害領域42aを跨いで設定された予測位置222は、移動物体が達し得ない位置であり無効な設定である。多数の予測位置を設定することには予測のずれを補う効果があるが、無効な設定は予測のずれを補う効果を稀釈させ追跡結果の精度を低下させる。移動物体の移動速度が速かったり、監視画像のフレーム周期が長かったりすればこのような精度低下は一層深刻となる。   Here, the predicted position 223 set in front of the failure area 42a in the predicted position group 203 is a position where the moving object can move, but straddles the predicted position 221 and the failure area 42a set in the failure area 42a. The predicted position 222 set in (1) is a position that cannot be reached by a moving object, and is an invalid setting. Setting a large number of prediction positions has an effect of compensating for the misalignment of prediction, but an invalid setting dilutes the effect of compensating for the misalignment of prediction and decreases the accuracy of the tracking result. Such a decrease in accuracy becomes more serious if the moving speed of the moving object is high or the frame period of the monitoring image is long.

制御部5は、ステップS2にて変化画素が抽出されず、かつステップS3にて予測位置が設定されていない(追跡中の移動物体がない)場合(S4にて「YES」の場合)はステップS1に戻り、次の監視画像の入力を待つ。   If the change pixel is not extracted in step S2 and the predicted position is not set in step S3 (there is no moving object being tracked) (if “YES” in S4), the control unit 5 performs step. Returning to S1, the input of the next monitoring image is awaited.

一方、ステップS4にて「NO」の場合は、ステップS5〜S15の処理を行う。制御部5は追跡中の各移動物体を順次、注目物体に設定する(S5)。続いて、制御部5は注目物体の各予測位置を順次、注目位置に設定する(S6)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外し、当該予測位置における物体領域は推定せず、尤度を0に設定する。   On the other hand, if “NO” in the step S4, the processes of the steps S5 to S15 are performed. The control unit 5 sequentially sets each moving object being tracked as a target object (S5). Subsequently, the control unit 5 sequentially sets each predicted position of the target object as the target position (S6). However, the predicted position outside the field of view of the monitoring image is excluded from the target position setting targets, the object region at the predicted position is not estimated, and the likelihood is set to zero.

予測位置修正部53は記憶部4から注目位置に対応する1時刻前の予測位置を読み出して、読み出した予測位置(移動元位置)と注目位置(移動先候補位置)とを結ぶ直線を移動物体の移動経路として算出する(S7)。   The predicted position correcting unit 53 reads the predicted position one hour before corresponding to the target position from the storage unit 4, and moves a straight line connecting the read predicted position (movement source position) and the target position (movement destination candidate position) to the moving object. (S7).

次に、予測位置修正部53は障害物マップ42を参照して当該経路上に障害領域が存在するか否かを判定する(S8)。障害領域があれば(S8にて「YES」の場合)、注目位置を移動元位置側から見て当該障害領域より手前の位置に修正する(S9)。一方、障害領域がなければ(S8にて「NO」の場合)、修正処理S9は実行されない。   Next, the predicted position correction unit 53 refers to the obstacle map 42 and determines whether or not an obstacle area exists on the route (S8). If there is an obstacle area (in the case of “YES” in S8), the attention position is corrected to a position before the obstacle area when viewed from the movement source position side (S9). On the other hand, if there is no failure area (in the case of “NO” in S8), the correction process S9 is not executed.

図6は修正処理S9の例を説明する模式的な平面図であり、図6(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図、また図6(b)は修正による予測位置の空間分布の変化を示す図である。時刻(t−1)の予測位置220は注目位置である予測位置221に対応する前時刻の予測位置である。予測位置修正部53は前時刻の予測位置220とこれに対応して新たに設定された現時刻の予測位置221とを結ぶ直線230を移動経路として算出する。予測位置修正部53は移動経路を表す直線上のいずれの画素が障害物マップ42上で障害領域42aを表す画素値であれば、新たに設定された予測位置を修正対象と判定する。一方、移動経路を表す直線上の画素に障害領域42aを表す画素値を有するものがなければ、新たに設定された予測位置は修正不要と判定される。このように前時刻の予測位置との位置関係を利用して判定することにより、障害領域42a内に設定された予測位置のみならず障害領域42aを跨いで設定された予測位置も修正対象として検出することができる。この判定処理により、図6(a)に示す現時刻の予測位置221は修正対象となる。   FIG. 6 is a schematic plan view for explaining an example of the correction process S9, and FIG. 6A is a diagram for explaining the correction process S9 taking the correction to the predicted position 221 at the current time shown in FIG. FIG. 6B is a diagram illustrating a change in the spatial distribution of the predicted position due to the correction. The predicted position 220 at time (t−1) is the predicted position at the previous time corresponding to the predicted position 221 that is the target position. The predicted position correcting unit 53 calculates a straight line 230 connecting the predicted position 220 of the previous time and the predicted position 221 of the current time newly set corresponding thereto as a movement route. If any pixel on the straight line representing the movement path is a pixel value representing the obstacle region 42a on the obstacle map 42, the predicted position correcting unit 53 determines the newly set predicted position as the correction target. On the other hand, if there is no pixel on the straight line representing the movement path having a pixel value representing the failure area 42a, it is determined that the newly set predicted position does not require correction. In this way, by determining using the positional relationship with the predicted position of the previous time, not only the predicted position set in the failure area 42a but also the predicted position set across the failure area 42a are detected as correction targets. can do. By this determination processing, the predicted position 221 at the current time shown in FIG.

予測位置修正部53は、前時刻の予測位置から注目位置へ向かう移動経路が障害領域に達した点にて移動経路の方向を変化させ、当該方向が変化した移動経路の終点を修正後の予測位置(移動先候補位置)とする。   The predicted position correcting unit 53 changes the direction of the moving path at the point where the moving path from the predicted position at the previous time to the target position reaches the obstacle area, and corrects the end point of the moving path whose direction has been corrected Let it be a position (moving destination candidate position).

具体的には、修正対象の判定において前時刻の予測位置220から順に直線230上の画素値を走査し、最初に障害領域42aを表す画素値が検出された画素を直線230と障害領域42aとの接触点231と判定する。接触点231を中心とする所定半径ρの円内で接触点231から続く障害領域42aの輪郭線上の画素(輪郭画素)を抽出し、輪郭画素を近似する直線(輪郭直線)を導出する。移動物体が障害領域42aを回避する運動を採ることを鑑みれば、輪郭線の形状は移動物体の大きさ程度の分解能で把握することが妥当と推察され、従って、接触点231の近傍の輪郭線を直線近似する際の範囲も当該分解能に応じた大きさとすることが適当である。つまり、半径ρは例えばW/2とすればよい。導出された輪郭直線を用いて直線230の障害領域42aへの入射角を定義しこれをφで表すと、直線230と輪郭直線とのなす角度θがθ=90°−φで算出される。予測位置修正部53は当該θを求めると共にランダムに鋭角Δ(但しΔ≧0)を設定し接触点231から先の移動経路を、接触点231を中心にして直線230と角度θをなす輪郭直線の向きへ角度(θ+Δ)だけ回転させて、予測位置221を予測位置220側の障害領域42a外の領域内に修正する。これにより予測位置221は予測位置241に修正される。この修正を予測位置群203内の全ての修正対象に対して実施すると、図6(b)に示すように、予測位置群203は予測位置群253に修正される。   Specifically, in the determination of the correction target, the pixel values on the straight line 230 are sequentially scanned from the predicted position 220 at the previous time, and the pixels in which the pixel value representing the faulty area 42a is first detected are the straight line 230 and the faulty area 42a. The contact point 231 is determined. A pixel (contour pixel) on the contour line of the obstacle region 42a continuing from the contact point 231 within a circle having a predetermined radius ρ centered on the contact point 231 is extracted, and a straight line (contour straight line) approximating the contour pixel is derived. In view of the movement of the moving object to avoid the obstacle region 42a, it is presumed that it is appropriate to grasp the shape of the contour line with a resolution about the size of the moving object. Therefore, the contour line in the vicinity of the contact point 231 is assumed. It is appropriate that the range for linearly approximating is also a size corresponding to the resolution. That is, the radius ρ may be, for example, W / 2. When the incident angle of the straight line 230 to the obstacle region 42a is defined using the derived contour straight line and expressed by φ, the angle θ formed by the straight line 230 and the contour straight line is calculated as θ = 90 ° −φ. The predicted position correction unit 53 obtains the θ and sets an acute angle Δ (where Δ ≧ 0) at random, and a contour line that forms an angle θ with the straight line 230 centering on the contact point 231 on the moving path ahead from the contact point 231. Is rotated by an angle (θ + Δ) to correct the predicted position 221 within a region outside the obstacle region 42a on the predicted position 220 side. As a result, the predicted position 221 is corrected to the predicted position 241. When this correction is performed on all correction targets in the predicted position group 203, the predicted position group 203 is corrected to the predicted position group 253 as shown in FIG.

前時刻の予測位置220から接触点231を経由して修正後の予測位置241に至るまでの移動経路長は、前時刻の予測位置220から修正前の予測位置221までの移動経路長と等しくなる。当該修正後の予測位置は、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲となることに加え、前時刻にて動き予測で得られた速度で移動可能な経路長となる点で好適である。   The movement path length from the predicted position 220 at the previous time to the corrected predicted position 241 via the contact point 231 is equal to the moving path length from the predicted position 220 at the previous time to the predicted position 221 before the correction. . The corrected predicted position is located outside the obstacle area on the predicted position side of the previous time and is within a range in which the moving object can move, and can move at the speed obtained by motion prediction at the previous time. This is preferable in terms of the path length.

上述したように、障害領域42a中に設定された予測位置221や障害領域42aを跨いで設定された予測位置222のように移動物体が達し得ない位置に設定された無効な予測位置は予測のずれを補う効果を稀釈させていた。予測位置修正部53は、これらの無駄となっていた予測位置を移動物体が移動可能な位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   As described above, an invalid predicted position set to a position where a moving object cannot reach, such as a predicted position 221 set in the fault area 42a or a predicted position 222 set across the fault area 42a, is predicted. The effect of compensating for the gap was diluted. Since the predicted position correcting unit 53 corrects these useless predicted positions to positions where the moving object can move, the predicted position correction unit 53 can increase a significant predicted position even in the vicinity of the obstacle, and can track in the vicinity of the obstacle. Accuracy can be improved.

物体領域推定部54は、注目位置と対応する位置に移動物体モデルを配置し、さらに障害物モデルをそれぞれの設置位置に配置した三次元モデル40を作成して、当該三次元モデル40をカメラパラメータ41を用いて撮像部2の撮像面に投影する。そして、物体領域推定部54は、移動物体モデルが投影された領域を注目位置に対応する物体領域として抽出する。なお、移動物体の一部が障害物等により隠蔽されていればその隠蔽部分が欠けた物体領域、隠蔽されていなければ全身を表す物体領域が抽出される。   The object region estimation unit 54 arranges the moving object model at a position corresponding to the target position, further creates a three-dimensional model 40 in which the obstacle model is arranged at each installation position, and uses the three-dimensional model 40 as a camera parameter. 41 is used to project onto the imaging surface of the imaging unit 2. Then, the object area estimation unit 54 extracts the area where the moving object model is projected as the object area corresponding to the target position. If a part of the moving object is concealed by an obstacle or the like, an object region lacking the concealed portion is extracted, and if it is not concealed, an object region representing the whole body is extracted.

注目位置での物体領域が求められると、尤度算出部55は当該注目位置に対する尤度を算出する(S11)。   When the object region at the target position is obtained, the likelihood calculating unit 55 calculates the likelihood for the target position (S11).

制御部5は、尤度が算出されていない予測位置が残っている場合(S12にて「NO」の場合)、ステップS5〜S11を繰り返す。P個全ての予測位置について尤度が算出されると(S12にて「YES」の場合)、物体位置算出部56が注目物体の各予測位置と当該予測位置のそれぞれについて算出された尤度とを用いて注目物体の物体位置を算出する(S13)。現時刻について算出された物体位置は1時刻前までに記憶部4に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した移動物体の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物体位置なしと判定する。   The control part 5 repeats step S5-S11, when the prediction position in which the likelihood is not calculated remains (in the case of "NO" in S12). When the likelihood is calculated for all P predicted positions (in the case of “YES” in S12), the object position calculation unit 56 calculates the likelihood calculated for each predicted position of the target object and each of the predicted positions. Is used to calculate the object position of the object of interest (S13). The object position calculated for the current time is added in association with the object position of the object of interest stored in the storage unit 4 one hour before. In the case of a newly appearing moving object, a new identifier is assigned and registered. If the likelihood at all predicted positions is less than the lower limit of likelihood, it is determined that there is no object position.

制御部5は未処理の移動物体が残っている場合(S14にて「NO」の場合)、当該移動物体について物体位置を判定する処理S5〜S13を繰り返す。一方、全ての移動物体について物体位置を判定すると、物体の新規出現と消失を判定する(S15)。具体的には、制御部5は各物体位置に対して推定された物体領域を合成して、変化画素抽出部51により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが移動物体とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物体位置なしの移動物体があれば当該移動物体が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS1へ戻る。   When the unprocessed moving object remains (“NO” in S14), the control unit 5 repeats the processes S5 to S13 for determining the object position of the moving object. On the other hand, when the object positions are determined for all the moving objects, new appearance and disappearance of the objects are determined (S15). Specifically, the control unit 5 synthesizes the object regions estimated for the respective object positions, detects change pixels outside the synthesis region among the change pixels extracted by the change pixel extraction unit 51, and detects them. Among the changed pixels, the adjacent changed pixels are labeled. If the label is of a size that can be regarded as a moving object, a new appearance is recorded in the storage unit 4 together with the label position (appearance position). If there is a moving object without an object position, the fact that the moving object has disappeared is recorded in the storage unit 4. When the above processing is completed, the processing returns to step S1 in order to perform processing on the monitoring image at the next time.

[修正処理の第2の形態]
上述の移動物体追跡装置1の全体的な動作における予測位置の修正処理の形態はその一例であり、以下、修正処理の他の形態を説明する。
[Second form of correction processing]
The form of the correction process of the predicted position in the overall operation of the moving object tracking device 1 described above is an example, and another form of the correction process will be described below.

以下に説明する修正処理の第2及び第3の形態は、図5に示すように前時刻の予測位置に対応して現時刻の予測位置を設定する点において、図6を用いて説明した第1の形態と共通するが、予測位置修正部53における予測位置の修正の仕方が異なる。   The second and third forms of the correction process described below are the same as those described with reference to FIG. 6 in that the predicted position at the current time is set in correspondence with the predicted position at the previous time as shown in FIG. Although common to the first mode, the prediction position correction method in the prediction position correction unit 53 is different.

図7は修正処理S9の第2の形態を説明する模式図であり、図7(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図である。また図7(b)は修正による予測位置の空間分布の変化を示す図である。   FIG. 7 is a schematic diagram for explaining a second form of the correction process S9, and FIG. 7A is a diagram for explaining the correction process S9 taking as an example the correction to the predicted position 221 at the current time shown in FIG. . FIG. 7B is a diagram showing a change in the spatial distribution of the predicted position due to the correction.

本形態において予測位置修正部53は、前時刻の予測位置から注目位置へ向かう移動経路の方向を変化させ、当該移動経路の終点を修正後の予測位置とする。具体的には、予測位置修正部53は上述の第1の形態と同様にして、修正対象の検出、直線230の算出、接触点231の算出及び障害領域42aの輪郭直線の算出を行なう。さらに、前時刻の予測位置220から修正対象とされる現時刻の予測位置221までの距離L0、及び前時刻の予測位置220から接触点231までの距離L1を算出する。   In the present embodiment, the predicted position correcting unit 53 changes the direction of the moving route from the predicted position at the previous time to the target position, and sets the end point of the moving route as the corrected predicted position. Specifically, the predicted position correction unit 53 performs the detection of the correction target, the calculation of the straight line 230, the calculation of the contact point 231 and the calculation of the contour straight line of the obstacle region 42a in the same manner as in the first embodiment. Further, a distance L0 from the predicted position 220 of the previous time to the predicted position 221 of the current time to be corrected, and a distance L1 from the predicted position 220 of the previous time to the contact point 231 are calculated.

前時刻の予測位置220から輪郭直線への垂線300を導出し、予測位置220から輪郭直線と垂線300との交点301までの距離をL2と表すと、垂線300と直線230とのなす角φ0はφ0=cos−1{L2/L1}で与えられる。また、予測位置220を中心とする半径L0の円と輪郭直線との交点であって交点301から見て接触点231と同じ方向に位置するものと予測位置220とを結ぶ直線302を考えると、当該直線302が垂線300となす角φ1はφ1=cos−1{L1・cosφ0/L0}で与えられる。 When the perpendicular 300 from the predicted position 220 of the previous time to the contour straight line is derived and the distance from the predicted position 220 to the intersection 301 of the contour straight line and the perpendicular 300 is represented by L2, the angle φ0 formed by the perpendicular 300 and the straight line 230 is φ0 = cos −1 {L2 / L1}. Considering a straight line 302 connecting the predicted position 220 with the intersection of the circle with the radius L0 centered on the predicted position 220 and the contour straight line, which is located in the same direction as the contact point 231 when viewed from the intersection 301, An angle φ1 formed by the straight line 302 and the perpendicular 300 is given by φ1 = cos −1 {L1 · cos φ0 / L0}.

予測位置修正部53は、ランダムに鋭角Δを設定して(但しΔ≧0)、予測位置220を通り垂線300と(φ1+Δ)の角度をなす直線303を、垂線300から見て直線302が位置する側にて導出する。そして、直線303上にて予測位置220から距離L0に位置する点、つまり、予測位置220を中心とする半径L0の円と直線303の交点を修正後の予測位置304として設定する。   The predicted position correcting unit 53 randomly sets an acute angle Δ (where Δ ≧ 0), and a straight line 302 is positioned when a straight line 303 passing through the predicted position 220 and forming an angle of (φ1 + Δ) with the vertical line 300 is viewed from the vertical line 300. Derived on the side to do. Then, a point located on the straight line 303 at a distance L0 from the predicted position 220, that is, the intersection of the circle with the radius L0 centering on the predicted position 220 and the straight line 303 is set as the corrected predicted position 304.

この修正を予測位置群203内の全ての修正対象に対して実施すると、図7(b)に示すように、予測位置群203は予測位置群305に修正される。   When this correction is performed on all correction targets in the predicted position group 203, the predicted position group 203 is corrected to a predicted position group 305 as shown in FIG.

この修正処理の第2の形態において、前時刻の予測位置220から修正後の予測位置304へ至る移動物体の移動経路は、前時刻の予測位置220から修正前の予測位置221までの移動経路と等しい経路長となる。当該修正後の予測位置は第1の形態と同様、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲となることに加え、前時刻にて動き予測で得られた速度で移動可能な経路長となる点で好適である。そして、この第2の形態も第1の形態と同様、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   In the second form of the correction process, the moving path of the moving object from the predicted position 220 at the previous time to the corrected predicted position 304 is the moving path from the predicted position 220 at the previous time to the predicted position 221 before the correction. The path length is equal. Similar to the first embodiment, the corrected predicted position is located outside the obstacle region on the predicted position side of the previous time and is in a range where the moving object can move, and is obtained by motion prediction at the previous time. This is preferable in that the length of the path can be moved at a high speed. And also in this 2nd form similarly to the 1st form, since the prediction position which was wasted conventionally is corrected to the position where a moving object can move, increasing a significant prediction position also in the vicinity of an obstacle Tracking accuracy can be improved in the vicinity of the obstacle.

なお、前時刻の予測位置からの経路長を、修正対象となる当初の予測位置までと同じにしたままで動き予測による前時刻の予測位置からの移動物体の移動経路を変更し、当該移動経路の終点を修正後の予測位置とする構成は、上述した修正処理の第1及び第2の形態以外にも可能である。例えば、予測位置220からの移動経路の方向を第1の形態のように変更すると共に、当該変更した方向にて障害領域に突き当たる場合には第2の形態のように移動経路を屈折させる構成が存在する。また、角度Δは0°から90°未満の範囲でランダムに設定されるが、乱数の発生のさせ方は一様乱数に限られず、正規分布等の非一様な分布を有するようにしてもよい。例えば、第1の形態にて、接触点231から予測位置241への経路と輪郭直線に対する法線とのなす角(反射角)が予測位置220から接触点231への入射角φと同じである方向に分布のピークを有する乱数を使用して、輪郭直線に沿った方向の移動物体の運動量保存に配慮した修正とすることができる。この他にも、移動物体の速度に応じてΔの上限や乱数の発生の仕方を変更する構成とすることもできる。例えば、第2の形態にて、移動物体の速度が速いほど移動物体は方向転換しにくいであろうことから、Δの上限を低くしてもよい。   In addition, while changing the path length from the predicted position at the previous time to the initial predicted position to be corrected, the moving path of the moving object from the predicted position at the previous time by motion prediction is changed, and the moving path The configuration in which the end point is the predicted position after correction is possible in addition to the first and second modes of the correction processing described above. For example, the direction of the movement path from the predicted position 220 is changed as in the first form, and the movement path is refracted as in the second form when hitting the obstacle area in the changed direction. Exists. Further, the angle Δ is randomly set in a range of 0 ° to less than 90 °, but the method of generating random numbers is not limited to uniform random numbers, and may have a non-uniform distribution such as a normal distribution. Good. For example, in the first embodiment, the angle (reflection angle) formed between the path from the contact point 231 to the predicted position 241 and the normal to the contour line is the same as the incident angle φ from the predicted position 220 to the contact point 231. By using a random number having a distribution peak in the direction, correction can be made in consideration of conservation of momentum of the moving object in the direction along the contour straight line. In addition to this, the upper limit of Δ and the method of generating random numbers can be changed according to the speed of the moving object. For example, in the second embodiment, the higher the speed of the moving object, the more difficult it is for the moving object to change direction, so the upper limit of Δ may be lowered.

[修正処理の第3の形態]
図8は修正処理S9の第3の形態を説明する模式図であり、図8(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図である。また図8(b)は修正による予測位置の空間分布の変化を示す図である。
[Third form of correction processing]
FIG. 8 is a schematic diagram for explaining a third form of the correction process S9, and FIG. 8A is a diagram for explaining the correction process S9 taking as an example the correction to the predicted position 221 at the current time shown in FIG. . FIG. 8B is a diagram showing a change in the spatial distribution of the predicted position due to the correction.

第3の形態にて予測位置修正部53は、障害領域の境界線のうち前時刻の予測位置から見える部分の点であり、かつ現時刻についての当初の予測位置から最短距離にある点を直近点として求め、当該直近点を中心として直前時刻での予測位置の分布範囲以下の大きさを有する領域内に、修正後の予測位置を設定する。具体的には、予測位置修正部53は、上記第1及び第2の形態と同様にして、修正対象の検出、直線230の算出、接触点231の算出及び障害領域42aの輪郭直線の算出を行なう。さらに、現時刻の当初の予測位置221から輪郭直線への垂線400を導出して輪郭直線と垂線400との交点401を直近点として求め、交点401から所定半径の円内であって障害領域42aの外側の領域にランダムに修正後の予測位置402を設定する。所定半径は予測位置設定部52にて予測位置の設定に用いた半径rの半分程度に設定すればよい。   In the third embodiment, the predicted position correcting unit 53 is a point of a part that can be seen from the predicted position at the previous time on the boundary line of the failure area, and the point that is the shortest distance from the initial predicted position for the current time. The corrected predicted position is set in a region having a size equal to or smaller than the distribution range of the predicted position at the immediately preceding time with the nearest point as the center. Specifically, the predicted position correction unit 53 performs the detection of the correction target, the calculation of the straight line 230, the calculation of the contact point 231 and the calculation of the contour line of the obstacle region 42a in the same manner as in the first and second embodiments. Do. Further, a perpendicular 400 from the initial predicted position 221 at the current time to the contour straight line is derived to obtain the intersection 401 of the contour straight line and the perpendicular 400 as the nearest point, and within the circle of a predetermined radius from the intersection 401, the obstacle region 42a The predicted position 402 after correction is randomly set in the area outside the area. The predetermined radius may be set to about half the radius r used for setting the predicted position by the predicted position setting unit 52.

これにより簡便な処理によって、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲に予測位置を修正できる。   Thus, the predicted position can be corrected within a range in which the moving object can move by being located outside the obstacle region on the predicted position side of the previous time by simple processing.

この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   Also in this case, since the predicted position correcting unit 53 corrects the predicted position that was previously wasted to a position where the moving object can move, the predicted position can be increased even in the vicinity of the obstacle. Tracking accuracy can be improved in the vicinity.

なお、当初の予測位置が障害領域42aを跨いで、その外側に設定された場合には、障害領域の輪郭のうち前時刻の予測位置220から見える、つまり直線経路で移動物体が到達できる位置に垂線400を引くことができない状態も存在し得る。この場合には、予測位置修正部53は、垂線400を求める処理とは別の処理によって、障害領域の輪郭のうち前時刻の予測位置から見え、かつ現時刻についての当初の予測位置から最短距離にある点を、上記交点401に代わる点として求め、これを中心として所定半径の円内に修正後の予測位置を設定する。   In addition, when the initial predicted position is set across the obstacle area 42a and outside of the obstacle area 42a, the outline of the obstacle area can be seen from the predicted position 220 at the previous time, that is, a position where the moving object can reach through the straight path. There may also be situations where the normal 400 cannot be drawn. In this case, the predicted position correction unit 53 can be seen from the predicted position at the previous time in the outline of the failure area and the shortest distance from the initial predicted position at the current time by a process different from the process for obtaining the perpendicular 400. Is determined as a point to replace the intersection 401, and a corrected predicted position is set in a circle having a predetermined radius with this point as the center.

[修正処理の第4の形態]
上記修正処理の第1〜第3の形態においては、各時刻の予測位置の間で一意の対応付けが管理されており、予測位置設定部52は互いに対応する過去の予測位置の動きから新たな予測位置を設定する。そのため第1〜第3の形態において予測位置修正部53は1時刻前の予測位置から見て障害領域の手前の位置に予測位置の修正を行い、また第1、第2の形態は1時刻前の予測位置からそれに対応する現時刻の予測位置への移動経路長が修正前後で変わらないように修正を行う。
[Fourth Modification Process]
In the first to third forms of the correction processing, unique associations are managed between the predicted positions at each time, and the predicted position setting unit 52 starts new motions based on the movements of the past predicted positions corresponding to each other. Set the predicted position. Therefore, in the first to third embodiments, the predicted position correcting unit 53 corrects the predicted position at a position before the obstacle area as viewed from the predicted position one hour before, and the first and second forms are one hour before. The movement path length from the predicted position to the predicted position at the current time is corrected so that it does not change before and after the correction.

図9は、以下に説明する修正処理の第4〜第6の形態における物体位置及び現時刻の予測位置の一例を示す模式的な平面図であり、時刻(t−3)から時刻(t−1)へ至る物体位置の変化、及び現時刻tの予測位置を示している。図5と同様、図9にて“○”印は予測位置を、また“△”印は物体位置を表している。第4〜第6の形態では、予測位置設定部52は、1時刻前の物体位置502を中心とする所定範囲に1時刻前のP個の予測位置を設定し、当該1時刻前の各予測位置を物体位置の動きに合わせて移動させて現時刻の予測位置510を設定する。ちなみにこの方法は物体位置の動きに合わせて現時刻の物体位置を予測してから当該位置を中心とする所定範囲に現時刻の予測位置を設定することと等しい。   FIG. 9 is a schematic plan view showing an example of the object position and the predicted position of the current time in the fourth to sixth modes of the correction process described below, and from time (t-3) to time (t− The change in the object position leading to 1) and the predicted position at the current time t are shown. As in FIG. 5, in FIG. 9, “◯” indicates a predicted position, and “Δ” indicates an object position. In the fourth to sixth embodiments, the predicted position setting unit 52 sets P predicted positions one hour before in a predetermined range centered on the object position 502 one time before, and each predicted one time before The predicted position 510 of the current time is set by moving the position according to the movement of the object position. Incidentally, this method is equivalent to predicting the object position at the current time according to the movement of the object position and then setting the predicted position at the current time within a predetermined range centered on the position.

この予測位置設定方法において、修正処理の第4の形態の予測位置修正部53は、1時刻前の物体位置502から現時刻の各予測位置510への移動経路長が修正前後で変わらないように修正を行う。図10は修正処理S9の第4〜第6の形態の例を説明する模式的な平面図である。図10(a)が本第4の形態に関する図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物体位置502であること以外は基本的に図6を用いて説明した第1の形態と同様である。   In this predicted position setting method, the predicted position correcting unit 53 according to the fourth form of the correction process prevents the movement path length from the object position 502 one time before to each predicted position 510 at the current time before and after the correction. Make corrections. FIG. 10 is a schematic plan view for explaining examples of the fourth to sixth modes of the correction process S9. FIG. 10A is a diagram relating to the fourth embodiment. This figure is a diagram for explaining the correction processing S9 by taking the correction to the predicted position 521 at the current time shown in FIG. 9 as an example. The position one hour before as the starting point of the movement path is replaced with the predicted position by the object position 502. Except for this, it is basically the same as the first embodiment described with reference to FIG.

予測位置修正部53は、1時刻前の物体位置502から修正対象の予測位置521への直線530と障害領域42aとの接触点531を検出するとともに、接触点531近傍の障害領域の境界を近似する輪郭直線と直線530とのなす角度θを算出する。予測位置修正部53は鋭角の範囲でランダムに角度Δを定め、予測位置521を接触点531を中心に(θ+Δ)だけ回転させて、予測位置521を物体位置502側の障害領域42a外の領域内に修正する。これにより予測位置521は予測位置532に修正される。   The predicted position correcting unit 53 detects a contact point 531 between the straight line 530 from the object position 502 one time before to the predicted position 521 to be corrected and the obstacle region 42a, and approximates the boundary of the obstacle region near the contact point 531. The angle θ between the contour straight line and the straight line 530 is calculated. The predicted position correction unit 53 randomly determines an angle Δ within an acute angle range, rotates the predicted position 521 by (θ + Δ) around the contact point 531, and moves the predicted position 521 to an area outside the obstacle area 42 a on the object position 502 side. Correct in. As a result, the predicted position 521 is corrected to the predicted position 532.

この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   Also in this case, since the predicted position correcting unit 53 corrects the predicted position that was previously wasted to a position where the moving object can move, the predicted position can be increased even in the vicinity of the obstacle. Tracking accuracy can be improved in the vicinity.

[修正処理の第5の形態]
図10(b)は修正処理S9の第5の形態の例を説明する模式的な平面図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物体位置502であること以外は基本的に図7を用いて説明した第2の形態と同様である。
[Fifth form of correction processing]
FIG. 10B is a schematic plan view for explaining an example of the fifth form of the correction process S9. This figure is a diagram for explaining the correction processing S9 by taking the correction to the predicted position 521 at the current time shown in FIG. 9 as an example. The position one hour before as the starting point of the movement path is replaced with the predicted position by the object position 502. Except for this, it is basically the same as the second embodiment described with reference to FIG.

予測位置修正部53は、1時刻前の物体位置502から修正対象の予測位置521までの距離L0を半径とする円上で、予測位置521から角度(φ1+Δ−φ0)だけ回転させた修正後の予測位置540を算出する。   The predicted position correcting unit 53 is a corrected circle that is rotated by an angle (φ1 + Δ−φ0) from the predicted position 521 on a circle having a radius L0 from the object position 502 one time before the predicted position 521 to be corrected. A predicted position 540 is calculated.

この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   Also in this case, since the predicted position correcting unit 53 corrects the predicted position that was previously wasted to a position where the moving object can move, the predicted position can be increased even in the vicinity of the obstacle. Tracking accuracy can be improved in the vicinity.

[修正処理の第6の形態]
図10(c)は修正処理S9の第6の形態の例を説明する模式的な平面図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物体位置502であること以外は基本的に図8を用いて説明した第3の形態と同様である。
[Sixth form of correction processing]
FIG. 10C is a schematic plan view for explaining an example of the sixth form of the correction process S9. This figure is a diagram for explaining the correction processing S9 by taking the correction to the predicted position 521 at the current time shown in FIG. 9 as an example. The position one hour before as the starting point of the movement path is replaced with the predicted position by the object position 502. Except for this, it is basically the same as the third embodiment described with reference to FIG.

予測位置修正部53は、新たに設定された予測位置521から輪郭直線への垂線を導出して輪郭直線と垂線の交点550を直近点として求め、交点550から所定半径の円内であって障害領域42aの外側の領域にランダムに修正後の予測位置551を設定する。   The predicted position correcting unit 53 derives a perpendicular line from the newly set predicted position 521 to the contour straight line, obtains the intersection 550 of the contour straight line and the perpendicular as the nearest point, and is within a circle with a predetermined radius from the intersection 550 and has a fault. The corrected predicted position 551 is randomly set in a region outside the region 42a.

この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。   Also in this case, since the predicted position correcting unit 53 corrects the predicted position that was previously wasted to a position where the moving object can move, the predicted position can be increased even in the vicinity of the obstacle. Tracking accuracy can be improved in the vicinity.

1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 カメラパラメータ、42 障害物マップ、42a 障害領域、43 予測位置、44 物体位置、50 障害物マップ作成部、51 変化画素抽出部、52 予測位置設定部、53 予測位置修正部、54 物体領域推定部、55 尤度算出部、56 物体位置算出部、57 異常判定部、100 基準面、101 カメラ位置、102 障害物モデル、103 移動物体モデル、200〜203,510 予測位置群、210〜212,500〜502 物体位置、220〜223,241,304,402,521,532,540,551 予測位置、231,531 接触点、401,550 直近点。   DESCRIPTION OF SYMBOLS 1 Moving object tracking apparatus, 2 Imaging part, 3 Setting input part, 4 Storage part, 5 Control part, 6 Output part, 40 3D model, 41 Camera parameter, 42 Obstacle map, 42a Obstacle area, 43 Predicted position, 44 Object position, 50 Obstacle map creation unit, 51 Changed pixel extraction unit, 52 Prediction position setting unit, 53 Prediction position correction unit, 54 Object region estimation unit, 55 Likelihood calculation unit, 56 Object position calculation unit, 57 Abnormality determination unit , 100 Reference plane, 101 Camera position, 102 Obstacle model, 103 Moving object model, 200 to 203, 510 Predicted position group, 210 to 212, 500 to 502 Object position, 220 to 223, 241, 304, 402, 521 532, 540, 551 predicted position, 231, 531 contact point, 401, 550 nearest point.

Claims (5)

所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する物体を追跡する移動物体追跡装置であって、
前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記物体の過去位置の情報を記憶する記憶部と、
前記過去位置を用いて前記物体の動き予測を行い、前記注目時刻における当該物体の移動先候補を複数予測する位置予測部と、
前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記物体の画像特徴に基づいて前記注目時刻における当該物体の移動先を判定する物体位置判定部と、
を有し、
前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備えたこと、
を特徴とする移動物体追跡装置。
A moving object tracking device for tracking an object moving in the space using a time-series image obtained by photographing a predetermined space,
A storage unit that stores in advance the obstacle region that prevents the movement in the space, and stores information on the past position of the object in the past from the attention time;
A position prediction unit that performs motion prediction of the object using the past position and predicts a plurality of movement destination candidates of the object at the time of interest;
An object position determination unit that determines a movement destination of the object at the attention time based on an image feature of the object included in a corresponding portion with each of the movement destination candidates in the image at the attention time;
Have
The position prediction unit corrects an invalid movement destination candidate in which the failure area exists between the movement destination candidates and the past position that is the movement source to a position closer to the movement source than the failure area. Having a correction part,
A moving object tracking device.
請求項1に記載の移動物体追跡装置において、
前記修正部は、前記移動元から前記無効な移動先候補への経路をその経路長を維持したままで変形し、当該無効な移動先候補を前記変形後の経路の終点に修正すること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 1,
The correction unit transforms the route from the source to the invalid destination candidate while maintaining the route length, and corrects the invalid destination candidate to the end point of the transformed route. Feature moving object tracking device.
請求項2に記載の移動物体追跡装置において、
前記修正部は、前記無効な移動先候補への経路が前記障害領域に達した点にて当該経路の方向を変化させることにより前記変形を行うこと、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 2,
The moving object tracking device, wherein the correction unit performs the deformation by changing a direction of the route at a point where the route to the invalid destination candidate reaches the obstacle area.
請求項2に記載の移動物体追跡装置において、
前記修正部は、前記無効な移動先候補への経路の方向を前記移動元にて変化させることにより前記変形を行うこと、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 2,
The moving object tracking device, wherein the correction unit performs the deformation by changing a direction of a route to the invalid movement destination candidate at the movement source.
請求項1に記載の移動物体追跡装置において、
前記修正部は、前記障害領域における前記移動元側の境界線上で前記無効な移動先候補から最短距離にある直近点を算出し、当該無効な移動先候補を前記直近点から所定距離内の位置に修正すること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 1,
The correction unit calculates a nearest point that is at the shortest distance from the invalid destination candidate on the border on the source side in the obstacle area, and the invalid destination candidate is a position within a predetermined distance from the nearest point. A moving object tracking device characterized by:
JP2010258213A 2010-11-18 2010-11-18 Person tracking device Active JP5687035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010258213A JP5687035B2 (en) 2010-11-18 2010-11-18 Person tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010258213A JP5687035B2 (en) 2010-11-18 2010-11-18 Person tracking device

Publications (2)

Publication Number Publication Date
JP2012108798A true JP2012108798A (en) 2012-06-07
JP5687035B2 JP5687035B2 (en) 2015-03-18

Family

ID=46494340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010258213A Active JP5687035B2 (en) 2010-11-18 2010-11-18 Person tracking device

Country Status (1)

Country Link
JP (1) JP5687035B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015939A1 (en) * 2013-08-01 2015-02-05 日産自動車株式会社 Vehicle position/bearing estimation device and vehicle position/bearing estimation method
JP2016085487A (en) * 2014-10-22 2016-05-19 キヤノン株式会社 Information processing device, information processing method and computer program
JP2018025988A (en) * 2016-08-10 2018-02-15 富士通株式会社 Image processing program, image processing method and image processing device
RU2649962C1 (en) * 2016-12-08 2018-04-10 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Control method of automatic vehicles
JP2019144900A (en) * 2018-02-21 2019-08-29 株式会社豊田中央研究所 State estimation device and program
DE112022001684T5 (en) 2021-03-24 2024-02-22 Isuzu Motors Limited DEVICE FOR ESTIMATING CHARGE FACTOR

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7031991B2 (en) * 2018-07-30 2022-03-08 Kddi株式会社 Position selection device, position selection method, and position selection program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233798A (en) * 2006-03-02 2007-09-13 Nippon Hoso Kyokai <Nhk> Video object tracking device and video object tracking program
JP2007328747A (en) * 2006-06-09 2007-12-20 Sony Computer Entertainment Inc Feature point retrieving device, image analysis device, and most nearby feature point detection method
JP2009026314A (en) * 2007-07-19 2009-02-05 Honeywell Internatl Inc Multi-pose face tracking using multiple appearance models
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
JP2010122734A (en) * 2008-11-17 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> Object tracking apparatus, object tracking method and object tracking program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233798A (en) * 2006-03-02 2007-09-13 Nippon Hoso Kyokai <Nhk> Video object tracking device and video object tracking program
JP2007328747A (en) * 2006-06-09 2007-12-20 Sony Computer Entertainment Inc Feature point retrieving device, image analysis device, and most nearby feature point detection method
JP2009026314A (en) * 2007-07-19 2009-02-05 Honeywell Internatl Inc Multi-pose face tracking using multiple appearance models
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
JP2010122734A (en) * 2008-11-17 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> Object tracking apparatus, object tracking method and object tracking program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015939A1 (en) * 2013-08-01 2015-02-05 日産自動車株式会社 Vehicle position/bearing estimation device and vehicle position/bearing estimation method
RU2626424C1 (en) * 2013-08-01 2017-07-27 Ниссан Мотор Ко., Лтд. Device and method for evaluation of vehicle attitude angle and position
US10363940B2 (en) 2013-08-01 2019-07-30 Nissan Motor Co., Ltd. Vehicle position attitude-angle estimation device and vehicle position attitude-angle estimation method
JP2016085487A (en) * 2014-10-22 2016-05-19 キヤノン株式会社 Information processing device, information processing method and computer program
JP2018025988A (en) * 2016-08-10 2018-02-15 富士通株式会社 Image processing program, image processing method and image processing device
US10297040B2 (en) 2016-08-10 2019-05-21 Fujitsu Limited Image processing method, image processing apparatus and medium storing image processing program
RU2649962C1 (en) * 2016-12-08 2018-04-10 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Control method of automatic vehicles
JP2019144900A (en) * 2018-02-21 2019-08-29 株式会社豊田中央研究所 State estimation device and program
JP7052404B2 (en) 2018-02-21 2022-04-12 株式会社豊田中央研究所 State estimator and program
DE112022001684T5 (en) 2021-03-24 2024-02-22 Isuzu Motors Limited DEVICE FOR ESTIMATING CHARGE FACTOR

Also Published As

Publication number Publication date
JP5687035B2 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
JP5687035B2 (en) Person tracking device
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
JP2019075156A (en) Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
US20180218510A1 (en) Method and System for Completing Point Clouds Using Planar Segments
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
CN110568447A (en) Visual positioning method, device and computer readable medium
JP5687082B2 (en) Moving object tracking device
CN110801180A (en) Operation method and device of cleaning robot
JP5366258B2 (en) Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement
KR101207535B1 (en) Image-based simultaneous localization and mapping for moving robot
JP5027758B2 (en) Image monitoring device
JP5552069B2 (en) Moving object tracking device
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
JP6240706B2 (en) Line tracking using automatic model initialization with graph matching and cycle detection
JP2013051477A (en) Video monitoring device, video monitoring method, and program
JP2008226109A (en) Video image analysis system and method
JP5667846B2 (en) Object image determination device
JPWO2019044038A1 (en) Imaging target tracking device and imaging target tracking method
Gallegos et al. Appearance-based slam relying on a hybrid laser/omnidirectional sensor
JP2018173882A (en) Information processing device, method, and program
JP2011151459A (en) Composite display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150121

R150 Certificate of patent or registration of utility model

Ref document number: 5687035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250