JP2012159957A - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP2012159957A
JP2012159957A JP2011018252A JP2011018252A JP2012159957A JP 2012159957 A JP2012159957 A JP 2012159957A JP 2011018252 A JP2011018252 A JP 2011018252A JP 2011018252 A JP2011018252 A JP 2011018252A JP 2012159957 A JP2012159957 A JP 2012159957A
Authority
JP
Japan
Prior art keywords
moving object
obstacle
penalty
height
tracking device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011018252A
Other languages
Japanese (ja)
Other versions
JP5552069B2 (en
Inventor
Masahiro Maeda
昌宏 前田
Yuji Nakazawa
裕二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011018252A priority Critical patent/JP5552069B2/en
Publication of JP2012159957A publication Critical patent/JP2012159957A/en
Application granted granted Critical
Publication of JP5552069B2 publication Critical patent/JP5552069B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that, in a device for tracking a moving object in a monitoring space based on a plurality of prediction positions generated for every interval time, when uniformly removing the prediction positions set in an obstacle region in a monitoring space, a determination accuracy of the object position is deteriorated.SOLUTION: A penalty setting unit 50 sets penalty values corresponding to obstacle regions according to the heights of obstacles. An object position determining unit 53 calculates an evaluation value according to the amount of feature of the moving body extracted from an image corresponding to each prediction position and determines the object position based on the evaluation value. In the determination, the object position determining unit 53 performs a correction to decrease the evaluation value of each prediction position according to the penalty value at the position.

Description

本発明は、画像処理により移動物体を追跡する移動物体追跡装置に関し、特に障害物が存在する空間内を移動する移動物体を追跡する移動物体追跡装置に関する。   The present invention relates to a moving object tracking apparatus that tracks a moving object by image processing, and more particularly to a moving object tracking apparatus that tracks a moving object that moves in a space where an obstacle exists.

従来、対象物の位置を精度良く追跡するために、対象物が存在し得ない領域における対象物の誤検出を排除することが行われてきた。例えば、特許文献1に記載の人物位置推定方法では、部屋の広さや机・棚などの撮影空間の情報を利用して、人の存在し得ない領域にて推定された人物位置を排除する。すなわち、障害物の有無により人が存在し得るか否かが判定されていた。   Conventionally, in order to accurately track the position of an object, it has been performed to eliminate erroneous detection of the object in a region where the object cannot exist. For example, in the person position estimation method described in Patent Literature 1, information on the shooting space such as the size of a room or a desk / shelf is used to exclude a person position estimated in an area where a person cannot exist. That is, it has been determined whether or not a person can exist depending on the presence or absence of an obstacle.

特開2007−233523号公報JP 2007-233523 A

しかしながら、壁・机・棚など種々の障害物を一律に取り扱うと人物位置を精密に追跡することが難しくなるという問題があった。具体的には、人よりも低い机などが障害物である場合は、人がその近傍を通ったりそれに寄りかかったりして人物位置が障害物上にはみ出すことがある一方で、人よりも高い壁などが障害物である場合は人物位置が障害物上にはみ出すことはない。また、単に棚といってもその高さが異なれば、その上にはみ出し得るか否かに相違が生じる。このような障害物が配置された領域への人物のはみ出しを考慮せずに、一律に障害物の領域を人が存在し得ない領域と定義してしまうと、人物位置推定の微小誤差により当該領域の周辺で人物位置が排除されたりされなかったりすることが起こる。また、パーティクルフィルタのように多数設定された人物位置の仮説から確率的に人物位置を決定する場合、人が存在し得ないと定義された領域の仮説が排除されると、人が障害物の上にはみ出している量にかかわらず人物位置は障害物が配置された領域の外側にしか決定されない。   However, when various obstacles such as walls, desks, and shelves are handled uniformly, there is a problem that it is difficult to accurately track the position of the person. Specifically, when a desk lower than a person is an obstacle, the person's position may protrude over the obstacle as the person passes near or leans on it, but is higher than the person When a wall or the like is an obstacle, the person position does not protrude on the obstacle. Moreover, even if it is just a shelf, if its height is different, a difference occurs in whether or not it can protrude from the shelf. If the area of the obstacle is defined as an area where no person can exist without considering the protrusion of the person to the area where the obstacle is placed, the error will occur due to a minute error in human position estimation. It may happen that the position of the person is not excluded around the area. In addition, when a person position is determined probabilistically from a large number of set person position hypotheses as in a particle filter, if a hypothesis of an area defined as a person cannot exist is excluded, Regardless of the amount of protrusion, the person position is determined only outside the area where the obstacle is placed.

図8は上記問題を説明するための図であり、人90が障害物91(例えば、棚)の上に寄りかかった様子を示す模式図である。図8(a)は横方向から見た図、図8(b)は上から見た図であり、人物の本来の重心位置を図8(b)にて“×”印で示している。従来技術のように障害物91の領域を人90が存在し得ない領域として定義すると、図8に示すように障害物91の領域に検出された重心位置は、誤検出として排除される。また、同定義に従いパーティクルフィルタにて障害物91上に設定された仮説を排除すると、人物位置は障害物91から離れた位置に決定され、人物位置として好適である重心位置から大きくずれ得る。   FIG. 8 is a diagram for explaining the above-described problem, and is a schematic diagram showing a person 90 leaning on an obstacle 91 (for example, a shelf). FIG. 8A is a diagram seen from the side, FIG. 8B is a diagram seen from above, and the original center of gravity position of the person is indicated by “x” in FIG. 8B. If the area of the obstacle 91 is defined as an area where the person 90 cannot exist as in the prior art, the barycentric position detected in the area of the obstacle 91 as shown in FIG. 8 is excluded as a false detection. Further, if the hypothesis set on the obstacle 91 is excluded by the particle filter according to the same definition, the person position is determined as a position away from the obstacle 91, and may be largely deviated from the center of gravity position suitable as the person position.

このように従来技術によれば、障害物付近における追跡結果が不安定になるおそれがあるという問題があった。   As described above, according to the prior art, there is a problem that the tracking result in the vicinity of the obstacle may become unstable.

本発明は上記課題を鑑みてなされたものであり、障害物付近においても移動物体を高精度に追跡することが可能な移動物体追跡装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking device capable of tracking a moving object with high accuracy even in the vicinity of an obstacle.

本発明に係る移動物体追跡装置は、所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する移動物体を追跡するものであって、注目時刻において前記移動物体が存在し得る候補位置を複数予測する位置予測部と、前記注目時刻の前記画像における前記候補位置に対応する部分から抽出される前記移動物体の特徴量に応じて当該候補位置における前記移動物体の存在確度を算出し、前記複数の候補位置ごとの前記存在確度を用いて前記移動物体の位置を判定する物体位置判定部と、前記空間内にて前記移動を妨げる障害物が存在する障害領域及び当該障害物の高さを予め記憶する記憶部と、前記存在確度に対するペナルティ値として、前記障害物の前記高さに応じた値を当該障害物の前記障害領域に設定するペナルティ設定部と、を有し、前記物体位置判定部は、前記候補位置に前記ペナルティ値が設定されている場合に、当該ペナルティ値に応じて当該候補位置の前記存在確度を低めて前記判定を行う。   The moving object tracking device according to the present invention tracks a moving object moving in the space using a time-series image obtained by photographing a predetermined space, and the moving object may exist at the time of interest. A position prediction unit that predicts a plurality of candidate positions, and calculates the existence accuracy of the moving object at the candidate position according to the feature amount of the moving object extracted from the portion corresponding to the candidate position in the image at the time of interest An object position determination unit that determines the position of the moving object using the existence accuracy for each of the plurality of candidate positions; an obstacle region where an obstacle that prevents the movement in the space is present; and the obstacle A storage unit that stores height in advance, and a penalty setting unit that sets a value corresponding to the height of the obstacle in the obstacle area of the obstacle as a penalty value for the existence accuracy; It has the object position determination unit, when the penalty value is set to the candidate position, makes the determination by lowering the said presence probability of the candidate positions according to the penalty value.

他の本発明に係る移動物体追跡装置においては、前記ペナルティ設定部は、前記障害物の高さと共に増加して前記障害物の高さが前記移動物体の高さ以上であるときに最大となる前記ペナルティ値を設定する。当該移動物体追跡装置において、前記ペナルティ設定部は、前記移動物体に備わる所定の関節部の高さにて段階的に増加する前記ペナルティ値を設定する構成とすることができる。   In the moving object tracking device according to another aspect of the invention, the penalty setting unit increases with the height of the obstacle and becomes maximum when the height of the obstacle is equal to or higher than the height of the moving object. Set the penalty value. In the moving object tracking device, the penalty setting unit may set the penalty value that increases stepwise at a predetermined joint height of the moving object.

さらに他の移動物体追跡装置においては、前記ペナルティ設定部は、前記障害領域のうち当該障害領域の周に沿った所定幅の内縁領域にて当該障害領域の周に近づくほど減少させて前記ペナルティ値を設定する。当該移動物体追跡装置において、前記ペナルティ設定部は、前記内縁領域の幅を前記移動物体の高さから前記障害物の高さを引いた残りの高さに応じて設定する構成とすることができる。   In still another moving object tracking device, the penalty setting unit decreases the penalty value by decreasing the closer to the periphery of the obstacle region in an inner edge region of a predetermined width along the periphery of the obstacle region in the obstacle region. Set. In the moving object tracking device, the penalty setting unit may set the width of the inner edge region according to the remaining height obtained by subtracting the height of the obstacle from the height of the moving object. .

別の本発明に係る移動物体追跡装置においては、前記ペナルティ設定部は、前記障害領域の周に沿って外側に前記移動物体の幅に応じた幅で設定される外縁領域に、前記障害領域内よりも小さい値の前記ペナルティ値を設定する。   In the moving object tracking device according to another aspect of the invention, the penalty setting unit may include an inside of the obstacle region in an outer edge region set with a width according to the width of the moving object on the outside along the circumference of the obstacle region. The penalty value of a smaller value is set.

本発明によれば、移動物体の位置判定に際し、障害物の高さに応じて移動物体が障害物の上にはみ出す影響が評価に含められるので、障害物付近での移動物体の位置の判定精度の向上が図れる。   According to the present invention, when determining the position of the moving object, the influence of the moving object protruding on the obstacle according to the height of the obstacle is included in the evaluation. Therefore, the determination accuracy of the position of the moving object in the vicinity of the obstacle is included. Can be improved.

本発明の実施形態に係る移動物体追跡装置のブロック構成図である。It is a block block diagram of the moving object tracking apparatus which concerns on embodiment of this invention. 三次元モデルの一例を模式的に示す斜視図である。It is a perspective view which shows an example of a three-dimensional model typically. 図2の三次元モデルにより模擬される監視空間のペナルティマップの例を示している。The example of the penalty map of the monitoring space simulated by the three-dimensional model of FIG. 2 is shown. 障害領域及び外周領域でのペナルティマップを説明する模式図である。It is a schematic diagram explaining the penalty map in a failure area | region and an outer peripheral area | region. 障害物の高さに応じたペナルティ値の最大値の変化の態様を示す模式的なグラフである。It is a typical graph which shows the aspect of the change of the maximum value of a penalty value according to the height of an obstruction. 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。It is a general | schematic flowchart of the tracking process of the moving object tracking apparatus which concerns on embodiment of this invention. 位置予測部及び物体位置判定部による処理例を概念的に示す模式図である。It is a schematic diagram which shows notionally the example of a process by a position estimation part and an object position determination part. 従来技術の問題を説明するための模式図である。It is a schematic diagram for demonstrating the problem of a prior art.

以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋を監視対象の空間とし、当該監視空間内を移動する人物を追跡対象物(以下、移動物体と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して移動物体の追跡を行う。ここで、監視空間において什器が設置された領域は移動物体の進行を妨げる障害領域である。障害領域の他の例としては壁や柱や給湯器などがある。障害領域は移動せず予めその位置が判っている。なお、監視空間は屋内に限定されず屋外であってもよい。屋外の場合、家屋、塀、各種エクステリアの他、池や堀等が障害領域となる。本移動物体追跡装置1は障害領域の存在に配慮して追跡処理を行うように構成され、追跡の精度向上を図っている。   Hereinafter, a moving object tracking device 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The moving object tracking device 1 sets a room in which furniture is placed as a monitoring target space, and sets a person moving in the monitoring space as a tracking target (hereinafter referred to as a moving object). The moving object tracking device 1 processes a monitoring image obtained by imaging a monitoring space to track a moving object. Here, the area where the fixture is installed in the monitoring space is an obstacle area that hinders the movement of the moving object. Other examples of obstacle areas include walls, pillars and water heaters. The position of the obstacle area is known in advance without moving. The monitoring space is not limited to indoors but may be outdoor. In the case of outdoors, ponds, moats, etc., as well as houses, fences and various exteriors are obstacle areas. The moving object tracking device 1 is configured to perform tracking processing in consideration of the presence of an obstacle region, and improves tracking accuracy.

[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
[Configuration of moving object tracking device]
FIG. 1 is a block diagram of a moving object tracking device 1 according to the embodiment. The moving object tracking device 1 includes an imaging unit 2, a setting input unit 3, a storage unit 4, a control unit 5, and an output unit 6. The imaging unit 2, the setting input unit 3, the storage unit 4, and the output unit 6 are connected to the control unit 5.

撮像部2は監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。   The imaging unit 2 is a monitoring camera, is installed so as to face the monitoring space, and images the monitoring space at a predetermined time interval. The captured monitoring images of the monitoring space are sequentially output to the control unit 5. In order to grasp the position and movement of a person who moves along a reference plane such as the floor surface or the ground surface, the imaging unit 2 is basically installed at a height that allows a bird's-eye photography, for example, in this embodiment, The moving object tracking device 1 is used for indoor monitoring, and the imaging unit 2 is installed on the ceiling. The time interval at which the monitoring image is captured is 1/5 second, for example. Hereinafter, the unit of time recorded at the time interval of imaging is referred to as time.

設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。   The setting input unit 3 is an input means for the administrator to perform various settings for the control unit 5, and is a user interface device such as a touch panel display, for example.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、ペナルティマップ41、カメラパラメータ42、予測位置43、物体位置44及び背景画像が含まれる。   The storage unit 4 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 4 stores various programs and various data, and inputs / outputs such information to / from the control unit 5. Various data includes a three-dimensional model 40, a penalty map 41, a camera parameter 42, a predicted position 43, an object position 44, and a background image.

三次元モデル40は、監視空間(実空間)を模した仮想空間に移動物体の立体形状を近似した移動物体モデル及び/又は障害物の立体形状を近似した障害物モデルを配置した状態を記述したデータである。障害物は障害領域を形成する物体や地形である。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での障害物モデルの配置は監視空間内での実際の障害物の配置に合わせる。一方、移動物体モデルの配置は任意位置に設定することができる。   The three-dimensional model 40 describes a state in which a moving object model that approximates a three-dimensional shape of a moving object and / or an obstacle model that approximates a three-dimensional shape of an obstacle is arranged in a virtual space that imitates a monitoring space (real space). It is data. An obstacle is an object or terrain that forms an obstacle area. In the present embodiment, the monitoring space and the virtual space are represented by a right-handed orthogonal coordinate system including the X, Y, and Z axes, and the vertically upward direction is set to the positive direction of the Z axis. A reference surface such as a floor surface is horizontal and is defined by an XY plane represented by Z = 0. The arrangement of the obstacle model in the virtual space is matched with the actual arrangement of the obstacle in the monitoring space. On the other hand, the arrangement of the moving object model can be set at an arbitrary position.

障害物モデルは、移動物体の検出・追跡処理に先だって予め障害物毎に設定される。障害物モデルは、監視空間に実在する障害物の形状・寸法のデータ、及び監視空間での障害物の配置のデータであり、当該障害物が基準面に対して占める障害領域と当該障害物の高さの情報とを含む。障害物の形状・寸法は監視空間に置かれる障害物を実測して取得することができるほか、例えば什器メーカー等が提供する製品の三次元データを利用することもできる。障害物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた障害物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に障害物モデルを格納する。   The obstacle model is set for each obstacle in advance prior to the detection / tracking process of the moving object. The obstacle model is data on the shape and dimensions of obstacles actually existing in the monitoring space, and data on the arrangement of obstacles in the monitoring space. The obstacle area occupied by the obstacle relative to the reference plane and the obstacle And height information. The shape and dimensions of the obstacle can be obtained by actually measuring the obstacle placed in the monitoring space, and for example, three-dimensional data of a product provided by a fixture manufacturer or the like can be used. The arrangement of the obstacle can be obtained by actual measurement. For example, when designing the furniture layout of the room on the computer, the design data can be used. Data on the obstacle thus obtained is input to the control unit 5 from the setting input unit 3 or a connection interface (not shown) with an external device, and the control unit 5 stores the storage unit 4 based on the input data. The obstacle model is stored in.

移動物体モデルは、例えば、移動物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする移動物体は立位の人であり、本実施形態では、例えば、人の頭部、胴部、脚部の3部分の立体形状を近似する回転楕円体をZ軸方向に積み重ねた移動物体モデルを設定する。基準面から頭頂までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは標準的な人物サイズとし任意の移動物体に共通とする。また、頭部中心を移動物体の代表位置とする。なお、移動物体モデルはより単純化して1つの回転楕円体で近似してもよい。移動物体モデルの立体形状に関するデータは、追跡処理に先立って記憶部4に格納される。   The moving object model is, for example, data describing a partial model representing a three-dimensional shape for each of a plurality of constituent parts constituting the moving object, and an arrangement relationship between the partial models. The moving object to be monitored by the moving object tracking device 1 is a standing person. In this embodiment, for example, a spheroid approximating the three-dimensional shape of the three parts of the person's head, torso, and leg is used. A moving object model stacked in the Z-axis direction is set. The height from the reference plane to the top of the head is represented by H, and the maximum width of the trunk (the trunk minor axis diameter) is represented by W. In this embodiment, in order to simplify the description, the height H and the width W are standard human sizes and are common to any moving object. The center of the head is set as the representative position of the moving object. Note that the moving object model may be further simplified and approximated by one spheroid. Data relating to the three-dimensional shape of the moving object model is stored in the storage unit 4 prior to the tracking process.

また、記憶部4に移動物体モデルとして格納されるデータは、追跡対象の移動物体を個々に特徴付ける参照情報として、監視画像から抽出された各移動物体の特徴量(例えば色ヒストグラムなどの画像特徴)を含む。当該移動物体の特徴量は、入力画像にて追跡対象となる移動物体が新規に検出されると、当該検出位置に対応した画像領域から抽出され、記憶部4に格納される。なお、移動物体モデルの形状に関するデータも移動物体の画像特徴を抽出する際に参照情報として用いられ監視画像と対比される。   The data stored as a moving object model in the storage unit 4 is the feature information of each moving object extracted from the monitoring image (for example, image features such as a color histogram) as reference information for individually characterizing the moving object to be tracked. including. The feature quantity of the moving object is extracted from the image area corresponding to the detected position and stored in the storage unit 4 when a moving object to be tracked is newly detected in the input image. Note that the data related to the shape of the moving object model is also used as reference information when extracting the image features of the moving object and is compared with the monitoring image.

図2は、三次元モデル40の一例を模式的に示す斜視図であり、監視空間をN×M×Kの位置座標に離散化した仮想空間の基準面100、カメラ位置101、障害物#1,#2の障害物モデル102,103及び移動物体モデル104の配置例を示している。障害物#1は人物の高さHより低く、おおよそ人物の腰の高さである。障害物#2は人物の高さHより高い。   FIG. 2 is a perspective view schematically showing an example of the three-dimensional model 40. The reference plane 100 of the virtual space, the camera position 101, and the obstacle # 1 are obtained by discretizing the monitoring space into N × M × K position coordinates. , # 2 obstacle models 102 and 103 and a moving object model 104 are shown. Obstacle # 1 is lower than the person's height H and is approximately the person's waist height. Obstacle # 2 is higher than the height H of the person.

ペナルティマップ41は、監視空間の各位置において移動物体が存在し得ない度合いを表すペナルティ値を当該位置と対応付けたデータである。移動物体の存在を妨げる要因は障害物であり、ペナルティ値として少なくとも障害領域内に正の値が設定され、好ましくはさらに障害領域の周囲にも正の値が設定される。障害領域内には対応する障害物が高いほど大きなペナルティ値が設定される。   The penalty map 41 is data in which a penalty value indicating a degree that a moving object cannot exist at each position in the monitoring space is associated with the position. The factor that obstructs the presence of the moving object is an obstacle, and a positive value is set as a penalty value at least in the obstacle area, and preferably a positive value is also set around the obstacle area. A larger penalty value is set in the obstacle area as the corresponding obstacle is higher.

図3は、図2の三次元モデル40により模擬される監視空間のペナルティマップ41の例を示している。ペナルティマップ41は、基準面に対応して位置を表すX軸及びY軸と、X軸及びY軸と直交してペナルティ値を表すP軸とを有する。障害物#1が存在する障害領域及びその周辺に、障害物#1によるペナルティ値200が設定されており、障害物#2が存在する障害領域及びその周辺に、障害物#2によるペナルティ値201が設定されている。障害物#1よりも障害物#2の方が高いため、ペナルティ値200よりもペナルティ値201の方が大きく設定される。障害物から離れた位置におけるペナルティ値は0である。一点鎖線はペナルティ値が0になる位置を表している。   FIG. 3 shows an example of a penalty map 41 of the monitoring space simulated by the three-dimensional model 40 of FIG. The penalty map 41 has an X-axis and a Y-axis that represent a position corresponding to the reference plane, and a P-axis that represents a penalty value orthogonal to the X-axis and the Y-axis. A penalty value 200 due to obstacle # 1 is set in and around the obstacle area where obstacle # 1 exists, and a penalty value 201 due to obstacle # 2 is set around and in the obstacle area where obstacle # 2 exists. Is set. Since the obstacle # 2 is higher than the obstacle # 1, the penalty value 201 is set larger than the penalty value 200. The penalty value at a position away from the obstacle is zero. A one-dot chain line represents a position where the penalty value becomes zero.

カメラパラメータ42は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ42を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。   The camera parameter 42 includes information regarding projection conditions when the imaging unit 2 captures a monitoring image in which the monitoring space is projected. For example, external parameters such as the installation position and imaging direction of the imaging unit 2 in the actual monitoring space, focal length, angle of view, lens distortion, and other lens characteristics of the imaging unit 2, and internal parameters such as the number of pixels of the imaging element are included. These parameters obtained by actual measurement or the like are input in advance from the setting input unit 3 and stored in the storage unit 4. The three-dimensional model 40 can be projected onto the coordinate system of the monitoring image (imaging plane of the imaging unit 2; xy coordinate system) by a coordinate transformation formula in which the camera parameter 42 is applied to a known camera model such as a pinhole camera model.

予測位置43(仮説)は、各時刻における移動物体の位置の予測値(予測位置)に関する情報である。確率的に移動物体の位置(物体位置)を判定するために予測位置は移動物体ごとに多数(その個数をαで表す。例えば1移動物体あたり200個)設定される。具体的には、予測位置43は、移動物体の識別子と、各時刻における予測位置のインデックス(0〜α−1)及びその位置座標(XYZ座標系)とを対応付けた時系列データである。   The predicted position 43 (hypothesis) is information regarding the predicted value (predicted position) of the position of the moving object at each time. In order to determine the position (object position) of a moving object stochastically, a large number of predicted positions are set for each moving object (the number is represented by α, for example, 200 per moving object). Specifically, the predicted position 43 is time-series data in which an identifier of a moving object is associated with an index (0 to α-1) of a predicted position at each time and its position coordinates (XYZ coordinate system).

物体位置44は各時刻における移動物体の位置に関する情報であり、具体的には、移動物体の識別子と位置座標(XYZ座標系)とを対応付けた時系列データである。   The object position 44 is information regarding the position of the moving object at each time, and specifically is time-series data in which the identifier of the moving object is associated with the position coordinates (XYZ coordinate system).

なお、予測位置43、物体位置44を監視空間の水平面座標(XY座標系)で特定する構成として処理を高速化することができる。本実施形態では、理解を容易にするために当該構成を例に説明する。   Note that the processing can be speeded up as a configuration in which the predicted position 43 and the object position 44 are specified by the horizontal coordinate (XY coordinate system) of the monitoring space. In the present embodiment, the configuration will be described as an example for easy understanding.

制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、ペナルティ設定部50、変化画素抽出部51、位置予測部52、物体位置判定部53及び異常判定部54として機能する。   The control unit 5 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads and executes a program from the storage unit 4, and a penalty setting unit 50. , Function as a change pixel extraction unit 51, position prediction unit 52, object position determination unit 53, and abnormality determination unit 54.

ペナルティ設定部50は、障害物モデルと移動物体モデルを参照してペナルティマップ41を作成し、作成されたペナルティマップ41を記憶部4に記憶させる。具体的にはペナルティ設定部50は、後述する移動物体の予測位置に対応して算出される評価値に対するペナルティ値を基準面上の各位置に設定する。評価値が監視画像の画像特徴に基づいて算出される、監視空間の各位置での移動物体が存在する尤もらしさの度合いを表すのに対し、ペナルティ値は障害物の存在に基づいて算出される、監視空間の各位置での移動物体が存在し得ない度合いを表す。   The penalty setting unit 50 creates a penalty map 41 with reference to the obstacle model and the moving object model, and stores the created penalty map 41 in the storage unit 4. Specifically, the penalty setting unit 50 sets a penalty value for an evaluation value calculated corresponding to a predicted position of a moving object, which will be described later, at each position on the reference plane. The evaluation value is calculated based on the image feature of the monitoring image, and represents the degree of likelihood that there is a moving object at each position in the monitoring space, whereas the penalty value is calculated based on the presence of an obstacle. This represents the degree to which no moving object can exist at each position in the monitoring space.

ペナルティ設定部50は少なくとも障害物が存在する障害領域にペナルティ値を設定する。このペナルティ値は移動物体の各障害物上へのはみ出しやすさに対応するものであり、高い障害物ほど大きな値が設定される。この障害物ごとのペナルティ値の最大値を固有ペナルティ値と称する。固有ペナルティ値は、障害物の高さに応じて増加するように設定される。この固有ペナルティ値は、単純に障害物の高さに応じて定義することもできる他、本実施形態で行うように障害物の高さと移動物体の高さとの関係を考慮に入れて定義することもできる。   The penalty setting unit 50 sets a penalty value at least in an obstacle area where an obstacle exists. This penalty value corresponds to the ease with which a moving object protrudes onto each obstacle, and a larger value is set for a higher obstacle. The maximum penalty value for each obstacle is referred to as a unique penalty value. The inherent penalty value is set so as to increase according to the height of the obstacle. This unique penalty value can be defined simply according to the height of the obstacle, and also defined in consideration of the relationship between the height of the obstacle and the height of the moving object, as in this embodiment. You can also.

具体的にはペナルティ設定部50は、各障害物の障害領域におけるペナルティ値の最大値(固有ペナルティ値)Phを、障害物の高さhが0のときに後述する尤度の下限値Pmin(=0.0)に、また、障害物の高さhが移動物体の高さH以上(h≧H)であるときに後述する尤度の上限値Pmax(例えば1.0)に設定し、障害物の高さhが0≦h<Hなる範囲にある場合はPhをhに応じて増加させる。例えば0≦h<HにてPhをhの比例関数に設定することができる(図5(a))。このように設定することで、例えば障害物が人の肩の高さの棚である場合よりも腰の高さのテーブルである場合の方が、物体位置が障害領域内に判定され易くなり、実態に即した物体位置の判定が可能となる。また例えば人の身長を越える高い棚、壁又は柱のような障害領域には上限値Pmaxが設定され、この障害領域にはみ出す物体位置は判定されなくなるので、正しい物体位置が判定できる。   Specifically, the penalty setting unit 50 sets the maximum penalty value (inherent penalty value) Ph in the obstacle area of each obstacle to a lower limit value Pmin (likelihood described later) when the obstacle height h is zero. = 0.0), and when the height h of the obstacle is equal to or higher than the height H of the moving object (h ≧ H), a likelihood upper limit value Pmax (for example, 1.0) described later is set, When the height h of the obstacle is in the range of 0 ≦ h <H, Ph is increased according to h. For example, when 0 ≦ h <H, Ph can be set to a proportional function of h (FIG. 5A). By setting in this way, for example, when the obstacle is a hip-height table rather than a person's shoulder-height shelf, the object position is more easily determined within the obstacle region, The object position can be determined in accordance with the actual situation. Further, for example, an upper limit value Pmax is set for an obstacle region such as a high shelf, wall, or pillar that exceeds the height of a person, and the object position that protrudes from the obstacle region is not determined, so that the correct object position can be determined.

また、移動物体のはみ出しは障害物の縁部で生じやすいことに対応してペナルティ設定部50は障害領域のうち障害物の中心よりも縁部のペナルティ値を小さく設定する。具体的には、ペナルティ設定部50は、障害領域のうち当該障害領域の周に沿って設定する縁部(内縁領域)を除いた内部領域ではペナルティ値として当該障害領域に対応する障害物の固有ペナルティ値Phを設定し、内縁領域では障害領域の周に近づくほど固有ペナルティ値から減少するペナルティ値を設定する。   Further, the penalty setting unit 50 sets the penalty value of the edge part smaller than the center of the obstacle in the obstacle region, corresponding to the fact that the protrusion of the moving object is likely to occur at the edge part of the obstacle. Specifically, the penalty setting unit 50 determines the uniqueness of the obstacle corresponding to the obstacle area as a penalty value in the inner area excluding the edge (inner edge area) set along the circumference of the obstacle area. A penalty value Ph is set, and in the inner edge region, a penalty value that decreases from the inherent penalty value as the circumference of the failure region is approached is set.

ペナルティ設定部50は、縁部の幅uを移動物体の高さから障害物の高さを引いた残りの高さに応じて設定する。すなわち、各障害領域の縁部の幅uは、当該障害領域に対応する障害物の高さが移動物体の高さより低いほど広く設定する。このように設定した縁部の幅uは人体が障害物上にはみ出し得る部分の大きさに相当する。例えば障害物が人の肩の高さの棚である場合は肩から上がはみ出し可能であるが、腰の高さのテーブルである場合は上半身全体がはみ出し可能である。この設定によりさらに実際的な物体位置の判定が可能となる。   The penalty setting unit 50 sets the width u of the edge according to the remaining height obtained by subtracting the height of the obstacle from the height of the moving object. That is, the width u of the edge of each obstacle area is set wider as the height of the obstacle corresponding to the obstacle area is lower than the height of the moving object. The width u of the edge set in this way corresponds to the size of the portion where the human body can protrude over the obstacle. For example, when the obstacle is a shelf at the height of a person's shoulder, the upper part can protrude from the shoulder, but when the obstacle is a table at the waist level, the entire upper body can protrude. This setting makes it possible to determine the actual object position.

また、ペナルティ設定部50は、移動物体の幅Wに応じた広さの障害物の外周領域(外縁領域)にも正のペナルティ値を設定するように構成することができる。この構成は、人や動物などの移動物体は概して障害物にぶつかるような動きを選択することが少ないことに基づく。外周領域のペナルティ値は基本的には、移動物体の障害領域へのはみ出しを許容することとの整合性をとるために障害領域内よりも低く設定される。   Further, the penalty setting unit 50 can be configured to set a positive penalty value also in the outer peripheral area (outer edge area) of an obstacle having a width corresponding to the width W of the moving object. This configuration is based on the fact that moving objects such as humans and animals generally choose less movement that hits an obstacle. The penalty value of the outer peripheral area is basically set lower than that in the obstacle area in order to achieve consistency with allowing the moving object to protrude into the obstacle area.

ペナルティ設定部50は例えば、外周領域の幅を1.5Wに設定し、障害領域の境界から外側へ距離1.5Wの位置でのペナルティ値pを0に定め、当該位置から外周領域の内側へ向けてペナルティ値を増加させる。本実施形態では、ペナルティ設定部50は障害領域の内側に縁部を設定し、例えば、外周領域及び縁部での位置に応じて、ペナルティ値を障害領域から外側への距離1.5Wの位置での値0から内側への距離uの位置での値Phまで、連続的に変化させる。尚、移動物体の高さと障害物の高さとの差に基づいて設定される縁部の幅uが障害領域の幅よりも大きくなる場合、ペナルティ設定部50は障害領域の中心でペナルティ値が最大値Phとなるように、縁部、又は縁部及び外周領域でのペナルティ値の変化関数に補正を加える。   For example, the penalty setting unit 50 sets the width of the outer peripheral area to 1.5 W, sets the penalty value p at a distance of 1.5 W outward from the boundary of the obstacle area to 0, and moves from the position to the inner side of the outer peripheral area. Increase the penalty value toward. In the present embodiment, the penalty setting unit 50 sets an edge on the inner side of the failure area, and, for example, a penalty value is set at a distance of 1.5 W from the failure area to the outside according to the positions in the outer peripheral area and the edge. The value is continuously changed from the value 0 at 0 to the value Ph at the position of the distance u inward. If the edge width u set based on the difference between the height of the moving object and the height of the obstacle is larger than the width of the obstacle area, the penalty setting unit 50 has the maximum penalty value at the center of the obstacle area. Correction is made to the change function of the penalty value at the edge or the edge and the outer peripheral region so as to be the value Ph.

上述のようなペナルティ値を用いることで障害領域における移動物体の存在を一律に排除する処理ではなく、移動物体の位置が障害領域内に存在することを限定的に許容する処理が可能となる。また、外周領域のペナルティ値は移動物体の位置が障害領域に近づきにくくする作用をもたらす。   By using the penalty value as described above, it is possible to perform processing that allows the position of the moving object to exist within the obstacle area in a limited manner, instead of the process that uniformly eliminates the existence of the moving object in the obstacle area. Further, the penalty value in the outer peripheral region has an effect of making it difficult for the position of the moving object to approach the obstacle region.

図4は障害領域及び外周領域でのペナルティマップ41を説明する模式図である。同図は、横軸を障害領域の境界を原点とした距離dを表す軸、縦軸をペナルティ値pを表す軸として、障害領域の境界に直交する線に沿ったペナルティ値の変化を太線で示している。d軸にて原点より左側が外周領域、右側が障害領域である。図4は障害物の高さhが異なる4つの場合を示しており、障害物の断面を図中にて斜線で示している。また、移動物体である人の形状を点線で示している。図の右側のz軸は、これら障害物及び移動物体の高さに関する座標軸である。上述のようにペナルティ値の最大値Pmaxは移動物体の高さHに対応して設定され、各障害物の固有ペナルティ値Phは障害物の高さhに対応して設定されることから、p軸上のPmax及びPhとz軸上のH及びhとを縦方向の同じ位置に揃えて示している。   FIG. 4 is a schematic diagram for explaining a penalty map 41 in the failure area and the outer peripheral area. In the figure, the change in penalty value along the line perpendicular to the boundary of the obstacle region is indicated by a bold line, with the horizontal axis indicating the distance d with the boundary of the obstacle region as the origin and the vertical axis indicating the penalty value p. Show. On the d-axis, the left side from the origin is the outer peripheral area and the right side is the obstacle area. FIG. 4 shows four cases where the heights h of the obstacles are different, and the cross section of the obstacle is indicated by oblique lines in the figure. In addition, the shape of a person who is a moving object is indicated by a dotted line. The z-axis on the right side of the figure is a coordinate axis related to the heights of these obstacles and moving objects. As described above, the maximum value Pmax of the penalty value is set corresponding to the height H of the moving object, and the inherent penalty value Ph of each obstacle is set corresponding to the height h of the obstacle. Pmax and Ph on the axis and H and h on the z-axis are shown aligned at the same vertical position.

障害物の高さは図4にて(a)から(d)への順で高くなり(d)の障害物はHより高い。これに対応して、ペナルティ値の最大値Ph(平らな部分)は(a)から(d)への順で高くなり(d)では上限値Pmaxとなる。なお、図4における障害物の高さに応じたPhの変化は図5(a)に示す例に従っている。縁部の幅uは、移動物体が障害物を越える高さに応じて(a)から(d)への順で狭くなり(d)で0に設定される。(a)から(d)を比べるとそれらの内部領域及び縁部のいずれにおいても、互いに対応する位置でのペナルティ値は(a)(b)(c)(d)の順に増加している。   In FIG. 4, the height of the obstacle increases in the order from (a) to (d), and the obstacle in (d) is higher than H. Correspondingly, the maximum value Ph (flat portion) of the penalty value increases in the order from (a) to (d) and becomes the upper limit value Pmax in (d). In addition, the change of Ph according to the height of the obstacle in FIG. 4 is according to the example shown in FIG. The width u of the edge is narrowed in the order from (a) to (d) according to the height at which the moving object exceeds the obstacle, and is set to 0 at (d). Comparing (a) to (d), the penalty values at the positions corresponding to each other increase in the order of (a), (b), (c), and (d) in both the inner region and the edge.

ペナルティ値は、障害領域の内側へ距離uの位置から外側に向かって単調に減少する減衰曲線に基づいて設定され、障害領域の境界から離れる方向へ距離1.5Wの位置で0となる。移動物体モデルが障害物モデルと接する、又は干渉する位置が物体位置として判定されにくくするために外周領域の幅は少なくともW/2は必要である。一方、障害物から離れた物体位置が判定されにくくならないように外周領域の幅は2W程度を上限とするのがよい。また、障害物が高いほど移動物体の障害物上へのはみ出しが抑制され、物体位置が障害領域の外側へ退けられやすくなることを反映させるために、縁部及び外周領域でのペナルティ値の減衰曲線の減衰率を幅uが狭くなるほど高く設定するのがよい。図4に示す例では減衰曲線を指数関数により設定している。   The penalty value is set based on an attenuation curve that monotonously decreases outward from the position of the distance u to the inside of the obstacle area, and becomes 0 at a distance of 1.5 W in a direction away from the boundary of the obstacle area. In order to make it difficult to determine the position where the moving object model contacts or interferes with the obstacle model as the object position, the width of the outer peripheral region needs to be at least W / 2. On the other hand, the width of the outer peripheral region should be about 2 W as an upper limit so that the object position away from the obstacle is not easily determined. In order to reflect the fact that the higher the obstacle is, the more the moving object protrudes onto the obstacle and the more easily the object position is moved outside the obstacle area, the penalty values are attenuated at the edge and outer peripheral area. It is preferable to set the attenuation rate of the curve higher as the width u becomes smaller. In the example shown in FIG. 4, the attenuation curve is set by an exponential function.

図5は、障害物の高さhに応じた固有ペナルティ値Phの変化の態様を示す模式的なグラフである。図5において横軸が障害物の高さhであり、縦軸が固有ペナルティ値Phである。図5(a)は0≦h<HにてPhがhの比例関数で表される構成を示しており、上述した構成はこの関数を用いた例を説明した。   FIG. 5 is a schematic graph showing an aspect of a change in the specific penalty value Ph according to the height h of the obstacle. In FIG. 5, the horizontal axis is the height h of the obstacle, and the vertical axis is the inherent penalty value Ph. FIG. 5A shows a configuration in which 0 ≦ h <H and Ph is represented by a proportional function of h, and the above-described configuration has been described as an example using this function.

他の構成例では、0≦h<HでのPhを表す関数は、移動物体に備わる所定の関節部の高さにて段階的に増加するものに設定される。図5(b)のステップ関数がこの構成を示している。具体的には、人体において膝、股関節(股下)、腰、脇(肩)、首などを、主要な関節部として定め、当該関節部の高さごとに段階的にペナルティ値の最大値Phを設定する。関節部の高さは人体の標準体格に合わせて予め設定することができる。例えば、当該関節部の高さを移動物体モデルの一部として記憶部4に記憶し、ペナルティ設定部50は障害物の高さhを記憶部4から読み出した関節部の高さと比較して、当該障害物に対するPhを設定する。なお、関節部の高さとPhとの対応関係も予め記憶部4に格納し、ペナルティ設定部50はこれを読み出して障害物の高さに応じたPhを設定する。また、関節部の高さに応じて段階的に変化するPhの関数を予め設定し、ペナルティ設定部50が当該関数を計算してPhを設定する構成とすることもできる。関節での身体の屈曲は人体が障害物上にはみ出す主な原因となり、どの関節部が障害物より上にあるかは人体が障害物上へのはみ出し易さやはみ出し量の大小に影響を与える。よって、このように関節を考慮したPhの設定は、移動物体の位置の判定精度向上に好適である。その際、様々な関節についてその可動域を考慮することが理想的であるがモデルが複雑となる。その点、上述のような主要な関節部の高さを考慮する構成は身体の屈曲の影響を少ないパラメータで簡易に表現し、物体位置の判定に反映させることができる。   In another configuration example, the function representing Ph when 0 ≦ h <H is set to increase in a stepwise manner at the height of a predetermined joint portion included in the moving object. The step function of FIG. 5B shows this configuration. Specifically, knees, hip joints (inseam), hips, armpits (shoulders), necks, etc. are defined as main joint parts in the human body, and the maximum penalty value Ph is set step by step for each joint part height. Set. The height of the joint can be preset according to the standard physique of the human body. For example, the height of the joint part is stored in the storage unit 4 as a part of the moving object model, and the penalty setting unit 50 compares the height h of the obstacle with the height of the joint part read from the storage unit 4, Ph for the obstacle is set. The correspondence between the height of the joint and Ph is also stored in the storage unit 4 in advance, and the penalty setting unit 50 reads this and sets Ph corresponding to the height of the obstacle. Alternatively, a Ph function that changes stepwise according to the joint height may be set in advance, and the penalty setting unit 50 may calculate the function and set Ph. The flexion of the body at the joint is the main cause of the human body protruding above the obstacle, and which joint portion is above the obstacle affects the ease with which the human body protrudes over the obstacle and the amount of protrusion. Therefore, the Ph setting in consideration of the joint in this way is suitable for improving the determination accuracy of the position of the moving object. At that time, it is ideal to consider the range of motion for various joints, but the model becomes complicated. In this respect, the above-described configuration taking into account the heights of the main joints can easily express the influence of bending of the body with a small number of parameters and reflect it in the determination of the object position.

さらに別の構成例は主要関節部の高さに合わせて傾きを連続的に変化させた関数である。図5(c)はその一例であり、図5(b)のステップ関数を曲線近似した関数である。   Yet another configuration example is a function in which the inclination is continuously changed according to the height of the main joint. FIG. 5C is an example thereof, which is a function obtained by curve approximation of the step function of FIG.

変化画素抽出部51は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を物体位置判定部53へ出力する。そのために変化画素抽出部51は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は背景画像を参照情報として監視画像との対比により抽出される移動物体の画像特徴である。なお、差分処理に代えて新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。   The change pixel extraction unit 51 extracts a change pixel from the monitoring image newly input from the imaging unit 2, and outputs information about the extracted change pixel to the object position determination unit 53. Therefore, the change pixel extraction unit 51 performs a difference process between the newly input monitoring image and the background image, and extracts a pixel whose difference is equal to or greater than a preset difference threshold as a change pixel. The change pixel is an image feature of the moving object extracted by comparing with the monitoring image using the background image as reference information. Note that the changed pixels may be extracted by a correlation process between the newly input monitoring image and the background image instead of the difference process, or the background model is learned instead of the background image and the difference process with the background model is performed. The change pixel may be extracted by.

位置予測部52(仮説設定部)は、移動物体の過去の位置情報(物体位置44又は予測位置43)を用いて当該移動物体の動き予測を行い、移動物体の現時刻における移動先の候補位置である複数の予測位置を求める。   The position prediction unit 52 (hypothesis setting unit) predicts the movement of the moving object using the past position information of the moving object (the object position 44 or the predicted position 43), and the candidate position of the movement destination at the current time of the moving object A plurality of predicted positions are obtained.

まず、位置予測部52は、過去に判定された各移動物体の物体位置又は過去に設定された各移動物体の予測位置から動き予測を行なって、新たに監視画像が入力された時刻において移動物体が存在する位置を予測し、予測された位置(予測位置)を物体位置判定部53へ出力する。上述したように予測位置は各移動物体に対してα個設定される。このように多数の予測位置を順次設定して確率的に移動物体の位置(物体位置)を判定する方法はパーティクルフィルタなどと呼ばれ、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の位置データに所定の運動モデルを適用するか、又は所定の予測フィルタを適用することで行なわれる。   First, the position prediction unit 52 performs motion prediction from the object position of each moving object determined in the past or the predicted position of each moving object set in the past, and the moving object at the time when a new monitoring image is input. Is predicted, and the predicted position (predicted position) is output to the object position determination unit 53. As described above, α predicted positions are set for each moving object. A method of determining a position (object position) of a moving object in a probabilistic manner by sequentially setting a large number of predicted positions in this manner is called a particle filter or the like, and the set predicted position is called a hypothesis or the like. The predicted position can be set in the xy coordinate system of the monitoring image, but in the present embodiment, it is set in the XYZ coordinate system of the monitoring space. Motion prediction is performed by applying a predetermined motion model or applying a predetermined prediction filter to past position data.

物体位置判定部53は、監視画像及び監視空間内において対象物が存在し得る候補位置を入力され、各候補位置に対応して現時刻の監視画像から抽出される移動物体の特徴量に応じた評価値を算出する。そして、各候補位置の当該評価値に基づいて移動物体の位置を判定し、判定結果を記憶部4に記憶させる。候補位置は位置予測部52から入力された予測位置である。   The object position determination unit 53 receives a monitoring image and a candidate position where the target object can exist in the monitoring space, and corresponds to the feature amount of the moving object extracted from the monitoring image at the current time corresponding to each candidate position. An evaluation value is calculated. Then, the position of the moving object is determined based on the evaluation value of each candidate position, and the determination result is stored in the storage unit 4. The candidate position is a predicted position input from the position prediction unit 52.

物体位置判定部53は、ペナルティ値を加味して移動物体の各予測位置に当該移動物体が存在する確度を算出する存在確度算出部530(尤度算出部)及び各予測位置の評価から移動物体ごとに1つの物体位置を判定する物体位置算出部531を含んで構成される。以下、存在確度算出部530及び物体位置算出部531について詳説する。   The object position determination unit 53 calculates a probability that the moving object exists at each predicted position of the moving object by taking a penalty value into account, and the moving object from the evaluation of each predicted position. An object position calculation unit 531 for determining one object position for each is configured. Hereinafter, the existence accuracy calculation unit 530 and the object position calculation unit 531 will be described in detail.

存在確度算出部530は、監視画像において各移動物体の予測位置に対応する領域から当該移動物体の特徴量を抽出し、特徴量の抽出度合いに応じた、当該予測位置の物体位置としての尤度を存在確度として算出して物体位置算出部531へ出力する。このとき存在確度算出部530は、ペナルティマップ41を参照して、予測位置に(正の)ペナルティ値が設定されている場合に、当該ペナルティ値により当該予測位置の尤度を低める補正を行なう。   The existence accuracy calculation unit 530 extracts the feature amount of the moving object from the region corresponding to the predicted position of each moving object in the monitoring image, and the likelihood as the object position of the predicted position according to the degree of feature amount extraction. As the existence accuracy and output to the object position calculation unit 531. At this time, the existence accuracy calculation unit 530 refers to the penalty map 41 and performs correction to reduce the likelihood of the predicted position by the penalty value when a (positive) penalty value is set at the predicted position.

予測位置のXY座標を(X,Y)、当該予測位置に対する補正前の尤度をL0(X,Y)、当該位置のペナルティ値をp(X,Y)とすると、当該予測位置に対する補正後の尤度L(X,Y)は次式(1)のように補正前の尤度からペナルティ値を減算することによって算出される。
L(X,Y)=L0(X,Y)−p(X,Y) ・・・(1)
If the XY coordinate of the predicted position is (X, Y), the likelihood before correction for the predicted position is L0 (X, Y), and the penalty value of the position is p (X, Y), the corrected position for the predicted position is corrected. The likelihood L (X, Y) of is calculated by subtracting the penalty value from the likelihood before correction as in the following equation (1).
L (X, Y) = L0 (X, Y) -p (X, Y) (1)

ちなみに上述したペナルティ値の値域[0,1]は尤度の値域が[0,1]であることに対応させている。ペナルティ値の値域を[0,1]に正規化していない場合には、(1)式の右辺の減算結果が0未満となり得るが、その場合のL(X,Y)は0と定義する。   Incidentally, the above-described penalty value range [0, 1] corresponds to the likelihood range [0, 1]. When the range of penalty values is not normalized to [0, 1], the subtraction result on the right side of equation (1) can be less than 0. In this case, L (X, Y) is defined as 0.

また、補正後の尤度L(X,Y)は次式(2)のように、ペナルティ値の上限値Pmax(ここでは“1”に正規化されているとする。)からペナルティ値を減算した値を補正係数として、補正前の尤度に乗じて算出してもよい。
L(X,Y)=L0(X,Y)×{1−p(X,Y)} ・・・(2)
Further, the likelihood L (X, Y) after correction is obtained by subtracting the penalty value from the upper limit value Pmax (here, normalized to “1”) of the penalty value as shown in the following equation (2). The calculated value may be calculated as a correction coefficient by multiplying the likelihood before correction.
L (X, Y) = L0 (X, Y) × {1-p (X, Y)} (2)

なお、ここではペナルティ値は図5に示すように[0,Pmax]なる範囲で定義している。一方、ペナルティ値自体はPmaxを越えて設定することを許容し、(2)式で示す補正段階にて、p(X,Y)>PmaxのときはL(X,Y)は0と定義することにしてもよい。   Here, the penalty value is defined in the range of [0, Pmax] as shown in FIG. On the other hand, the penalty value itself is allowed to be set to exceed Pmax, and L (X, Y) is defined as 0 when p (X, Y)> Pmax at the correction stage shown by the equation (2). You may decide.

補正前の尤度L0は次のように算出される。存在確度算出部530は、障害物モデルを所定位置に配置するとともに予測位置に移動物体モデルを仮想的に配置した三次元モデル40を生成する。そして、カメラパラメータ42を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、下記(1)〜(4)のいずれかの方法で尤度を算出する。ここで、非隠蔽領域は、注目している移動物体モデルが障害物や他の移動物体により隠蔽されずに監視画像上に像として現れる領域である。
(1)変化画素抽出部51により抽出された変化画素に非隠蔽領域を重ね合わせ、変化画素が非隠蔽領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に移動物体が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度の高さに応じた尤度を算出する。
(2)監視画像における非隠蔽領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に移動物体が存在する位置に近いほど、非隠蔽領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は高くなり、一方、遠ざかるほど抽出度は低くなりやすい。そこで、エッジの抽出度の高さに応じた尤度を算出する。
(3)各移動物体の過去の物体位置における非隠蔽領域から抽出された特徴量を当該移動物体の参照情報として記憶部4に記憶する。予測位置が現に移動物体が存在する位置に近いほど背景や他の移動物体の特徴量が混入しなくなるため、非隠蔽領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から非隠蔽領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
The likelihood L0 before correction is calculated as follows. The existence accuracy calculation unit 530 generates the three-dimensional model 40 in which the obstacle model is arranged at a predetermined position and the moving object model is virtually arranged at the predicted position. Then, the camera parameter 42 is used to project the three-dimensional model 40 onto the imaging surface of the imaging unit 2 to obtain a non-hidden region of the moving object model, and the likelihood is calculated by any of the following methods (1) to (4). calculate. Here, the non-hidden region is a region in which the moving object model of interest appears as an image on the monitoring image without being hidden by an obstacle or another moving object.
(1) A non-obscured region is superimposed on the changed pixel extracted by the changed pixel extraction unit 51, and a ratio (inclusion degree) in which the changed pixel is included in the non-hidden region is obtained. Inclusion degree increases as the predicted position is closer to the position where the moving object actually exists, and tends to decrease as the distance increases. Therefore, the likelihood corresponding to the high degree of inclusion is calculated.
(2) Extract an edge from a portion corresponding to the contour of the non-hidden region in the monitoring image. The closer the predicted position is to the position where the moving object actually exists, the more the edge extraction degree (for example, the sum of the extracted edge strengths) becomes higher because the contour of the non-hidden region matches the edge position. The degree tends to be low. Therefore, the likelihood corresponding to the degree of edge extraction is calculated.
(3) The feature amount extracted from the non-hidden region at the past object position of each moving object is stored in the storage unit 4 as reference information of the moving object. As the predicted position is closer to the position where the moving object actually exists, the feature amount of the background and other moving objects will not be mixed, so the similarity between the feature amount extracted from the non-hidden region and the reference information becomes high, The similarity tends to decrease as the distance increases. Therefore, the feature amount in the non-hidden region is extracted from the monitoring image, and the similarity between the extracted feature amount and the reference information is calculated as the likelihood. As the feature amount here, for example, various image feature amounts such as an edge distribution, a color histogram, or both of them can be used.
(4) The likelihood may be calculated according to a weighted addition value of a plurality of degrees of the above-described inclusion degree, edge extraction degree, and similarity degree.

なお、尤度を評価値にする代わりに上述した包含度、エッジの抽出度、類似度又はこれらの2以上を組み合わせた値を評価値とすることもできる。   Instead of using the likelihood as an evaluation value, the above-described inclusion degree, edge extraction degree, similarity degree, or a combination of two or more of these can be used as the evaluation value.

物体位置算出部531は、移動物体の各予測位置、及び当該予測位置ごとに算出された尤度から当該移動物体の位置(物体位置)を判定し、判定結果を記憶部4に移動物体ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)移動物体ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該移動物体の物体位置とする。
(2)移動物体ごとに、最大の尤度が算出された予測位置を求め、これを物体位置とする。
(3)移動物体ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
The object position calculation unit 531 determines the position (object position) of the moving object from each predicted position of the moving object and the likelihood calculated for each predicted position, and stores the determination result in the storage unit 4 for each moving object. Accumulate in time series. When all the likelihoods are less than a predetermined lower limit (likelihood lower limit), it is determined that there is no object position, that is, disappeared. The following (1) to (3) are examples of the object position calculation method.
(1) For each moving object, a weighted average value of predicted positions weighted by likelihood is calculated, and this is set as the object position of the moving object.
(2) For each moving object, a predicted position where the maximum likelihood is calculated is obtained and set as the object position.
(3) For each moving object, an average value of predicted positions at which likelihoods equal to or higher than a preset likelihood threshold value are calculated is set as the object position. Here, the likelihood threshold> the likelihood lower limit value.

異常判定部54は、記憶部4に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。   The abnormality determination unit 54 refers to the time-series object positions accumulated in the storage unit 4, determines that a suspicious movement that stays for a long time or a suspicious movement that deviates from the normal flow line is abnormal, and determines the abnormality. And output an abnormal signal to the output unit 6.

出力部6は警告音を出力する音響出力手段、異常が判定された監視画像を表示する表示手段、又は通信回線を介して警備会社のセンタ装置へ送信する通信手段などを含んでなり、異常判定部54から異常信号が入力されると異常発生の旨を外部へ出力する。   The output unit 6 includes a sound output means for outputting a warning sound, a display means for displaying a monitoring image determined to be abnormal, or a communication means for transmitting to a security company center device via a communication line. When an abnormality signal is input from the unit 54, the fact that an abnormality has occurred is output to the outside.

[移動物体追跡装置の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図6は移動物体追跡装置1の追跡処理の概略のフロー図である。
[Operation of moving object tracking device]
Next, the tracking operation of the moving object tracking device 1 will be described. FIG. 6 is a schematic flowchart of the tracking process of the moving object tracking device 1.

追跡処理が開始されると、制御部5はペナルティマップ41が作成されているかを確認し(S1)、作成されていなければペナルティ設定部50がペナルティマップ41を作成し記憶部4に保存する(S2)。   When the tracking process is started, the control unit 5 confirms whether the penalty map 41 is created (S1), and if not created, the penalty setting unit 50 creates the penalty map 41 and stores it in the storage unit 4 ( S2).

移動物体追跡装置1はペナルティマップ41が記憶部4に記憶されている状態で、監視画像ごとに移動物体の物体位置を判定する実質的な追跡処理(ステップS3〜S16)を開始する。   The moving object tracking device 1 starts a substantial tracking process (steps S3 to S16) for determining the object position of the moving object for each monitoring image in a state where the penalty map 41 is stored in the storage unit 4.

制御部5は、撮像部2が監視空間を撮像するたびに監視画像を入力される(S3)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。   The control unit 5 receives a monitoring image every time the imaging unit 2 images the monitoring space (S3). Hereinafter, the time when the latest monitoring image is input is called the current time, and the latest monitoring image is called the current image.

現画像は変化画素抽出部51により背景画像と比較され、変化画素抽出部51は変化画素を抽出する(S4)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。   The current image is compared with the background image by the change pixel extraction unit 51, and the change pixel extraction unit 51 extracts the change pixel (S4). Here, the isolated change pixel is excluded from the extraction result as being caused by noise. Immediately after the start of the operation without a background image, the current image is stored in the storage unit 4 as a background image, and there is no change pixel for convenience.

また、位置予測部52は追跡中の各移動物体に対して動き予測に基づきα個の予測位置を設定する(S5)。なお、後述するステップS16にて新規出現であると判定された移動物体の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にα個の予測位置を設定する。また、後述するステップS16にて消失と判定された移動物体の予測位置は削除する。   Further, the position prediction unit 52 sets α predicted positions based on the motion prediction for each moving object being tracked (S5). Note that the predicted positions of the moving object determined to be a new appearance in step S16, which will be described later, cannot be predicted, and therefore α predicted positions are set in a wider range centering on the appearance position. Further, the predicted position of the moving object determined to be lost in step S16 described later is deleted.

制御部5は、ステップS4にて変化画素が抽出されず、かつステップS5にて予測位置が設定されていない(追跡中の移動物体がない)場合(S6にて「YES」の場合)はステップS3に戻り、次の監視画像の入力を待つ。   If the changed pixel is not extracted in step S4 and the predicted position is not set in step S5 (there is no moving object being tracked) (if “YES” in S6), the control unit 5 performs the step. Returning to S3, the input of the next monitoring image is awaited.

一方、ステップS6にて「NO」の場合は、ステップS7〜S16の処理を行う。制御部5は追跡中の各移動物体を順次、注目物体に設定する(S7)。続いて、制御部5は注目物体の各予測位置を順次、注目位置に設定する(S8)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外し、当該予測位置における物体領域は推定せず、尤度を0に設定する。   On the other hand, if “NO” in the step S6, the processes of the steps S7 to S16 are performed. The control unit 5 sequentially sets each moving object being tracked as a target object (S7). Subsequently, the control unit 5 sequentially sets each predicted position of the target object as the target position (S8). However, the predicted position outside the field of view of the monitoring image is excluded from the target position setting targets, the object region at the predicted position is not estimated, and the likelihood is set to zero.

存在確度算出部530は仮想空間にて注目位置に移動物体モデルを配置し、移動物体モデル及び障害物モデルが配置された三次元モデル40を生成する。そして、カメラパラメータ42を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、これを実空間における移動物体の非隠蔽領域と推定する(S9)。そして、推定した非隠蔽領域に基づいて、注目位置に対応した補正前の尤度L0を算出する(S10)。   The existence accuracy calculation unit 530 arranges the moving object model at the position of interest in the virtual space, and generates the three-dimensional model 40 in which the moving object model and the obstacle model are arranged. Then, the camera parameter 42 is used to project the three-dimensional model 40 onto the imaging surface of the imaging unit 2 to obtain a non-hiding area of the moving object model, which is estimated as a non-hiding area of the moving object in real space (S9). . Then, a pre-correction likelihood L0 corresponding to the target position is calculated based on the estimated non-hidden region (S10).

存在確度算出部530は、ペナルティマップ41を参照して注目位置におけるペナルティ値Pを取得する。注目位置にペナルティ値Pが設定されている場合は(S11にて「YES」の場合)、存在確度算出部530は上述の(1)式等を用いた尤度補正を行い補正された尤度Lを算出する(S12)。なお、注目位置にペナルティ値Pが設定されていない(P=0である)場合(S11にて「NO」の場合)には尤度補正の演算を行わず、注目位置のL0をそのまま当該位置の尤度Lと定める。   The existence accuracy calculation unit 530 refers to the penalty map 41 and acquires the penalty value P at the position of interest. When the penalty value P is set at the position of interest (when “YES” in S11), the existence accuracy calculation unit 530 performs likelihood correction using the above-described equation (1) and the like and the corrected likelihood L is calculated (S12). When the penalty value P is not set at the attention position (P = 0) (“NO” in S11), the likelihood correction is not performed, and the attention position L0 is used as it is. The likelihood L is determined.

制御部5は、尤度が算出されていない予測位置が残っている場合(S13にて「NO」の場合)、ステップS8〜S12を繰り返す。α個全ての予測位置について尤度が算出されると(S13にて「YES」の場合)、物体位置算出部531が注目物体の各予測位置(X,Y)と当該予測位置のそれぞれについて算出された尤度L(X,Y)とを用いて注目物体の物体位置を算出する(S14)。現時刻について算出された物体位置は1時刻前までに記憶部4に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した移動物体の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物体位置なしと判定する。   The control part 5 repeats step S8-S12, when the prediction position in which the likelihood is not calculated remains (in the case of "NO" in S13). When the likelihood is calculated for all α predicted positions (in the case of “YES” in S13), the object position calculation unit 531 calculates each predicted position (X, Y) of the target object and each of the predicted positions. The object position of the object of interest is calculated using the obtained likelihood L (X, Y) (S14). The object position calculated for the current time is added in association with the object position of the object of interest stored in the storage unit 4 one hour before. In the case of a newly appearing moving object, a new identifier is assigned and registered. If the likelihood at all predicted positions is less than the lower limit of likelihood, it is determined that there is no object position.

制御部5は未処理の移動物体が残っている場合(S15にて「NO」の場合)、当該移動物体について物体位置を判定する処理(ステップS7〜S14)を繰り返す。一方、全ての移動物体について物体位置の判定が完了すると(S15にて「YES」の場合)、物体の新規出現と消失を判定する(S16)。具体的には、物体位置算出部531は各物体位置に対して推定された物体領域を合成して、変化画素抽出部51により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが移動物体とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物体位置なしの移動物体があれば当該移動物体が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS3へ戻る。   When an unprocessed moving object remains ("NO" in S15), the control unit 5 repeats the process of determining the object position for the moving object (steps S7 to S14). On the other hand, when the determination of the object positions for all the moving objects is completed (in the case of “YES” in S15), the appearance and disappearance of the objects are determined (S16). Specifically, the object position calculation unit 531 combines the object regions estimated for each object position, detects a change pixel outside the combination region among the change pixels extracted by the change pixel extraction unit 51, Among the detected change pixels, adjacent change pixels are labeled. If the label is of a size that can be regarded as a moving object, a new appearance is recorded in the storage unit 4 together with the label position (appearance position). If there is a moving object without an object position, the fact that the moving object has disappeared is recorded in the storage unit 4. When the above processing is completed, the processing returns to step S3 in order to perform processing on the monitoring image at the next time.

図7は、位置予測部52及び物体位置判定部53による処理例を概念的に示す模式図であり、図8と同様に障害物70(棚)の上に寄りかかった移動物体71(人)に関するものである。図7(a)は水平面(XY平面)上に、障害物70の位置(障害領域72)及び、移動物体71についてのα個の予測位置73の分布を示している。移動物体71が障害物70上に寄りかかっていることに起因して、予測位置73は障害領域72の外側だけでなく障害領域72内にも設定されている。   FIG. 7 is a schematic diagram conceptually showing a processing example by the position predicting unit 52 and the object position determining unit 53, and a moving object 71 (person) leaning on an obstacle 70 (shelf) as in FIG. It is about. FIG. 7A shows the distribution of the positions of the obstacle 70 (obstacle region 72) and α predicted positions 73 with respect to the moving object 71 on the horizontal plane (XY plane). Due to the moving object 71 leaning on the obstacle 70, the predicted position 73 is set not only outside the obstacle area 72 but also inside the obstacle area 72.

図7(b)は、図7(a)にて一点鎖線で示す直線74に沿った垂直面上での障害物70及び移動物体71の形状を点線で示している。さらに同図には、直線74上での予測位置73の尤度L0の分布、障害物70に対応したペナルティ値P、及び補正後の尤度Lの分布をそれぞれ模式的なグラフ75〜77で示している。なお、L0のグラフ75、Pのグラフ76及びLのグラフ77の基準線(値が“0”のレベル)はそれぞれ基準面Z=0を示す直線に一致させている。また、補正後の尤度Lが補正前の尤度L0からペナルティ値Pを減算してされることに対応させて、L(及びL0)の正方向は上向きとし、Pの正方向は下向きに設定している。   FIG. 7B shows the shapes of the obstacle 70 and the moving object 71 on the vertical plane along the straight line 74 shown by the alternate long and short dash line in FIG. Furthermore, in the same figure, the distribution of the likelihood L0 of the predicted position 73 on the straight line 74, the penalty value P corresponding to the obstacle 70, and the distribution of the likelihood L after correction are shown in schematic graphs 75 to 77, respectively. Show. Note that the reference lines (levels with a value of “0”) in the L0 graph 75, the P graph 76, and the L graph 77 are matched with straight lines indicating the reference plane Z = 0. Further, the positive direction of L (and L0) is upward and the positive direction of P is downward, corresponding to the likelihood L after correction being subtracted from the penalty value P from the likelihood L0 before correction. It is set.

上述のように予測位置73は障害領域72内にも設定され、これに起因して補正前の尤度の分布グラフ75は障害領域72内にピークを有する。障害物70の高さは移動物体71の上半身が乗り出せる程度であり、その高さに応じて1より小さい固有ペナルティ値Phが設定される。また、移動物体71の高さから障害物70の高さを引いた差、つまり移動物体71が障害物70上に乗り出せる量に応じた幅の縁部が障害領域72内に設定され、ペナルティ値Pは当該縁部にて障害領域72の内部領域に設定される固有ペナルティ値Phより減衰される。このペナルティ値Pを用いて補正された尤度の分布グラフ77のピークは、補正前のピークより障害領域72の境界側へ移動するが障害領域72内に留まり得る。つまり、本発明の実施形態である移動物体追跡装置1は障害領域内に物体位置を決定することができる。すなわち、障害領域72内には移動物体は存在し得ないとする従来の処理では図8を用いて説明したように物体位置が障害領域外に排斥されたり、誤検出と判断されたりする不都合が起こる場合においても、移動物体追跡装置1によれば物体位置を精度良く判定することが可能である。   As described above, the predicted position 73 is also set in the failure area 72, and thus the likelihood distribution graph 75 before correction has a peak in the failure area 72. The height of the obstacle 70 is such that the upper body of the moving object 71 can get on, and an inherent penalty value Ph smaller than 1 is set according to the height. In addition, an edge having a width corresponding to a difference obtained by subtracting the height of the obstacle 70 from the height of the moving object 71, that is, an amount by which the moving object 71 can get on the obstacle 70 is set in the obstacle region 72. The value P is attenuated by the inherent penalty value Ph set in the inner region of the obstacle region 72 at the edge. The peak of the likelihood distribution graph 77 corrected using the penalty value P moves to the boundary side of the failure region 72 from the peak before correction, but can remain in the failure region 72. That is, the moving object tracking device 1 according to the embodiment of the present invention can determine the object position in the obstacle area. In other words, in the conventional processing in which no moving object can exist in the obstacle area 72, the object position is rejected outside the obstacle area as described with reference to FIG. Even when this occurs, the moving object tracking device 1 can determine the object position with high accuracy.

1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 ペナルティマップ、42 カメラパラメータ、43,73 予測位置、44 物体位置、50 ペナルティ設定部、51 変化画素抽出部、52 位置予測部、53 物体位置判定部、54 異常判定部、70 障害物、71 移動物体、72 障害領域、100 基準面、101 カメラ位置、102,103 障害物モデル、104 移動物体モデル、200,201 ペナルティ値、530 存在確度算出部、531 物体位置算出部。   DESCRIPTION OF SYMBOLS 1 Moving object tracking device, 2 Imaging part, 3 Setting input part, 4 Storage part, 5 Control part, 6 Output part, 40 3D model, 41 Penalty map, 42 Camera parameter, 43, 73 Predicted position, 44 Object position, 50 penalty setting unit, 51 changed pixel extraction unit, 52 position prediction unit, 53 object position determination unit, 54 abnormality determination unit, 70 obstacle, 71 moving object, 72 obstacle region, 100 reference plane, 101 camera position, 102, 103 Obstacle model, 104 moving object model, 200, 201 penalty value, 530 existence accuracy calculation unit, 531 object position calculation unit.

Claims (6)

所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する移動物体を追跡する移動物体追跡装置であって、
注目時刻において前記移動物体が存在し得る候補位置を複数予測する位置予測部と、
前記注目時刻の前記画像における前記候補位置に対応する部分から抽出される前記移動物体の特徴量に応じて当該候補位置における前記移動物体の存在確度を算出し、前記複数の候補位置ごとの前記存在確度を用いて前記移動物体の位置を判定する物体位置判定部と、
前記空間内にて前記移動を妨げる障害物が存在する障害領域及び当該障害物の高さを予め記憶する記憶部と、
前記存在確度に対するペナルティ値として、前記障害物の前記高さに応じた値を当該障害物の前記障害領域に設定するペナルティ設定部と、
を有し、
前記物体位置判定部は、前記候補位置に前記ペナルティ値が設定されている場合に、当該ペナルティ値に応じて当該候補位置の前記存在確度を低めて前記判定を行うこと、
を特徴とする移動物体追跡装置。
A moving object tracking device for tracking a moving object moving in the space using a time-series image of a predetermined space,
A position prediction unit that predicts a plurality of candidate positions where the moving object may exist at the time of interest;
The presence probability of the moving object at the candidate position is calculated according to the feature quantity of the moving object extracted from the portion corresponding to the candidate position in the image at the time of interest, and the existence for each of the plurality of candidate positions An object position determination unit that determines the position of the moving object using accuracy;
A storage unit for preliminarily storing an obstacle area where an obstacle that prevents the movement in the space exists and a height of the obstacle;
As a penalty value for the existence accuracy, a penalty setting unit that sets a value corresponding to the height of the obstacle in the obstacle area of the obstacle;
Have
The object position determination unit, when the penalty value is set in the candidate position, to perform the determination by reducing the existence accuracy of the candidate position according to the penalty value;
A moving object tracking device.
請求項1に記載の移動物体追跡装置において、
前記ペナルティ設定部は、前記障害物の高さと共に増加して前記障害物の高さが前記移動物体の高さ以上であるときに最大となる前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 1,
The penalty setting unit sets the penalty value that increases with the height of the obstacle and is maximized when the height of the obstacle is equal to or higher than the height of the moving object. Object tracking device.
請求項2に記載の移動物体追跡装置において、
前記ペナルティ設定部は、前記移動物体に備わる所定の関節部の高さにて段階的に増加する前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 2,
The moving object tracking device, wherein the penalty setting unit sets the penalty value that increases stepwise at a predetermined joint height of the moving object.
請求項1から請求項3のいずれか1つに記載の移動物体追跡装置において、
前記ペナルティ設定部は、前記障害領域のうち当該障害領域の周に沿った所定幅の内縁領域にて当該障害領域の周に近づくほど減少させて前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。
In the moving object tracking device according to any one of claims 1 to 3,
The penalty setting unit is configured to set the penalty value by decreasing the closer to the circumference of the obstacle area in the inner edge area having a predetermined width along the circumference of the obstacle area in the obstacle area. Object tracking device.
請求項4に記載の移動物体追跡装置において、
前記ペナルティ設定部は、前記内縁領域の幅を前記移動物体の高さから前記障害物の高さを引いた残りの高さに応じて設定すること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 4,
The penalty setting unit sets the width of the inner edge region according to the remaining height obtained by subtracting the height of the obstacle from the height of the moving object.
請求項1から請求項5のいずれか1つに記載の移動物体追跡装置において、
前記ペナルティ設定部は、前記障害領域の周に沿って外側に前記移動物体の幅に応じた幅で設定される外縁領域に、前記障害領域内よりも小さい値の前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。
In the moving object tracking device according to any one of claims 1 to 5,
The penalty setting unit is configured to set the penalty value of a value smaller than that in the obstacle area in an outer edge area set with a width according to the width of the moving object on the outside along the circumference of the obstacle area; A moving object tracking device.
JP2011018252A 2011-01-31 2011-01-31 Moving object tracking device Expired - Fee Related JP5552069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011018252A JP5552069B2 (en) 2011-01-31 2011-01-31 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011018252A JP5552069B2 (en) 2011-01-31 2011-01-31 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2012159957A true JP2012159957A (en) 2012-08-23
JP5552069B2 JP5552069B2 (en) 2014-07-16

Family

ID=46840453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011018252A Expired - Fee Related JP5552069B2 (en) 2011-01-31 2011-01-31 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP5552069B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076056A (en) * 2013-10-11 2015-04-20 カシオ計算機株式会社 Object position estimation device, object position estimation method and program
JP2018106360A (en) * 2016-12-26 2018-07-05 キヤノン株式会社 Information processor, information processing method and program
JP2018185623A (en) * 2017-04-25 2018-11-22 セコム株式会社 Object detection device
JP2020173775A (en) * 2019-04-10 2020-10-22 株式会社バカン Object detector and congestion state management device
JP2021168040A (en) * 2020-04-10 2021-10-21 株式会社エクサウィザーズ Information processing device, information processing method, and program
JPWO2021245749A1 (en) * 2020-06-01 2021-12-09

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233523A (en) * 2006-02-28 2007-09-13 Hitachi Ltd Person location estimation method using asynchronous camera image and system therefor
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
WO2010073929A1 (en) * 2008-12-22 2010-07-01 日本電気株式会社 Person-judging device, method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233523A (en) * 2006-02-28 2007-09-13 Hitachi Ltd Person location estimation method using asynchronous camera image and system therefor
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device
WO2010073929A1 (en) * 2008-12-22 2010-07-01 日本電気株式会社 Person-judging device, method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076056A (en) * 2013-10-11 2015-04-20 カシオ計算機株式会社 Object position estimation device, object position estimation method and program
JP2018106360A (en) * 2016-12-26 2018-07-05 キヤノン株式会社 Information processor, information processing method and program
US10943103B2 (en) 2016-12-26 2021-03-09 Canon Kabushiki Kaisha Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
JP2018185623A (en) * 2017-04-25 2018-11-22 セコム株式会社 Object detection device
JP2020173775A (en) * 2019-04-10 2020-10-22 株式会社バカン Object detector and congestion state management device
JP2021168040A (en) * 2020-04-10 2021-10-21 株式会社エクサウィザーズ Information processing device, information processing method, and program
JP7029486B2 (en) 2020-04-10 2022-03-03 株式会社エクサウィザーズ Information processing equipment, information processing methods, and programs
JPWO2021245749A1 (en) * 2020-06-01 2021-12-09
WO2021245749A1 (en) * 2020-06-01 2021-12-09 日本電気株式会社 Tracking device, tracking method, and recording medium
JP7359306B2 (en) 2020-06-01 2023-10-11 日本電気株式会社 Tracking devices, tracking systems, tracking methods, and programs

Also Published As

Publication number Publication date
JP5552069B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
JP5552069B2 (en) Moving object tracking device
US9727787B2 (en) System and method for deriving accurate body size measures from a sequence of 2D images
JP5180733B2 (en) Moving object tracking device
CN105740839B (en) Analysis of three-dimensional scenes
JP2020518038A (en) Extraction of 2D floor plan from 3D grid representation of internal space
JP5687082B2 (en) Moving object tracking device
JP2019075156A (en) Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
JP5147761B2 (en) Image monitoring device
WO2012023593A1 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP5687035B2 (en) Person tracking device
WO2021081037A1 (en) Method for wall line determination, method, apparatus, and device for spatial modeling
EP2499827A1 (en) Method for tracking an object through an environment across multiple cameras
JP5027758B2 (en) Image monitoring device
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
JP5147760B2 (en) Image monitoring device
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
JP5667846B2 (en) Object image determination device
KR20240052734A (en) Real time space intelligence delivery system and method based on situational awareness that matches object recognition from cctv video to 3d space coordinates
CN111243230A (en) Human body falling detection device and method based on two depth cameras
JP4307283B2 (en) Stereo camera system and calibration method between stereo cameras of the system
JP2012155595A (en) Target object image determination device
JP4670010B2 (en) Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
JP6548683B2 (en) Object image estimation device and object image determination device
JP6548682B2 (en) Object image judgment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140523

R150 Certificate of patent or registration of utility model

Ref document number: 5552069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees