JP2012159957A - Moving object tracking device - Google Patents
Moving object tracking device Download PDFInfo
- Publication number
- JP2012159957A JP2012159957A JP2011018252A JP2011018252A JP2012159957A JP 2012159957 A JP2012159957 A JP 2012159957A JP 2011018252 A JP2011018252 A JP 2011018252A JP 2011018252 A JP2011018252 A JP 2011018252A JP 2012159957 A JP2012159957 A JP 2012159957A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- obstacle
- penalty
- height
- tracking device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 58
- 238000012937 correction Methods 0.000 abstract description 18
- 238000011156 evaluation Methods 0.000 abstract description 11
- 230000007423 decrease Effects 0.000 abstract description 6
- 238000003384 imaging method Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000005856 abnormality Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理により移動物体を追跡する移動物体追跡装置に関し、特に障害物が存在する空間内を移動する移動物体を追跡する移動物体追跡装置に関する。 The present invention relates to a moving object tracking apparatus that tracks a moving object by image processing, and more particularly to a moving object tracking apparatus that tracks a moving object that moves in a space where an obstacle exists.
従来、対象物の位置を精度良く追跡するために、対象物が存在し得ない領域における対象物の誤検出を排除することが行われてきた。例えば、特許文献1に記載の人物位置推定方法では、部屋の広さや机・棚などの撮影空間の情報を利用して、人の存在し得ない領域にて推定された人物位置を排除する。すなわち、障害物の有無により人が存在し得るか否かが判定されていた。
Conventionally, in order to accurately track the position of an object, it has been performed to eliminate erroneous detection of the object in a region where the object cannot exist. For example, in the person position estimation method described in
しかしながら、壁・机・棚など種々の障害物を一律に取り扱うと人物位置を精密に追跡することが難しくなるという問題があった。具体的には、人よりも低い机などが障害物である場合は、人がその近傍を通ったりそれに寄りかかったりして人物位置が障害物上にはみ出すことがある一方で、人よりも高い壁などが障害物である場合は人物位置が障害物上にはみ出すことはない。また、単に棚といってもその高さが異なれば、その上にはみ出し得るか否かに相違が生じる。このような障害物が配置された領域への人物のはみ出しを考慮せずに、一律に障害物の領域を人が存在し得ない領域と定義してしまうと、人物位置推定の微小誤差により当該領域の周辺で人物位置が排除されたりされなかったりすることが起こる。また、パーティクルフィルタのように多数設定された人物位置の仮説から確率的に人物位置を決定する場合、人が存在し得ないと定義された領域の仮説が排除されると、人が障害物の上にはみ出している量にかかわらず人物位置は障害物が配置された領域の外側にしか決定されない。 However, when various obstacles such as walls, desks, and shelves are handled uniformly, there is a problem that it is difficult to accurately track the position of the person. Specifically, when a desk lower than a person is an obstacle, the person's position may protrude over the obstacle as the person passes near or leans on it, but is higher than the person When a wall or the like is an obstacle, the person position does not protrude on the obstacle. Moreover, even if it is just a shelf, if its height is different, a difference occurs in whether or not it can protrude from the shelf. If the area of the obstacle is defined as an area where no person can exist without considering the protrusion of the person to the area where the obstacle is placed, the error will occur due to a minute error in human position estimation. It may happen that the position of the person is not excluded around the area. In addition, when a person position is determined probabilistically from a large number of set person position hypotheses as in a particle filter, if a hypothesis of an area defined as a person cannot exist is excluded, Regardless of the amount of protrusion, the person position is determined only outside the area where the obstacle is placed.
図8は上記問題を説明するための図であり、人90が障害物91(例えば、棚)の上に寄りかかった様子を示す模式図である。図8(a)は横方向から見た図、図8(b)は上から見た図であり、人物の本来の重心位置を図8(b)にて“×”印で示している。従来技術のように障害物91の領域を人90が存在し得ない領域として定義すると、図8に示すように障害物91の領域に検出された重心位置は、誤検出として排除される。また、同定義に従いパーティクルフィルタにて障害物91上に設定された仮説を排除すると、人物位置は障害物91から離れた位置に決定され、人物位置として好適である重心位置から大きくずれ得る。
FIG. 8 is a diagram for explaining the above-described problem, and is a schematic diagram showing a
このように従来技術によれば、障害物付近における追跡結果が不安定になるおそれがあるという問題があった。 As described above, according to the prior art, there is a problem that the tracking result in the vicinity of the obstacle may become unstable.
本発明は上記課題を鑑みてなされたものであり、障害物付近においても移動物体を高精度に追跡することが可能な移動物体追跡装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking device capable of tracking a moving object with high accuracy even in the vicinity of an obstacle.
本発明に係る移動物体追跡装置は、所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する移動物体を追跡するものであって、注目時刻において前記移動物体が存在し得る候補位置を複数予測する位置予測部と、前記注目時刻の前記画像における前記候補位置に対応する部分から抽出される前記移動物体の特徴量に応じて当該候補位置における前記移動物体の存在確度を算出し、前記複数の候補位置ごとの前記存在確度を用いて前記移動物体の位置を判定する物体位置判定部と、前記空間内にて前記移動を妨げる障害物が存在する障害領域及び当該障害物の高さを予め記憶する記憶部と、前記存在確度に対するペナルティ値として、前記障害物の前記高さに応じた値を当該障害物の前記障害領域に設定するペナルティ設定部と、を有し、前記物体位置判定部は、前記候補位置に前記ペナルティ値が設定されている場合に、当該ペナルティ値に応じて当該候補位置の前記存在確度を低めて前記判定を行う。 The moving object tracking device according to the present invention tracks a moving object moving in the space using a time-series image obtained by photographing a predetermined space, and the moving object may exist at the time of interest. A position prediction unit that predicts a plurality of candidate positions, and calculates the existence accuracy of the moving object at the candidate position according to the feature amount of the moving object extracted from the portion corresponding to the candidate position in the image at the time of interest An object position determination unit that determines the position of the moving object using the existence accuracy for each of the plurality of candidate positions; an obstacle region where an obstacle that prevents the movement in the space is present; and the obstacle A storage unit that stores height in advance, and a penalty setting unit that sets a value corresponding to the height of the obstacle in the obstacle area of the obstacle as a penalty value for the existence accuracy; It has the object position determination unit, when the penalty value is set to the candidate position, makes the determination by lowering the said presence probability of the candidate positions according to the penalty value.
他の本発明に係る移動物体追跡装置においては、前記ペナルティ設定部は、前記障害物の高さと共に増加して前記障害物の高さが前記移動物体の高さ以上であるときに最大となる前記ペナルティ値を設定する。当該移動物体追跡装置において、前記ペナルティ設定部は、前記移動物体に備わる所定の関節部の高さにて段階的に増加する前記ペナルティ値を設定する構成とすることができる。 In the moving object tracking device according to another aspect of the invention, the penalty setting unit increases with the height of the obstacle and becomes maximum when the height of the obstacle is equal to or higher than the height of the moving object. Set the penalty value. In the moving object tracking device, the penalty setting unit may set the penalty value that increases stepwise at a predetermined joint height of the moving object.
さらに他の移動物体追跡装置においては、前記ペナルティ設定部は、前記障害領域のうち当該障害領域の周に沿った所定幅の内縁領域にて当該障害領域の周に近づくほど減少させて前記ペナルティ値を設定する。当該移動物体追跡装置において、前記ペナルティ設定部は、前記内縁領域の幅を前記移動物体の高さから前記障害物の高さを引いた残りの高さに応じて設定する構成とすることができる。 In still another moving object tracking device, the penalty setting unit decreases the penalty value by decreasing the closer to the periphery of the obstacle region in an inner edge region of a predetermined width along the periphery of the obstacle region in the obstacle region. Set. In the moving object tracking device, the penalty setting unit may set the width of the inner edge region according to the remaining height obtained by subtracting the height of the obstacle from the height of the moving object. .
別の本発明に係る移動物体追跡装置においては、前記ペナルティ設定部は、前記障害領域の周に沿って外側に前記移動物体の幅に応じた幅で設定される外縁領域に、前記障害領域内よりも小さい値の前記ペナルティ値を設定する。 In the moving object tracking device according to another aspect of the invention, the penalty setting unit may include an inside of the obstacle region in an outer edge region set with a width according to the width of the moving object on the outside along the circumference of the obstacle region. The penalty value of a smaller value is set.
本発明によれば、移動物体の位置判定に際し、障害物の高さに応じて移動物体が障害物の上にはみ出す影響が評価に含められるので、障害物付近での移動物体の位置の判定精度の向上が図れる。 According to the present invention, when determining the position of the moving object, the influence of the moving object protruding on the obstacle according to the height of the obstacle is included in the evaluation. Therefore, the determination accuracy of the position of the moving object in the vicinity of the obstacle is included. Can be improved.
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋を監視対象の空間とし、当該監視空間内を移動する人物を追跡対象物(以下、移動物体と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して移動物体の追跡を行う。ここで、監視空間において什器が設置された領域は移動物体の進行を妨げる障害領域である。障害領域の他の例としては壁や柱や給湯器などがある。障害領域は移動せず予めその位置が判っている。なお、監視空間は屋内に限定されず屋外であってもよい。屋外の場合、家屋、塀、各種エクステリアの他、池や堀等が障害領域となる。本移動物体追跡装置1は障害領域の存在に配慮して追跡処理を行うように構成され、追跡の精度向上を図っている。
Hereinafter, a moving
[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
[Configuration of moving object tracking device]
FIG. 1 is a block diagram of a moving
撮像部2は監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
The
設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
The
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、ペナルティマップ41、カメラパラメータ42、予測位置43、物体位置44及び背景画像が含まれる。
The storage unit 4 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 4 stores various programs and various data, and inputs / outputs such information to / from the control unit 5. Various data includes a three-
三次元モデル40は、監視空間(実空間)を模した仮想空間に移動物体の立体形状を近似した移動物体モデル及び/又は障害物の立体形状を近似した障害物モデルを配置した状態を記述したデータである。障害物は障害領域を形成する物体や地形である。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での障害物モデルの配置は監視空間内での実際の障害物の配置に合わせる。一方、移動物体モデルの配置は任意位置に設定することができる。
The three-
障害物モデルは、移動物体の検出・追跡処理に先だって予め障害物毎に設定される。障害物モデルは、監視空間に実在する障害物の形状・寸法のデータ、及び監視空間での障害物の配置のデータであり、当該障害物が基準面に対して占める障害領域と当該障害物の高さの情報とを含む。障害物の形状・寸法は監視空間に置かれる障害物を実測して取得することができるほか、例えば什器メーカー等が提供する製品の三次元データを利用することもできる。障害物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた障害物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に障害物モデルを格納する。
The obstacle model is set for each obstacle in advance prior to the detection / tracking process of the moving object. The obstacle model is data on the shape and dimensions of obstacles actually existing in the monitoring space, and data on the arrangement of obstacles in the monitoring space. The obstacle area occupied by the obstacle relative to the reference plane and the obstacle And height information. The shape and dimensions of the obstacle can be obtained by actually measuring the obstacle placed in the monitoring space, and for example, three-dimensional data of a product provided by a fixture manufacturer or the like can be used. The arrangement of the obstacle can be obtained by actual measurement. For example, when designing the furniture layout of the room on the computer, the design data can be used. Data on the obstacle thus obtained is input to the control unit 5 from the setting
移動物体モデルは、例えば、移動物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする移動物体は立位の人であり、本実施形態では、例えば、人の頭部、胴部、脚部の3部分の立体形状を近似する回転楕円体をZ軸方向に積み重ねた移動物体モデルを設定する。基準面から頭頂までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは標準的な人物サイズとし任意の移動物体に共通とする。また、頭部中心を移動物体の代表位置とする。なお、移動物体モデルはより単純化して1つの回転楕円体で近似してもよい。移動物体モデルの立体形状に関するデータは、追跡処理に先立って記憶部4に格納される。
The moving object model is, for example, data describing a partial model representing a three-dimensional shape for each of a plurality of constituent parts constituting the moving object, and an arrangement relationship between the partial models. The moving object to be monitored by the moving
また、記憶部4に移動物体モデルとして格納されるデータは、追跡対象の移動物体を個々に特徴付ける参照情報として、監視画像から抽出された各移動物体の特徴量(例えば色ヒストグラムなどの画像特徴)を含む。当該移動物体の特徴量は、入力画像にて追跡対象となる移動物体が新規に検出されると、当該検出位置に対応した画像領域から抽出され、記憶部4に格納される。なお、移動物体モデルの形状に関するデータも移動物体の画像特徴を抽出する際に参照情報として用いられ監視画像と対比される。 The data stored as a moving object model in the storage unit 4 is the feature information of each moving object extracted from the monitoring image (for example, image features such as a color histogram) as reference information for individually characterizing the moving object to be tracked. including. The feature quantity of the moving object is extracted from the image area corresponding to the detected position and stored in the storage unit 4 when a moving object to be tracked is newly detected in the input image. Note that the data related to the shape of the moving object model is also used as reference information when extracting the image features of the moving object and is compared with the monitoring image.
図2は、三次元モデル40の一例を模式的に示す斜視図であり、監視空間をN×M×Kの位置座標に離散化した仮想空間の基準面100、カメラ位置101、障害物#1,#2の障害物モデル102,103及び移動物体モデル104の配置例を示している。障害物#1は人物の高さHより低く、おおよそ人物の腰の高さである。障害物#2は人物の高さHより高い。
FIG. 2 is a perspective view schematically showing an example of the three-
ペナルティマップ41は、監視空間の各位置において移動物体が存在し得ない度合いを表すペナルティ値を当該位置と対応付けたデータである。移動物体の存在を妨げる要因は障害物であり、ペナルティ値として少なくとも障害領域内に正の値が設定され、好ましくはさらに障害領域の周囲にも正の値が設定される。障害領域内には対応する障害物が高いほど大きなペナルティ値が設定される。
The
図3は、図2の三次元モデル40により模擬される監視空間のペナルティマップ41の例を示している。ペナルティマップ41は、基準面に対応して位置を表すX軸及びY軸と、X軸及びY軸と直交してペナルティ値を表すP軸とを有する。障害物#1が存在する障害領域及びその周辺に、障害物#1によるペナルティ値200が設定されており、障害物#2が存在する障害領域及びその周辺に、障害物#2によるペナルティ値201が設定されている。障害物#1よりも障害物#2の方が高いため、ペナルティ値200よりもペナルティ値201の方が大きく設定される。障害物から離れた位置におけるペナルティ値は0である。一点鎖線はペナルティ値が0になる位置を表している。
FIG. 3 shows an example of a
カメラパラメータ42は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ42を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。
The
予測位置43(仮説)は、各時刻における移動物体の位置の予測値(予測位置)に関する情報である。確率的に移動物体の位置(物体位置)を判定するために予測位置は移動物体ごとに多数(その個数をαで表す。例えば1移動物体あたり200個)設定される。具体的には、予測位置43は、移動物体の識別子と、各時刻における予測位置のインデックス(0〜α−1)及びその位置座標(XYZ座標系)とを対応付けた時系列データである。
The predicted position 43 (hypothesis) is information regarding the predicted value (predicted position) of the position of the moving object at each time. In order to determine the position (object position) of a moving object stochastically, a large number of predicted positions are set for each moving object (the number is represented by α, for example, 200 per moving object). Specifically, the predicted
物体位置44は各時刻における移動物体の位置に関する情報であり、具体的には、移動物体の識別子と位置座標(XYZ座標系)とを対応付けた時系列データである。
The
なお、予測位置43、物体位置44を監視空間の水平面座標(XY座標系)で特定する構成として処理を高速化することができる。本実施形態では、理解を容易にするために当該構成を例に説明する。
Note that the processing can be speeded up as a configuration in which the predicted
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、ペナルティ設定部50、変化画素抽出部51、位置予測部52、物体位置判定部53及び異常判定部54として機能する。
The control unit 5 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads and executes a program from the storage unit 4, and a
ペナルティ設定部50は、障害物モデルと移動物体モデルを参照してペナルティマップ41を作成し、作成されたペナルティマップ41を記憶部4に記憶させる。具体的にはペナルティ設定部50は、後述する移動物体の予測位置に対応して算出される評価値に対するペナルティ値を基準面上の各位置に設定する。評価値が監視画像の画像特徴に基づいて算出される、監視空間の各位置での移動物体が存在する尤もらしさの度合いを表すのに対し、ペナルティ値は障害物の存在に基づいて算出される、監視空間の各位置での移動物体が存在し得ない度合いを表す。
The
ペナルティ設定部50は少なくとも障害物が存在する障害領域にペナルティ値を設定する。このペナルティ値は移動物体の各障害物上へのはみ出しやすさに対応するものであり、高い障害物ほど大きな値が設定される。この障害物ごとのペナルティ値の最大値を固有ペナルティ値と称する。固有ペナルティ値は、障害物の高さに応じて増加するように設定される。この固有ペナルティ値は、単純に障害物の高さに応じて定義することもできる他、本実施形態で行うように障害物の高さと移動物体の高さとの関係を考慮に入れて定義することもできる。
The
具体的にはペナルティ設定部50は、各障害物の障害領域におけるペナルティ値の最大値(固有ペナルティ値)Phを、障害物の高さhが0のときに後述する尤度の下限値Pmin(=0.0)に、また、障害物の高さhが移動物体の高さH以上(h≧H)であるときに後述する尤度の上限値Pmax(例えば1.0)に設定し、障害物の高さhが0≦h<Hなる範囲にある場合はPhをhに応じて増加させる。例えば0≦h<HにてPhをhの比例関数に設定することができる(図5(a))。このように設定することで、例えば障害物が人の肩の高さの棚である場合よりも腰の高さのテーブルである場合の方が、物体位置が障害領域内に判定され易くなり、実態に即した物体位置の判定が可能となる。また例えば人の身長を越える高い棚、壁又は柱のような障害領域には上限値Pmaxが設定され、この障害領域にはみ出す物体位置は判定されなくなるので、正しい物体位置が判定できる。
Specifically, the
また、移動物体のはみ出しは障害物の縁部で生じやすいことに対応してペナルティ設定部50は障害領域のうち障害物の中心よりも縁部のペナルティ値を小さく設定する。具体的には、ペナルティ設定部50は、障害領域のうち当該障害領域の周に沿って設定する縁部(内縁領域)を除いた内部領域ではペナルティ値として当該障害領域に対応する障害物の固有ペナルティ値Phを設定し、内縁領域では障害領域の周に近づくほど固有ペナルティ値から減少するペナルティ値を設定する。
Further, the
ペナルティ設定部50は、縁部の幅uを移動物体の高さから障害物の高さを引いた残りの高さに応じて設定する。すなわち、各障害領域の縁部の幅uは、当該障害領域に対応する障害物の高さが移動物体の高さより低いほど広く設定する。このように設定した縁部の幅uは人体が障害物上にはみ出し得る部分の大きさに相当する。例えば障害物が人の肩の高さの棚である場合は肩から上がはみ出し可能であるが、腰の高さのテーブルである場合は上半身全体がはみ出し可能である。この設定によりさらに実際的な物体位置の判定が可能となる。
The
また、ペナルティ設定部50は、移動物体の幅Wに応じた広さの障害物の外周領域(外縁領域)にも正のペナルティ値を設定するように構成することができる。この構成は、人や動物などの移動物体は概して障害物にぶつかるような動きを選択することが少ないことに基づく。外周領域のペナルティ値は基本的には、移動物体の障害領域へのはみ出しを許容することとの整合性をとるために障害領域内よりも低く設定される。
Further, the
ペナルティ設定部50は例えば、外周領域の幅を1.5Wに設定し、障害領域の境界から外側へ距離1.5Wの位置でのペナルティ値pを0に定め、当該位置から外周領域の内側へ向けてペナルティ値を増加させる。本実施形態では、ペナルティ設定部50は障害領域の内側に縁部を設定し、例えば、外周領域及び縁部での位置に応じて、ペナルティ値を障害領域から外側への距離1.5Wの位置での値0から内側への距離uの位置での値Phまで、連続的に変化させる。尚、移動物体の高さと障害物の高さとの差に基づいて設定される縁部の幅uが障害領域の幅よりも大きくなる場合、ペナルティ設定部50は障害領域の中心でペナルティ値が最大値Phとなるように、縁部、又は縁部及び外周領域でのペナルティ値の変化関数に補正を加える。
For example, the
上述のようなペナルティ値を用いることで障害領域における移動物体の存在を一律に排除する処理ではなく、移動物体の位置が障害領域内に存在することを限定的に許容する処理が可能となる。また、外周領域のペナルティ値は移動物体の位置が障害領域に近づきにくくする作用をもたらす。 By using the penalty value as described above, it is possible to perform processing that allows the position of the moving object to exist within the obstacle area in a limited manner, instead of the process that uniformly eliminates the existence of the moving object in the obstacle area. Further, the penalty value in the outer peripheral region has an effect of making it difficult for the position of the moving object to approach the obstacle region.
図4は障害領域及び外周領域でのペナルティマップ41を説明する模式図である。同図は、横軸を障害領域の境界を原点とした距離dを表す軸、縦軸をペナルティ値pを表す軸として、障害領域の境界に直交する線に沿ったペナルティ値の変化を太線で示している。d軸にて原点より左側が外周領域、右側が障害領域である。図4は障害物の高さhが異なる4つの場合を示しており、障害物の断面を図中にて斜線で示している。また、移動物体である人の形状を点線で示している。図の右側のz軸は、これら障害物及び移動物体の高さに関する座標軸である。上述のようにペナルティ値の最大値Pmaxは移動物体の高さHに対応して設定され、各障害物の固有ペナルティ値Phは障害物の高さhに対応して設定されることから、p軸上のPmax及びPhとz軸上のH及びhとを縦方向の同じ位置に揃えて示している。
FIG. 4 is a schematic diagram for explaining a
障害物の高さは図4にて(a)から(d)への順で高くなり(d)の障害物はHより高い。これに対応して、ペナルティ値の最大値Ph(平らな部分)は(a)から(d)への順で高くなり(d)では上限値Pmaxとなる。なお、図4における障害物の高さに応じたPhの変化は図5(a)に示す例に従っている。縁部の幅uは、移動物体が障害物を越える高さに応じて(a)から(d)への順で狭くなり(d)で0に設定される。(a)から(d)を比べるとそれらの内部領域及び縁部のいずれにおいても、互いに対応する位置でのペナルティ値は(a)(b)(c)(d)の順に増加している。 In FIG. 4, the height of the obstacle increases in the order from (a) to (d), and the obstacle in (d) is higher than H. Correspondingly, the maximum value Ph (flat portion) of the penalty value increases in the order from (a) to (d) and becomes the upper limit value Pmax in (d). In addition, the change of Ph according to the height of the obstacle in FIG. 4 is according to the example shown in FIG. The width u of the edge is narrowed in the order from (a) to (d) according to the height at which the moving object exceeds the obstacle, and is set to 0 at (d). Comparing (a) to (d), the penalty values at the positions corresponding to each other increase in the order of (a), (b), (c), and (d) in both the inner region and the edge.
ペナルティ値は、障害領域の内側へ距離uの位置から外側に向かって単調に減少する減衰曲線に基づいて設定され、障害領域の境界から離れる方向へ距離1.5Wの位置で0となる。移動物体モデルが障害物モデルと接する、又は干渉する位置が物体位置として判定されにくくするために外周領域の幅は少なくともW/2は必要である。一方、障害物から離れた物体位置が判定されにくくならないように外周領域の幅は2W程度を上限とするのがよい。また、障害物が高いほど移動物体の障害物上へのはみ出しが抑制され、物体位置が障害領域の外側へ退けられやすくなることを反映させるために、縁部及び外周領域でのペナルティ値の減衰曲線の減衰率を幅uが狭くなるほど高く設定するのがよい。図4に示す例では減衰曲線を指数関数により設定している。 The penalty value is set based on an attenuation curve that monotonously decreases outward from the position of the distance u to the inside of the obstacle area, and becomes 0 at a distance of 1.5 W in a direction away from the boundary of the obstacle area. In order to make it difficult to determine the position where the moving object model contacts or interferes with the obstacle model as the object position, the width of the outer peripheral region needs to be at least W / 2. On the other hand, the width of the outer peripheral region should be about 2 W as an upper limit so that the object position away from the obstacle is not easily determined. In order to reflect the fact that the higher the obstacle is, the more the moving object protrudes onto the obstacle and the more easily the object position is moved outside the obstacle area, the penalty values are attenuated at the edge and outer peripheral area. It is preferable to set the attenuation rate of the curve higher as the width u becomes smaller. In the example shown in FIG. 4, the attenuation curve is set by an exponential function.
図5は、障害物の高さhに応じた固有ペナルティ値Phの変化の態様を示す模式的なグラフである。図5において横軸が障害物の高さhであり、縦軸が固有ペナルティ値Phである。図5(a)は0≦h<HにてPhがhの比例関数で表される構成を示しており、上述した構成はこの関数を用いた例を説明した。 FIG. 5 is a schematic graph showing an aspect of a change in the specific penalty value Ph according to the height h of the obstacle. In FIG. 5, the horizontal axis is the height h of the obstacle, and the vertical axis is the inherent penalty value Ph. FIG. 5A shows a configuration in which 0 ≦ h <H and Ph is represented by a proportional function of h, and the above-described configuration has been described as an example using this function.
他の構成例では、0≦h<HでのPhを表す関数は、移動物体に備わる所定の関節部の高さにて段階的に増加するものに設定される。図5(b)のステップ関数がこの構成を示している。具体的には、人体において膝、股関節(股下)、腰、脇(肩)、首などを、主要な関節部として定め、当該関節部の高さごとに段階的にペナルティ値の最大値Phを設定する。関節部の高さは人体の標準体格に合わせて予め設定することができる。例えば、当該関節部の高さを移動物体モデルの一部として記憶部4に記憶し、ペナルティ設定部50は障害物の高さhを記憶部4から読み出した関節部の高さと比較して、当該障害物に対するPhを設定する。なお、関節部の高さとPhとの対応関係も予め記憶部4に格納し、ペナルティ設定部50はこれを読み出して障害物の高さに応じたPhを設定する。また、関節部の高さに応じて段階的に変化するPhの関数を予め設定し、ペナルティ設定部50が当該関数を計算してPhを設定する構成とすることもできる。関節での身体の屈曲は人体が障害物上にはみ出す主な原因となり、どの関節部が障害物より上にあるかは人体が障害物上へのはみ出し易さやはみ出し量の大小に影響を与える。よって、このように関節を考慮したPhの設定は、移動物体の位置の判定精度向上に好適である。その際、様々な関節についてその可動域を考慮することが理想的であるがモデルが複雑となる。その点、上述のような主要な関節部の高さを考慮する構成は身体の屈曲の影響を少ないパラメータで簡易に表現し、物体位置の判定に反映させることができる。
In another configuration example, the function representing Ph when 0 ≦ h <H is set to increase in a stepwise manner at the height of a predetermined joint portion included in the moving object. The step function of FIG. 5B shows this configuration. Specifically, knees, hip joints (inseam), hips, armpits (shoulders), necks, etc. are defined as main joint parts in the human body, and the maximum penalty value Ph is set step by step for each joint part height. Set. The height of the joint can be preset according to the standard physique of the human body. For example, the height of the joint part is stored in the storage unit 4 as a part of the moving object model, and the
さらに別の構成例は主要関節部の高さに合わせて傾きを連続的に変化させた関数である。図5(c)はその一例であり、図5(b)のステップ関数を曲線近似した関数である。 Yet another configuration example is a function in which the inclination is continuously changed according to the height of the main joint. FIG. 5C is an example thereof, which is a function obtained by curve approximation of the step function of FIG.
変化画素抽出部51は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を物体位置判定部53へ出力する。そのために変化画素抽出部51は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は背景画像を参照情報として監視画像との対比により抽出される移動物体の画像特徴である。なお、差分処理に代えて新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
The change
位置予測部52(仮説設定部)は、移動物体の過去の位置情報(物体位置44又は予測位置43)を用いて当該移動物体の動き予測を行い、移動物体の現時刻における移動先の候補位置である複数の予測位置を求める。
The position prediction unit 52 (hypothesis setting unit) predicts the movement of the moving object using the past position information of the moving object (the
まず、位置予測部52は、過去に判定された各移動物体の物体位置又は過去に設定された各移動物体の予測位置から動き予測を行なって、新たに監視画像が入力された時刻において移動物体が存在する位置を予測し、予測された位置(予測位置)を物体位置判定部53へ出力する。上述したように予測位置は各移動物体に対してα個設定される。このように多数の予測位置を順次設定して確率的に移動物体の位置(物体位置)を判定する方法はパーティクルフィルタなどと呼ばれ、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の位置データに所定の運動モデルを適用するか、又は所定の予測フィルタを適用することで行なわれる。
First, the
物体位置判定部53は、監視画像及び監視空間内において対象物が存在し得る候補位置を入力され、各候補位置に対応して現時刻の監視画像から抽出される移動物体の特徴量に応じた評価値を算出する。そして、各候補位置の当該評価値に基づいて移動物体の位置を判定し、判定結果を記憶部4に記憶させる。候補位置は位置予測部52から入力された予測位置である。
The object
物体位置判定部53は、ペナルティ値を加味して移動物体の各予測位置に当該移動物体が存在する確度を算出する存在確度算出部530(尤度算出部)及び各予測位置の評価から移動物体ごとに1つの物体位置を判定する物体位置算出部531を含んで構成される。以下、存在確度算出部530及び物体位置算出部531について詳説する。
The object
存在確度算出部530は、監視画像において各移動物体の予測位置に対応する領域から当該移動物体の特徴量を抽出し、特徴量の抽出度合いに応じた、当該予測位置の物体位置としての尤度を存在確度として算出して物体位置算出部531へ出力する。このとき存在確度算出部530は、ペナルティマップ41を参照して、予測位置に(正の)ペナルティ値が設定されている場合に、当該ペナルティ値により当該予測位置の尤度を低める補正を行なう。
The existence
予測位置のXY座標を(X,Y)、当該予測位置に対する補正前の尤度をL0(X,Y)、当該位置のペナルティ値をp(X,Y)とすると、当該予測位置に対する補正後の尤度L(X,Y)は次式(1)のように補正前の尤度からペナルティ値を減算することによって算出される。
L(X,Y)=L0(X,Y)−p(X,Y) ・・・(1)
If the XY coordinate of the predicted position is (X, Y), the likelihood before correction for the predicted position is L0 (X, Y), and the penalty value of the position is p (X, Y), the corrected position for the predicted position is corrected. The likelihood L (X, Y) of is calculated by subtracting the penalty value from the likelihood before correction as in the following equation (1).
L (X, Y) = L0 (X, Y) -p (X, Y) (1)
ちなみに上述したペナルティ値の値域[0,1]は尤度の値域が[0,1]であることに対応させている。ペナルティ値の値域を[0,1]に正規化していない場合には、(1)式の右辺の減算結果が0未満となり得るが、その場合のL(X,Y)は0と定義する。 Incidentally, the above-described penalty value range [0, 1] corresponds to the likelihood range [0, 1]. When the range of penalty values is not normalized to [0, 1], the subtraction result on the right side of equation (1) can be less than 0. In this case, L (X, Y) is defined as 0.
また、補正後の尤度L(X,Y)は次式(2)のように、ペナルティ値の上限値Pmax(ここでは“1”に正規化されているとする。)からペナルティ値を減算した値を補正係数として、補正前の尤度に乗じて算出してもよい。
L(X,Y)=L0(X,Y)×{1−p(X,Y)} ・・・(2)
Further, the likelihood L (X, Y) after correction is obtained by subtracting the penalty value from the upper limit value Pmax (here, normalized to “1”) of the penalty value as shown in the following equation (2). The calculated value may be calculated as a correction coefficient by multiplying the likelihood before correction.
L (X, Y) = L0 (X, Y) × {1-p (X, Y)} (2)
なお、ここではペナルティ値は図5に示すように[0,Pmax]なる範囲で定義している。一方、ペナルティ値自体はPmaxを越えて設定することを許容し、(2)式で示す補正段階にて、p(X,Y)>PmaxのときはL(X,Y)は0と定義することにしてもよい。 Here, the penalty value is defined in the range of [0, Pmax] as shown in FIG. On the other hand, the penalty value itself is allowed to be set to exceed Pmax, and L (X, Y) is defined as 0 when p (X, Y)> Pmax at the correction stage shown by the equation (2). You may decide.
補正前の尤度L0は次のように算出される。存在確度算出部530は、障害物モデルを所定位置に配置するとともに予測位置に移動物体モデルを仮想的に配置した三次元モデル40を生成する。そして、カメラパラメータ42を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、下記(1)〜(4)のいずれかの方法で尤度を算出する。ここで、非隠蔽領域は、注目している移動物体モデルが障害物や他の移動物体により隠蔽されずに監視画像上に像として現れる領域である。
(1)変化画素抽出部51により抽出された変化画素に非隠蔽領域を重ね合わせ、変化画素が非隠蔽領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に移動物体が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度の高さに応じた尤度を算出する。
(2)監視画像における非隠蔽領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に移動物体が存在する位置に近いほど、非隠蔽領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は高くなり、一方、遠ざかるほど抽出度は低くなりやすい。そこで、エッジの抽出度の高さに応じた尤度を算出する。
(3)各移動物体の過去の物体位置における非隠蔽領域から抽出された特徴量を当該移動物体の参照情報として記憶部4に記憶する。予測位置が現に移動物体が存在する位置に近いほど背景や他の移動物体の特徴量が混入しなくなるため、非隠蔽領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から非隠蔽領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
The likelihood L0 before correction is calculated as follows. The existence
(1) A non-obscured region is superimposed on the changed pixel extracted by the changed
(2) Extract an edge from a portion corresponding to the contour of the non-hidden region in the monitoring image. The closer the predicted position is to the position where the moving object actually exists, the more the edge extraction degree (for example, the sum of the extracted edge strengths) becomes higher because the contour of the non-hidden region matches the edge position. The degree tends to be low. Therefore, the likelihood corresponding to the degree of edge extraction is calculated.
(3) The feature amount extracted from the non-hidden region at the past object position of each moving object is stored in the storage unit 4 as reference information of the moving object. As the predicted position is closer to the position where the moving object actually exists, the feature amount of the background and other moving objects will not be mixed, so the similarity between the feature amount extracted from the non-hidden region and the reference information becomes high, The similarity tends to decrease as the distance increases. Therefore, the feature amount in the non-hidden region is extracted from the monitoring image, and the similarity between the extracted feature amount and the reference information is calculated as the likelihood. As the feature amount here, for example, various image feature amounts such as an edge distribution, a color histogram, or both of them can be used.
(4) The likelihood may be calculated according to a weighted addition value of a plurality of degrees of the above-described inclusion degree, edge extraction degree, and similarity degree.
なお、尤度を評価値にする代わりに上述した包含度、エッジの抽出度、類似度又はこれらの2以上を組み合わせた値を評価値とすることもできる。 Instead of using the likelihood as an evaluation value, the above-described inclusion degree, edge extraction degree, similarity degree, or a combination of two or more of these can be used as the evaluation value.
物体位置算出部531は、移動物体の各予測位置、及び当該予測位置ごとに算出された尤度から当該移動物体の位置(物体位置)を判定し、判定結果を記憶部4に移動物体ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)移動物体ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該移動物体の物体位置とする。
(2)移動物体ごとに、最大の尤度が算出された予測位置を求め、これを物体位置とする。
(3)移動物体ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
The object
(1) For each moving object, a weighted average value of predicted positions weighted by likelihood is calculated, and this is set as the object position of the moving object.
(2) For each moving object, a predicted position where the maximum likelihood is calculated is obtained and set as the object position.
(3) For each moving object, an average value of predicted positions at which likelihoods equal to or higher than a preset likelihood threshold value are calculated is set as the object position. Here, the likelihood threshold> the likelihood lower limit value.
異常判定部54は、記憶部4に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。
The
出力部6は警告音を出力する音響出力手段、異常が判定された監視画像を表示する表示手段、又は通信回線を介して警備会社のセンタ装置へ送信する通信手段などを含んでなり、異常判定部54から異常信号が入力されると異常発生の旨を外部へ出力する。
The
[移動物体追跡装置の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図6は移動物体追跡装置1の追跡処理の概略のフロー図である。
[Operation of moving object tracking device]
Next, the tracking operation of the moving
追跡処理が開始されると、制御部5はペナルティマップ41が作成されているかを確認し(S1)、作成されていなければペナルティ設定部50がペナルティマップ41を作成し記憶部4に保存する(S2)。
When the tracking process is started, the control unit 5 confirms whether the
移動物体追跡装置1はペナルティマップ41が記憶部4に記憶されている状態で、監視画像ごとに移動物体の物体位置を判定する実質的な追跡処理(ステップS3〜S16)を開始する。
The moving
制御部5は、撮像部2が監視空間を撮像するたびに監視画像を入力される(S3)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
The control unit 5 receives a monitoring image every time the
現画像は変化画素抽出部51により背景画像と比較され、変化画素抽出部51は変化画素を抽出する(S4)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。
The current image is compared with the background image by the change
また、位置予測部52は追跡中の各移動物体に対して動き予測に基づきα個の予測位置を設定する(S5)。なお、後述するステップS16にて新規出現であると判定された移動物体の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にα個の予測位置を設定する。また、後述するステップS16にて消失と判定された移動物体の予測位置は削除する。
Further, the
制御部5は、ステップS4にて変化画素が抽出されず、かつステップS5にて予測位置が設定されていない(追跡中の移動物体がない)場合(S6にて「YES」の場合)はステップS3に戻り、次の監視画像の入力を待つ。 If the changed pixel is not extracted in step S4 and the predicted position is not set in step S5 (there is no moving object being tracked) (if “YES” in S6), the control unit 5 performs the step. Returning to S3, the input of the next monitoring image is awaited.
一方、ステップS6にて「NO」の場合は、ステップS7〜S16の処理を行う。制御部5は追跡中の各移動物体を順次、注目物体に設定する(S7)。続いて、制御部5は注目物体の各予測位置を順次、注目位置に設定する(S8)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外し、当該予測位置における物体領域は推定せず、尤度を0に設定する。 On the other hand, if “NO” in the step S6, the processes of the steps S7 to S16 are performed. The control unit 5 sequentially sets each moving object being tracked as a target object (S7). Subsequently, the control unit 5 sequentially sets each predicted position of the target object as the target position (S8). However, the predicted position outside the field of view of the monitoring image is excluded from the target position setting targets, the object region at the predicted position is not estimated, and the likelihood is set to zero.
存在確度算出部530は仮想空間にて注目位置に移動物体モデルを配置し、移動物体モデル及び障害物モデルが配置された三次元モデル40を生成する。そして、カメラパラメータ42を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、これを実空間における移動物体の非隠蔽領域と推定する(S9)。そして、推定した非隠蔽領域に基づいて、注目位置に対応した補正前の尤度L0を算出する(S10)。
The existence
存在確度算出部530は、ペナルティマップ41を参照して注目位置におけるペナルティ値Pを取得する。注目位置にペナルティ値Pが設定されている場合は(S11にて「YES」の場合)、存在確度算出部530は上述の(1)式等を用いた尤度補正を行い補正された尤度Lを算出する(S12)。なお、注目位置にペナルティ値Pが設定されていない(P=0である)場合(S11にて「NO」の場合)には尤度補正の演算を行わず、注目位置のL0をそのまま当該位置の尤度Lと定める。
The existence
制御部5は、尤度が算出されていない予測位置が残っている場合(S13にて「NO」の場合)、ステップS8〜S12を繰り返す。α個全ての予測位置について尤度が算出されると(S13にて「YES」の場合)、物体位置算出部531が注目物体の各予測位置(X,Y)と当該予測位置のそれぞれについて算出された尤度L(X,Y)とを用いて注目物体の物体位置を算出する(S14)。現時刻について算出された物体位置は1時刻前までに記憶部4に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した移動物体の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物体位置なしと判定する。
The control part 5 repeats step S8-S12, when the prediction position in which the likelihood is not calculated remains (in the case of "NO" in S13). When the likelihood is calculated for all α predicted positions (in the case of “YES” in S13), the object
制御部5は未処理の移動物体が残っている場合(S15にて「NO」の場合)、当該移動物体について物体位置を判定する処理(ステップS7〜S14)を繰り返す。一方、全ての移動物体について物体位置の判定が完了すると(S15にて「YES」の場合)、物体の新規出現と消失を判定する(S16)。具体的には、物体位置算出部531は各物体位置に対して推定された物体領域を合成して、変化画素抽出部51により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが移動物体とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物体位置なしの移動物体があれば当該移動物体が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS3へ戻る。
When an unprocessed moving object remains ("NO" in S15), the control unit 5 repeats the process of determining the object position for the moving object (steps S7 to S14). On the other hand, when the determination of the object positions for all the moving objects is completed (in the case of “YES” in S15), the appearance and disappearance of the objects are determined (S16). Specifically, the object
図7は、位置予測部52及び物体位置判定部53による処理例を概念的に示す模式図であり、図8と同様に障害物70(棚)の上に寄りかかった移動物体71(人)に関するものである。図7(a)は水平面(XY平面)上に、障害物70の位置(障害領域72)及び、移動物体71についてのα個の予測位置73の分布を示している。移動物体71が障害物70上に寄りかかっていることに起因して、予測位置73は障害領域72の外側だけでなく障害領域72内にも設定されている。
FIG. 7 is a schematic diagram conceptually showing a processing example by the
図7(b)は、図7(a)にて一点鎖線で示す直線74に沿った垂直面上での障害物70及び移動物体71の形状を点線で示している。さらに同図には、直線74上での予測位置73の尤度L0の分布、障害物70に対応したペナルティ値P、及び補正後の尤度Lの分布をそれぞれ模式的なグラフ75〜77で示している。なお、L0のグラフ75、Pのグラフ76及びLのグラフ77の基準線(値が“0”のレベル)はそれぞれ基準面Z=0を示す直線に一致させている。また、補正後の尤度Lが補正前の尤度L0からペナルティ値Pを減算してされることに対応させて、L(及びL0)の正方向は上向きとし、Pの正方向は下向きに設定している。
FIG. 7B shows the shapes of the
上述のように予測位置73は障害領域72内にも設定され、これに起因して補正前の尤度の分布グラフ75は障害領域72内にピークを有する。障害物70の高さは移動物体71の上半身が乗り出せる程度であり、その高さに応じて1より小さい固有ペナルティ値Phが設定される。また、移動物体71の高さから障害物70の高さを引いた差、つまり移動物体71が障害物70上に乗り出せる量に応じた幅の縁部が障害領域72内に設定され、ペナルティ値Pは当該縁部にて障害領域72の内部領域に設定される固有ペナルティ値Phより減衰される。このペナルティ値Pを用いて補正された尤度の分布グラフ77のピークは、補正前のピークより障害領域72の境界側へ移動するが障害領域72内に留まり得る。つまり、本発明の実施形態である移動物体追跡装置1は障害領域内に物体位置を決定することができる。すなわち、障害領域72内には移動物体は存在し得ないとする従来の処理では図8を用いて説明したように物体位置が障害領域外に排斥されたり、誤検出と判断されたりする不都合が起こる場合においても、移動物体追跡装置1によれば物体位置を精度良く判定することが可能である。
As described above, the predicted
1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 ペナルティマップ、42 カメラパラメータ、43,73 予測位置、44 物体位置、50 ペナルティ設定部、51 変化画素抽出部、52 位置予測部、53 物体位置判定部、54 異常判定部、70 障害物、71 移動物体、72 障害領域、100 基準面、101 カメラ位置、102,103 障害物モデル、104 移動物体モデル、200,201 ペナルティ値、530 存在確度算出部、531 物体位置算出部。
DESCRIPTION OF
Claims (6)
注目時刻において前記移動物体が存在し得る候補位置を複数予測する位置予測部と、
前記注目時刻の前記画像における前記候補位置に対応する部分から抽出される前記移動物体の特徴量に応じて当該候補位置における前記移動物体の存在確度を算出し、前記複数の候補位置ごとの前記存在確度を用いて前記移動物体の位置を判定する物体位置判定部と、
前記空間内にて前記移動を妨げる障害物が存在する障害領域及び当該障害物の高さを予め記憶する記憶部と、
前記存在確度に対するペナルティ値として、前記障害物の前記高さに応じた値を当該障害物の前記障害領域に設定するペナルティ設定部と、
を有し、
前記物体位置判定部は、前記候補位置に前記ペナルティ値が設定されている場合に、当該ペナルティ値に応じて当該候補位置の前記存在確度を低めて前記判定を行うこと、
を特徴とする移動物体追跡装置。 A moving object tracking device for tracking a moving object moving in the space using a time-series image of a predetermined space,
A position prediction unit that predicts a plurality of candidate positions where the moving object may exist at the time of interest;
The presence probability of the moving object at the candidate position is calculated according to the feature quantity of the moving object extracted from the portion corresponding to the candidate position in the image at the time of interest, and the existence for each of the plurality of candidate positions An object position determination unit that determines the position of the moving object using accuracy;
A storage unit for preliminarily storing an obstacle area where an obstacle that prevents the movement in the space exists and a height of the obstacle;
As a penalty value for the existence accuracy, a penalty setting unit that sets a value corresponding to the height of the obstacle in the obstacle area of the obstacle;
Have
The object position determination unit, when the penalty value is set in the candidate position, to perform the determination by reducing the existence accuracy of the candidate position according to the penalty value;
A moving object tracking device.
前記ペナルティ設定部は、前記障害物の高さと共に増加して前記障害物の高さが前記移動物体の高さ以上であるときに最大となる前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。 The moving object tracking device according to claim 1,
The penalty setting unit sets the penalty value that increases with the height of the obstacle and is maximized when the height of the obstacle is equal to or higher than the height of the moving object. Object tracking device.
前記ペナルティ設定部は、前記移動物体に備わる所定の関節部の高さにて段階的に増加する前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。 The moving object tracking device according to claim 2,
The moving object tracking device, wherein the penalty setting unit sets the penalty value that increases stepwise at a predetermined joint height of the moving object.
前記ペナルティ設定部は、前記障害領域のうち当該障害領域の周に沿った所定幅の内縁領域にて当該障害領域の周に近づくほど減少させて前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。 In the moving object tracking device according to any one of claims 1 to 3,
The penalty setting unit is configured to set the penalty value by decreasing the closer to the circumference of the obstacle area in the inner edge area having a predetermined width along the circumference of the obstacle area in the obstacle area. Object tracking device.
前記ペナルティ設定部は、前記内縁領域の幅を前記移動物体の高さから前記障害物の高さを引いた残りの高さに応じて設定すること、を特徴とする移動物体追跡装置。 The moving object tracking device according to claim 4,
The penalty setting unit sets the width of the inner edge region according to the remaining height obtained by subtracting the height of the obstacle from the height of the moving object.
前記ペナルティ設定部は、前記障害領域の周に沿って外側に前記移動物体の幅に応じた幅で設定される外縁領域に、前記障害領域内よりも小さい値の前記ペナルティ値を設定すること、を特徴とする移動物体追跡装置。 In the moving object tracking device according to any one of claims 1 to 5,
The penalty setting unit is configured to set the penalty value of a value smaller than that in the obstacle area in an outer edge area set with a width according to the width of the moving object on the outside along the circumference of the obstacle area; A moving object tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011018252A JP5552069B2 (en) | 2011-01-31 | 2011-01-31 | Moving object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011018252A JP5552069B2 (en) | 2011-01-31 | 2011-01-31 | Moving object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012159957A true JP2012159957A (en) | 2012-08-23 |
JP5552069B2 JP5552069B2 (en) | 2014-07-16 |
Family
ID=46840453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011018252A Expired - Fee Related JP5552069B2 (en) | 2011-01-31 | 2011-01-31 | Moving object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5552069B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015076056A (en) * | 2013-10-11 | 2015-04-20 | カシオ計算機株式会社 | Object position estimation device, object position estimation method and program |
JP2018106360A (en) * | 2016-12-26 | 2018-07-05 | キヤノン株式会社 | Information processor, information processing method and program |
JP2018185623A (en) * | 2017-04-25 | 2018-11-22 | セコム株式会社 | Object detection device |
JP2020173775A (en) * | 2019-04-10 | 2020-10-22 | 株式会社バカン | Object detector and congestion state management device |
JP2021168040A (en) * | 2020-04-10 | 2021-10-21 | 株式会社エクサウィザーズ | Information processing device, information processing method, and program |
JPWO2021245749A1 (en) * | 2020-06-01 | 2021-12-09 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233523A (en) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | Person location estimation method using asynchronous camera image and system therefor |
WO2009113265A1 (en) * | 2008-03-11 | 2009-09-17 | パナソニック株式会社 | Tag sensor system and sensor device, and object position estimating device and object position estimating method |
JP2010049296A (en) * | 2008-08-19 | 2010-03-04 | Secom Co Ltd | Moving object tracking device |
WO2010073929A1 (en) * | 2008-12-22 | 2010-07-01 | 日本電気株式会社 | Person-judging device, method, and program |
-
2011
- 2011-01-31 JP JP2011018252A patent/JP5552069B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233523A (en) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | Person location estimation method using asynchronous camera image and system therefor |
WO2009113265A1 (en) * | 2008-03-11 | 2009-09-17 | パナソニック株式会社 | Tag sensor system and sensor device, and object position estimating device and object position estimating method |
JP2010049296A (en) * | 2008-08-19 | 2010-03-04 | Secom Co Ltd | Moving object tracking device |
WO2010073929A1 (en) * | 2008-12-22 | 2010-07-01 | 日本電気株式会社 | Person-judging device, method, and program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015076056A (en) * | 2013-10-11 | 2015-04-20 | カシオ計算機株式会社 | Object position estimation device, object position estimation method and program |
JP2018106360A (en) * | 2016-12-26 | 2018-07-05 | キヤノン株式会社 | Information processor, information processing method and program |
US10943103B2 (en) | 2016-12-26 | 2021-03-09 | Canon Kabushiki Kaisha | Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium |
JP2018185623A (en) * | 2017-04-25 | 2018-11-22 | セコム株式会社 | Object detection device |
JP2020173775A (en) * | 2019-04-10 | 2020-10-22 | 株式会社バカン | Object detector and congestion state management device |
JP2021168040A (en) * | 2020-04-10 | 2021-10-21 | 株式会社エクサウィザーズ | Information processing device, information processing method, and program |
JP7029486B2 (en) | 2020-04-10 | 2022-03-03 | 株式会社エクサウィザーズ | Information processing equipment, information processing methods, and programs |
JPWO2021245749A1 (en) * | 2020-06-01 | 2021-12-09 | ||
WO2021245749A1 (en) * | 2020-06-01 | 2021-12-09 | 日本電気株式会社 | Tracking device, tracking method, and recording medium |
JP7359306B2 (en) | 2020-06-01 | 2023-10-11 | 日本電気株式会社 | Tracking devices, tracking systems, tracking methods, and programs |
Also Published As
Publication number | Publication date |
---|---|
JP5552069B2 (en) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5552069B2 (en) | Moving object tracking device | |
US9727787B2 (en) | System and method for deriving accurate body size measures from a sequence of 2D images | |
JP5180733B2 (en) | Moving object tracking device | |
CN105740839B (en) | Analysis of three-dimensional scenes | |
JP2020518038A (en) | Extraction of 2D floor plan from 3D grid representation of internal space | |
JP5687082B2 (en) | Moving object tracking device | |
JP2019075156A (en) | Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer | |
JP6793151B2 (en) | Object tracking device, object tracking method and object tracking program | |
JP5147761B2 (en) | Image monitoring device | |
WO2012023593A1 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium | |
JP5687035B2 (en) | Person tracking device | |
WO2021081037A1 (en) | Method for wall line determination, method, apparatus, and device for spatial modeling | |
EP2499827A1 (en) | Method for tracking an object through an environment across multiple cameras | |
JP5027758B2 (en) | Image monitoring device | |
JP5525495B2 (en) | Image monitoring apparatus, image monitoring method and program | |
JP5147760B2 (en) | Image monitoring device | |
WO2022127181A1 (en) | Passenger flow monitoring method and apparatus, and electronic device and storage medium | |
JP5667846B2 (en) | Object image determination device | |
KR20240052734A (en) | Real time space intelligence delivery system and method based on situational awareness that matches object recognition from cctv video to 3d space coordinates | |
CN111243230A (en) | Human body falling detection device and method based on two depth cameras | |
JP4307283B2 (en) | Stereo camera system and calibration method between stereo cameras of the system | |
JP2012155595A (en) | Target object image determination device | |
JP4670010B2 (en) | Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program | |
JP6548683B2 (en) | Object image estimation device and object image determination device | |
JP6548682B2 (en) | Object image judgment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5552069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |