JP2013077202A - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP2013077202A
JP2013077202A JP2011217283A JP2011217283A JP2013077202A JP 2013077202 A JP2013077202 A JP 2013077202A JP 2011217283 A JP2011217283 A JP 2011217283A JP 2011217283 A JP2011217283 A JP 2011217283A JP 2013077202 A JP2013077202 A JP 2013077202A
Authority
JP
Japan
Prior art keywords
moving
moving object
evaluation value
hypothesis
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011217283A
Other languages
Japanese (ja)
Other versions
JP5841390B2 (en
Inventor
Masahiro Maeda
昌宏 前田
Yuji Nakazawa
裕二 中沢
Takaharu Kurokawa
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011217283A priority Critical patent/JP5841390B2/en
Publication of JP2013077202A publication Critical patent/JP2013077202A/en
Application granted granted Critical
Publication of JP5841390B2 publication Critical patent/JP5841390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that a device for tracking a moving object within a monitoring space on a monitoring image does not easily perform processing for preventing mistake in the case that a target object approaches other congesting objects.SOLUTION: A hypothesis setting part 51 predicts a plurality of candidate positions at a current time from past positions for a plurality of objects. A likelihood calculation part 52 calculates an evaluation value representing the degree of movement destination likelihood of a target object on the basis of an image feature for each movement destination candidate of a target object. Further, correction for lowering the evaluation value is performed in accordance with abundance representing existence probability of other objects in the movement destination candidate. On the other hand, evaluation value compensation for weakening the correction is performed for a part of the movement destination candidate of the target object, and the concession of the other objects is reflected on the evaluation value. A movement destination position of the target object is determined from the correction and the evaluation value subjected to limited compensation.

Description

本発明は、画像処理により複数の移動物体を追跡する移動物体追跡装置に関する。   The present invention relates to a moving object tracking apparatus that tracks a plurality of moving objects by image processing.

画像処理により移動物体を追跡する従来技術として、テンプレートマッチング処理を用い、画像特徴が類似する個所を探索、追跡するものが知られている。テンプレートマッチング処理では、画像全体を探索範囲とすると処理負荷が大きくなるため、注目する移動物体の前時刻での位置の周辺、或いは過去の運動等に基づく現時刻での予測位置の周辺に探索範囲を設定する。そして、この限定された探索範囲にて入力画像とテンプレートの一致の度合いを調べ、最も一致している位置に注目する移動物体が存在すると判断する。   As a conventional technique for tracking a moving object by image processing, there is known a technique for searching for and tracking a place where image features are similar using a template matching process. In the template matching process, if the entire image is set as the search range, the processing load increases. Therefore, the search range is around the position of the moving object of interest at the previous time or around the predicted position at the current time based on past motion or the like. Set. Then, the degree of coincidence between the input image and the template is examined within the limited search range, and it is determined that there is a moving object that is focused on the most coincident position.

ここで、追跡領域内に追跡対象の移動物体が複数存在する場合、画像特徴の似た移動物体同士が接近するとそれらのテンプレートの探索範囲が重なることがあり、注目する移動物体以外の移動物体の位置にて最もテンプレートと一致することがある。この場合、これらを取り違えて追跡し始めたり、複数の移動物体が同じ位置に存在すると判断したりする誤追跡が起こり得る。   Here, when there are multiple moving objects to be tracked in the tracking area, the search range of those templates may overlap when moving objects with similar image features approach each other. May match most templates in position. In this case, mistracking may occur, such as mistaking them and starting tracking, or determining that a plurality of moving objects are present at the same position.

この対策として、複数の移動物体のテンプレートそれぞれが最も一致した位置に各物体の位置候補を決定した後、位置候補間の距離が近すぎたならば離す修正を行ってテンプレートとの一致度に基づく再評価を行なう従来技術がある(特許文献1)。   As a countermeasure, after determining the position candidate of each object at the position where the respective templates of the plurality of moving objects most closely match, if the distance between the position candidates is too close, a correction is made to release and based on the degree of coincidence with the template There is a conventional technique for performing reevaluation (Patent Document 1).

特開2009−48428号公報JP 2009-48428 A

しかしながら従来技術では、例えば、注目物体がその進行方向に密集している複数の他物体とすれ違う場合にて、注目物体と他物体とを離す修正処理は物体の実際の動きと合致しない結果を生じ、追跡物体を取り違える可能性があるという問題があった。   However, in the prior art, for example, when the target object passes by a plurality of other objects that are closely packed in the direction of travel, the correction process that separates the target object from the other object results in a mismatch with the actual movement of the object. There is a problem that the tracking object may be mistaken.

より具体的には例えば、狭い通路で注目人物がその前方に横に並んで立っている複数人に接近した場合や、人が集まっている場所に注目人物が接近した場合には、実際には進行方向に居る人物が道を譲るなどして状況が変化し、注目人物はこれらの人物の間を通り抜けることがある。この場合に、接近した各物体を離す修正を行うと、注目人物の位置は進行方向と逆方向に修正され、一方、注目人物以外は注目人物の進行方向に修正されるため、注目人物と他の人物とを取り違え易くなる。つまり、従来技術では密集した複数の人物に近接した人物の探索範囲は押し戻された位置に制限されてしまうため通り抜けを入れ替わりとして誤追跡してしまう問題があった。   More specifically, for example, when a person of interest approaches a plurality of people standing side by side in front of a narrow passage, or when a person of interest approaches a place where people gather, The situation changes as a person in the direction of travel gives way, and the person of interest may pass between these persons. In this case, if the correction is performed to release each approaching object, the position of the person of interest is corrected in the direction opposite to the direction of travel, while other than the person of interest is corrected in the direction of travel of the person of interest. It becomes easy to mix up with other people. In other words, in the prior art, the search range of persons close to a plurality of dense persons is limited to the pushed-back position, so that there is a problem that the passing through is mistracked.

他方、注目人物がそれまでの動きを維持して密集した複数の人物の間を通り抜けるのではなく、接近した後それら人の輪に加わり立ち止まったり、注目人物の方が複数人物群を避けて通ったりするなど、注目人物の運動が変化することもある。このような場合には取り違えを回避するために探索位置を離す制御が有効である。   On the other hand, the attention person does not pass between the dense people who maintain the movement so far, but after approaching, they join the circle of those people and stop, or the attention person avoids the group of people. The movement of the person of interest may change. In such a case, control for separating the search position is effective in order to avoid misunderstanding.

本発明は上記問題を鑑みてなされたものであり、複数の移動物体が密集しているときでもこれらを取り違えることなく高精度に追跡可能な移動物体追跡装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking device that can track with high accuracy without mistaking them even when a plurality of moving objects are densely packed.

本発明に係る移動物体追跡装置は、所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する複数の物体を追跡するものであって、注目時刻より過去における前記各物体の位置情報を記憶する記憶部と、前記位置情報から前記注目時刻における前記各物体の移動先候補を予測して分布させる位置予測部と、前記注目時刻の前記画像において前記移動先候補それぞれと対応する位置の画像特徴から当該移動先候補についての移動先らしさの評価値を求める評価値算出部と、前記評価値の高さに基づいて前記各物体の移動先位置を判定する物体位置判定部と、を備え、前記評価値算出部は、前記物体の1つを注目物体とし、その他の物体の前記移動先候補の分布範囲内に予測された当該注目物体の前記移動先候補についての前記評価値を所定値分低める補正を行い、その際に前記分布範囲内の前記移動先候補のうちの一部候補については当該所定値を小さくして前記その他の物体の譲歩を前記評価値に反映させる。   A moving object tracking device according to the present invention tracks a plurality of objects moving in the space using time-series images obtained by photographing a predetermined space, and each object in the past from the attention time A storage unit that stores position information, a position prediction unit that predicts and distributes the movement destination candidates of each object at the time of interest from the position information, and each of the movement destination candidates in the image at the time of interest. An evaluation value calculation unit that obtains an evaluation value of the movement destination likelihood for the movement destination candidate from the image feature of the position; an object position determination unit that determines the movement destination position of each object based on the height of the evaluation value; The evaluation value calculation unit includes one of the objects as a target object, and the evaluation value for the destination candidate of the target object predicted within the distribution range of the destination candidate of other objects. Corrects lower predetermined value content, this time for some candidates of the destination candidates in the distribution range to reflect the concession of the by reducing the predetermined value other objects in the evaluation value.

上記本発明に係る移動物体追跡装置において、前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の前方に予測された前記移動先候補を前記一部候補とする構成とすることができる。   In the moving object tracking device according to the present invention, when the evaluation value calculation unit determines that the target object is moving from the position information, the evaluation value calculation unit determines the destination candidate predicted ahead of the target object. It can be set as the structure made into a part candidate.

上記本発明に係る移動物体追跡装置において、前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の進行方向に近い前記移動先候補ほど前記所定値を小さくする構成とすることができる。   In the moving object tracking device according to the present invention, the evaluation value calculation unit, when it is determined from the position information that the object of interest is moving, the movement destination candidate that is closer to the traveling direction of the object of interest. It can be set as the structure which makes a value small.

上記本発明に係る移動物体追跡装置において、前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の直近位置に近い前記移動先候補ほど前記所定値を小さくする構成とすることができる。   In the moving object tracking device according to the present invention described above, the evaluation value calculation unit, when it is determined from the position information that the object of interest is moving, the movement destination candidate closer to the closest position of the object of interest. It can be set as the structure which makes a value small.

上記本発明に係る移動物体追跡装置において、前記評価値算出部は、前記位置情報から前記注目物体が停止中と判定される場合に、前記分布範囲内の前記移動先候補から前記一部候補をランダムに選択する構成とすることができる。   In the moving object tracking device according to the present invention, the evaluation value calculation unit obtains the partial candidates from the movement destination candidates within the distribution range when the target object is determined to be stopped from the position information. It can be set as the structure selected at random.

本発明によれば、注目物体の移動先の候補位置に対する移動先位置としての評価値を他物体の存在蓋然性に応じて低める補正を行うことで、接近する複数の物体の移動先位置を離間させる。その際、当該評価値を低める補正を部分的に弱めて評価値を補償することにより、密集を通り抜ける移動物体を追跡することが可能となる。補正に対する評価値の補償を限定的にすることで補正の効果も確保し、通り抜け以外の動きがあっても取り違えを防止することができる。すなわち、複数の移動物体が密集しているときでもこれらを取り違えることなく高精度に追跡することができる。   According to the present invention, by performing correction that lowers the evaluation value as the movement destination position with respect to the candidate position of the movement destination of the object of interest according to the probability of existence of other objects, the movement destination positions of a plurality of approaching objects are separated. . At that time, by partially weakening the correction for lowering the evaluation value to compensate the evaluation value, it is possible to track a moving object that passes through the crowd. By limiting the compensation of the evaluation value with respect to the correction, the effect of the correction can be ensured, and even if there is a movement other than passing through, the confusion can be prevented. That is, even when a plurality of moving objects are densely packed, they can be tracked with high accuracy without mistaking them.

本発明の実施形態に係る移動物体追跡装置のブロック構成図である。It is a block block diagram of the moving object tracking apparatus which concerns on embodiment of this invention. 三次元モデルの一例を模式的に示す斜視図である。It is a perspective view which shows an example of a three-dimensional model typically. 監視空間に複数の移動物体が存在する一例として4人の人物が接近して存在する様子及び当該移動物体のうち注目移動物体以外の3つに対して設定された存在度マップを示す模式図である。As an example in which a plurality of moving objects exist in the monitoring space, a schematic diagram showing a state in which four persons are approaching and a presence map set for three of the moving objects other than the target moving object. is there. 個別存在度マップを作成する方法を説明する模式図である。It is a schematic diagram explaining the method of producing an individual presence map. 移動状態の注目物体の進行方向に密集する他物体が存在する場合の緩和値Eの設定を説明する模式図である。It is a schematic diagram explaining the setting of the relaxation value E when there are other objects that are densely packed in the traveling direction of the target object in the moving state. 移動状態の注目物体の進行方向に他物体が存在しない場合の緩和値Eの設定を説明する模式図である。It is a schematic diagram explaining the setting of the relaxation value E when there is no other object in the traveling direction of the target object in the moving state. 注目物体が停止状態である場合の緩和値Eの設定を説明する模式図である。It is a schematic diagram explaining the setting of the relaxation value E when an attention object is a stop state. 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。It is a general | schematic flowchart of the tracking process of the moving object tracking apparatus which concerns on embodiment of this invention. 図8の追跡処理における尤度補正処理の概略のフロー図である。FIG. 9 is a schematic flowchart of likelihood correction processing in the tracking processing of FIG. 8.

以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、監視空間内を移動する人物を追跡対象物(以下、移動物体と称する)とし、監視空間を撮像した監視画像を処理して移動物体の追跡を行う。移動物体追跡装置1は監視空間に存在する複数の移動物体を追跡可能に構成されている。なお、監視空間は屋内に限定されず屋外であってもよく、移動物体は車両など人物以外であってもよい。   Hereinafter, a moving object tracking device 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The moving object tracking device 1 uses a person moving in the monitoring space as a tracking target (hereinafter referred to as a moving object), and processes the monitoring image obtained by imaging the monitoring space to track the moving object. The moving object tracking device 1 is configured to be able to track a plurality of moving objects existing in the monitoring space. The monitoring space is not limited to being indoors but may be outdoors, and the moving object may be a person other than a person such as a vehicle.

[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
[Configuration of moving object tracking device]
FIG. 1 is a block diagram of a moving object tracking device 1 according to the embodiment. The moving object tracking device 1 includes an imaging unit 2, a setting input unit 3, a storage unit 4, a control unit 5, and an output unit 6. The imaging unit 2, the setting input unit 3, the storage unit 4, and the output unit 6 are connected to the control unit 5.

撮像部2は監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。   The imaging unit 2 is a monitoring camera, is installed so as to face the monitoring space, and images the monitoring space at a predetermined time interval. The captured monitoring images of the monitoring space are sequentially output to the control unit 5. In order to grasp the position and movement of a person who moves along a reference plane such as the floor surface or the ground surface, the imaging unit 2 is basically installed at a height that allows a bird's-eye photography, for example, in this embodiment, The moving object tracking device 1 is used for indoor monitoring, and the imaging unit 2 is installed on the ceiling. The time interval at which the monitoring image is captured is 1/5 second, for example. Hereinafter, the unit of time recorded at the time interval of imaging is referred to as time.

設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。   The setting input unit 3 is an input means for the administrator to perform various settings for the control unit 5, and is a user interface device such as a touch panel display, for example.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、カメラパラメータ41、仮説42、物体位置43、存在度マップ44及び物体特徴45が含まれる。   The storage unit 4 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 4 stores various programs and various data, and inputs / outputs such information to / from the control unit 5. The various data includes a three-dimensional model 40, a camera parameter 41, a hypothesis 42, an object position 43, an abundance map 44, and an object feature 45.

三次元モデル40は、監視空間(実空間)を模した仮想空間に移動物体の立体形状を近似した移動物体モデルを配置した状態を記述したデータである。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での移動物体モデルの配置は任意位置に設定することができる。   The three-dimensional model 40 is data describing a state in which a moving object model that approximates a three-dimensional shape of a moving object is arranged in a virtual space that simulates a monitoring space (real space). In the present embodiment, the monitoring space and the virtual space are represented by a right-handed orthogonal coordinate system including the X, Y, and Z axes, and the vertically upward direction is set to the positive direction of the Z axis. A reference surface such as a floor surface is horizontal and is defined by an XY plane represented by Z = 0. The arrangement of the moving object model in the virtual space can be set at an arbitrary position.

図2は、三次元モデル40の一例を模式的に示す斜視図であり、監視空間をN×M×Kの位置座標に離散化した仮想空間の基準面100、カメラ位置101及び移動物体モデル103の配置例を示している。   FIG. 2 is a perspective view schematically showing an example of the three-dimensional model 40. The reference plane 100, the camera position 101, and the moving object model 103 of the virtual space obtained by discretizing the monitoring space into N × M × K position coordinates. An arrangement example is shown.

移動物体モデルは、例えば、人の頭部胴部、脚部の3部分の立体形状を近似する回転楕円体をZ軸方向に積み重ねた高さH、胴部の最大幅Wの立体形状データである。本実施形態では説明を簡単にするため、高さH、幅Wは標準的な人物サイズとし任意の移動物体に共通とする。また、頭部中心を移動物体の代表位置とする。なお、移動物体モデルはより単純化して1つの回転楕円体で近似してもよい。移動物体モデルの立体形状に関するデータは、追跡処理に先立って記憶部4に格納される。   The moving object model is, for example, solid shape data having a height H obtained by stacking spheroids approximating the three-dimensional shapes of the human head torso and leg portions in the Z-axis direction and a maximum width W of the torso. is there. In this embodiment, in order to simplify the description, the height H and the width W are standard human sizes and are common to any moving object. The center of the head is set as the representative position of the moving object. Note that the moving object model may be further simplified and approximated by one spheroid. Data relating to the three-dimensional shape of the moving object model is stored in the storage unit 4 prior to the tracking process.

カメラパラメータ41は、撮像部2の外部パラメータ、内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ41を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。   The camera parameters 41 include external parameters and internal parameters of the imaging unit 2. These parameters obtained by actual measurement or the like are input in advance from the setting input unit 3 and stored in the storage unit 4. The three-dimensional model 40 can be projected onto the coordinate system of the monitoring image (imaging surface of the imaging unit 2; xy coordinate system) by a coordinate transformation formula in which the camera parameter 41 is applied to a camera model such as a known pinhole camera model.

仮説42(移動先候補)は、各時刻における移動物体の移動先の位置の予測値に関する情報である。確率的に移動物体の位置(物体位置)を判定するために仮説は移動物体ごとに多数(その個数をαで表す。例えば1移動物体あたり200個)設定される。具体的には、仮説42は、移動物体の識別子と、各時刻における予測値のインデックス(0〜α−1)及びその位置座標(XYZ座標系)とを対応付けた時系列データである。   Hypothesis 42 (movement destination candidate) is information regarding the predicted value of the position of the movement destination of the moving object at each time. In order to determine the position (object position) of a moving object stochastically, a large number of hypotheses are set for each moving object (the number is represented by α, for example, 200 per moving object). Specifically, the hypothesis 42 is time-series data in which the identifier of the moving object is associated with the predicted value index (0 to α-1) and the position coordinates (XYZ coordinate system) at each time.

物体位置43は各時刻における移動物体の位置に関する情報であり、具体的には、移動物体の識別子と位置座標(XYZ座標系)とを対応付けた時系列データである。すなわち、物体位置43には、時刻ごとに判定される各移動物体の位置が順次、追記され、各移動物体の過去位置の情報が保持される。   The object position 43 is information regarding the position of the moving object at each time, and specifically is time-series data in which the identifier of the moving object is associated with the position coordinates (XYZ coordinate system). That is, the position of each moving object determined at each time is sequentially added to the object position 43, and information on the past position of each moving object is held.

なお、仮説42、物体位置43を監視空間の水平面座標(XY座標系)で特定する構成として処理を高速化することができる。本実施形態では、理解を容易にするために当該構成を例に説明する。   Note that it is possible to speed up the processing as a configuration in which the hypothesis 42 and the object position 43 are specified by the horizontal coordinate (XY coordinate system) of the monitoring space. In the present embodiment, the configuration will be described as an example for easy understanding.

存在度マップ44は、監視空間の各位置において各移動物体が存在し得る度合い(蓋然性)を表す存在度を当該位置及び当該移動物体の識別符号と対応付けたデータである。存在度は仮説42又は物体位置43を中心位置にして設定される。移動物体は監視空間の一部を占有し、複数の移動物体の占有空間は排他的に存在することに対応させて、任意の移動物体の物体位置を判定する際にその他の移動物体の存在度をペナルティ値として用いることで物体間に排他作用を奏させる。   The presence map 44 is data in which a presence indicating the degree (probability) that each moving object may exist at each position in the monitoring space is associated with the position and the identification code of the moving object. The degree of presence is set with the hypothesis 42 or the object position 43 as the center position. Corresponding to the fact that the moving object occupies a part of the monitoring space and the occupied space of multiple moving objects exists exclusively, the presence of other moving objects when determining the object position of any moving object Is used as a penalty value to achieve an exclusive action between objects.

物体特徴45は、追跡対象の移動物体を個々に特徴付ける情報であり、監視画像から抽出された各移動物体の特徴量(例えば色ヒストグラムなど)を含む。当該移動物体の特徴量は、入力画像にて追跡対象となる移動物体が新規に検出されると、当該検出位置に対応した画像領域から抽出され、記憶部4に格納される。なお、移動物体の特徴量を抽出する際に、移動物体モデルの形状に関するデータを参照情報として用いることができる。   The object feature 45 is information for individually characterizing the moving object to be tracked, and includes a feature amount (for example, a color histogram) of each moving object extracted from the monitoring image. The feature quantity of the moving object is extracted from the image area corresponding to the detected position and stored in the storage unit 4 when a moving object to be tracked is newly detected in the input image. It should be noted that data relating to the shape of the moving object model can be used as reference information when extracting the feature amount of the moving object.

また、物体特徴45は移動物体の非隠蔽領域を表す情報も含む。ここで、非隠蔽領域は移動物体が他の移動物体により隠蔽されずに監視画像上に像として現れる領域である。非隠蔽領域は、移動物体モデルを仮想的に配置した三次元モデル40を、カメラパラメータ41を用いて撮像部2の撮像面に投影して求めることができる。各移動物体について、移動物体モデルを当該移動物体の位置に配置したときの非隠蔽領域が物体特徴45として記憶部4に格納される。   The object feature 45 also includes information representing a non-hidden area of the moving object. Here, the non-hiding area is an area where the moving object appears as an image on the monitoring image without being hidden by other moving objects. The non-hiding region can be obtained by projecting the three-dimensional model 40 in which the moving object model is virtually arranged on the imaging surface of the imaging unit 2 using the camera parameter 41. For each moving object, the non-hidden area when the moving object model is arranged at the position of the moving object is stored in the storage unit 4 as the object feature 45.

制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、変化画素抽出部50、仮説設定部(位置予測部)51、尤度算出部(評価値算出部)52、物体位置判定部53及び異常判定部54として機能する。また尤度算出部52はペナルティ設定部520と緩和値設定部521とを含んでなる。   The control unit 5 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads and executes a program from the storage unit 4 to change a pixel extraction unit. 50, functions as a hypothesis setting unit (position prediction unit) 51, likelihood calculation unit (evaluation value calculation unit) 52, object position determination unit 53, and abnormality determination unit 54. The likelihood calculating unit 52 includes a penalty setting unit 520 and a relaxation value setting unit 521.

変化画素抽出部50は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出部52及び物体位置判定部53へ出力する。そのために変化画素抽出部50は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は背景画像を参照情報として監視画像との対比により抽出される移動物体の画像特徴である。なお、差分処理に代えて新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。   The change pixel extraction unit 50 extracts change pixels from the monitoring image newly input from the imaging unit 2, and outputs information about the extracted change pixels to the likelihood calculation unit 52 and the object position determination unit 53. Therefore, the change pixel extraction unit 50 performs a difference process between the newly input monitoring image and the background image, and extracts a pixel whose difference is equal to or greater than a preset difference threshold as a change pixel. The change pixel is an image feature of the moving object extracted by comparing with the monitoring image using the background image as reference information. Note that the changed pixels may be extracted by a correlation process between the newly input monitoring image and the background image instead of the difference process, or the background model is learned instead of the background image and the difference process with the background model is performed. The change pixel may be extracted by.

仮説設定部51は、移動物体の過去の位置情報(物体位置又は仮説)を用いて当該移動物体の動き予測を行い、移動物体の現時刻における移動先候補位置である複数の仮説を求めて分布させる。   The hypothesis setting unit 51 performs motion prediction of the moving object using past position information (object position or hypothesis) of the moving object, and obtains and distributes a plurality of hypotheses that are movement destination candidate positions at the current time of the moving object. Let

まず、仮説設定部51は、過去に判定された各移動物体の物体位置又は過去に設定された各移動物体の仮説から動き予測を行なって、新たに監視画像が入力された時刻(注目時刻)における移動物体の移動先候補を複数通り予測して各移動先候補と移動物体の識別子とを含んだ仮説を設定し、設定した仮説を尤度算出部52へ出力する。上述したように仮説は各移動物体に対してα個設定される。このように多数の仮説を順次設定して確率的に移動物体の位置(物体位置)を判定する方法はパーティクルフィルタなどと呼ばれる。仮説は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の位置データに所定の運動モデルを適用するか、又は所定の予測フィルタを適用することで行なわれる。   First, the hypothesis setting unit 51 performs motion prediction from the object position of each moving object determined in the past or the hypothesis of each moving object set in the past, and the time when a monitoring image is newly input (attention time) A plurality of moving object candidates for the moving object is predicted, a hypothesis including each moving destination candidate and the identifier of the moving object is set, and the set hypothesis is output to the likelihood calculating unit 52. As described above, α hypotheses are set for each moving object. A method of determining a position (object position) of a moving object in a probabilistic manner by sequentially setting a number of hypotheses in this way is called a particle filter or the like. The hypothesis can be set in the xy coordinate system of the monitoring image, but in the present embodiment, it is set in the XYZ coordinate system of the monitoring space. Motion prediction is performed by applying a predetermined motion model or applying a predetermined prediction filter to past position data.

尤度算出部52は、監視画像において各移動物体の仮説それぞれに対応する部分(非隠蔽領域)から当該移動物体の画像特徴を抽出し、画像特徴の抽出度合いに応じた、当該仮説の物体位置としての尤度(評価値)を算出して物体位置判定部53へ出力する。このとき尤度算出部52は、注目物体の仮説をペナルティ設定部520に入力して、当該仮説が示す移動先候補での注目物体以外の他物体の存在度を算出させ、当該存在度により当該仮説の尤度を低める補正を行なうと共に、その際に注目物体の仮説を緩和値設定部521に入力して一部の仮説に対する補正を小さくする調整(評価値補償)を行なう。   The likelihood calculating unit 52 extracts an image feature of the moving object from a portion (non-hidden region) corresponding to each hypothesis of each moving object in the monitoring image, and the object position of the hypothesis corresponding to the degree of image feature extraction The likelihood (evaluation value) is calculated and output to the object position determination unit 53. At this time, the likelihood calculating unit 52 inputs the hypothesis of the target object to the penalty setting unit 520, calculates the presence of other objects other than the target object in the destination candidate indicated by the hypothesis, A correction that lowers the likelihood of the hypothesis is performed, and at the same time, the hypothesis of the object of interest is input to the relaxation value setting unit 521 and an adjustment (evaluation value compensation) is performed to reduce the correction for some hypotheses.

仮説のXY座標を(X,Y)、当該仮説に対する補正前の尤度をL0(X,Y)、当該仮説での他物体の存在度をP(X,Y)、当該仮説に対する緩和値をEとすると、当該仮説に対する補正後の尤度L(X,Y)は下記(1)式のように補正前の尤度から緩和値により調整された存在度を減算することによって算出される。ただしEは0以上1以下の値である。
L(X,Y)=L0(X,Y)−P(X,Y)×(1−E) (1)
The hypothesis XY coordinates are (X, Y), the likelihood before correction for the hypothesis is L0 (X, Y), the presence of other objects in the hypothesis is P (X, Y), and the relaxation value for the hypothesis is Assuming that E, the likelihood L (X, Y) after correction for the hypothesis is calculated by subtracting the presence adjusted by the relaxation value from the likelihood before correction as shown in the following equation (1). However, E is a value of 0 or more and 1 or less.
L (X, Y) = L0 (X, Y) -P (X, Y) × (1-E) (1)

すなわち、他物体の存在度は尤度を低めるペナルティ値として作用し、緩和値はペナルティ値を弱める作用を有する。   That is, the presence of other objects acts as a penalty value that reduces the likelihood, and the relaxation value acts to weaken the penalty value.

以下、補正前の尤度L0、存在度P、緩和値Eの算出について説明する。   Hereinafter, calculation of the likelihood L0, the presence P, and the relaxation value E before correction will be described.

補正前の尤度L0は次のように算出される。尤度算出部52は、仮説が示す移動先候補に移動物体モデルを仮想的に配置した三次元モデル40を生成する。そして、カメラパラメータ41を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、下記(1)〜(3)の方法で類似度、包含度及びエッジの抽出度を算出してこれらの重み付け加算値に応じた尤度を算出する。なお、仮想空間に什器等の設置物のモデルを含ませておくことで、設定物による隠蔽をさらに考慮した非隠蔽領域を求めることができる。
(1)各移動物体の過去の物体位置における非隠蔽領域から抽出された特徴量を当該移動物体の物体特徴45として記憶部4に記憶する。仮説が現に注目物体が存在する位置に近いほど背景や他物体の特徴量が混入しなくなるため、非隠蔽領域から抽出された特徴量と物体特徴45との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から非隠蔽領域内の特徴量を抽出し、抽出された特徴量と物体特徴45との類似度を算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(2)変化画素抽出部50により抽出された変化画素に非隠蔽領域を重ね合わせ、変化画素が非隠蔽領域に含まれる割合(包含度)を求める。包含度は動きの特徴量であり、仮説が現に移動物体が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。
(3)監視画像における非隠蔽領域の輪郭に対応する部分からエッジを抽出する。抽出されたエッジは形状の特徴量である。仮説が現に移動物体が存在する位置に近いほど、非隠蔽領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は高くなり、一方、遠ざかるほど抽出度は低くなりやすい。
The likelihood L0 before correction is calculated as follows. The likelihood calculating unit 52 generates a three-dimensional model 40 in which a moving object model is virtually arranged on a destination candidate indicated by a hypothesis. Then, the camera parameter 41 is used to project the three-dimensional model 40 onto the imaging surface of the imaging unit 2 to obtain a non-hidden area of the moving object model, and the similarity, inclusion degree, and degree are determined by the following methods (1) to (3). The degree of edge extraction is calculated, and the likelihood corresponding to these weighted addition values is calculated. In addition, by including a model of an installation such as a fixture in the virtual space, a non-hidden area that further considers concealment by the set object can be obtained.
(1) The feature amount extracted from the non-hidden area at the past object position of each moving object is stored in the storage unit 4 as the object feature 45 of the moving object. As the hypothesis is closer to the position where the object of interest actually exists, the feature quantity of the background and other objects will not be mixed, so the similarity between the feature quantity extracted from the non-hidden region and the object feature 45 increases, while the distance increases. Similarity tends to be low. Therefore, the feature quantity in the non-hidden region is extracted from the monitoring image, and the similarity between the extracted feature quantity and the object feature 45 is calculated. As the feature amount here, for example, various image feature amounts such as an edge distribution, a color histogram, or both of them can be used.
(2) The non-obscured region is overlapped with the changed pixel extracted by the changed pixel extraction unit 50, and the ratio (inclusion degree) of the changed pixel included in the non-hidden region is obtained. Inclusion is a feature quantity of motion, and it tends to increase as the hypothesis is closer to the position where the moving object actually exists, and to decrease as the distance increases.
(3) An edge is extracted from a portion corresponding to the contour of the non-hidden region in the monitoring image. The extracted edge is a feature amount of the shape. The closer the hypothesis is to the position where the moving object actually exists, the more the edge is extracted (for example, the sum of the extracted edge strengths) because the contour of the non-hidden region matches the edge position. Tends to be low.

なお、上述した類似度、包含度、エッジの抽出度のうちいずれか1つに応じた尤度を算出してもよいし、これらのうちの2つの度合いの重み付け加算値に応じて尤度を算出してもよい。   The likelihood corresponding to any one of the above-described similarity, inclusion, and edge extraction may be calculated, or the likelihood may be calculated according to the weighted addition value of two of these. It may be calculated.

また、尤度を評価値にする代わりに上述した類似度、包含度、エッジの抽出度又はこれらの2以上を組み合わせた値を評価値とすることもできる。   Instead of using the likelihood as an evaluation value, the above-described similarity, inclusion, edge extraction, or a combination of two or more of these can be used as the evaluation value.

次に存在度Pの算出について説明する。図3は複数の移動物体として4人の人物(移動物体#1〜#4)が接近して存在する監視空間の模式的な斜視図200及び、斜視図200の移動物体#2〜#4に対して設定された存在度マップ44の例を説明する模式図210である。存在度マップ44は、基準面に対応して位置を表すX軸及びY軸と、X軸及びY軸と直交して存在度を表すP軸とを有する。存在度マップ44は移動物体ごとの個別存在度マップを適宜合成することで生成される。模式図210には、移動物体#2の個別存在度マップ212、移動物体#3の個別存在度マップ213及び移動物体#4の個別存在度マップ214がそれぞれプロットされている。これらを対応する位置ごとに加算して正規化することで存在度マップが合成される。移動物体#2,#3,#4の個別存在度マップ212,213,214を合成した存在度マップは、監視空間内の各位置における、移動物体#1からみた他物体の存在度、すなわち当該位置に移動物体#1が存在し得ない度合いを表し、この存在度マップは移動物体#1の物体位置を判定する際のペナルティ値として利用される。   Next, calculation of the presence level P will be described. FIG. 3 shows a schematic perspective view 200 of a monitoring space where four persons (moving objects # 1 to # 4) are present as a plurality of moving objects, and moving objects # 2 to # 4 in the perspective view 200. It is the schematic diagram 210 explaining the example of the presence map 44 set with respect to it. The abundance map 44 has an X axis and a Y axis that represent positions corresponding to the reference plane, and a P axis that represents the abundance perpendicular to the X and Y axes. The presence map 44 is generated by appropriately combining individual presence maps for each moving object. In the schematic diagram 210, an individual abundance map 212 of the moving object # 2, an individual abundance map 213 of the moving object # 3, and an individual abundance map 214 of the moving object # 4 are plotted. The presence map is synthesized by adding and normalizing these for each corresponding position. The presence map obtained by combining the individual presence maps 212, 213, and 214 of the moving objects # 2, # 3, and # 4 is the presence of other objects viewed from the moving object # 1 at each position in the monitoring space, that is, This represents the degree to which the moving object # 1 cannot exist at the position, and this presence map is used as a penalty value when determining the object position of the moving object # 1.

個別存在度マップのそれぞれはXY座標を変数とする1つの二次元正規分布の確率密度関数の出力値、又はXY座標を変数とする複数の二次元正規分布の確率密度関数を加算合成した関数の出力値で表される。本実施形態では基準面をN×Mに離散化しているので、個別存在度マップは実態的にはX=[0,N−1]、Y=[0,M−1]の範囲で各XY座標における上記関数の出力値が個別存在度として並び、これら個別存在度の集まりに移動物体の識別符号が対応付けられたデータである。個別存在度マップは、1つの二次元正規分布で表される場合には、当該正規分布の平均値μ及び分散値σが移動物体の識別符号と対応付けられたデータとすることもでき、また複数の二次元正規分布の加算合成で表される場合は、当該各正規分布の平均値μ及び分散値σと当該各分布の重みωとの組が移動物体の識別符号と対応付けられたデータとすることもできる。 Each individual abundance map is an output value of a probability density function of one two-dimensional normal distribution having XY coordinates as a variable, or a function obtained by adding and combining probability density functions of a plurality of two-dimensional normal distributions having XY coordinates as variables. Expressed as an output value. In this embodiment, since the reference plane is discretized into N × M, the individual abundance map is actually XY in the range of X = [0, N−1] and Y = [0, M−1]. The output values of the above functions at the coordinates are arranged as individual abundances, and the collection codes of the individual abundances are associated with the moving object identification codes. When the individual presence map is represented by one two-dimensional normal distribution, the average value μ and the variance value σ 2 of the normal distribution can be data associated with the identification code of the moving object, In addition, in the case of being expressed by addition synthesis of a plurality of two-dimensional normal distributions, a set of the average value μ and variance value σ 2 of each normal distribution and the weight ω of each distribution is associated with the identification code of the moving object. It can also be data.

合成存在度マップは複数の個別存在度マップを重ね合わせたものであり、個別存在度マップと同じXY座標範囲に合成存在度が並んだデータである。合成存在度マップは、加算された各二次元正規分布の平均値μ及び分散値σと当該分布の重みωとの組からなるデータとすることもできる。 The composite presence map is obtained by superimposing a plurality of individual presence maps, and is data in which composite presences are arranged in the same XY coordinate range as the individual presence map. The composite abundance map may be data composed of a set of the average value μ and variance value σ 2 of each added two-dimensional normal distribution and the weight ω of the distribution.

ペナルティ設定部520は、仮説設定部51により設定された仮説42又は/及び物体位置判定部53により判定された物体位置43を参照して存在度マップ44を作成し、作成された存在度マップ44を記憶部4に記憶させる。また、ペナルティ設定部520は注目物体の仮説42を入力されると存在度マップ44から当該注目物体に対する当該仮説42の位置での他物体の存在度を出力する。   The penalty setting unit 520 creates the presence map 44 with reference to the hypothesis 42 set by the hypothesis setting unit 51 and / or the object position 43 determined by the object position determination unit 53, and the created presence map 44 Is stored in the storage unit 4. When the penalty setting unit 520 receives the hypothesis 42 of the target object, the penalty setting unit 520 outputs the presence level of the other object at the position of the hypothesis 42 with respect to the target object from the presence map 44.

図4は個別存在度マップを作成する方法を説明する模式図である。図4(a)は、個別存在度マップの作成対象とする移動物体についての基準面上での仮説42及び物体位置43の配置の一例を示す模式図であり、白抜きの複数の小円(○)がそれぞれ仮説の位置を表し、三角形(△)が現在の物体位置を表す。また図4(b)〜(d)は図4(a)に仮説等を例示した移動物体について個別存在度マップを作成する3種類の方法(A1)〜(A3)を表している。
(A1)本方法は物体位置43から個別存在度マップを作成する方法である。この方法では、作成対象の移動物体の物体位置43を平均値μとした二次元正規分布の確率密度関数を作成する。図4(b)は、本方法で設定された個別存在度マップの二次元正規分布(平均値μ,分散値σ)を表しており、物体位置にてP軸方向のピークを有する山型の形状と、3σの範囲を示すXY面上の円とを示している。分散値σは仮説の分布幅から定められる。
(A2)本方法は仮説42から個別存在度マップを作成する方法である。この方法では、作成対象の移動物体のα個の仮説を記憶部4から読み出して当該移動物体の個別存在度を算出する。当該移動物体の仮説42の平均値と分散を算出し、算出された平均値及び分散を設定した二次元正規分布の確率密度関数で仮説の分布を近似する。そして、監視空間の各位値での当該関数の値を各位置における当該物体の個別存在度として設定する。図4(c)は仮説の分布を二次元正規分布で近似した様子を示す模式図であり、複数の仮説(○)の平均位置μを黒の小円(●)で示し、二次元正規分布(平均値μ,分散値σ)を平均位置μにてP軸方向のピークを有する山型の形状と、3σの範囲を示すXY面上の円とで表している。この方法は(A3)と比べると、必要とする計算量、メモリ量の少なさで優れている。
(A3)本方法は仮説42から個別存在度マップを作成する別の方法である。本方法は各仮説に対して未だ尤度が算出されていない状態で用いることができる。図4(d)は本方法による個別存在度マップの作成例を説明する模式図である。仮説(○)それぞれについて山型の関数で図示する二次元正規分布(平均値μ,分散値σ)が設定される。当該仮説の位置を当該正規分布の平均値μとし、かつ分散値σは3σが移動物体の幅の2分の1(W/2)に合致するように設定される。そして、仮説ごとの二次元正規分布をそれぞれ重み1.0で加算合成して得られる関数の各XY座標における出力値をそれらの最大値で除する正規化を行い、その正規化後の各XY座標における値を作成対象の移動物体の個別存在度マップと定義する。この方法は(A2)と比べると複雑な形状を表現でき、高い精度が得られる。
FIG. 4 is a schematic diagram for explaining a method of creating an individual presence map. FIG. 4A is a schematic diagram showing an example of the arrangement of the hypothesis 42 and the object position 43 on the reference plane for a moving object to be created as an individual abundance map. (Circle) represents the position of the hypothesis, and the triangle (Δ) represents the current object position. FIGS. 4B to 4D show three types of methods (A1) to (A3) for creating individual presence maps for moving objects whose hypotheses and the like are illustrated in FIG. 4A.
(A1) This method is a method of creating an individual presence map from the object position 43. In this method, a probability density function of a two-dimensional normal distribution is created with the object position 43 of the moving object to be created as an average value μ. FIG. 4B shows a two-dimensional normal distribution (average value μ, variance value σ 2 ) of the individual abundance map set by this method, and a mountain shape having a peak in the P-axis direction at the object position. And a circle on the XY plane showing a range of 3σ. The variance value σ 2 is determined from the hypothesized distribution width.
(A2) This method is a method of creating an individual presence map from the hypothesis 42. In this method, α hypotheses of the moving object to be created are read from the storage unit 4 and the individual existence degree of the moving object is calculated. The average value and variance of the hypothesis 42 of the moving object are calculated, and the hypothesis distribution is approximated by a two-dimensional normal distribution probability density function in which the calculated average value and variance are set. Then, the value of the function at each value in the monitoring space is set as the individual presence degree of the object at each position. FIG. 4C is a schematic diagram showing a hypothesis distribution approximated by a two-dimensional normal distribution. The average position μ of a plurality of hypotheses (◯) is indicated by a black small circle (●), and the two-dimensional normal distribution is shown. (Average value μ, dispersion value σ 2 ) is represented by a mountain shape having a peak in the P-axis direction at the average position μ and a circle on the XY plane indicating a range of 3σ. This method is superior to (A3) because of the small amount of calculation and memory required.
(A3) This method is another method for creating an individual presence map from the hypothesis 42. This method can be used in a state where the likelihood has not yet been calculated for each hypothesis. FIG. 4D is a schematic diagram illustrating an example of creating an individual presence map by this method. For each hypothesis (◯), a two-dimensional normal distribution (average value μ, variance value σ 2 ) illustrated as a mountain function is set. The position of the hypothesis is the average value μ of the normal distribution, and the variance value σ 2 is set so that 3σ matches one half (W / 2) of the width of the moving object. Then, normalization is performed by dividing the output value at each XY coordinate of the function obtained by adding and synthesizing the two-dimensional normal distribution for each hypothesis with a weight of 1.0, and the respective XY after the normalization. A value in coordinates is defined as an individual abundance map of a moving object to be created. Compared with (A2), this method can express a complicated shape, and high accuracy can be obtained.

図3に示す移動物体#2〜#4の個別存在度マップ212〜214は(A2)の方法で作成されている。注目物体#1に対する他物体の合成存在度マップは、既に述べたように個別存在度マップ212〜214を適宜加算合成して算出される。その一つの方法は、全物体#1〜#4の個別存在度マップにおいて互いに対応する位置同士で値を加算し、加算結果のXY座標内での最大値で各位置の加算値を除して正規化することで全物体の合成存在度マップを作成する。次に、全物体の合成存在度マップにおける各位置の合成存在度から、注目物体#1の個別存在度マップにおける当該位置の個別存在度を減算して他物体#2〜#4についての合成存在度マップを作成する。なお、合成存在度マップから注目物体の個別存在度マップを減算する際に、当該個別存在度マップには合成存在度マップの作成時と同じ正規化を行う。   The individual presence maps 212 to 214 of the moving objects # 2 to # 4 shown in FIG. 3 are created by the method (A2). The composite presence degree map of other objects with respect to the target object # 1 is calculated by appropriately adding and combining the individual presence degree maps 212 to 214 as described above. One method is to add values at positions corresponding to each other in the individual abundance maps of all objects # 1 to # 4, and divide the added value at each position by the maximum value in the XY coordinates of the addition result. A composite abundance map of all objects is created by normalization. Next, by subtracting the individual abundance of the position in the individual abundance map of the object of interest # 1 from the synthesis abundance at each position in the synthesis abundance map of all objects, the existence of synthesis for other objects # 2 to # 4 Create a degree map. When subtracting the individual abundance map of the object of interest from the composite abundance map, normalization is performed on the individual abundance map in the same manner as when the composite abundance map is created.

なお、上述した正規化により存在度の値域は[0,1]に設定され、尤度の値域[0,1]と一致している。存在度の値域を[0,1]に正規化していない場合には、(1)式の右辺の減算結果が0未満となり得るが、その場合のL(X,Y)は0と定義する。   It should be noted that the value range of the abundance is set to [0, 1] by the normalization described above, and matches the likelihood value range [0, 1]. When the range of abundance is not normalized to [0, 1], the subtraction result on the right side of equation (1) can be less than 0, but L (X, Y) in that case is defined as 0.

上述の注目物体の物体位置判定用の合成存在度マップは、複数の移動物体のうち当該注目物体だけを除いた他物体の仮説に基づいて作成された、他物体の存在度を注目時刻の監視空間の各位置にて与える存在度関数に当たる。ペナルティ設定部520は、注目物体の識別符号とその仮説を入力されると、当該注目物体に対応した物体位置判定用の合成存在度マップに基づいて、当該仮説の位置での他物体の存在度を出力する。   The above-mentioned composite presence map for determining the position of the target object is created based on the hypothesis of the other object excluding only the target object among a plurality of moving objects. It corresponds to the abundance function given at each position in space. When the penalty setting unit 520 receives the identification code of the target object and its hypothesis, the penalty setting unit 520 determines the presence of other objects at the position of the hypothesis based on the combined presence map for object position determination corresponding to the target object. Is output.

なお、什器等が設置されて移動物体が存在し得ないことが予め分かっている位置に合成存在度1.0を上書き設定することもできる。   It should be noted that the composite presence 1.0 can be overwritten at a position where it is known in advance that a fixture or the like is installed and no moving object can exist.

次に緩和値Eについて説明する。上述した存在度Pによるペナルティ値は、注目人物以外の移動先候補において注目人物が追跡されにくくする作用を奏する。画像特徴が類似する他人同士が接近して当該他人間で高い尤度が算出される機会が増えるとき、これらの人物が実際にはすれ違っていないにもかかわらず、あたかもすれ違ったかのように取り違えて追跡されてしまったり、接近した2人が混同され一方の人物の存在位置に2人が存在するかのように追跡される一方、他方の人物が実在する位置に第三の人物が新規出現したと判断されたりするなどの追跡エラーが起こりやすくなる。存在度をペナルティとして用いて尤度を低める修正はこのような場合に接近した人物同士を離すように作用して追跡エラーを防ぐことを可能とする。   Next, the relaxation value E will be described. The penalty value based on the presence level P described above has an effect of making it difficult for the target person to be tracked in destination candidates other than the target person. When others with similar image features approach and increase the chances of high likelihood being calculated by the other person, they are mistracked as if they had passed each other, even though they were not actually passing each other Or two people approaching each other are confused and tracked as if there were two people at one person's location, while a third person appeared at a location where the other person actually exists Tracking errors such as being judged are likely to occur. The correction that reduces the likelihood by using the presence degree as a penalty acts to separate persons who are close to each other in such a case, thereby making it possible to prevent a tracking error.

しかし、この接近した人物同士を離す修正処理は、従来技術の課題として述べたように、場合によっては実際の人物の動きと合致しなくなって追跡物体を取り違えるおそれがある。この問題は図3のような、注目人物がその前方に人が集まっている場所に接近した場合について既に説明した。すなわち、この場合には進行方向に居る人物が譲歩し道を空けてくれ、注目人物はこれらの人物の間を通り抜ける場合があるが、この場合にペナルティ値が作用すると、注目人物の物体位置は進行方向と逆方向側に判定されやすくなり注目人物と他の人物との取り違えが生じ易くなる。その一方で、注目人物が輪に加わり立ち止まる、注目人物がよけて通るなど、注目人物側の運動が変化する場合もあり、この場合はペナルティ値が作用しなければ取り違えが発生しやすくなる。   However, the correction process for separating the persons close to each other may cause the tracking object to be misunderstood in some cases because it does not match the actual movement of the person as described in the prior art. This problem has already been described in the case where the person of interest approaches a place where people gather in front of the person as shown in FIG. In other words, in this case, the person in the direction of travel makes a concession and clears the path, and the attention person may pass between these persons, but if the penalty value acts in this case, the object position of the attention person will be It becomes easy to make a determination in the direction opposite to the traveling direction, and it becomes easy for the person of interest to be mistaken for another person. On the other hand, there are cases where the movement of the person of interest changes, such as when the person of interest joins the ring and stops, or the person of interest passes away. In this case, if the penalty value does not act, a mistake is likely to occur.

また例えば、停止状態で密集した人物の中に居る注目人物が動き出して密集から抜け出す場合も、ペナルティ値の作用によって取り違えが発生することもある。つまり、ペナルティ値は、密集の内側に居る人物に対しては内側に押し留めるように作用し、外側に居る人物に対しては外側に押し出すように作用する。そのため、実際に内側の人物が抜け出したとしても、当該人物は外側の人物として追跡されやすくなってしまう。その一方で、実際に外側の人物が密集から抜け出す場合はペナルティ値が作用しなければ取り違えが発生しやすくなる。   In addition, for example, even when a person of interest in a crowded person in a stopped state starts to move out of the crowd, a mistake may occur due to the action of the penalty value. In other words, the penalty value acts so as to be pushed inward for a person who is inside the crowd, and pushes outward for a person who is outside. Therefore, even if an inner person actually escapes, the person is likely to be tracked as an outer person. On the other hand, when the outside person actually gets out of the crowd, if the penalty value does not act, a mistake is likely to occur.

緩和値Eは、存在度をペナルティとして得られる排他作用を活かしつつ、狭い通路や密集した空間で人がすれ違う際にお互いに譲りあって道を開けるといった人間らしい動作を擬似的に再現するために設定される値である。   Relaxed value E is set to simulate a human-like behavior that makes use of the exclusive action that can be obtained with a penalty as the presence level, and when people pass each other in a narrow passage or in a dense space, opens up a path. Is the value to be

緩和値設定部521は、注目物体の仮説のうち他物体の存在度が設定されている位置の仮説の一部に緩和値を設定する。緩和値設定部521は、緩和値の設定対象とする仮説の選択方法は注目物体が移動状態であるか停止状態であるかによって切り替える。すなわち、移動状態であればその進行方向に偏らせて緩和値を設定し、停止状態であれば偏りなく所定数の仮説に緩和値を設定する。   The mitigation value setting unit 521 sets mitigation values for some of the hypotheses at positions where the degree of presence of other objects is set among the hypotheses of the target object. The relaxation value setting unit 521 switches the hypothesis selection method for setting a relaxation value depending on whether the object of interest is in a moving state or a stopped state. That is, if it is in the moving state, the relaxation value is set in the direction of travel, and if it is in the stopped state, the relaxation value is set in a predetermined number of hypotheses without bias.

なお、設置物は移動物体と異なり注目物体に対して道を空けることが無いため、設置物の存在度が設定されている位置の仮説は緩和値の設定対象外とする。   Note that the installed object does not leave a path with respect to the object of interest unlike a moving object, so the hypothesis of the position where the presence of the installed object is set is not set as a relaxation value setting target.

運動状態は、注目物体の過去の物体位置からその移動ベクトルを算出して、当該移動ベクトルの大きさ(移動距離)を予め設定された停止判定しきい値Tvと比較することにより判定できる。具体的には、緩和値設定部521は、注目物体の直前2時刻の物体位置間の距離を算出し、物体の微動及び検出誤差の上限に設定されたしきい値Tvより当該距離が大きければ移動状態、当該距離が停止判定しきい値Tv以下ならば停止状態と判定する。   The movement state can be determined by calculating the movement vector from the past object position of the object of interest and comparing the magnitude (movement distance) of the movement vector with a preset stop determination threshold value Tv. Specifically, the relaxation value setting unit 521 calculates the distance between the object positions at the last two times of the target object, and if the distance is larger than the threshold value Tv set as the upper limit of the fine movement and detection error of the object. If the moving state and the distance are equal to or smaller than the stop determination threshold value Tv, the stop state is determined.

なお、直前3時刻以上の物体位置を用いた平均速度、或いは直前3時刻以上の物体位置にカルマンフィルタ等を適用して算出した予測速度の大きさから移動距離を算出することもできる。   Note that the moving distance can also be calculated from the average speed using the object positions at the last three hours or more, or the predicted speed calculated by applying a Kalman filter or the like to the object positions at the last three times or more.

注目物体が移動状態である場合、緩和値設定部521は、例えば、当該注目物体の進行方向(移動ベクトルの向き)に向かって前方にある仮説だけについて緩和値を設定する。その際、例えば、注目物体の進行方向に近い仮説ほど大きな緩和値を設定し、注目物体の進行方向から遠い仮説ほど小さな緩和値を設定する。これにより、他物体が自分の方に向かってくる注目物体に対して道を空けるという状況変化に対応可能となる。   When the target object is in a moving state, the relaxation value setting unit 521 sets a relaxation value only for a hypothesis that is ahead in the traveling direction of the target object (direction of the movement vector), for example. At this time, for example, a larger relaxation value is set for a hypothesis closer to the traveling direction of the target object, and a smaller relaxation value is set for a hypothesis farther from the traveling direction of the target object. As a result, it is possible to cope with a situation change in which a path is opened with respect to an object of interest coming toward the other object.

また、注目物体の1時刻前の物体位置に近い仮説ほど大きな緩和値を設定し、注目物体の1時刻前の物体位置から遠い仮説ほど小さな緩和値を設定することも好適である。他物体の間を通り抜ける際は総じて注目物体の速さは低下するため、このように移動距離が小さな仮説ほど大きな緩和値を設定し、移動距離が大きな仮説ほど小さな緩和値を設定することで、さらに実際の状況に近い緩和値の設定が可能になる。   It is also preferable to set a larger relaxation value for a hypothesis closer to the object position one hour before the target object, and to set a smaller relaxation value for a hypothesis farther from the object position one time before the target object. When passing between other objects, the speed of the object of interest generally decreases, so by setting a larger relaxation value for a hypothesis with a smaller moving distance and setting a smaller relaxation value for a hypothesis with a larger moving distance, Furthermore, it is possible to set a relaxation value close to the actual situation.

具体的には、緩和値設定部521は、注目物体の1時刻前の物体位置から緩和値設定対象の仮説までの移動ベクトルvを算出して移動ベクトルvの大きさである移動距離d1と移動距離d1の注目物体の進行方向成分d2とを求め、仮説までの移動距離d1に対する進行方向成分d2の比の値d2/d1に比例して緩和値Eを増減させる。また、Dをd1の最大値(仮説の最大移動距離)として、当該Dに対する移動距離d1の比の値d1/Dが小さいほど緩和値Eを大きく算出する。これにより注目物体の仮説に設定される緩和値は、注目物体の直近の進行方向に対して当該仮説への移動方向がなす角θが小さいほど大きく、当該仮説への移動距離d1が小さいほど大きく設定され、逆にθやd1が大きいほど小さく設定される。このような緩和値Eは例えば、下記(2)式で定義することができる。

Figure 2013077202
Specifically, the relaxation value setting unit 521 calculates the movement vector v from the object position one hour before the target object to the hypothesis for which the relaxation value is set, and the movement distance d1 that is the magnitude of the movement vector v and the movement The traveling direction component d2 of the object of interest at the distance d1 is obtained, and the relaxation value E is increased or decreased in proportion to the ratio value d2 / d1 of the traveling direction component d2 to the moving distance d1 up to the hypothesis. Further, with D being the maximum value of d1 (the hypothetical maximum movement distance), the relaxation value E is calculated to be larger as the ratio value d1 / D of the movement distance d1 to D is smaller. As a result, the relaxation value set in the hypothesis of the target object becomes larger as the angle θ formed by the movement direction to the hypothesis with respect to the latest traveling direction of the target object becomes smaller, and becomes larger as the movement distance d1 to the hypothesis becomes smaller. Conversely, the larger the θ and d1, the smaller the setting. Such a relaxation value E can be defined by the following equation (2), for example.
Figure 2013077202

なお、(2)式は、進行方向前方の仮説だけに緩和値Eを設定する構成における定義式であり、d2≦0となる場合、すなわちθが90度以上となる場合は緩和値を0にする。   Equation (2) is a definition equation in the configuration in which the relaxation value E is set only for the hypothesis ahead in the traveling direction, and when d2 ≦ 0, that is, when θ is 90 degrees or more, the relaxation value is set to 0. To do.

図5、図6は注目物体が移動状態である場合の緩和値Eの設定を説明する模式図であり、図5は注目物体が密集する他物体に向かって移動する場合の例であり、図6は注目物体の進行方向に他物体が存在しない場合の例である。同図は物体位置、仮説の位置や緩和値の大きさをXY平面にて模式的に表しており、点線の大きな円は他物体の存在度が設定されている範囲、三角(△)は過去の物体位置、実線の円(○)は仮説を表している。また、四角(□)はその大きさで、同じ位置に示す仮説(○)に対して設定する緩和値の大きさを示す。現時刻(注目時刻)をtで表し、1時刻前の物体位置はPt−1、2時刻前の物体位置はPt−2である。注目物体の直近の進行方向をPt−1からPt−2への移動ベクトルVt−1の向きで定義し、Pt−1を始点とする現時刻の移動ベクトルVを暫定的にその進行方向に沿って図示している。Pt−1から仮説への移動ベクトルはvで表す。このベクトルvの大きさが仮説への移動距離d1に当たり、またVに射影したvの大きさがd2、vがVとなす角がθに当たる。上述したように、θが小さいほど緩和値Eが大きく設定され、またd1が小さいほど緩和値Eが大きく設定される。この結果、図5に示す場合においては、注目物体がPt−1から進む可能性が高い直近進行方向を中心にペナルティが緩和され、密集していた他物体の間を通り抜ける注目物体を追跡することが可能となる。 5 and 6 are schematic diagrams for explaining the setting of the relaxation value E when the object of interest is in a moving state, and FIG. 5 is an example of the case where the object of interest moves toward another object that is densely packed. 6 is an example when there is no other object in the traveling direction of the target object. This figure schematically shows the object position, hypothetical position, and relaxation value on the XY plane. The circle with a large dotted line is the range in which the presence of other objects is set, and the triangle (△) is the past. The position of the object and the solid circle (○) represent the hypothesis. A square (□) indicates the size of the relaxation value set for the hypothesis (◯) indicated at the same position. The current time (attention time) is represented by t, and the object position one hour before is P t-1 , and the object position two hours ago is P t-2 . The most recent travel direction of the target object defined movement vector V t-1 the direction from P t-1 to P t-2, tentatively a movement vector V t of the current time to a start point P t-1 It is shown along the traveling direction. The movement vector from P t-1 to the hypothesis is represented by v. The magnitude of this vector v corresponds to the moving distance d1 to the hypothesis, the magnitude of v projected onto V t is d2, and the angle between v and V t is θ. As described above, the smaller the θ, the larger the relaxation value E, and the smaller the d1, the larger the relaxation value E. As a result, in the case shown in FIG. 5, the penalty is eased around the latest traveling direction in which the target object is likely to travel from P t−1, and the target object passing between the other objects that are densely tracked is tracked. It becomes possible.

一方、図6に示す進行方向が密集した他物体から逸れている場合にはペナルティの緩和は殆ど起こらない。これを鑑みれば、進行方向が密集した他物体から逸れていることを明示的に判定して、逸れている注目物体の仮説全てを緩和値設定対象から除外してもよい。逸れているか否かの判定は進行方向に他物体の存在度が設定されているかに基づいて判定することができ、進行方向に存在度が設定されていない場合は逸れていると判定する。また、注目物体の仮説のうち存在度が設定されている位置に設定されたものの数が、例えば10%未満であるなど所定割合未満の場合を逸れていると判定してもよい。注目物体の進行方向が密集した他物体から逸れているのであれば、注目物体が密集を回避して移動する可能性が高く、この場合は排他制御を最大限に効かせることで取り違え防止効果を高めることができる。   On the other hand, when the traveling direction shown in FIG. 6 deviates from another object having a high density, the penalty is hardly alleviated. In view of this, it is possible to explicitly determine that the traveling direction has deviated from another object that is dense and exclude all hypotheses of the object of interest that are deviating from the relaxation value setting target. The determination of whether or not there is a deviation can be made based on whether or not the presence of another object is set in the traveling direction. If the presence is not set in the traveling direction, it is determined that there is a deviation. Further, it may be determined that a case where the number of the hypotheses of the target object set at the position where the presence degree is set is less than a predetermined ratio, for example, less than 10%, is deviated. If the traveling direction of the object of interest deviates from another object that is dense, the object of interest is likely to move avoiding the crowding.In this case, the effect of preventing misunderstanding can be achieved by maximizing exclusive control. Can be increased.

以上、注目物体が移動状態である場合を説明した。次に、注目物体が停止状態である場合の緩和値の設定について説明する。注目物体が停止状態である場合、注目物体はいずれの向きにも動き出す可能性がある。よって、上述した移動状態の場合のように注目物体が進む方向を想定しそれを中心に緩和値を設定することができない。また、進行する可能性がある全周領域に緩和値を設定すると、存在度による排他作用が損なわれて取り違えの可能性が増してしまう。   The case where the target object is in the moving state has been described above. Next, setting of the relaxation value when the object of interest is in a stopped state will be described. When the target object is in a stopped state, the target object may start moving in any direction. Therefore, it is not possible to set a relaxation value centering on the direction in which the object of interest travels as in the case of the moving state described above. In addition, if a relaxation value is set in the entire circumference area that may progress, the exclusive action due to the presence degree is impaired, and the possibility of misunderstanding increases.

このような課題に対し、緩和値設定部521は他物体の存在度が設定されている領域内に位置する注目物体の仮説から一定割合でランダムに設定対象を選択する。また、このとき緩和値設定部521は緩和値Eの大きさもランダムに設定する。   In response to such a problem, the mitigation value setting unit 521 randomly selects a setting target at a constant rate from the hypothesis of the target object located in the region where the degree of presence of other objects is set. At this time, the relaxation value setting unit 521 also randomly sets the relaxation value E.

具体的には、緩和値設定部521は、他物体の存在度が設定されている位置の仮説それぞれに対して乱数生成手段により互いに相関の無い乱数r1とr2とを値域[0,1]で生成する。そして、下記(3)式で表されるように、Rth以下の乱数r1が生成された仮説に対して緩和値Eを乱数r2に設定し、一方、Rthより大きな乱数r1が生成された仮説に対して緩和値Eを0に設定する。例えばRthを0.2に設定すれば他物体の存在度が設定されている位置の仮説のうち20%が緩和値の設定対象となる。Rthにはペナルティ値による排他作用と緩和値による譲歩反映作用の効果のトレードオフを考慮した値が実験を通じて予め設定される。

Figure 2013077202
Specifically, the relaxation value setting unit 521 generates random numbers r1 and r2 that are not correlated with each other in the range [0, 1] by using random number generation means for each hypothesis of the position where the presence of other objects is set. Generate. Then, as expressed by the following equation (3), the relaxation value E is set to the random number r2 for the hypothesis in which the random number r1 equal to or less than Rth is generated, while the hypothesis in which the random number r1 greater than Rth is generated On the other hand, the relaxation value E is set to zero. For example, if Rth is set to 0.2, 20% of hypotheses of positions where the degree of presence of other objects is set are targeted for setting relaxation values. A value that takes into account the trade-off between the effect of the exclusive action by the penalty value and the effect of the concession reflecting action by the relaxation value is set in advance as Rth.
Figure 2013077202

図7は注目物体が停止状態である場合の緩和値Eの設定を説明する模式図であり、図5、図6と同様の形式で表現している。ちなみに、注目物体は停止状態であるので、物体位置を表す三角(△)は一点に留まっており、また移動ベクトルは大きさが0であるので表示していない。緩和値は、存在度が設定されている領域内の仮説にランダムに設定される。つまり、緩和値は1時刻前の物体位置から見て特定の方向に集中することなく設定される点で上述した移動状態の場合と相違する。また、緩和値の大きさはランダムに設定される。つまり、その大きさは物体位置からの距離に関係なく設定される点で移動状態の場合と相違する。   FIG. 7 is a schematic diagram for explaining the setting of the relaxation value E when the object of interest is in a stopped state, and is expressed in the same format as in FIGS. 5 and 6. Incidentally, since the object of interest is in a stopped state, the triangle (Δ) representing the object position remains at one point, and the movement vector is not displayed because its size is zero. The relaxation value is randomly set to a hypothesis in the region where the presence level is set. That is, the relaxation value is different from that in the moving state described above in that the relaxation value is set without concentrating in a specific direction when viewed from the object position one time ago. Moreover, the magnitude of the relaxation value is set at random. That is, the size is different from that in the moving state in that the size is set regardless of the distance from the object position.

停止状態についての上述の実施形態は、緩和値を設定する仮説の選択と、緩和値の大きさとの両方を乱数を用いて決定するものであるが、それらの一方だけを乱数を用いて決定してもよい。例えば、上述の緩和値Eの大きさを変動させる乱数r2を用いず、乱数r1とRthとの大小関係で緩和値Eを0にするか1にするか、つまり存在度をそのままペナルティとして使うか使わないかの二択にしてもよい。例えば、Rthを0.2に設定して仮説の20%に緩和値を設定する場合には、Rth以下の乱数r1が生成された仮説に対して緩和値を1に設定し、Rthより大きい乱数r1が生成された仮説に対して緩和値を0に設定する。   In the above-described embodiment for the stop state, both the selection of the hypothesis for setting the relaxation value and the size of the relaxation value are determined using random numbers, but only one of them is determined using random numbers. May be. For example, without using the random number r2 that changes the magnitude of the relaxation value E described above, whether the relaxation value E is set to 0 or 1 depending on the magnitude relationship between the random numbers r1 and Rth, that is, whether the presence level is used as a penalty as it is You may choose to not use it. For example, when Rth is set to 0.2 and the relaxation value is set to 20% of the hypothesis, the relaxation value is set to 1 for the hypothesis in which a random number r1 equal to or less than Rth is generated, and a random number larger than Rth The relaxation value is set to 0 for the hypothesis for which r1 is generated.

また、乱数r1と閾値Rthとを用いた仮説選択を行わずに、偏りを有する乱数を用いて緩和値Eを算出する。偏りを有する乱数に応じた緩和値Eは、例えば、一様乱数r2を生成し、出力値の期待値が0.2に調整された関数g(・)を用いE=g(r2)によって算出できる。   Further, the relaxation value E is calculated using random numbers having bias without performing hypothesis selection using the random number r1 and the threshold value Rth. The relaxation value E corresponding to the biased random number is calculated by E = g (r2) using, for example, a function g (·) in which a uniform random number r2 is generated and the expected value of the output value is adjusted to 0.2. it can.

尤度算出部52は上述したように注目物体の各仮説について補正前の尤度L0、存在度P、緩和値Eを求め、それを用いて(1)式から補正後の尤度Lを算出する。すなわち、他物体の存在度Pに応じて尤度を低める修正、及び前記修正による尤度の低下に対し他物体が譲歩し得ることに基づく補償を行った尤度Lが算出される。   Likelihood calculation unit 52 calculates likelihood L0, presence P, and relaxation value E before correction for each hypothesis of the target object, as described above, and calculates corrected likelihood L from equation (1) using them. To do. That is, the likelihood L which performed the correction based on the correction which lowers likelihood according to the other object's presence degree P and the other object's concession with respect to the fall of the likelihood by the said correction is calculated.

物体位置判定部53は移動物体の各仮説、及び当該仮説ごとに算出された尤度Lから当該移動物体の位置(物体位置)を判定し、判定結果を記憶部4に移動物体ごとに時系列に蓄積する。なお、全ての尤度Lが所定の下限値(尤度下限値)未満の場合は物体位置なし、つまり消失したと判定する。下記(1)〜(3)は物体位置の算出方法の例である。
(1)移動物体ごとに、尤度を重みとする仮説の重み付け平均値を算出し、これを当該移動物体の物体位置とする。
(2)移動物体ごとに、最大の尤度が算出された仮説を求め、これを物体位置とする。
(3)移動物体ごとに、予め設定された尤度閾値以上の尤度が算出された仮説の平均値を算出し、これを物体位置とする。ここで、尤度閾値>尤度下限値である。
The object position determination unit 53 determines the position (object position) of the moving object from each hypothesis of the moving object and the likelihood L calculated for each hypothesis, and the determination result is stored in the storage unit 4 for each moving object in time series. To accumulate. When all the likelihoods L are less than a predetermined lower limit (likelihood lower limit), it is determined that there is no object position, that is, disappeared. The following (1) to (3) are examples of the object position calculation method.
(1) For each moving object, a weighted average value of a hypothesis with likelihood as a weight is calculated, and this is set as the object position of the moving object.
(2) A hypothesis in which the maximum likelihood is calculated is obtained for each moving object, and this is set as the object position.
(3) For each moving object, an average value of a hypothesis in which a likelihood equal to or greater than a preset likelihood threshold is calculated, and this is set as an object position. Here, the likelihood threshold> the likelihood lower limit value.

異常判定部54は、記憶部4に蓄積された時系列の物体位置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。   The abnormality determination unit 54 refers to the time-series object positions accumulated in the storage unit 4, determines that a suspicious movement that stays for a long time or a suspicious movement that deviates from the normal flow line is abnormal, and determines the abnormality. And output an abnormal signal to the output unit 6.

出力部6は警告音を出力する音響出力手段、異常が判定された監視画像を表示する表示手段、又は通信回線を介して警備会社のセンタ装置へ送信する通信手段などを含んでなり、異常判定部54から異常信号が入力されると異常発生の旨を外部へ出力する。   The output unit 6 includes a sound output means for outputting a warning sound, a display means for displaying a monitoring image determined to be abnormal, or a communication means for transmitting to a security company center device via a communication line. When an abnormality signal is input from the unit 54, the fact that an abnormality has occurred is output to the outside.

[移動物体追跡装置の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図8は移動物体追跡装置1の追跡処理の概略のフロー図である。
[Operation of moving object tracking device]
Next, the tracking operation of the moving object tracking device 1 will be described. FIG. 8 is a schematic flowchart of the tracking process of the moving object tracking device 1.

追跡処理が開始されると、制御部5は、撮像部2が監視空間を撮像するたびに監視画像を入力される(S1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。   When the tracking process is started, the control unit 5 receives a monitoring image every time the imaging unit 2 images the monitoring space (S1). Hereinafter, the time when the latest monitoring image is input is called the current time, and the latest monitoring image is called the current image.

現画像は変化画素抽出部50により背景画像と比較され、変化画素抽出部50は変化画素を抽出する(S2)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。   The current image is compared with the background image by the change pixel extraction unit 50, and the change pixel extraction unit 50 extracts the change pixel (S2). Here, the isolated change pixel is excluded from the extraction result as being caused by noise. Immediately after the start of the operation without a background image, the current image is stored in the storage unit 4 as a background image, and there is no change pixel for convenience.

また、仮説設定部51は追跡中の各移動物体に対して動き予測に基づきα個の仮説を設定する(S3)。なお、後述するステップS16にて新規出現であると判定された移動物体の仮説は動き予測不能なため出現位置を中心とする広めの範囲にα個の仮説を設定する。また、後述するステップS16にて消失と判定された移動物体の仮説は削除する。   The hypothesis setting unit 51 sets α hypotheses based on the motion prediction for each moving object being tracked (S3). Note that a hypothesis of a moving object that is determined to be a new appearance in step S16, which will be described later, is unpredictable, so α hypotheses are set in a wider range centering on the appearance position. Further, the hypothesis of the moving object determined to be lost in step S16 described later is deleted.

制御部5は、ステップS2にて変化画素が抽出されず、かつステップS3にて仮説が設定されていない(追跡中の移動物体がない)場合(S4にて「YES」の場合)はステップS1に戻り、次の監視画像の入力を待つ。   If the change pixel is not extracted in step S2 and the hypothesis is not set in step S3 (there is no moving object being tracked) (if “YES” in S4), the control unit 5 performs step S1. Return to, and wait for input of the next monitoring image.

一方、ステップS4にて「NO」の場合は、ステップS5〜S16の処理を行う。ペナルティ設定部520は、各移動物体の仮説を基に上述した(A2)の方法で当該移動物体の個別存在度マップを作成し、記憶部4に上書き保存する(S5)。   On the other hand, if “NO” in the step S4, the processes of the steps S5 to S16 are performed. The penalty setting unit 520 creates an individual presence map of the moving object by the method (A2) described above based on the hypothesis of each moving object, and overwrites and saves it in the storage unit 4 (S5).

制御部5は移動物体の前後関係を判定する(S6)。具体的には、移動物体ごとに仮説の重心(平均値)とカメラ位置との距離を算出し、距離の昇順に対象物の識別子を並べた前後関係リストを作成する。そして、制御部5は追跡中の各移動物体を前後関係リストに基づいて手前のものから順次、注目物体に設定し(S7)、当該注目物体の追跡処理に用いる存在度マップを、他物体についての個別存在度マップを合成して作成する(S8)。続いて、制御部5は注目物体の各仮説を順次、注目仮説に設定する(S9)。但し、監視画像の視野外である仮説は注目仮説の設定対象から除外し、当該仮説における物体領域は推定せず、尤度を0に設定する。   The control unit 5 determines the front-rear relationship of the moving object (S6). Specifically, the distance between the hypothetical centroid (average value) and the camera position is calculated for each moving object, and a contextual list in which the identifiers of the objects are arranged in ascending order of the distance is created. Then, the control unit 5 sequentially sets each moving object being tracked as a target object from the previous one based on the context list (S7), and sets the presence map used for the tracking process of the target object for other objects. The individual abundance maps are synthesized and created (S8). Subsequently, the control unit 5 sequentially sets each hypothesis of the target object as the target hypothesis (S9). However, hypotheses that are outside the field of view of the monitoring image are excluded from the target of setting the hypothesis of interest, the object region in the hypothesis is not estimated, and the likelihood is set to zero.

尤度算出部52は仮想空間にて注目仮説の位置に移動物体モデルを配置し、移動物体モデルが配置された三次元モデル40を生成する。そして、カメラパラメータ41を用いて三次元モデル40を撮像部2の撮像面に投影して移動物体モデルの非隠蔽領域を求め、これを実空間における移動物体の非隠蔽領域と推定する。そして、推定した非隠蔽領域において注目物体の特徴量を抽出し、その抽出度合いに基づいて、注目仮説に対応した補正前の尤度L0を算出する(S10)。   The likelihood calculating unit 52 arranges the moving object model at the position of the target hypothesis in the virtual space, and generates the three-dimensional model 40 on which the moving object model is arranged. Then, the camera parameter 41 is used to project the three-dimensional model 40 onto the imaging surface of the imaging unit 2 to obtain a non-hiding area of the moving object model, and this is estimated as a non-hiding area of the moving object in real space. Then, the feature amount of the target object is extracted in the estimated non-hidden region, and the uncorrected likelihood L0 corresponding to the target hypothesis is calculated based on the extraction degree (S10).

尤度算出部52は、尤度L0に対する補正処理を行い、補正された尤度Lを算出する(S11)。この補正処理S11については後で詳述する。   The likelihood calculating unit 52 performs a correction process on the likelihood L0 and calculates a corrected likelihood L (S11). The correction process S11 will be described in detail later.

制御部5は、尤度Lが算出されていない仮説が残っている場合(S12にて「NO」の場合)、ステップS9〜S11を繰り返す。α個全ての仮説について尤度Lが算出されると(S12にて「YES」の場合)、物体位置判定部53が注目物体の各仮説の位置(X,Y)と当該仮説のそれぞれについて算出された尤度L(X,Y)とを用いて注目物体の物体位置を算出する(S13)。現時刻について算出された物体位置は1時刻前までに記憶部4に記憶させた注目物体の物体位置と対応付けて追記される。なお、新規出現した移動物体の場合は新たな識別子を付与して登録する。また、全ての仮説での尤度が尤度下限値未満の場合は物体位置なしと判定する。   When the hypothesis for which the likelihood L has not been calculated remains (“NO” in S12), the control unit 5 repeats steps S9 to S11. When the likelihood L is calculated for all α hypotheses (in the case of “YES” in S12), the object position determination unit 53 calculates the position (X, Y) of each hypothesis of the target object and each of the hypotheses. The object position of the object of interest is calculated using the obtained likelihood L (X, Y) (S13). The object position calculated for the current time is added in association with the object position of the object of interest stored in the storage unit 4 one hour before. In the case of a newly appearing moving object, a new identifier is assigned and registered. Further, when the likelihood in all hypotheses is less than the lower limit of likelihood, it is determined that there is no object position.

ペナルティ設定部520は、ステップS13にて算出された物体位置を用いて、上記(A1)の方法で注目物体の個別存在度マップを更新する(S14)。これにより、或る注目物体の物体位置の判定処理(ステップS7〜S14)では、それより前に処理された他の移動物体の物体位置の判定結果が反映される。物体位置に基づく存在度は仮説に基づく存在度より精度が高いと期待できるので、上述の存在度マップの更新によって後続の物体位置判定の精度が向上し、ひいては、ループ処理(ステップS7〜S15)を全移動物体について一回繰り返せば移動物体相互の位置関係について好適に収束した状態が求まることが期待できる。また、手前の物体から物体位置を判定することで、手前の物体による後ろの物体の隠蔽状態が精度良く評価されステップS10にて算出される尤度L0の精度が向上する。このことも物体位置の判定精度を向上させる。   The penalty setting unit 520 updates the individual presence degree map of the target object using the method (A1) using the object position calculated in step S13 (S14). Thereby, in the object position determination process (steps S7 to S14) of a certain object of interest, the object position determination result of another moving object processed before that is reflected. Since the presence level based on the object position can be expected to have higher accuracy than the presence level based on the hypothesis, the accuracy of the subsequent object position determination is improved by updating the above-described presence level map, and thus loop processing (steps S7 to S15). Is repeated once for all moving objects, it can be expected that a suitably converged state of the positional relationship between the moving objects can be obtained. Further, by determining the object position from the front object, the concealment state of the rear object by the front object is accurately evaluated, and the accuracy of the likelihood L0 calculated in step S10 is improved. This also improves the object position determination accuracy.

制御部5は未処理の移動物体が残っている場合(S15にて「NO」の場合)、当該移動物体について物体位置を判定する処理(ステップS7〜S14)を繰り返す。一方、全ての移動物体について物体位置の判定が完了すると(S15にて「YES」の場合)、物体の新規出現と消失を判定する(S16)。具体的には、物体位置判定部53は各物体位置に対して推定された物体領域を合成して、変化画素抽出部50により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが移動物体とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物体位置なしの移動物体があれば当該移動物体が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS1へ戻る。   When an unprocessed moving object remains ("NO" in S15), the control unit 5 repeats the process of determining the object position for the moving object (steps S7 to S14). On the other hand, when the determination of the object positions for all the moving objects is completed (in the case of “YES” in S15), the appearance and disappearance of the objects are determined (S16). Specifically, the object position determination unit 53 combines the object regions estimated for each object position, detects a change pixel outside the combination region among the change pixels extracted by the change pixel extraction unit 50, Among the detected change pixels, adjacent change pixels are labeled. If the label is of a size that can be regarded as a moving object, a new appearance is recorded in the storage unit 4 together with the label position (appearance position). If there is a moving object without an object position, the fact that the moving object has disappeared is recorded in the storage unit 4. When the above processing is completed, the processing returns to step S1 in order to perform processing on the monitoring image at the next time.

図9は尤度補正処理S11の概略の処理フロー図である。ペナルティ設定部520はステップS8で作成した存在度マップから注目仮説が表す座標での存在度Pを読み出し、当該存在度Pをペナルティ値に設定する。尤度算出部52は注目仮説及びペナルティ値Pを緩和値設定部521に入力する(S20)。   FIG. 9 is a schematic process flow diagram of the likelihood correction process S11. The penalty setting unit 520 reads the presence P at the coordinates represented by the hypothesis of interest from the presence map created in step S8, and sets the presence P as a penalty value. The likelihood calculating unit 52 inputs the attention hypothesis and penalty value P to the relaxation value setting unit 521 (S20).

緩和値設定部521はペナルティ値Pが0ならば(S21にて「NO」)、緩和値Eを設定せず図8のステップS12へ進む。この場合、尤度LはステップS9にて算出された画像特徴の尤度L0と等しくなる。   If penalty value P is 0 (“NO” in S21), relaxation value setting unit 521 proceeds to step S12 of FIG. 8 without setting relaxation value E. In this case, the likelihood L is equal to the likelihood L0 of the image feature calculated in step S9.

一方、ステップS20で設定されたペナルティ値Pが0以上ならば(S21にて「YES」)、緩和値Eを設定する処理S22〜S26が行われる。当該処理にて緩和値設定部521はまず、記憶部4から過去に算出された注目物体の物体位置Pt−1,Pt−2を読み出し、これらから現時刻の移動ベクトルVを算出する(S22)。そして、その大きさである移動距離|V|を停止判定しきい値Tvと比較する(S23)。|V|>Tvであれば注目物体は移動状態であると判定し(S23にて「YES」)、|V|≦Tvであれば注目物体は停止状態であると判定する(S23にて「NO」)。 On the other hand, if penalty value P set in step S20 is 0 or more (“YES” in S21), processes S22 to S26 for setting relaxation value E are performed. In this process, the relaxation value setting unit 521 first reads the object positions P t-1 and P t-2 of the target object calculated in the past from the storage unit 4, and calculates the movement vector V t at the current time from these. (S22). Then, the moving distance | V t |, which is the magnitude, is compared with the stop determination threshold value Tv (S23). If | V t |> Tv, it is determined that the target object is in a moving state (“YES” in S23), and if | V t | ≦ Tv, it is determined that the target object is in a stopped state (in S23). ("NO").

ステップS23にて移動状態と判定した場合、緩和値設定部521はステップS22で読み出した1時刻前の物体位置Pt−1から注目仮説への移動ベクトルvを求め、その大きさd1を算出し、さらに当該移動ベクトルvの移動ベクトルVt方向成分の大きさd2を算出する(S24)。そして、緩和値設定部521は(3)式に従い緩和値Eを算出する。 If it is determined in step S23 that the movement state, the relaxation value setting unit 521 obtains the movement vector v from the object position P t-1 one time before read out in step S22 to the target hypothesis, and calculates the magnitude d1. Further, the magnitude d2 of the movement vector Vt direction component of the movement vector v is calculated (S24). Then, the relaxation value setting unit 521 calculates the relaxation value E according to the equation (3).

ステップS23にて停止状態と判定した場合、緩和値設定部521は乱数生成手段により乱数r1,r2を生成し、(4)式に従い緩和値Eを算出する(S26)。   If it is determined in step S23 that the stop state has occurred, the relaxation value setting unit 521 generates random numbers r1 and r2 by the random number generation means, and calculates the relaxation value E according to the equation (4) (S26).

尤度算出部52は、ステップS10にて算出された画像特徴の尤度L0と、ステップS20にて設定されたペナルティ値P及びステップS25又はS26にて設定された緩和値Eを(1)式に適用し、画像特徴の尤度L0を補正した尤度Lを求める(S27)。尤度算出部52はステップS12に戻り、上述の注目仮説に対する尤度補正処理S11を全仮説について繰り返す。   The likelihood calculating unit 52 uses the likelihood L0 of the image feature calculated in step S10, the penalty value P set in step S20, and the relaxation value E set in step S25 or S26. The likelihood L obtained by correcting the likelihood L0 of the image feature is obtained (S27). The likelihood calculating unit 52 returns to step S12, and repeats the above-described likelihood correction processing S11 for the attention hypothesis for all hypotheses.

上述の実施形態では補正された尤度を(1)式で定義したが、尤度の補正式は、他物体の存在度Pに応じて低下させる一方、他物体の譲歩の効果を取り込むために当該低下を緩和・補償する他の形とすることができる。例えば、補正後の尤度L(X,Y)は下記(4)式のように、存在度の上限値Pmax(ここでは“1”に正規化されているとする。)から存在度を減算した値を、存在度に応じた排他効果を尤度に反映させる修正係数として、補正前の尤度に乗じる一方、当該修正係数を緩和値に応じた補償係数(1−E)を乗じて譲歩効果を反映させてもよい。
L(X,Y)=L0(X,Y)×{1−P(X,Y)×(1−E)} (4)
In the above-described embodiment, the corrected likelihood is defined by equation (1). However, the likelihood correction equation is used to reduce the concession of other objects while reducing the presence of other objects. Other forms of mitigating / compensating for the reduction can be used. For example, the likelihood L (X, Y) after correction is subtracted from the upper limit value Pmax of the presence level (here, normalized to “1”) as shown in the following equation (4). The corrected value is multiplied by the likelihood before correction as a correction coefficient that reflects the exclusive effect according to the degree of existence in the likelihood, and concessioned by multiplying the correction coefficient by the compensation coefficient (1-E) according to the relaxation value. The effect may be reflected.
L (X, Y) = L0 (X, Y) × {1-P (X, Y) × (1-E)} (4)

また、上述の実施形態ではPmax=1とし、存在度は[0,Pmax]なる範囲で定義している。一方、ペナルティ値自体はPmaxを越えて設定することを許容し、(1)式や(4)式で示す補正段階にて、P(X,Y)又はP(X,Y)×(1−E)がPmaxを超えるときはL(X,Y)は0と定義することにしてもよい。   In the above-described embodiment, Pmax = 1 and the degree of presence is defined in the range of [0, Pmax]. On the other hand, the penalty value itself is allowed to be set beyond Pmax, and P (X, Y) or P (X, Y) × (1− When E) exceeds Pmax, L (X, Y) may be defined as 0.

1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 カメラパラメータ、42 仮説、43 物体位置、44 存在度マップ、45 物体特徴、50 変化画素抽出部、51 仮説設定部、52 尤度算出部、53 物体位置判定部、54 異常判定部、100 基準面、101 カメラ位置、103 移動物体モデル、520 ペナルティ設定部、521 緩和値設定部。   DESCRIPTION OF SYMBOLS 1 Moving object tracking apparatus, 2 Imaging part, 3 Setting input part, 4 Storage part, 5 Control part, 6 Output part, 40 3D model, 41 Camera parameter, 42 Hypothesis, 43 Object position, 44 Presence map, 45 Object Features, 50 Changed pixel extraction unit, 51 Hypothesis setting unit, 52 Likelihood calculation unit, 53 Object position determination unit, 54 Abnormality determination unit, 100 Reference plane, 101 Camera position, 103 Moving object model, 520 Penalty setting unit, 521 Relaxation Value setting part.

Claims (5)

所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する複数の物体を追跡する移動物体追跡装置であって、
注目時刻より過去における前記各物体の位置情報を記憶する記憶部と、
前記位置情報から前記注目時刻における前記各物体の移動先候補を予測して分布させる位置予測部と、
前記注目時刻の前記画像において前記移動先候補それぞれと対応する位置の画像特徴から当該移動先候補についての移動先らしさの評価値を求める評価値算出部と、
前記評価値の高さに基づいて前記各物体の移動先位置を判定する物体位置判定部と、
を備え、
前記評価値算出部は、前記物体の1つを注目物体とし、その他の物体の前記移動先候補の分布範囲内に予測された当該注目物体の前記移動先候補についての前記評価値を所定値分低める補正を行い、その際に前記分布範囲内の前記移動先候補のうちの一部候補については当該所定値を小さくして前記その他の物体の譲歩を前記評価値に反映させること、
を特徴とする移動物体追跡装置。
A moving object tracking device for tracking a plurality of objects moving in the space using time-series images of a predetermined space,
A storage unit for storing position information of each object in the past from the attention time;
A position prediction unit that predicts and distributes destination candidates for each object at the time of interest from the position information;
An evaluation value calculation unit that obtains an evaluation value of the likelihood of the movement destination for the movement destination candidate from the image feature of the position corresponding to each of the movement destination candidates in the image at the attention time;
An object position determination unit that determines a movement destination position of each object based on the height of the evaluation value;
With
The evaluation value calculation unit uses one of the objects as a target object, and calculates the evaluation value for the destination candidate of the target object predicted within the distribution range of the destination candidates of other objects by a predetermined value. Performing a lowering correction, and reducing the predetermined value for some of the destination candidates in the distribution range to reflect the concessions of the other objects in the evaluation value,
A moving object tracking device.
請求項1に記載の移動物体追跡装置において、
前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の前方に予測された前記移動先候補を前記一部候補とすること、を特徴とする移動物体追跡装置。
The moving object tracking device according to claim 1,
The evaluation value calculation unit, when it is determined from the position information that the target object is moving, sets the destination candidate predicted ahead of the target object as the partial candidate. Moving object tracking device.
請求項1又は請求項2に記載の移動物体追跡装置において、
前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の進行方向に近い前記移動先候補ほど前記所定値を小さくすること、を特徴とする移動物体追跡装置。
In the moving object tracking device according to claim 1 or 2,
The evaluation value calculation unit, when it is determined from the position information that the target object is moving, reduces the predetermined value as the destination candidate closer to the traveling direction of the target object. Object tracking device.
請求項1から請求項3のいずれか1つに記載の移動物体追跡装置において、
前記評価値算出部は、前記位置情報から前記注目物体が移動中と判定される場合に、当該注目物体の直近位置に近い前記移動先候補ほど前記所定値を小さくすること、を特徴とする移動物体追跡装置。
In the moving object tracking device according to any one of claims 1 to 3,
The evaluation value calculation unit, when it is determined from the position information that the object of interest is moving, makes the predetermined value smaller for the movement destination candidate that is closer to the closest position of the object of interest. Object tracking device.
請求項1から請求項4のいずれか1つに記載の移動物体追跡装置において、
前記評価値算出部は、前記位置情報から前記注目物体が停止中と判定される場合に、前記分布範囲内の前記移動先候補から前記一部候補をランダムに選択すること、を特徴とする移動物体追跡装置。
In the moving object tracking device according to any one of claims 1 to 4,
The evaluation value calculation unit randomly selects the partial candidates from the movement destination candidates within the distribution range when the target object is determined to be stopped from the position information. Object tracking device.
JP2011217283A 2011-09-30 2011-09-30 Moving object tracking device Active JP5841390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011217283A JP5841390B2 (en) 2011-09-30 2011-09-30 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011217283A JP5841390B2 (en) 2011-09-30 2011-09-30 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2013077202A true JP2013077202A (en) 2013-04-25
JP5841390B2 JP5841390B2 (en) 2016-01-13

Family

ID=48480608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011217283A Active JP5841390B2 (en) 2011-09-30 2011-09-30 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP5841390B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5613815B1 (en) * 2013-10-29 2014-10-29 パナソニック株式会社 Residence status analysis apparatus, residence status analysis system, and residence status analysis method
WO2015008432A1 (en) * 2013-07-17 2015-01-22 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
JP2016018374A (en) * 2014-07-08 2016-02-01 日本電気株式会社 Object tracking apparatus, object tracking method, and object tracking program
JP2018112890A (en) * 2017-01-11 2018-07-19 富士通株式会社 Object tracking program, object tracking method, and object tracking device
JP2018173799A (en) * 2017-03-31 2018-11-08 セコム株式会社 Image analyzing apparatus
JP2018185623A (en) * 2017-04-25 2018-11-22 セコム株式会社 Object detection device
CN109584268A (en) * 2017-09-29 2019-04-05 广赛布托有限公司 Moving body tracking device, moving body tracking and computer readable recording medium
JP2019168953A (en) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 State estimation device and program
WO2019229979A1 (en) * 2018-06-01 2019-12-05 日本電気株式会社 Information processing device, control method, and program
CN111553237A (en) * 2020-04-23 2020-08-18 江西理工大学 LJ1-01 night light data denoising method based on multi-state superposition Gamma distribution
CN111684457A (en) * 2019-06-27 2020-09-18 深圳市大疆创新科技有限公司 State detection method and device and movable platform
CN112313477A (en) * 2018-06-22 2021-02-02 马瑞利欧洲公司 Method for vehicle environment mapping and corresponding system, vehicle and computer program product

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048428A (en) * 2007-08-20 2009-03-05 Secom Co Ltd Moving object tracking device
JP2011170684A (en) * 2010-02-19 2011-09-01 Panasonic Corp Object tracking device, object tracking method and object tracking program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048428A (en) * 2007-08-20 2009-03-05 Secom Co Ltd Moving object tracking device
JP2011170684A (en) * 2010-02-19 2011-09-01 Panasonic Corp Object tracking device, object tracking method and object tracking program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008432A1 (en) * 2013-07-17 2015-01-22 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
JPWO2015008432A1 (en) * 2013-07-17 2017-03-02 日本電気株式会社 Object tracking device, object tracking method, and object tracking program
US9946935B2 (en) 2013-07-17 2018-04-17 Nec Corporation Object tracking device, object tracking method, and object tracking program
JP2015087841A (en) * 2013-10-29 2015-05-07 パナソニック株式会社 Congestion status analyzer, congestion status analyzing system, and congestion status analyzing method
JP5613815B1 (en) * 2013-10-29 2014-10-29 パナソニック株式会社 Residence status analysis apparatus, residence status analysis system, and residence status analysis method
JP2016018374A (en) * 2014-07-08 2016-02-01 日本電気株式会社 Object tracking apparatus, object tracking method, and object tracking program
JP2018112890A (en) * 2017-01-11 2018-07-19 富士通株式会社 Object tracking program, object tracking method, and object tracking device
JP2018173799A (en) * 2017-03-31 2018-11-08 セコム株式会社 Image analyzing apparatus
JP2018185623A (en) * 2017-04-25 2018-11-22 セコム株式会社 Object detection device
CN109584268B (en) * 2017-09-29 2023-05-23 广赛布托有限公司 Moving body tracking device, moving body tracking method, and computer-readable recording medium
CN109584268A (en) * 2017-09-29 2019-04-05 广赛布托有限公司 Moving body tracking device, moving body tracking and computer readable recording medium
JP2019168953A (en) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 State estimation device and program
JP7056842B2 (en) 2018-03-23 2022-04-19 株式会社豊田中央研究所 State estimator and program
JPWO2019229979A1 (en) * 2018-06-01 2021-05-13 日本電気株式会社 Information processing equipment, control methods, and programs
WO2019229979A1 (en) * 2018-06-01 2019-12-05 日本電気株式会社 Information processing device, control method, and program
CN112313477A (en) * 2018-06-22 2021-02-02 马瑞利欧洲公司 Method for vehicle environment mapping and corresponding system, vehicle and computer program product
JP2021527863A (en) * 2018-06-22 2021-10-14 マレリ ヨーロッパ エス.ピー.エー. Vehicle environment mapping methods and corresponding systems, vehicles and computer program products
JP7440013B2 (en) 2018-06-22 2024-02-28 マレリ ヨーロッパ エス.ピー.エー. Vehicle environment mapping method and corresponding systems, vehicles and computer programs
US11946750B2 (en) 2018-06-22 2024-04-02 Marelli Europe S.P.A. Method for vehicle environment mapping, corresponding system, vehicle and computer program product
CN111684457A (en) * 2019-06-27 2020-09-18 深圳市大疆创新科技有限公司 State detection method and device and movable platform
CN111684457B (en) * 2019-06-27 2024-05-03 深圳市大疆创新科技有限公司 State detection method and device and movable platform
CN111553237A (en) * 2020-04-23 2020-08-18 江西理工大学 LJ1-01 night light data denoising method based on multi-state superposition Gamma distribution
CN111553237B (en) * 2020-04-23 2023-11-07 江西理工大学 LJ1-01 night lamplight data denoising method based on polymorphic superposition Gamma distribution

Also Published As

Publication number Publication date
JP5841390B2 (en) 2016-01-13

Similar Documents

Publication Publication Date Title
JP5841390B2 (en) Moving object tracking device
JP5687082B2 (en) Moving object tracking device
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US10417503B2 (en) Image processing apparatus and image processing method
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
JP5180733B2 (en) Moving object tracking device
CN111611853B (en) Sensing information fusion method, device and storage medium
CN113196296A (en) Detecting objects in a crowd using geometric context
JP2020126608A (en) Method and device for generating deceivable composite image by using gan including generating neural network and discriminating neural network
US20130129160A1 (en) Face image registration device and method
JP2016148962A (en) Object detection device
WO2015008432A1 (en) Object tracking device, object tracking method, and object tracking program
JP6779410B2 (en) Video analyzer, video analysis method, and program
JP5027741B2 (en) Image monitoring device
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
CN111937036A (en) Method, apparatus, and computer-readable storage medium having instructions for processing sensor data
CN110555869A (en) method and system for extracting primary and secondary motion in augmented reality systems
JP5027758B2 (en) Image monitoring device
JP2019153112A (en) Object tracking device, object tracking method, and computer program
Evans et al. Multicamera object detection and tracking with object size estimation
JP7488674B2 (en) OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND OBJECT RECOGNITION PROGRAM
Ristić-Durrant et al. Low-level sensor fusion-based human tracking for mobile robot
CN116882148B (en) Pedestrian track prediction method and system based on spatial social force diagram neural network
JP7488673B2 (en) MOVING OBJECT TRACKING DEVICE, MOVING OBJECT TRACKING METHOD, AND MOVING OBJECT TRACKING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151113

R150 Certificate of patent or registration of utility model

Ref document number: 5841390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250