JP5063567B2 - Moving object tracking device - Google Patents
Moving object tracking device Download PDFInfo
- Publication number
- JP5063567B2 JP5063567B2 JP2008303335A JP2008303335A JP5063567B2 JP 5063567 B2 JP5063567 B2 JP 5063567B2 JP 2008303335 A JP2008303335 A JP 2008303335A JP 2008303335 A JP2008303335 A JP 2008303335A JP 5063567 B2 JP5063567 B2 JP 5063567B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- area
- moving object
- moving
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、監視空間内を移動する移動物体を追跡する移動物体追跡装置に関する。 The present invention relates to a moving object tracking device that tracks a moving object that moves in a monitoring space.
従来、監視空間内を移動する移動物体を追跡処理する場合、物体のテクスチャや色等の特徴量を移動物体のテンプレートとして記憶し、監視空間を撮像した画像上でテンプレートと類似した特徴量を有する領域を移動物体として順次対応付け、対応付けられた各領域を移動物体として処理している。 Conventionally, when a moving object moving in a monitoring space is tracked, a feature amount such as a texture or color of the object is stored as a template of the moving object, and has a feature amount similar to the template on an image obtained by capturing the monitoring space. The areas are sequentially associated as moving objects, and the associated areas are processed as moving objects.
さらに、過去の移動物体の位置から予測される現在の移動物体の位置周辺に限定して上記対応付けを行うことにより、誤って対応付けされることを防ぐ処理も行われている。 Furthermore, a process for preventing the association by mistake is also performed by performing the association only in the vicinity of the position of the current moving object predicted from the position of the past moving object.
ところで、自動現金取引装置(ATM)が設置されている店舗等の監視空間では、移動物体(人)が複数並んで行列が形成されることがある。この行列は多数の移動物体により形成されるので、特徴が類似する複数の移動物体が行列に含まれる可能性がある。そのため、特徴が互いに類似する移動物体を誤って対応付け合ったりしてしまい、移動物体の追跡の確度が低下する問題が起こり得る。 By the way, in a monitoring space such as a store where an automatic cash transaction apparatus (ATM) is installed, a plurality of moving objects (people) may be arranged to form a queue. Since this matrix is formed by a large number of moving objects, a plurality of moving objects having similar characteristics may be included in the matrix. For this reason, there is a possibility that moving objects whose features are similar to each other are erroneously associated with each other, and the tracking accuracy of the moving object is lowered.
また、行列が形成されると各移動物体はほぼ静止状態となるため、過去の動きから現在の位置を予測することが困難となり、履歴情報から対応付けるべき移動物体を絞り込むことが難しい。 In addition, when a matrix is formed, each moving object is almost stationary, so it is difficult to predict the current position from past movements, and it is difficult to narrow down moving objects to be associated from history information.
本発明は、上記問題を鑑みてなされたものであり、移動物体の対応付けの確度を向上させた移動物体追跡装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking device that improves the accuracy of associating moving objects.
本発明の1つの態様は、移動物体により行列が形成され得る監視空間を順次撮像した監視画像を用いて、前記移動物体を追跡する移動物体追跡装置であって、前記監視画像から前記移動物体が存在する物体領域を抽出する物体領域抽出手段と、前記物体領域内の画像と、前記移動物体毎の画像上の特徴を表す参照画像情報との類似度に基づいて前記物体領域と前記移動物体とを対応付ける対応付け手段と、複数の前記移動物体と対応付けられた物体領域を行列が形成されている行列領域とし、前記行列領域と対応付けられた前記移動物体を行列物体とし、前記行列領域、前記行列物体及び前記行列物体の行列への参入順序を含む行列情報を記憶部に記憶させる行列認識手段と、前記行列領域から離脱した前記物体領域を離脱領域として検出する離脱領域検出手段と、を備え、前記対応付け手段は、前記離脱領域検出手段が離脱領域を検出すると、前記参入順序が最先の前記行列物体を優先して対応付ける移動物体追跡装置である。 One aspect of the present invention is a moving object tracking device that tracks a moving object using a monitoring image obtained by sequentially imaging a monitoring space in which a matrix can be formed by the moving object, and the moving object is detected from the monitoring image. An object region extracting means for extracting an existing object region; and the object region and the moving object based on a similarity between an image in the object region and reference image information representing a feature on the image of each moving object. An association means for associating a plurality of moving objects with a matrix region in which a matrix is formed, a moving object associated with the matrix region as a matrix object, the matrix region, Matrix recognition means for storing, in a storage unit, matrix information including an entry order of the matrix object and the matrix object into the matrix, and detecting the object area leaving the matrix area as a departure area Comprising a disengagement region detection unit, wherein the correlating means, when said disengaging area detecting means detects the disengagement region, the entry order is moving object tracking apparatus for associating with priority the matrix object earliest.
ここで、前記対応付け手段は、前記離脱領域と複数の前記参照画像情報との類似度の分布から対応付けのあいまい性を判定し、あいまいと判定された離脱領域に前記参入順序が最先の前記行列物体を対応付けることが好適である。 Here, the association unit determines the ambiguity of the association from the similarity distribution between the leaving area and the plurality of reference image information, and the entry order is the earliest in the leaving area determined to be ambiguous. It is preferable to associate the matrix object.
また、前記離脱領域検出手段は、記憶されている前記行列領域と予め定められた割合未満で重なり合う前記物体領域を前記離脱領域として検出することが好適である。 Further, it is preferable that the leaving area detecting means detects the object area overlapping with the stored matrix area at a predetermined ratio as the leaving area.
また、前記対応付け手段は、前記移動物体と対応付けられた物体領域の位置を当該移動物体の移動軌跡として記憶部に記憶させ、前記行列認識手段は、前記移動軌跡を参照して静止状態にある物体領域に対応付けられた前記移動物体のみを前記行列物体とすることが好適である。 In addition, the association unit stores the position of the object region associated with the moving object in the storage unit as a movement locus of the moving object, and the matrix recognition unit refers to the movement locus and enters a stationary state. It is preferable that only the moving object associated with a certain object region is the matrix object.
また、前記行列認識手段は、前記参入順序が最先の前記行列物体の位置を行列の先頭位置として前記行列情報に含めて記憶させ、前記対応付け手段は、前記先頭位置から予め定めた距離範囲内に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けることが好適である。 Further, the matrix recognition means stores the position of the matrix object with the earliest entry order included in the matrix information as the head position of the matrix, and the association means stores a predetermined distance range from the head position. It is preferable that the matrix object having the earliest entry order is preferentially associated with the departure area detected in the area.
また、前記対応付け手段は、前記行列領域と、前記移動物体の利用に供される設備の設置場所に対応する前記監視画像上の設備領域と、の間に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けるものとしてもよい。 Further, the associating means enters the separation area detected between the matrix area and an equipment area on the monitoring image corresponding to an installation location of equipment provided for use of the moving object. The matrix object with the earliest order may be associated with priority.
本発明によれば、移動物体を追跡する際に各移動物体の特定の確度を向上させることができる。 According to the present invention, it is possible to improve the specific accuracy of each moving object when tracking the moving object.
本発明の実施の形態における移動物体追跡装置1は、図1に示すように、撮像部2、操作部3、記憶部4、制御部5及び表示部6を含んで構成される。移動物体追跡装置1は、監視空間を撮像し、その監視画像を画像処理して画像内に撮像された人や物等の移動物体を追跡処理する。撮像部2、操作部3、記憶部4、制御部5及び表示部6は互いに情報伝達可能に接続される。
As shown in FIG. 1, the moving
なお、本実施の形態では、監視空間であるATMコーナーにおいて人の移動を追跡する例について説明する。ただし、これに限定されるものではなく、流通化に置かれる商品等の物品、通行する車等の異常行動を検知する場合等にも適用することができる。 In the present embodiment, an example of tracking a person's movement at an ATM corner that is a monitoring space will be described. However, the present invention is not limited to this, and the present invention can also be applied to cases such as detecting abnormal behaviors of articles such as commodities placed in distribution, passing cars, and the like.
撮像部2は、CCD素子やC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される所謂監視カメラである。撮像部2は、監視空間を所定時間間隔にて撮像し、その画像(以下、監視画像という)を制御部5へ順次出力する。以下、この所定時間間隔を時間の単位として時刻と称する。本実施の形態において、撮像部2は、監視空間の天井に光軸を鉛直下方に向けて配置されているものとする。なお、撮像部2は、複数台の監視カメラを含んで構成してもよい。
The
操作部3は、移動物体追跡装置1へ情報を入力するためのキーボードやマウス等の入力装置を含んで構成される。操作部3は、移動物体追跡装置1の管理者による各種設定の入力のために用いられる。
The
記憶部4は、ROMやRAM等のメモリ装置で構成される。記憶部4は、制御部5からアクセス可能に接続される。記憶部4は、各種プログラム、各種データを記憶する。これら各種プログラムや各種データは、制御部5より読み出されて使用される。各種データには、監視画像、物体情報40、行列情報41、設備領域42が含まれる。
The
物体情報40は、移動物体のそれぞれの特徴を示す情報である。物体情報40は、各移動物体を識別する識別子と共に移動物体毎に記憶され、監視画像において移動物体を特定するために参照される。物体情報40には、移動物体の外見の特徴を表す参照画像情報400と、移動物体の位置の履歴(時系列データ)であり追跡の結果として生成される移動軌跡401が含まれる。参照画像情報400は、移動物体の色ヒストグラム、形状、大きさ等の画像特徴とすることができる。なお、色ヒストグラムに代えて、又は加えて、輝度ヒストグラムやテクスチャ等を用いてもよい。
The
行列情報41は、監視空間において行列が形成されている領域に対応する監視画像内の領域である行列領域、その行列領域内に存在する移動物体(以下、行列物体という)の識別子、各行列物体が行列に参入した順序を表す参入順序、及び、行列の先頭位置を含む。この行列情報41は、行列毎に記憶される。図6及び図7は、行列情報41について示した例である。図6及び図7についての説明は後述する。
The
設備領域42は、移動物体の利用に供される設備の設置場所と対応する監視画像上の領域である。設備領域42は、例えば、キャッシュディスペンサ(CD)や自動現金取引装置(ATM)、銀行の窓口等である。監視画像上における設備領域42は操作部3により予め管理者によって設定することができる。
The
制御部5は、CPU、DSP、MCU、IC等の演算回路を含んで構成される。制御部5は、撮像部2、操作部3、記憶部4及び表示部6と情報伝達可能に接続される。制御部5は、物体領域抽出手段50、対応付け手段51、行列認識手段52、不審行動検知手段53等の各手段での処理を記述したプログラムを記憶部4から読み出して実行することによりコンピュータを各手段として機能させる。制御部5は、撮像部2からの監視画像を処理して移動物体を追跡処理し、追跡処理により得られた移動軌跡の分析により移動物体の不審行動を検出すると異常信号を表示部6へ出力する。
The control unit 5 includes an arithmetic circuit such as a CPU, DSP, MCU, or IC. The control unit 5 is connected to the
表示部6は、異常信号が入力されると報知音を出力するスピーカー、ブザー等の音響出力手段を含んでなる。また、異常信号が入力されると異常に係る不審者の移動軌跡や画像を表示する表示手段を含んでもよい。
The
また、移動物体追跡装置1は、コンピュータをネットワークや電話回線に接続するためのインターフェースを含んでもよい。この場合、移動物体追跡装置1は、電話回線やインターネット等の情報伝達手段を介して、センタ装置(図示しない)に情報伝達可能に接続される。移動物体追跡装置1とセンタ装置とは、電話番号やネットワークアドレスを用いて情報の送受信を行う。なお、センタ装置は、監視員等が滞在する監視センタ等に設置されるホストコンピュータである。センタ装置は、移動物体追跡装置1からの通報情報を受信する通信部、通報情報を表示する表示部等を含んで構成される。
The moving
以下、移動物体追跡装置1における処理について、図1の機能ブロック図並びに図2〜5のフローチャートを参照しつつ説明する。
Hereinafter, the processing in the moving
移動物体追跡装置1の管理者は監視空間が無人であると確認したうえで移動物体追跡装置1の電源を投入する。これにより各部、各手段としての処理が開始され、所定の初期化が行われる(S1)。また、撮像部2によって監視空間の撮像が行われ、監視画像が制御部5に出力される。その後、撮像部2から制御部5へ新たな監視画像が入力されるたびにステップS2〜S13の処理が繰り返される。
The administrator of the moving
新たな監視画像を取得すると(S1)、制御部5の物体領域抽出手段50は、監視画像を背景画像と比較して物体領域を抽出する(S2)。具体的には、監視画像を背景画像と比較して、両画像間で相違する画素を検出し、互いに隣接して検出された画素を纏めて変化領域とし、予め定めた大きさの基準値を超える変化領域を物体領域として抽出する。 When a new monitoring image is acquired (S1), the object region extraction means 50 of the control unit 5 extracts the object region by comparing the monitoring image with the background image (S2). Specifically, the monitoring image is compared with the background image, pixels that differ between the two images are detected, and the pixels detected adjacent to each other are collectively set as a change region, and a reference value having a predetermined size is set. The exceeding change area is extracted as an object area.
相違する画素とは、背景画像と監視画像との間で輝度値若しくは色成分の差が所定値以上である監視画像の画素、又は、背景画像と監視画像との間で輝度値若しくは色成分の相関値が所定値未満である画素とするとよい。 The difference pixel is a pixel of a monitoring image in which a difference in luminance value or color component between the background image and the monitoring image is a predetermined value or more, or a luminance value or color component between the background image and the monitoring image. It is preferable that the pixel has a correlation value less than a predetermined value.
ただし、電源投入直後には背景画像が取得されていないので、物体領域抽出手段50は、物体領域を抽出せず、電源投入直後に取得した監視画像を背景画像として記憶部4に記憶させる。また、その後の各時刻において、物体領域抽出手段50は、監視空間の照明変動等による背景の変化に対応させるために、物体領域が抽出されなかった領域について監視画像を背景画像と平均化して背景画像を更新する。
However, since the background image is not acquired immediately after the power is turned on, the object
制御部5の対応付け手段51は、各移動物体の移動軌跡401から現時刻の予測位置を算出する(S3)。現時点の予測位置は、移動軌跡401に対して等速運動モデル等の運動モデル、又は、カルマンフィルタ等の予測フィルタを適用して外挿処理を行うことによって得られる。
The association means 51 of the control unit 5 calculates the predicted position of the current time from the
次に、対応付け手段51は、各物体領域において各参照画像情報400を用いたマッチング処理を行い、参照画像情報400との類似度が極大となる物体領域内の位置を特定する(S4)。
Next, the associating
類似度は、画像類似度と位置類似度とを組み合わせて算出することが好適である。例えば、数式(1)を用いて類似度を求める。 The similarity is preferably calculated by combining the image similarity and the position similarity. For example, the similarity is obtained using Equation (1).
[数1]
類似度=α×画像類似度+(1−α)×位置類似度・・・・・(1)
ただし、0<α<1とする。
[Equation 1]
Similarity = α × image similarity + (1−α) × position similarity (1)
However, 0 <α <1.
画像類似度は、物体領域内に候補位置を設定し、候補位置を基準に参照画像情報400が示す形状及び大きさの領域を設定し、当該領域においての監視画像から抽出した色ヒストグラムと参照画像情報400の色ヒストグラムとの差が小さいほど大きな値となる相関関数を適用することで求められる。位置類似度は、物体情報40として記憶されている移動軌跡401から求められた予測位置と候補位置との距離が小さいほど大きな値となる相関関数を適用することで求められる。対応付け手段51は、候補位置をずらしながら類似度の算出を極大の類似度が求まるまで繰り返し、極大の類似度が算出された候補位置を特定する。こうして、物体領域と移動物体の全組み合わせに対して、類似度と位置が算出される。
For the image similarity, a candidate position is set in the object area, an area having the shape and size indicated by the
そして、対応付け手段51は、各移動物体について類似度が最大であり、且つ類似度が予め定められた同定値L1以上である物体領域と移動物体とを仮に対応付ける(S6)。また、各移動物体の現在位置を最大の類似度が算出された候補位置と判定する。結果、行列領域においては同一の行列領域に複数の行列物体が対応付けられ、同一の行列領域内に複数の行列物体の位置が判定される。
Then, the associating
ここで物体領域に、行列領域から離脱した物体領域(以下、離脱領域という)が含まれる場合がある。 Here, the object region may include an object region that has left the matrix region (hereinafter referred to as a leaving region).
そして、多数の行列物体から形成される行列には外見(人の服装等)が似た行列物体が複数含まれる機会が多く、このとき、複数の行列物体が離脱領域に対して高い画像類似度を示す。さらに、行列において行列物体は近接し、その動きは静止乃至低速となるため、離脱領域に対する行列物体の位置類似度も横並びとなる。そのため、離脱領域に対しては、画像や位置の類似性のみでは正しい対応付けができないことがしばしばある。 In many cases, a matrix formed from a large number of matrix objects includes a plurality of matrix objects having similar appearances (such as human clothes). Indicates. Further, since the matrix objects are close to each other in the matrix and their movements are stationary or slow, the position similarity of the matrix objects with respect to the leaving region is also side by side. For this reason, it is often the case that correct association cannot be made with respect to the separation region only by the similarity of images and positions.
そこで、対応付け手段51は、行列領域から離脱する物体領域を検出する離脱領域検出手段510を備え、ステップS6における対応付け結果のうち、検出された離脱領域に対する対応付けに適宜補正を加える処理を行う(S7)。
Therefore, the
図3のフローチャートを参照してステップS7の処理について説明する。対応付け手段51の離脱領域検出手段510は、前時刻の行列領域との重複度が離脱判定範囲内である物体領域を離脱領域として検出する(S100)。
The process of step S7 is demonstrated with reference to the flowchart of FIG. The leaving area detecting means 510 of the associating
離脱領域は、行列から離脱するという性質上、一部が前時刻の行列領域に重複し、残りの一部が前時刻の行列領域からはみ出す領域として検出される。そこで、離脱領域検出手段510は、前時刻の行列領域と各物体領域との重複度を数式(2)により算出し、重複度が予め定められた離脱判定範囲内にある物体領域を離脱領域として検出する。
Due to the nature of leaving from the matrix, the leaving area is detected as an area that partially overlaps the matrix area at the previous time and the remaining part protrudes from the matrix area at the previous time. Accordingly, the leaving
[数2]
重複度=行列領域と重複する面積/物体領域の面積 ・・・・(2)
[Equation 2]
Degree of overlap = area overlapping with matrix area / area of object area (2)
離脱判定範囲は、例えば、(0,0.5]に設定される。すなわち、上限の0.5を離脱判定閾値THとすると、離脱領域検出手段510は、離脱判定閾値TH以下の割合で行列領域と重複する(物体領域のうち半分以下が行列領域と重複する)物体領域を離脱領域として検出する。なお、離脱判定閾値THを超える割合で行列領域と重複する(物体領域のうち半分より多い領域が行列領域と重複する)物体領域は行列領域に含まれると判定し、重複度が0(行列領域と重複しない)の物体領域は行列と無関係であると判定する。なお、行列の微小な動きにより、行列の物体領域が離脱領域として誤検出されないように0より大きい下限値(例えば0.1)としてもよい。
For example, the leaving determination range is set to (0, 0.5). That is, when the upper limit of 0.5 is set as the leaving determination threshold TH, the leaving
別の例では、行列物体と単独で対応付けられた物体領域を離脱領域として検出してもよい。ただし、重複度に基づいて離脱領域を検出する方法では、行列物体間の隙間が撮像された場合であっても、この隙間の影響によって行列の一部が離脱領域として誤検出されることがない点で優れている。特に、行列方向が、撮像方向となす角が大きい行列においては隙間が撮像され易く、効果が大きい。 In another example, an object area associated with a matrix object alone may be detected as a leaving area. However, in the method of detecting the separation area based on the degree of overlap, even if the gap between the matrix objects is imaged, a part of the matrix is not erroneously detected as the separation area due to the influence of the gap. Excellent in terms. In particular, in a matrix having a large angle between the matrix direction and the imaging direction, gaps are easily imaged, and the effect is great.
次に、対応付け手段51は、離脱領域に関してステップS101〜S107のループ処理を実行する。
Next, the associating
離脱領域には、並び通りに先頭から抜け出した移動物体と、待ち切れずに中抜けした移動物体の領域とがある。対応付け手段51は、これらを区別するために、離脱領域が検出された行列の先頭位置と離脱領域との位置を比較して位置関係を判定し(S102)、離脱領域が先頭位置から距離範囲閾値D内の近傍にある場合には先頭からの抜け出しであるとして処理をステップS104に移行させ、そうでない場合には中抜けであるとしてステップS107に移行させる(S103)。別の例では、対応付け手段51は、離脱領域が行列領域と設備領域42との間にある場合は先頭からの抜け出し、そうでない場合は中抜けとする。
In the separation area, there are a moving object that has slipped out from the head in a line and a moving object area that has slipped out without waiting. In order to distinguish these, the associating
図8は、S100〜S103の処理を模式的に示した例である。監視画像として撮像される領域80に設備領域42、現時刻に抽出された物体領域81及び前時刻に認識された行列領域82が示されている。×(クロス)印は、行列の先頭位置、円83は距離範囲閾値Dを表す。
FIG. 8 is an example schematically showing the processing of S100 to S103. An
図8において、物体領域81−2と行列領域82との重複度は0.2であり、離脱判定範囲内であり、物体領域81−2は距離範囲閾値D内に検出されたため、物体領域81−2は行列の先頭から抜け出した離脱領域とされる。一方、物体領域81−1の重複度は0、物体領域81−3の重複度は1であるため離脱領域として検出されない。
In FIG. 8, the overlap between the object region 81-2 and the
距離範囲閾値Dとしては移動物体が初速として採り得る値を設定することが好適である。初速とは、静止していた移動物体が動き出すときの速さであり、具体的には、行列に並んでいた移動物体が行列を抜け出すときの一時刻当りの移動距離に対応する。 As the distance range threshold D, it is preferable to set a value that the moving object can take as the initial speed. The initial speed is the speed at which a moving object that has been stationary starts to move, and specifically corresponds to the moving distance per time when the moving objects that are arranged in a matrix exit the matrix.
対応付け手段51は、離脱領域と複数の参照画像情報との間で算出された類似度の分布から離脱領域に対する対応付けのあいまい性を判定する。ここで、あいまい性とは、離脱領域と参照画像情報との対応付けの結果の確信度合いを示す性質をいう。あいまいと判定された対応付けは、類似度による対応付けの確度が低く、誤対応付けの可能性がある。
The
より具体的には、対応付け手段51は、離脱領域と複数の参照画像情報との最大類似度が同定値L2未満のとき、言い換えると総ての類似度が同定値L2未満のときにあいまい性を有するものと判定する。同定値L2は、ステップS6での仮の対応付けに利用した同定値L1より大きい値とする。
More specifically, the associating
図9はあいまい性判定を説明する図である。丸印は離脱領域と各行列物体に対する参照画像情報との類似度を示す。図9(a)では、最大類似度が同定値L2以上であるのであいまい性が判定されず、図9(b)では、最大類似度が同定値L2に満たないのであいまい性が判定される。 FIG. 9 is a diagram for explaining the ambiguity determination. Circles indicate the similarity between the separation region and the reference image information for each matrix object. In FIG. 9A, the ambiguity is not determined because the maximum similarity is equal to or greater than the identification value L2, and in FIG. 9B, the ambiguity is determined because the maximum similarity is less than the identification value L2.
また、対応付け手段51は、離脱領域について同定値L1以上の類似度が複数存在するときにあいまい性があるものと判定してもよい。図9(c)では、同定値L1以上の類似度が1つであるのであいまい性が判定されず、図9(d)では、同定値L1以上の類似度が2つであるのであいまい性が判定される。
Further, the
また、対応付け手段51は、離脱領域について算出された類似度のうち上位2つの類似度の差dが予め定められた値R未満のときにあいまい性があるものとしてもよい。図9(e)では、差dが値R以上であるのであいまい性が判定されず、図9(f)では、差dが値R未満であるのであいまい性が判定される。
Further, the
あいまい性が判定されない場合、ステップS6における物体領域と移動物体との仮の対応付けの結果をそのまま最終的な対応付けとする(S105のYES)。一方、あいまい性が判定された場合(S105のNO)、対応付け手段51は、離脱領域と対応付ける移動物体を離脱領域が検出された行列において参入順序が最先の行列物体に対応付けし直す(S106)。なお、この場合、ステップS6において離脱領域と対応付けられていた行列物体は行列領域と対応付けし直される。対応付けし直された行列物体の位置はステップS4にて特定された位置を参照して直される。
If the ambiguity is not determined, the result of the temporary association between the object region and the moving object in step S6 is used as the final association as it is (YES in S105). On the other hand, when the ambiguity is determined (NO in S105), the associating
行列には専ら先に並んだ物体から順に行列から離脱する性質があるため、以上のように離脱領域への参入順序が最先の行列物体を優先して対応付ける補正を行うことによって、複数の類似した行列物体が行列に含まれている場合でも正しい対応付けが可能となり、各移動物体を特定する確度が上がる。 Since the matrix has the property of leaving the matrix in order starting with the objects that are arranged first, multiple similarities can be obtained by correcting the matrix object with the highest entry order in the leaving area as described above. Even when the matrix object is included in the matrix, correct association is possible, and the accuracy of specifying each moving object is increased.
このとき、対応付けのあいまい性が判定された離脱領域に対し補正を行い、そうでない離脱領域に対して補正を行わないことで、類似度に基づく対応付けを加味でき、各移動物体を特定する確度がさらに上がる。 At this time, by performing correction on the leaving area for which the ambiguity of the association is determined and not performing correction on the leaving area that is not so, the association based on the similarity can be taken into account, and each moving object is identified. The accuracy increases further.
また、先頭位置から予め定めた範囲内に検出された離脱領域、又は行列領域と設備領域42との間に検出された離脱領域に対し補正を行い、それ以外の離脱領域には補正を行わないことで中抜けの離脱領域に最先の行列物体を対応付ける誤りを防げる。
In addition, correction is performed for a separation area detected within a predetermined range from the head position, or a separation area detected between the matrix area and the
対応付け後、対応付け手段51は、検出された移動物体の位置を物体情報40の移動軌跡401に追加記憶させ、参照画像情報400を対応付けられた物体候補領域の画像特徴で置き換える(S8)。なお、行列物体については参照画像情報400を更新しない。
After the association, the
なお、いずれの物体領域とも対応付けられない状態が所定期間続いた移動物体は監視空間から消失したとして物体情報40を削除し、追跡対象から除外する。また、いずれの移動物体とも対応付けられなかった物体領域は新規出現の移動物体のものであるとして、その物体領域の画像特徴及び位置を新たに物体情報40として記憶部4に記憶させ、追跡対象に加える。
Note that a moving object that has not been associated with any object region for a predetermined period has disappeared from the monitoring space, and the
次に、制御部5の行列認識手段52において行列情報41を生成する(S9)。図4及び図5を参照して、ステップS9の処理について説明する。
Next, the
まず、行列認識手段52は、記憶されている行列情報41に関してステップS200〜S203のループ処理を実行し、離脱に伴う行列情報41の更新を行う。すなわち、行列認識手段52は、対応付け結果を参照し、離脱領域に対応付けられた行列物体があれば(S201にてYES)、行列情報41から当該行列物体に関する情報を削除し(S202)する。さらに、行列情報41に含まれる行列物体数を計数して、行列物体数が2未満となった行列情報41を削除する(S203にてYES,S204)。なお、離脱領域には先頭から抜けた行列物体が対応付けられる場合と、中抜けした行列物体が対応付けられる場合とがある。
First, the matrix recognition means 52 performs a loop process of steps S200 to S203 on the stored
離脱領域に対応付けられた行列物体を削除しても行列物体数が2以上である行列は、行列情報41を現時刻の行列に適合させるように、行列認識手段52は、現時刻において行列領域内に抽出された物体領域の外接矩形に行列領域を置き換える(S205)。さらに、先頭位置を参入順序が最先の行列物体が対応付けられた位置に置き換える(S206)。
Even if the matrix object associated with the departure area is deleted, the matrix recognition means 52 determines that the matrix object having the number of matrix objects of 2 or more matches the
なお、本実施の形態では、処理の簡単化のために行列領域を外接矩形領域として処理するが、行列を構成する行列物体の物体領域の集合の外形を行列領域として処理してもよい。 In this embodiment, the matrix area is processed as a circumscribed rectangular area for simplification of processing, but the outer shape of a set of object areas of matrix objects constituting the matrix may be processed as a matrix area.
また、離脱領域に対応付けられた行列物体がない場合(S201にてYES)、ステップS202〜206の処理はスキップされる。 If there is no matrix object associated with the leaving area (YES in S201), the processes in steps S202 to S206 are skipped.
全行列に対して処理が終了しているか否かを判定し、全行列に対してステップS200〜S206の処理が施されている場合にはステップS208に処理を移行させ、そうでない場合にはステップS200に処理を戻して次の行列についての処理を行う。 It is determined whether or not the processing has been completed for all the matrices. If the processing in steps S200 to S206 has been performed for all the matrices, the processing proceeds to step S208. If not, the processing proceeds to step S208. The process is returned to S200 and the process for the next matrix is performed.
次に、行列認識手段52は、対応付け結果を参照して、複数の移動物体と対応付けられた物体領域(多重化領域)を選出し(S208)、選出された多重化領域に関してステップS209〜S226のループ処理を行い、新規の行列情報41の生成及び行列情報41の更新を行う。
Next, the
行列認識手段52は、多重化領域と一時刻前に認識されていた行列情報との重複度から多重化領域が既存の行列と同一であるか否かを判定する(S210)。同一でないと判定された場合は新規行列の可能性がある。この場合(S211にてNO)、行列認識手段52は、移動軌跡401を参照して、多重化領域と対応付けられた各移動物体が静止状態であるか否かを判定する(S212)。
The matrix recognition means 52 determines whether or not the multiplexing area is the same as the existing matrix from the degree of overlap between the multiplexing area and the matrix information recognized one time ago (S210). If it is determined that they are not identical, there is a possibility of a new matrix. In this case (NO in S211), the matrix recognition means 52 refers to the
なお、本実施の形態では、各移動物体の物体領域の位置が予め設定した静止時間Ts以上、予め定められた移動範囲を超えずに略変化しない状態である場合に、その移動物体は静止状態であると判定する。 In the present embodiment, when the position of the object area of each moving object is in a state in which it does not substantially change without exceeding a predetermined moving range for a predetermined stationary time Ts or longer, the moving object is in a stationary state. It is determined that
複数の移動物体が静止状態にあると判定されれば(S213にてYES)、行列認識手段52は、多重化領域を新規の行列領域、多重化領域と対応付けられた各移動物体を行列物体と認識する。行列認識手段52は、認識された行列物体に対して静止状態が長い順に参入順序を付与し(S214)、多重化領域の外接矩形を行列領域として算出する(S215)。さらに、参入順序が最先の行列物体が対応付けられた位置を先頭位置として求め(S216)、認識された行列物体、これらの行列物体に付与された参入順序、演算された行列領域及び求められた先頭位置を新規の行列情報41として記憶部4に記憶させる(S217)。
If it is determined that a plurality of moving objects are in a stationary state (YES in S213), matrix recognition means 52 sets the multiplexed area as a new matrix area, and sets each moving object associated with the multiplexed area as a matrix object. Recognize. The matrix recognition means 52 assigns the entry order to the recognized matrix objects in the order of the longer stationary state (S214), and calculates the circumscribed rectangle of the multiplexed area as the matrix area (S215). Further, the position where the matrix object with the earliest entry order is associated is obtained as the head position (S216), the recognized matrix objects, the entry order assigned to these matrix objects, the calculated matrix area and the obtained matrix area are obtained. The head position is stored in the
一方、多重化領域が既存の行列と同一と判定された場合(S211にてYES)、行列認識手段52は、既存の行列の行列情報41を参照して多重化領域と対応付けられた移動物体の中から行列物体として記憶されていない移動物体(新規多重化物体)を検出し(S218)、移動軌跡401を参照して、新規多重化物体が静止状態にあるか否かを判定する(S219にてYES,S220)。
On the other hand, when it is determined that the multiplexed region is the same as the existing matrix (YES in S211), the
静止状態にあると判定されれば(S221にてYES)、行列認識手段52は、新規多重化物体を行列物体と認識して行列情報41に加え(S222)、参入順序として既存の行列物体の参入順序の最大値に1を加えた値を付与する(S223)。また、行列認識手段52は、新規参入した行列物体の領域を行列領域に加えるために同一行列を構成する行列物体と対応付けられた物体領域総てに対する外接矩形に行列領域を置き換え(S224)、先頭位置を参入順序が最先の行列物体が対応付けられた座標に置き換える(S225)。 If it is determined that it is in a stationary state (YES in S221), the matrix recognition means 52 recognizes the new multiplexed object as a matrix object, adds it to the matrix information 41 (S222), and enters the existing matrix object as the entry order. A value obtained by adding 1 to the maximum value of the entry order is assigned (S223). Further, the matrix recognition means 52 replaces the matrix area with a circumscribed rectangle for all object areas associated with the matrix objects constituting the same matrix in order to add the newly entered matrix object area to the matrix area (S224), The head position is replaced with the coordinates associated with the matrix object with the earliest entry order (S225).
なお、多重化領域は、行列が発生した場合のみならず、継続的に移動し続けている移動物体の画像が監視画像上で交差した場合にも発生する。したがって、新規多重化物体が静止状態になければ(S221にてNO)、移動物体同士が互いに移動しながら交差している交差状態である可能性があるので行列情報41の更新(S222〜S225)はスキップする。また、新規多重化物体が検出されなかった場合も(S219にてNO)、行列情報41の更新(S219〜S225)はスキップする。
Note that the multiplexed region occurs not only when a matrix is generated, but also when an image of a moving object that is continuously moving intersects on the monitoring image. Accordingly, if the new multiplexed object is not in a stationary state (NO in S221), there is a possibility that the moving object intersects while moving with each other, so that the
図6及び図7に行列認識の様子を例示する。図6及び図7では、時刻t1〜t7における監視画像として撮像される領域70、設備領域42、物体領域72、行列領域73及び行列情報41を示している。なお、各物体領域72の近傍には対応する移動物体を示す識別子#A〜#Dを付している。また、×印は行列の先頭位置、Qは先頭位置の座標、P1〜P4は行列領域73の頂点の座標、矢印は移動軌跡401の一部をそれぞれ表している。
FIG. 6 and FIG. 7 illustrate the state of matrix recognition. 6 and 7 show an area 70, an
時刻t1において移動物体#Aが静止し始め、時刻t2において移動物体#Bが移動物体#Aの近傍にて静止し始め、物体領域72−2にはこれらの移動物体が対応付けられている。そして、時刻t2から静止時間Tsが経過した時刻t3において、移動物体#A及び#Bは共に物体領域72−3に対応付けられ、且つ、それぞれの移動物体#A及び#Bは静止状態であるので、行列認識手段52によって物体領域72−3は行列領域、移動物体#A及び#Bは行列物体と判定される。 At time t1, the moving object #A starts to stand still, and at time t2, the moving object #B starts to stop near the moving object #A, and these moving objects are associated with the object region 72-2. Then, at time t3 when the stationary time Ts has elapsed from time t2, the moving objects #A and #B are both associated with the object region 72-3, and the respective moving objects #A and #B are in a stationary state. Therefore, the matrix recognition means 52 determines that the object region 72-3 is a matrix region and the moving objects #A and #B are matrix objects.
行列認識手段52は、物体領域72−3の外接矩形Rect(P1,P2)を行列領域73−3として求め、移動物体#Aの位置を先頭位置Qとして求め、静止状態がより長い移動物体#Aに参入順序1番、移動物体#Bに参入順序2番を付与し、これらを含む行列情報41−3を記憶部4に記憶させる。
The matrix recognition means 52 obtains the circumscribed rectangle Rect (P1, P2) of the object area 72-3 as the matrix area 73-3, obtains the position of the moving object #A as the head position Q, and moves the moving object # having a longer stationary state # The entry order No. 1 is assigned to A, the entry order No. 2 is assigned to the moving object #B, and the matrix information 41-3 including these is stored in the
時刻t4では移動物体#Cが行列領域73−4に重なり、物体領域72−4には移動物体#A及び#Bに加えて移動物体#Cが対応付けられる。しかし、この時点では移動物体#Cは静止状態と判定されず、移動物体#Cは行列物体として判定されない。行列情報41−4の内容は前時刻から更新されない。 At time t4, the moving object #C overlaps the matrix area 73-4, and the moving area #C is associated with the object area 72-4 in addition to the moving objects #A and #B. However, at this time point, the moving object #C is not determined to be stationary, and the moving object #C is not determined as a matrix object. The contents of the matrix information 41-4 are not updated from the previous time.
移動物体#Cは、時刻t4から静止時間Tsが経過する前の時刻t5において物体領域72−5aとは別の物体領域72−5bと対応付けられる。すなわち、移動物体#Cは行列に参入したのではなく、時刻t4にて行列領域と交差しただけであると判定され、行列情報41−5の内容は前時刻から更新されない。 The moving object #C is associated with an object region 72-5b different from the object region 72-5a at time t5 before the stationary time Ts elapses from time t4. That is, it is determined that the moving object #C has not entered the matrix but only crossed the matrix area at time t4, and the contents of the matrix information 41-5 are not updated from the previous time.
時刻t6において物体領域#Dが移動物体#A及び#Bの近傍にて静止し始める。時刻t6から静止時間Tsが経過した時刻t7において物体領域72−7には移動物体#A,#B及び#Dが対応付けられ、移動物体#Dは静止状態であると判定される。行列認識手段52は、物体領域72−7を行列領域として外接矩形Rect(P3,P4)を求め、先頭位置Qを更新し、移動物体#Dに参入順序3番を付して、行列情報41−7を更新する。
At time t6, the object region #D starts to stand still in the vicinity of the moving objects #A and #B. At time t7 when the stationary time Ts has elapsed from time t6, the moving object #A, #B, and #D are associated with the object region 72-7, and it is determined that the moving object #D is in a stationary state. The matrix recognition means 52 obtains the circumscribed rectangle Rect (P3, P4) using the object region 72-7 as the matrix region, updates the head position Q, attaches the
このようにして、行列認識手段52により行列認識処理が行われ、各行列情報41が更新される。
Thus, the matrix recognition process is performed by the matrix recognition means 52, and each
次に、制御部5の不審行動検知手段53は、各移動物体の移動軌跡401を分析して不審行動に該当するか否かを判定し(S10)、不審行動を検知すると(S11にてYES)、不審画像情報を含む異常信号を生成して表示部6へ出力する(S12)。
Next, the suspicious behavior detection means 53 of the control unit 5 analyzes the
なお、不審行動の検知は既存の方法を適用して行うことができる。例えば、移動物体の正常な行動のパターンを集めた正常行動パターンと、各移動物体の移動軌跡401と、を比較して、正常行動パターンから乖離した移動物体があれば不審行動として検知するものとすればよい。また、監視空間に予め定めた規定時間以上滞在している移動物体があれば不審行動として検出してもよい。
Note that suspicious behavior can be detected by applying an existing method. For example, a normal action pattern that collects normal action patterns of moving objects is compared with the
異常信号が入力された表示部6は、音響出力手段により警報出力し、モニタ装置に不審画像情報を表示する。不審画像情報は、例えば、不審行動が検知された移動軌跡401が示す移動物体の位置周辺を監視画像から切り出した静止画若しくは動画、又は、監視画像において不審行動が検知された移動軌跡401が示す移動物体の位置を強調する図形や文字を合成した静止画若しくは動画としてもよい。これにより、監視員は不審画像情報を基に案内又は排除といった対処の必要性を把握し、必要であれば監視空間に急行して対処を行う。以上の処理を終えると、処理は再びステップS1へ戻される。
The
また、上記実施の形態では、対応付け手段51は、あいまい性が判定された場合に参入順序が最先の移動物体を離脱領域に優先的に対応付けるものであった。別の実施の形態では、類似度に対して行列への参入順序が先であるほど高い重み付けを行うことによって優先的な対応付けを行う。この場合、類似度の算出式は、例えば、次式とすればよい。
Further, in the above embodiment, the
[数3]
類似度=α×画像類似度+β×位置類似度+(1−α−β)・w
w=(行列物体の数−参入順序)/(行列物体の数)
但し、0<α<1,0<β<1,α+β=1とする。
[Equation 3]
Similarity = α × image similarity + β × position similarity + (1−α−β) · w
w = (number of matrix objects−entry order) / (number of matrix objects)
However, 0 <α <1, 0 <β <1, α + β = 1.
以上のように、本実施の形態によれば、移動物体を追跡する際に行列を構成する各移動物体の特定及び行列から離脱する各移動物体の同定の確度を向上させることができる。 As described above, according to the present embodiment, it is possible to improve the accuracy of specifying each moving object constituting a matrix and identifying each moving object that leaves the matrix when tracking the moving object.
また、本実施の形態では、移動物体追跡装置1の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。移動物体追跡装置1の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。
Further, in the present embodiment, the mode in which the function of each unit of the moving
1 移動物体追跡装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 表示部、40 物体情報、41 行列情報、42 設備領域、50 物体領域抽出手段、51 対応付け手段、52 行列認識手段、53 不審行動検知手段、70 領域、73 行列領域、80 領域、81 物体領域、82 行列領域、83 距離範囲閾値D、400 参照画像情報、401 移動軌跡、510 離脱領域検出手段。
DESCRIPTION OF
Claims (6)
前記監視画像から前記移動物体が存在する物体領域を抽出する物体領域抽出手段と、
前記物体領域内の画像と、前記移動物体毎の画像上の特徴を表す参照画像情報との類似度に基づいて前記物体領域と前記移動物体とを対応付ける対応付け手段と、
複数の前記移動物体と対応付けられた物体領域を行列が形成されている行列領域とし、前記行列領域と対応付けられた前記移動物体を行列物体とし、前記行列領域、前記行列物体及び前記行列物体の行列への参入順序を含む行列情報を記憶部に記憶させる行列認識手段と、
前記行列領域から離脱した前記物体領域を離脱領域として検出する離脱領域検出手段と、を備え、
前記対応付け手段は、前記離脱領域検出手段が離脱領域を検出すると、前記参入順序が最先の前記行列物体を優先して対応付けることを特徴とする移動物体追跡装置。 A moving object tracking device that tracks a moving object using monitoring images obtained by sequentially imaging a monitoring space in which a matrix can be formed by the moving object,
Object region extraction means for extracting an object region where the moving object is present from the monitoring image;
Association means for associating the object region with the moving object based on the similarity between the image in the object region and reference image information representing a feature on the image of each moving object;
The object region associated with the plurality of moving objects is a matrix region in which a matrix is formed, the moving object associated with the matrix region is a matrix object, and the matrix region, the matrix object, and the matrix object Matrix recognition means for storing matrix information including the order of entry into the matrix in the storage unit;
A leaving area detecting means for detecting the object area leaving the matrix area as a leaving area, and
The moving unit tracking apparatus according to claim 1, wherein when the leaving area detecting unit detects a leaving area, the associating unit preferentially associates the matrix object with the first entry order.
前記行列認識手段は、前記移動軌跡を参照して静止状態にある前記移動物体のみを前記行列物体とすることを特徴とする請求項1から3のいずれか1つに記載の移動物体追跡装置。 The association unit causes the storage unit to store a position in the object region associated with the moving object as a movement locus of the moving object,
4. The moving object tracking apparatus according to claim 1, wherein the matrix recognition unit refers to only the moving object that is in a stationary state with reference to the moving locus as the matrix object. 5.
前記対応付け手段は、前記先頭位置から予め定めた距離範囲内に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けることを特徴とする請求項1から4のいずれか1つに記載の移動物体追跡装置。 The matrix recognition means includes the position of the matrix object with the earliest entry order included in the matrix information as the head position of the matrix, and stores it.
5. The association unit according to claim 1, wherein the association unit preferentially associates the matrix object having the first entry order with the departure area detected within a predetermined distance range from the head position. The moving object tracking apparatus as described in any one.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008303335A JP5063567B2 (en) | 2008-11-28 | 2008-11-28 | Moving object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008303335A JP5063567B2 (en) | 2008-11-28 | 2008-11-28 | Moving object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010130383A JP2010130383A (en) | 2010-06-10 |
JP5063567B2 true JP5063567B2 (en) | 2012-10-31 |
Family
ID=42330432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008303335A Expired - Fee Related JP5063567B2 (en) | 2008-11-28 | 2008-11-28 | Moving object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5063567B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680143A (en) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | Quick image search method for video investigation |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048690A (en) * | 2010-08-30 | 2012-03-08 | Secom Co Ltd | Monitoring apparatus |
CN103281477B (en) * | 2013-05-17 | 2016-05-11 | 天津大学 | Multi-target track method based on multi-level characteristic association |
US11151389B2 (en) | 2017-03-31 | 2021-10-19 | Nec Corporation | Information processing apparatus, control method, and program |
JP6852791B2 (en) * | 2017-06-30 | 2021-03-31 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
WO2019053789A1 (en) * | 2017-09-12 | 2019-03-21 | 日本電気株式会社 | Information processing apparatus, control method, and program |
JP6427650B1 (en) | 2017-11-21 | 2018-11-21 | 三菱電機インフォメーションシステムズ株式会社 | Tracking device and tracking program |
JP7370548B1 (en) | 2022-11-15 | 2023-10-30 | 株式会社アジラ | Abnormal behavior detection system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4402505B2 (en) * | 2004-04-27 | 2010-01-20 | グローリー株式会社 | Waiting time guidance system and method |
CN101107637B (en) * | 2004-11-02 | 2013-02-06 | 传感电子公司 | Line monitoring system and method |
-
2008
- 2008-11-28 JP JP2008303335A patent/JP5063567B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680143A (en) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | Quick image search method for video investigation |
CN104680143B (en) * | 2015-02-28 | 2018-02-27 | 武汉烽火众智数字技术有限责任公司 | A kind of fast image retrieval method for video investigation |
Also Published As
Publication number | Publication date |
---|---|
JP2010130383A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5063567B2 (en) | Moving object tracking device | |
JP7040463B2 (en) | Analysis server, monitoring system, monitoring method and program | |
JP5121258B2 (en) | Suspicious behavior detection system and method | |
US9684835B2 (en) | Image processing system, image processing method, and program | |
KR101824446B1 (en) | A reinforcement learning based vehicle number recognition method for CCTV | |
JP5025607B2 (en) | Abnormal behavior detection device | |
US9292939B2 (en) | Information processing system, information processing method and program | |
US8879786B2 (en) | Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program | |
JP4874150B2 (en) | Moving object tracking device | |
JP6729793B2 (en) | Information processing apparatus, control method, and program | |
US8860815B2 (en) | Apparatus, method and computer program for image-based tracking of surveillance objects | |
JP2009048428A (en) | Moving object tracking device | |
JP6833354B2 (en) | Information processing equipment, information processing methods and programs | |
KR20150051630A (en) | Apparatus and method for detecting terrorism using irregular motion of peoples | |
JP6503079B2 (en) | Specific person detection system, specific person detection method and detection device | |
JP2008250772A (en) | Mobile object tracking device | |
JP2008005399A (en) | Device and method for detecting a neglected object | |
JP7107596B2 (en) | Station monitoring system and station monitoring method | |
JP5370009B2 (en) | Monitoring system | |
JP4250172B2 (en) | Object detection method and object detection apparatus | |
US10762467B2 (en) | Placement information registration device, placement information registration method, and placement information registration program | |
US11216969B2 (en) | System, method, and computer-readable medium for managing position of target | |
JP5164658B2 (en) | Image processing apparatus, image processing method, and program | |
JP5865709B2 (en) | Image monitoring device | |
JPH08167022A (en) | Image monitor device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120731 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5063567 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150817 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |