JP5063567B2 - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP5063567B2
JP5063567B2 JP2008303335A JP2008303335A JP5063567B2 JP 5063567 B2 JP5063567 B2 JP 5063567B2 JP 2008303335 A JP2008303335 A JP 2008303335A JP 2008303335 A JP2008303335 A JP 2008303335A JP 5063567 B2 JP5063567 B2 JP 5063567B2
Authority
JP
Japan
Prior art keywords
matrix
area
moving object
moving
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008303335A
Other languages
Japanese (ja)
Other versions
JP2010130383A (en
Inventor
功 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008303335A priority Critical patent/JP5063567B2/en
Publication of JP2010130383A publication Critical patent/JP2010130383A/en
Application granted granted Critical
Publication of JP5063567B2 publication Critical patent/JP5063567B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視空間内を移動する移動物体を追跡する移動物体追跡装置に関する。   The present invention relates to a moving object tracking device that tracks a moving object that moves in a monitoring space.

従来、監視空間内を移動する移動物体を追跡処理する場合、物体のテクスチャや色等の特徴量を移動物体のテンプレートとして記憶し、監視空間を撮像した画像上でテンプレートと類似した特徴量を有する領域を移動物体として順次対応付け、対応付けられた各領域を移動物体として処理している。   Conventionally, when a moving object moving in a monitoring space is tracked, a feature amount such as a texture or color of the object is stored as a template of the moving object, and has a feature amount similar to the template on an image obtained by capturing the monitoring space. The areas are sequentially associated as moving objects, and the associated areas are processed as moving objects.

さらに、過去の移動物体の位置から予測される現在の移動物体の位置周辺に限定して上記対応付けを行うことにより、誤って対応付けされることを防ぐ処理も行われている。   Furthermore, a process for preventing the association by mistake is also performed by performing the association only in the vicinity of the position of the current moving object predicted from the position of the past moving object.

特開2008−250772号公報JP 2008-250772 A

ところで、自動現金取引装置(ATM)が設置されている店舗等の監視空間では、移動物体(人)が複数並んで行列が形成されることがある。この行列は多数の移動物体により形成されるので、特徴が類似する複数の移動物体が行列に含まれる可能性がある。そのため、特徴が互いに類似する移動物体を誤って対応付け合ったりしてしまい、移動物体の追跡の確度が低下する問題が起こり得る。   By the way, in a monitoring space such as a store where an automatic cash transaction apparatus (ATM) is installed, a plurality of moving objects (people) may be arranged to form a queue. Since this matrix is formed by a large number of moving objects, a plurality of moving objects having similar characteristics may be included in the matrix. For this reason, there is a possibility that moving objects whose features are similar to each other are erroneously associated with each other, and the tracking accuracy of the moving object is lowered.

また、行列が形成されると各移動物体はほぼ静止状態となるため、過去の動きから現在の位置を予測することが困難となり、履歴情報から対応付けるべき移動物体を絞り込むことが難しい。   In addition, when a matrix is formed, each moving object is almost stationary, so it is difficult to predict the current position from past movements, and it is difficult to narrow down moving objects to be associated from history information.

本発明は、上記問題を鑑みてなされたものであり、移動物体の対応付けの確度を向上させた移動物体追跡装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving object tracking device that improves the accuracy of associating moving objects.

本発明の1つの態様は、移動物体により行列が形成され得る監視空間を順次撮像した監視画像を用いて、前記移動物体を追跡する移動物体追跡装置であって、前記監視画像から前記移動物体が存在する物体領域を抽出する物体領域抽出手段と、前記物体領域内の画像と、前記移動物体毎の画像上の特徴を表す参照画像情報との類似度に基づいて前記物体領域と前記移動物体とを対応付ける対応付け手段と、複数の前記移動物体と対応付けられた物体領域を行列が形成されている行列領域とし、前記行列領域と対応付けられた前記移動物体を行列物体とし、前記行列領域、前記行列物体及び前記行列物体の行列への参入順序を含む行列情報を記憶部に記憶させる行列認識手段と、前記行列領域から離脱した前記物体領域を離脱領域として検出する離脱領域検出手段と、を備え、前記対応付け手段は、前記離脱領域検出手段が離脱領域を検出すると、前記参入順序が最先の前記行列物体を優先して対応付ける移動物体追跡装置である。   One aspect of the present invention is a moving object tracking device that tracks a moving object using a monitoring image obtained by sequentially imaging a monitoring space in which a matrix can be formed by the moving object, and the moving object is detected from the monitoring image. An object region extracting means for extracting an existing object region; and the object region and the moving object based on a similarity between an image in the object region and reference image information representing a feature on the image of each moving object. An association means for associating a plurality of moving objects with a matrix region in which a matrix is formed, a moving object associated with the matrix region as a matrix object, the matrix region, Matrix recognition means for storing, in a storage unit, matrix information including an entry order of the matrix object and the matrix object into the matrix, and detecting the object area leaving the matrix area as a departure area Comprising a disengagement region detection unit, wherein the correlating means, when said disengaging area detecting means detects the disengagement region, the entry order is moving object tracking apparatus for associating with priority the matrix object earliest.

ここで、前記対応付け手段は、前記離脱領域と複数の前記参照画像情報との類似度の分布から対応付けのあいまい性を判定し、あいまいと判定された離脱領域に前記参入順序が最先の前記行列物体を対応付けることが好適である。   Here, the association unit determines the ambiguity of the association from the similarity distribution between the leaving area and the plurality of reference image information, and the entry order is the earliest in the leaving area determined to be ambiguous. It is preferable to associate the matrix object.

また、前記離脱領域検出手段は、記憶されている前記行列領域と予め定められた割合未満で重なり合う前記物体領域を前記離脱領域として検出することが好適である。   Further, it is preferable that the leaving area detecting means detects the object area overlapping with the stored matrix area at a predetermined ratio as the leaving area.

また、前記対応付け手段は、前記移動物体と対応付けられた物体領域の位置を当該移動物体の移動軌跡として記憶部に記憶させ、前記行列認識手段は、前記移動軌跡を参照して静止状態にある物体領域に対応付けられた前記移動物体のみを前記行列物体とすることが好適である。   In addition, the association unit stores the position of the object region associated with the moving object in the storage unit as a movement locus of the moving object, and the matrix recognition unit refers to the movement locus and enters a stationary state. It is preferable that only the moving object associated with a certain object region is the matrix object.

また、前記行列認識手段は、前記参入順序が最先の前記行列物体の位置を行列の先頭位置として前記行列情報に含めて記憶させ、前記対応付け手段は、前記先頭位置から予め定めた距離範囲内に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けることが好適である。   Further, the matrix recognition means stores the position of the matrix object with the earliest entry order included in the matrix information as the head position of the matrix, and the association means stores a predetermined distance range from the head position. It is preferable that the matrix object having the earliest entry order is preferentially associated with the departure area detected in the area.

また、前記対応付け手段は、前記行列領域と、前記移動物体の利用に供される設備の設置場所に対応する前記監視画像上の設備領域と、の間に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けるものとしてもよい。   Further, the associating means enters the separation area detected between the matrix area and an equipment area on the monitoring image corresponding to an installation location of equipment provided for use of the moving object. The matrix object with the earliest order may be associated with priority.

本発明によれば、移動物体を追跡する際に各移動物体の特定の確度を向上させることができる。   According to the present invention, it is possible to improve the specific accuracy of each moving object when tracking the moving object.

本発明の実施の形態における移動物体追跡装置1は、図1に示すように、撮像部2、操作部3、記憶部4、制御部5及び表示部6を含んで構成される。移動物体追跡装置1は、監視空間を撮像し、その監視画像を画像処理して画像内に撮像された人や物等の移動物体を追跡処理する。撮像部2、操作部3、記憶部4、制御部5及び表示部6は互いに情報伝達可能に接続される。   As shown in FIG. 1, the moving object tracking device 1 according to the embodiment of the present invention includes an imaging unit 2, an operation unit 3, a storage unit 4, a control unit 5, and a display unit 6. The moving object tracking device 1 images a monitoring space, performs image processing on the monitoring image, and performs tracking processing of moving objects such as people and objects captured in the image. The imaging unit 2, the operation unit 3, the storage unit 4, the control unit 5, and the display unit 6 are connected so as to be able to transmit information to each other.

なお、本実施の形態では、監視空間であるATMコーナーにおいて人の移動を追跡する例について説明する。ただし、これに限定されるものではなく、流通化に置かれる商品等の物品、通行する車等の異常行動を検知する場合等にも適用することができる。   In the present embodiment, an example of tracking a person's movement at an ATM corner that is a monitoring space will be described. However, the present invention is not limited to this, and the present invention can also be applied to cases such as detecting abnormal behaviors of articles such as commodities placed in distribution, passing cars, and the like.

撮像部2は、CCD素子やC−MOS素子等の撮像素子、光学系部品、アナログ/デジタル変換器等を含んで構成される所謂監視カメラである。撮像部2は、監視空間を所定時間間隔にて撮像し、その画像(以下、監視画像という)を制御部5へ順次出力する。以下、この所定時間間隔を時間の単位として時刻と称する。本実施の形態において、撮像部2は、監視空間の天井に光軸を鉛直下方に向けて配置されているものとする。なお、撮像部2は、複数台の監視カメラを含んで構成してもよい。   The imaging unit 2 is a so-called surveillance camera including an imaging element such as a CCD element or a C-MOS element, an optical system component, an analog / digital converter, and the like. The imaging unit 2 images the monitoring space at predetermined time intervals, and sequentially outputs the images (hereinafter referred to as monitoring images) to the control unit 5. Hereinafter, the predetermined time interval is referred to as time as a unit of time. In the present embodiment, the imaging unit 2 is arranged on the ceiling of the monitoring space with the optical axis directed vertically downward. Note that the imaging unit 2 may include a plurality of surveillance cameras.

操作部3は、移動物体追跡装置1へ情報を入力するためのキーボードやマウス等の入力装置を含んで構成される。操作部3は、移動物体追跡装置1の管理者による各種設定の入力のために用いられる。   The operation unit 3 includes an input device such as a keyboard and a mouse for inputting information to the moving object tracking device 1. The operation unit 3 is used for inputting various settings by the administrator of the moving object tracking device 1.

記憶部4は、ROMやRAM等のメモリ装置で構成される。記憶部4は、制御部5からアクセス可能に接続される。記憶部4は、各種プログラム、各種データを記憶する。これら各種プログラムや各種データは、制御部5より読み出されて使用される。各種データには、監視画像、物体情報40、行列情報41、設備領域42が含まれる。   The storage unit 4 is configured by a memory device such as a ROM or a RAM. The storage unit 4 is connected so as to be accessible from the control unit 5. The storage unit 4 stores various programs and various data. These various programs and various data are read from the control unit 5 and used. The various data includes a monitoring image, object information 40, matrix information 41, and equipment area 42.

物体情報40は、移動物体のそれぞれの特徴を示す情報である。物体情報40は、各移動物体を識別する識別子と共に移動物体毎に記憶され、監視画像において移動物体を特定するために参照される。物体情報40には、移動物体の外見の特徴を表す参照画像情報400と、移動物体の位置の履歴(時系列データ)であり追跡の結果として生成される移動軌跡401が含まれる。参照画像情報400は、移動物体の色ヒストグラム、形状、大きさ等の画像特徴とすることができる。なお、色ヒストグラムに代えて、又は加えて、輝度ヒストグラムやテクスチャ等を用いてもよい。   The object information 40 is information indicating each feature of the moving object. The object information 40 is stored for each moving object together with an identifier for identifying each moving object, and is referred to in order to identify the moving object in the monitoring image. The object information 40 includes reference image information 400 that represents the appearance characteristics of the moving object, and a moving locus 401 that is a history (time-series data) of the position of the moving object and is generated as a result of tracking. The reference image information 400 can be image features such as a color histogram, shape, and size of a moving object. Note that a luminance histogram, texture, or the like may be used instead of or in addition to the color histogram.

行列情報41は、監視空間において行列が形成されている領域に対応する監視画像内の領域である行列領域、その行列領域内に存在する移動物体(以下、行列物体という)の識別子、各行列物体が行列に参入した順序を表す参入順序、及び、行列の先頭位置を含む。この行列情報41は、行列毎に記憶される。図6及び図7は、行列情報41について示した例である。図6及び図7についての説明は後述する。   The matrix information 41 includes a matrix area that is an area in the monitoring image corresponding to an area where the matrix is formed in the monitoring space, an identifier of a moving object (hereinafter referred to as a matrix object) existing in the matrix area, and each matrix object Includes the entry order representing the order in which the entry into the matrix and the start position of the matrix. This matrix information 41 is stored for each matrix. 6 and 7 are examples showing the matrix information 41. FIG. 6 and FIG. 7 will be described later.

設備領域42は、移動物体の利用に供される設備の設置場所と対応する監視画像上の領域である。設備領域42は、例えば、キャッシュディスペンサ(CD)や自動現金取引装置(ATM)、銀行の窓口等である。監視画像上における設備領域42は操作部3により予め管理者によって設定することができる。   The equipment area 42 is an area on the monitoring image corresponding to the installation location of equipment used for moving objects. The facility area 42 is, for example, a cash dispenser (CD), an automatic cash transaction apparatus (ATM), a bank window, or the like. The facility area 42 on the monitoring image can be set in advance by the administrator using the operation unit 3.

制御部5は、CPU、DSP、MCU、IC等の演算回路を含んで構成される。制御部5は、撮像部2、操作部3、記憶部4及び表示部6と情報伝達可能に接続される。制御部5は、物体領域抽出手段50、対応付け手段51、行列認識手段52、不審行動検知手段53等の各手段での処理を記述したプログラムを記憶部4から読み出して実行することによりコンピュータを各手段として機能させる。制御部5は、撮像部2からの監視画像を処理して移動物体を追跡処理し、追跡処理により得られた移動軌跡の分析により移動物体の不審行動を検出すると異常信号を表示部6へ出力する。   The control unit 5 includes an arithmetic circuit such as a CPU, DSP, MCU, or IC. The control unit 5 is connected to the imaging unit 2, the operation unit 3, the storage unit 4, and the display unit 6 so as to be able to transmit information. The control unit 5 reads the program describing the processing in each unit such as the object region extraction unit 50, the association unit 51, the matrix recognition unit 52, the suspicious behavior detection unit 53 and the like from the storage unit 4 and executes it, thereby executing the computer. It functions as each means. The control unit 5 processes the monitoring image from the imaging unit 2 to track the moving object, and outputs an abnormal signal to the display unit 6 when detecting the suspicious behavior of the moving object by analyzing the movement trajectory obtained by the tracking process. To do.

表示部6は、異常信号が入力されると報知音を出力するスピーカー、ブザー等の音響出力手段を含んでなる。また、異常信号が入力されると異常に係る不審者の移動軌跡や画像を表示する表示手段を含んでもよい。   The display unit 6 includes sound output means such as a speaker and a buzzer that output a notification sound when an abnormal signal is input. Moreover, when an abnormal signal is input, a display unit that displays a movement locus or an image of a suspicious person related to the abnormality may be included.

また、移動物体追跡装置1は、コンピュータをネットワークや電話回線に接続するためのインターフェースを含んでもよい。この場合、移動物体追跡装置1は、電話回線やインターネット等の情報伝達手段を介して、センタ装置(図示しない)に情報伝達可能に接続される。移動物体追跡装置1とセンタ装置とは、電話番号やネットワークアドレスを用いて情報の送受信を行う。なお、センタ装置は、監視員等が滞在する監視センタ等に設置されるホストコンピュータである。センタ装置は、移動物体追跡装置1からの通報情報を受信する通信部、通報情報を表示する表示部等を含んで構成される。   The moving object tracking device 1 may include an interface for connecting the computer to a network or a telephone line. In this case, the moving object tracking device 1 is connected to a center device (not shown) through an information transmission means such as a telephone line or the Internet so as to be able to transmit information. The moving object tracking device 1 and the center device transmit and receive information using a telephone number and a network address. The center device is a host computer installed in a monitoring center or the like where a monitor or the like stays. The center device includes a communication unit that receives report information from the moving object tracking device 1, a display unit that displays the report information, and the like.

以下、移動物体追跡装置1における処理について、図1の機能ブロック図並びに図2〜5のフローチャートを参照しつつ説明する。   Hereinafter, the processing in the moving object tracking device 1 will be described with reference to the functional block diagram of FIG. 1 and the flowcharts of FIGS.

移動物体追跡装置1の管理者は監視空間が無人であると確認したうえで移動物体追跡装置1の電源を投入する。これにより各部、各手段としての処理が開始され、所定の初期化が行われる(S1)。また、撮像部2によって監視空間の撮像が行われ、監視画像が制御部5に出力される。その後、撮像部2から制御部5へ新たな監視画像が入力されるたびにステップS2〜S13の処理が繰り返される。   The administrator of the moving object tracking device 1 turns on the moving object tracking device 1 after confirming that the monitoring space is unattended. As a result, processing as each unit and each means is started, and predetermined initialization is performed (S1). Further, the monitoring space is imaged by the imaging unit 2, and a monitoring image is output to the control unit 5. Thereafter, each time a new monitoring image is input from the imaging unit 2 to the control unit 5, the processes in steps S2 to S13 are repeated.

新たな監視画像を取得すると(S1)、制御部5の物体領域抽出手段50は、監視画像を背景画像と比較して物体領域を抽出する(S2)。具体的には、監視画像を背景画像と比較して、両画像間で相違する画素を検出し、互いに隣接して検出された画素を纏めて変化領域とし、予め定めた大きさの基準値を超える変化領域を物体領域として抽出する。   When a new monitoring image is acquired (S1), the object region extraction means 50 of the control unit 5 extracts the object region by comparing the monitoring image with the background image (S2). Specifically, the monitoring image is compared with the background image, pixels that differ between the two images are detected, and the pixels detected adjacent to each other are collectively set as a change region, and a reference value having a predetermined size is set. The exceeding change area is extracted as an object area.

相違する画素とは、背景画像と監視画像との間で輝度値若しくは色成分の差が所定値以上である監視画像の画素、又は、背景画像と監視画像との間で輝度値若しくは色成分の相関値が所定値未満である画素とするとよい。   The difference pixel is a pixel of a monitoring image in which a difference in luminance value or color component between the background image and the monitoring image is a predetermined value or more, or a luminance value or color component between the background image and the monitoring image. It is preferable that the pixel has a correlation value less than a predetermined value.

ただし、電源投入直後には背景画像が取得されていないので、物体領域抽出手段50は、物体領域を抽出せず、電源投入直後に取得した監視画像を背景画像として記憶部4に記憶させる。また、その後の各時刻において、物体領域抽出手段50は、監視空間の照明変動等による背景の変化に対応させるために、物体領域が抽出されなかった領域について監視画像を背景画像と平均化して背景画像を更新する。   However, since the background image is not acquired immediately after the power is turned on, the object region extracting unit 50 does not extract the object region, and stores the monitoring image acquired immediately after the power is turned on in the storage unit 4 as a background image. Further, at each subsequent time, the object region extraction means 50 averages the monitoring image with the background image for the region where the object region has not been extracted in order to cope with the change in the background due to the illumination variation or the like of the monitoring space. Update the image.

制御部5の対応付け手段51は、各移動物体の移動軌跡401から現時刻の予測位置を算出する(S3)。現時点の予測位置は、移動軌跡401に対して等速運動モデル等の運動モデル、又は、カルマンフィルタ等の予測フィルタを適用して外挿処理を行うことによって得られる。   The association means 51 of the control unit 5 calculates the predicted position of the current time from the movement trajectory 401 of each moving object (S3). The current predicted position is obtained by performing extrapolation processing on the movement trajectory 401 by applying a motion model such as a constant velocity motion model or a prediction filter such as a Kalman filter.

次に、対応付け手段51は、各物体領域において各参照画像情報400を用いたマッチング処理を行い、参照画像情報400との類似度が極大となる物体領域内の位置を特定する(S4)。   Next, the associating means 51 performs matching processing using each reference image information 400 in each object region, and specifies a position in the object region where the similarity to the reference image information 400 is maximized (S4).

類似度は、画像類似度と位置類似度とを組み合わせて算出することが好適である。例えば、数式(1)を用いて類似度を求める。   The similarity is preferably calculated by combining the image similarity and the position similarity. For example, the similarity is obtained using Equation (1).

[数1]
類似度=α×画像類似度+(1−α)×位置類似度・・・・・(1)
ただし、0<α<1とする。
[Equation 1]
Similarity = α × image similarity + (1−α) × position similarity (1)
However, 0 <α <1.

画像類似度は、物体領域内に候補位置を設定し、候補位置を基準に参照画像情報400が示す形状及び大きさの領域を設定し、当該領域においての監視画像から抽出した色ヒストグラムと参照画像情報400の色ヒストグラムとの差が小さいほど大きな値となる相関関数を適用することで求められる。位置類似度は、物体情報40として記憶されている移動軌跡401から求められた予測位置と候補位置との距離が小さいほど大きな値となる相関関数を適用することで求められる。対応付け手段51は、候補位置をずらしながら類似度の算出を極大の類似度が求まるまで繰り返し、極大の類似度が算出された候補位置を特定する。こうして、物体領域と移動物体の全組み合わせに対して、類似度と位置が算出される。   For the image similarity, a candidate position is set in the object area, an area having the shape and size indicated by the reference image information 400 is set based on the candidate position, and the color histogram extracted from the monitoring image in the area and the reference image The correlation function is obtained by applying a correlation function having a larger value as the difference from the color histogram of the information 400 is smaller. The position similarity is obtained by applying a correlation function that becomes larger as the distance between the predicted position obtained from the movement locus 401 stored as the object information 40 and the candidate position is smaller. The associating means 51 repeats the calculation of the similarity while shifting the candidate position until the maximum similarity is obtained, and specifies the candidate position where the maximum similarity is calculated. Thus, the similarity and position are calculated for all combinations of the object area and the moving object.

そして、対応付け手段51は、各移動物体について類似度が最大であり、且つ類似度が予め定められた同定値L1以上である物体領域と移動物体とを仮に対応付ける(S6)。また、各移動物体の現在位置を最大の類似度が算出された候補位置と判定する。結果、行列領域においては同一の行列領域に複数の行列物体が対応付けられ、同一の行列領域内に複数の行列物体の位置が判定される。   Then, the associating unit 51 temporarily associates the moving object with the object region having the maximum similarity for each moving object and the similarity is equal to or greater than the predetermined identification value L1 (S6). Further, the current position of each moving object is determined as the candidate position for which the maximum similarity is calculated. As a result, in the matrix area, a plurality of matrix objects are associated with the same matrix area, and the positions of the plurality of matrix objects are determined in the same matrix area.

ここで物体領域に、行列領域から離脱した物体領域(以下、離脱領域という)が含まれる場合がある。   Here, the object region may include an object region that has left the matrix region (hereinafter referred to as a leaving region).

そして、多数の行列物体から形成される行列には外見(人の服装等)が似た行列物体が複数含まれる機会が多く、このとき、複数の行列物体が離脱領域に対して高い画像類似度を示す。さらに、行列において行列物体は近接し、その動きは静止乃至低速となるため、離脱領域に対する行列物体の位置類似度も横並びとなる。そのため、離脱領域に対しては、画像や位置の類似性のみでは正しい対応付けができないことがしばしばある。   In many cases, a matrix formed from a large number of matrix objects includes a plurality of matrix objects having similar appearances (such as human clothes). Indicates. Further, since the matrix objects are close to each other in the matrix and their movements are stationary or slow, the position similarity of the matrix objects with respect to the leaving region is also side by side. For this reason, it is often the case that correct association cannot be made with respect to the separation region only by the similarity of images and positions.

そこで、対応付け手段51は、行列領域から離脱する物体領域を検出する離脱領域検出手段510を備え、ステップS6における対応付け結果のうち、検出された離脱領域に対する対応付けに適宜補正を加える処理を行う(S7)。   Therefore, the association unit 51 includes a leaving area detection unit 510 that detects an object area that leaves the matrix area, and performs processing for appropriately correcting the association with the detected leaving area in the association result in step S6. Perform (S7).

図3のフローチャートを参照してステップS7の処理について説明する。対応付け手段51の離脱領域検出手段510は、前時刻の行列領域との重複度が離脱判定範囲内である物体領域を離脱領域として検出する(S100)。   The process of step S7 is demonstrated with reference to the flowchart of FIG. The leaving area detecting means 510 of the associating means 51 detects an object area whose degree of overlap with the matrix area at the previous time is within the leaving determination range as a leaving area (S100).

離脱領域は、行列から離脱するという性質上、一部が前時刻の行列領域に重複し、残りの一部が前時刻の行列領域からはみ出す領域として検出される。そこで、離脱領域検出手段510は、前時刻の行列領域と各物体領域との重複度を数式(2)により算出し、重複度が予め定められた離脱判定範囲内にある物体領域を離脱領域として検出する。   Due to the nature of leaving from the matrix, the leaving area is detected as an area that partially overlaps the matrix area at the previous time and the remaining part protrudes from the matrix area at the previous time. Accordingly, the leaving area detection unit 510 calculates the degree of overlap between the matrix area of the previous time and each object area using Equation (2), and sets the object area whose degree of overlap is within a predetermined leaving determination range as the leaving area. To detect.

[数2]
重複度=行列領域と重複する面積/物体領域の面積 ・・・・(2)
[Equation 2]
Degree of overlap = area overlapping with matrix area / area of object area (2)

離脱判定範囲は、例えば、(0,0.5]に設定される。すなわち、上限の0.5を離脱判定閾値THとすると、離脱領域検出手段510は、離脱判定閾値TH以下の割合で行列領域と重複する(物体領域のうち半分以下が行列領域と重複する)物体領域を離脱領域として検出する。なお、離脱判定閾値THを超える割合で行列領域と重複する(物体領域のうち半分より多い領域が行列領域と重複する)物体領域は行列領域に含まれると判定し、重複度が0(行列領域と重複しない)の物体領域は行列と無関係であると判定する。なお、行列の微小な動きにより、行列の物体領域が離脱領域として誤検出されないように0より大きい下限値(例えば0.1)としてもよい。   For example, the leaving determination range is set to (0, 0.5). That is, when the upper limit of 0.5 is set as the leaving determination threshold TH, the leaving area detection unit 510 matrixes at a ratio equal to or less than the leaving determination threshold TH. An object region that overlaps with the region (less than half of the object region overlaps with the matrix region) is detected as a departure region, and overlaps with the matrix region at a rate exceeding the separation determination threshold TH (more than half of the object region) It is determined that the object region (the region overlaps with the matrix region) is included in the matrix region, and the object region with the overlap degree 0 (not overlapping with the matrix region) is determined to be irrelevant to the matrix. A lower limit value (for example, 0.1) greater than 0 may be set so that the object area of the matrix is not erroneously detected as a leaving area due to movement.

別の例では、行列物体と単独で対応付けられた物体領域を離脱領域として検出してもよい。ただし、重複度に基づいて離脱領域を検出する方法では、行列物体間の隙間が撮像された場合であっても、この隙間の影響によって行列の一部が離脱領域として誤検出されることがない点で優れている。特に、行列方向が、撮像方向となす角が大きい行列においては隙間が撮像され易く、効果が大きい。   In another example, an object area associated with a matrix object alone may be detected as a leaving area. However, in the method of detecting the separation area based on the degree of overlap, even if the gap between the matrix objects is imaged, a part of the matrix is not erroneously detected as the separation area due to the influence of the gap. Excellent in terms. In particular, in a matrix having a large angle between the matrix direction and the imaging direction, gaps are easily imaged, and the effect is great.

次に、対応付け手段51は、離脱領域に関してステップS101〜S107のループ処理を実行する。   Next, the associating unit 51 executes a loop process of steps S101 to S107 for the leaving area.

離脱領域には、並び通りに先頭から抜け出した移動物体と、待ち切れずに中抜けした移動物体の領域とがある。対応付け手段51は、これらを区別するために、離脱領域が検出された行列の先頭位置と離脱領域との位置を比較して位置関係を判定し(S102)、離脱領域が先頭位置から距離範囲閾値D内の近傍にある場合には先頭からの抜け出しであるとして処理をステップS104に移行させ、そうでない場合には中抜けであるとしてステップS107に移行させる(S103)。別の例では、対応付け手段51は、離脱領域が行列領域と設備領域42との間にある場合は先頭からの抜け出し、そうでない場合は中抜けとする。   In the separation area, there are a moving object that has slipped out from the head in a line and a moving object area that has slipped out without waiting. In order to distinguish these, the associating means 51 compares the position of the head position of the matrix where the leaving area is detected with the position of the leaving area to determine the positional relationship (S102), and the leaving area is a distance range from the head position. If it is in the vicinity of the threshold value D, the process proceeds to step S104, assuming that it is an escape from the head, and otherwise, the process proceeds to step S107, assuming that it is a void (S103). In another example, the associating means 51 makes a break-out from the head if the leaving area is between the matrix area and the equipment area 42, and otherwise makes a hollow.

図8は、S100〜S103の処理を模式的に示した例である。監視画像として撮像される領域80に設備領域42、現時刻に抽出された物体領域81及び前時刻に認識された行列領域82が示されている。×(クロス)印は、行列の先頭位置、円83は距離範囲閾値Dを表す。   FIG. 8 is an example schematically showing the processing of S100 to S103. An area 80 captured as a monitoring image shows an equipment area 42, an object area 81 extracted at the current time, and a matrix area 82 recognized at the previous time. The x (cross) mark represents the head position of the matrix, and the circle 83 represents the distance range threshold D.

図8において、物体領域81−2と行列領域82との重複度は0.2であり、離脱判定範囲内であり、物体領域81−2は距離範囲閾値D内に検出されたため、物体領域81−2は行列の先頭から抜け出した離脱領域とされる。一方、物体領域81−1の重複度は0、物体領域81−3の重複度は1であるため離脱領域として検出されない。   In FIG. 8, the overlap between the object region 81-2 and the matrix region 82 is 0.2, which is within the departure determination range, and the object region 81-2 is detected within the distance range threshold D. -2 is a departure area that has escaped from the top of the matrix. On the other hand, since the overlapping degree of the object area 81-1 is 0 and the overlapping degree of the object area 81-3 is 1, it is not detected as a separation area.

距離範囲閾値Dとしては移動物体が初速として採り得る値を設定することが好適である。初速とは、静止していた移動物体が動き出すときの速さであり、具体的には、行列に並んでいた移動物体が行列を抜け出すときの一時刻当りの移動距離に対応する。   As the distance range threshold D, it is preferable to set a value that the moving object can take as the initial speed. The initial speed is the speed at which a moving object that has been stationary starts to move, and specifically corresponds to the moving distance per time when the moving objects that are arranged in a matrix exit the matrix.

対応付け手段51は、離脱領域と複数の参照画像情報との間で算出された類似度の分布から離脱領域に対する対応付けのあいまい性を判定する。ここで、あいまい性とは、離脱領域と参照画像情報との対応付けの結果の確信度合いを示す性質をいう。あいまいと判定された対応付けは、類似度による対応付けの確度が低く、誤対応付けの可能性がある。   The association unit 51 determines the ambiguity of the association with the departure area from the similarity distribution calculated between the departure area and the plurality of reference image information. Here, the ambiguity refers to a property indicating the certainty degree of the result of the association between the leaving area and the reference image information. The association determined to be ambiguous has a low accuracy of association based on the similarity, and may be erroneously associated.

より具体的には、対応付け手段51は、離脱領域と複数の参照画像情報との最大類似度が同定値L2未満のとき、言い換えると総ての類似度が同定値L2未満のときにあいまい性を有するものと判定する。同定値L2は、ステップS6での仮の対応付けに利用した同定値L1より大きい値とする。   More specifically, the associating means 51 is ambiguous when the maximum similarity between the leaving area and the plurality of reference image information is less than the identified value L2, in other words, when all the similarities are less than the identified value L2. It is determined to have The identification value L2 is set to a value larger than the identification value L1 used for provisional association in step S6.

図9はあいまい性判定を説明する図である。丸印は離脱領域と各行列物体に対する参照画像情報との類似度を示す。図9(a)では、最大類似度が同定値L2以上であるのであいまい性が判定されず、図9(b)では、最大類似度が同定値L2に満たないのであいまい性が判定される。   FIG. 9 is a diagram for explaining the ambiguity determination. Circles indicate the similarity between the separation region and the reference image information for each matrix object. In FIG. 9A, the ambiguity is not determined because the maximum similarity is equal to or greater than the identification value L2, and in FIG. 9B, the ambiguity is determined because the maximum similarity is less than the identification value L2.

また、対応付け手段51は、離脱領域について同定値L1以上の類似度が複数存在するときにあいまい性があるものと判定してもよい。図9(c)では、同定値L1以上の類似度が1つであるのであいまい性が判定されず、図9(d)では、同定値L1以上の類似度が2つであるのであいまい性が判定される。   Further, the association unit 51 may determine that there is ambiguity when there are a plurality of similarities equal to or greater than the identification value L1 for the leaving region. In FIG. 9 (c), the degree of ambiguity is not determined because the degree of similarity is equal to or higher than the identification value L1, and in FIG. 9 (d), the degree of ambiguity is not higher than two because the degree of similarity is equal to or higher than the identification value L1. Determined.

また、対応付け手段51は、離脱領域について算出された類似度のうち上位2つの類似度の差dが予め定められた値R未満のときにあいまい性があるものとしてもよい。図9(e)では、差dが値R以上であるのであいまい性が判定されず、図9(f)では、差dが値R未満であるのであいまい性が判定される。   Further, the association unit 51 may be ambiguous when the difference d between the top two similarities among the similarities calculated for the leaving area is less than a predetermined value R. In FIG. 9E, the ambiguity is not determined because the difference d is greater than or equal to the value R. In FIG. 9F, the ambiguity is determined because the difference d is less than the value R.

あいまい性が判定されない場合、ステップS6における物体領域と移動物体との仮の対応付けの結果をそのまま最終的な対応付けとする(S105のYES)。一方、あいまい性が判定された場合(S105のNO)、対応付け手段51は、離脱領域と対応付ける移動物体を離脱領域が検出された行列において参入順序が最先の行列物体に対応付けし直す(S106)。なお、この場合、ステップS6において離脱領域と対応付けられていた行列物体は行列領域と対応付けし直される。対応付けし直された行列物体の位置はステップS4にて特定された位置を参照して直される。   If the ambiguity is not determined, the result of the temporary association between the object region and the moving object in step S6 is used as the final association as it is (YES in S105). On the other hand, when the ambiguity is determined (NO in S105), the associating unit 51 re-associates the moving object associated with the leaving area with the matrix object with the earliest entry order in the matrix in which the leaving area is detected ( S106). In this case, the matrix object associated with the leaving area in step S6 is associated with the matrix area again. The position of the matrix object that has been re-associated is corrected with reference to the position specified in step S4.

行列には専ら先に並んだ物体から順に行列から離脱する性質があるため、以上のように離脱領域への参入順序が最先の行列物体を優先して対応付ける補正を行うことによって、複数の類似した行列物体が行列に含まれている場合でも正しい対応付けが可能となり、各移動物体を特定する確度が上がる。   Since the matrix has the property of leaving the matrix in order starting with the objects that are arranged first, multiple similarities can be obtained by correcting the matrix object with the highest entry order in the leaving area as described above. Even when the matrix object is included in the matrix, correct association is possible, and the accuracy of specifying each moving object is increased.

このとき、対応付けのあいまい性が判定された離脱領域に対し補正を行い、そうでない離脱領域に対して補正を行わないことで、類似度に基づく対応付けを加味でき、各移動物体を特定する確度がさらに上がる。   At this time, by performing correction on the leaving area for which the ambiguity of the association is determined and not performing correction on the leaving area that is not so, the association based on the similarity can be taken into account, and each moving object is identified. The accuracy increases further.

また、先頭位置から予め定めた範囲内に検出された離脱領域、又は行列領域と設備領域42との間に検出された離脱領域に対し補正を行い、それ以外の離脱領域には補正を行わないことで中抜けの離脱領域に最先の行列物体を対応付ける誤りを防げる。   In addition, correction is performed for a separation area detected within a predetermined range from the head position, or a separation area detected between the matrix area and the facility area 42, and correction is not performed for other separation areas. In this way, it is possible to prevent an error that associates the earliest matrix object with a hollow leaving area.

対応付け後、対応付け手段51は、検出された移動物体の位置を物体情報40の移動軌跡401に追加記憶させ、参照画像情報400を対応付けられた物体候補領域の画像特徴で置き換える(S8)。なお、行列物体については参照画像情報400を更新しない。   After the association, the association unit 51 additionally stores the position of the detected moving object in the movement locus 401 of the object information 40, and replaces the reference image information 400 with the image feature of the associated object candidate area (S8). . Note that the reference image information 400 is not updated for matrix objects.

なお、いずれの物体領域とも対応付けられない状態が所定期間続いた移動物体は監視空間から消失したとして物体情報40を削除し、追跡対象から除外する。また、いずれの移動物体とも対応付けられなかった物体領域は新規出現の移動物体のものであるとして、その物体領域の画像特徴及び位置を新たに物体情報40として記憶部4に記憶させ、追跡対象に加える。   Note that a moving object that has not been associated with any object region for a predetermined period has disappeared from the monitoring space, and the object information 40 is deleted and excluded from the tracking target. Also, assuming that the object area that is not associated with any moving object is that of a newly appearing moving object, the image feature and position of the object area are newly stored in the storage unit 4 as object information 40, and the tracking target Add to.

次に、制御部5の行列認識手段52において行列情報41を生成する(S9)。図4及び図5を参照して、ステップS9の処理について説明する。   Next, the matrix information 41 is generated in the matrix recognition means 52 of the control unit 5 (S9). With reference to FIG.4 and FIG.5, the process of step S9 is demonstrated.

まず、行列認識手段52は、記憶されている行列情報41に関してステップS200〜S203のループ処理を実行し、離脱に伴う行列情報41の更新を行う。すなわち、行列認識手段52は、対応付け結果を参照し、離脱領域に対応付けられた行列物体があれば(S201にてYES)、行列情報41から当該行列物体に関する情報を削除し(S202)する。さらに、行列情報41に含まれる行列物体数を計数して、行列物体数が2未満となった行列情報41を削除する(S203にてYES,S204)。なお、離脱領域には先頭から抜けた行列物体が対応付けられる場合と、中抜けした行列物体が対応付けられる場合とがある。   First, the matrix recognition means 52 performs a loop process of steps S200 to S203 on the stored matrix information 41, and updates the matrix information 41 associated with the departure. That is, the matrix recognition unit 52 refers to the association result, and if there is a matrix object associated with the leaving area (YES in S201), deletes information related to the matrix object from the matrix information 41 (S202). . Further, the number of matrix objects included in the matrix information 41 is counted, and the matrix information 41 in which the number of matrix objects is less than 2 is deleted (YES in S203, S204). Note that there are a case where a matrix object missing from the head is associated with the leaving area and a case where a missing matrix object is associated with.

離脱領域に対応付けられた行列物体を削除しても行列物体数が2以上である行列は、行列情報41を現時刻の行列に適合させるように、行列認識手段52は、現時刻において行列領域内に抽出された物体領域の外接矩形に行列領域を置き換える(S205)。さらに、先頭位置を参入順序が最先の行列物体が対応付けられた位置に置き換える(S206)。   Even if the matrix object associated with the departure area is deleted, the matrix recognition means 52 determines that the matrix object having the number of matrix objects of 2 or more matches the matrix information 41 with the matrix at the current time. The matrix area is replaced with a circumscribed rectangle of the object area extracted inside (S205). Further, the head position is replaced with the position associated with the matrix object with the earliest entry order (S206).

なお、本実施の形態では、処理の簡単化のために行列領域を外接矩形領域として処理するが、行列を構成する行列物体の物体領域の集合の外形を行列領域として処理してもよい。   In this embodiment, the matrix area is processed as a circumscribed rectangular area for simplification of processing, but the outer shape of a set of object areas of matrix objects constituting the matrix may be processed as a matrix area.

また、離脱領域に対応付けられた行列物体がない場合(S201にてYES)、ステップS202〜206の処理はスキップされる。   If there is no matrix object associated with the leaving area (YES in S201), the processes in steps S202 to S206 are skipped.

全行列に対して処理が終了しているか否かを判定し、全行列に対してステップS200〜S206の処理が施されている場合にはステップS208に処理を移行させ、そうでない場合にはステップS200に処理を戻して次の行列についての処理を行う。   It is determined whether or not the processing has been completed for all the matrices. If the processing in steps S200 to S206 has been performed for all the matrices, the processing proceeds to step S208. If not, the processing proceeds to step S208. The process is returned to S200 and the process for the next matrix is performed.

次に、行列認識手段52は、対応付け結果を参照して、複数の移動物体と対応付けられた物体領域(多重化領域)を選出し(S208)、選出された多重化領域に関してステップS209〜S226のループ処理を行い、新規の行列情報41の生成及び行列情報41の更新を行う。   Next, the matrix recognizing means 52 refers to the association result, selects an object area (multiplexed area) associated with a plurality of moving objects (S208), and performs steps S209 to S209 for the selected multiplexed area. The loop processing of S226 is performed, and new matrix information 41 is generated and matrix information 41 is updated.

行列認識手段52は、多重化領域と一時刻前に認識されていた行列情報との重複度から多重化領域が既存の行列と同一であるか否かを判定する(S210)。同一でないと判定された場合は新規行列の可能性がある。この場合(S211にてNO)、行列認識手段52は、移動軌跡401を参照して、多重化領域と対応付けられた各移動物体が静止状態であるか否かを判定する(S212)。   The matrix recognition means 52 determines whether or not the multiplexing area is the same as the existing matrix from the degree of overlap between the multiplexing area and the matrix information recognized one time ago (S210). If it is determined that they are not identical, there is a possibility of a new matrix. In this case (NO in S211), the matrix recognition means 52 refers to the movement trajectory 401 and determines whether or not each moving object associated with the multiplexed region is in a stationary state (S212).

なお、本実施の形態では、各移動物体の物体領域の位置が予め設定した静止時間Ts以上、予め定められた移動範囲を超えずに略変化しない状態である場合に、その移動物体は静止状態であると判定する。   In the present embodiment, when the position of the object area of each moving object is in a state in which it does not substantially change without exceeding a predetermined moving range for a predetermined stationary time Ts or longer, the moving object is in a stationary state. It is determined that

複数の移動物体が静止状態にあると判定されれば(S213にてYES)、行列認識手段52は、多重化領域を新規の行列領域、多重化領域と対応付けられた各移動物体を行列物体と認識する。行列認識手段52は、認識された行列物体に対して静止状態が長い順に参入順序を付与し(S214)、多重化領域の外接矩形を行列領域として算出する(S215)。さらに、参入順序が最先の行列物体が対応付けられた位置を先頭位置として求め(S216)、認識された行列物体、これらの行列物体に付与された参入順序、演算された行列領域及び求められた先頭位置を新規の行列情報41として記憶部4に記憶させる(S217)。   If it is determined that a plurality of moving objects are in a stationary state (YES in S213), matrix recognition means 52 sets the multiplexed area as a new matrix area, and sets each moving object associated with the multiplexed area as a matrix object. Recognize. The matrix recognition means 52 assigns the entry order to the recognized matrix objects in the order of the longer stationary state (S214), and calculates the circumscribed rectangle of the multiplexed area as the matrix area (S215). Further, the position where the matrix object with the earliest entry order is associated is obtained as the head position (S216), the recognized matrix objects, the entry order assigned to these matrix objects, the calculated matrix area and the obtained matrix area are obtained. The head position is stored in the storage unit 4 as new matrix information 41 (S217).

一方、多重化領域が既存の行列と同一と判定された場合(S211にてYES)、行列認識手段52は、既存の行列の行列情報41を参照して多重化領域と対応付けられた移動物体の中から行列物体として記憶されていない移動物体(新規多重化物体)を検出し(S218)、移動軌跡401を参照して、新規多重化物体が静止状態にあるか否かを判定する(S219にてYES,S220)。   On the other hand, when it is determined that the multiplexed region is the same as the existing matrix (YES in S211), the matrix recognition unit 52 refers to the matrix information 41 of the existing matrix and moves the moving object associated with the multiplexed region. A moving object (new multiplexed object) that is not stored as a matrix object is detected from among the objects (S218), and it is determined by referring to the movement trajectory 401 whether or not the new multiplexed object is in a stationary state (S219). YES, S220).

静止状態にあると判定されれば(S221にてYES)、行列認識手段52は、新規多重化物体を行列物体と認識して行列情報41に加え(S222)、参入順序として既存の行列物体の参入順序の最大値に1を加えた値を付与する(S223)。また、行列認識手段52は、新規参入した行列物体の領域を行列領域に加えるために同一行列を構成する行列物体と対応付けられた物体領域総てに対する外接矩形に行列領域を置き換え(S224)、先頭位置を参入順序が最先の行列物体が対応付けられた座標に置き換える(S225)。   If it is determined that it is in a stationary state (YES in S221), the matrix recognition means 52 recognizes the new multiplexed object as a matrix object, adds it to the matrix information 41 (S222), and enters the existing matrix object as the entry order. A value obtained by adding 1 to the maximum value of the entry order is assigned (S223). Further, the matrix recognition means 52 replaces the matrix area with a circumscribed rectangle for all object areas associated with the matrix objects constituting the same matrix in order to add the newly entered matrix object area to the matrix area (S224), The head position is replaced with the coordinates associated with the matrix object with the earliest entry order (S225).

なお、多重化領域は、行列が発生した場合のみならず、継続的に移動し続けている移動物体の画像が監視画像上で交差した場合にも発生する。したがって、新規多重化物体が静止状態になければ(S221にてNO)、移動物体同士が互いに移動しながら交差している交差状態である可能性があるので行列情報41の更新(S222〜S225)はスキップする。また、新規多重化物体が検出されなかった場合も(S219にてNO)、行列情報41の更新(S219〜S225)はスキップする。   Note that the multiplexed region occurs not only when a matrix is generated, but also when an image of a moving object that is continuously moving intersects on the monitoring image. Accordingly, if the new multiplexed object is not in a stationary state (NO in S221), there is a possibility that the moving object intersects while moving with each other, so that the matrix information 41 is updated (S222 to S225). Skip. Also, when a new multiplexed object is not detected (NO in S219), updating of matrix information 41 (S219 to S225) is skipped.

図6及び図7に行列認識の様子を例示する。図6及び図7では、時刻t1〜t7における監視画像として撮像される領域70、設備領域42、物体領域72、行列領域73及び行列情報41を示している。なお、各物体領域72の近傍には対応する移動物体を示す識別子#A〜#Dを付している。また、×印は行列の先頭位置、Qは先頭位置の座標、P1〜P4は行列領域73の頂点の座標、矢印は移動軌跡401の一部をそれぞれ表している。   FIG. 6 and FIG. 7 illustrate the state of matrix recognition. 6 and 7 show an area 70, an equipment area 42, an object area 72, a matrix area 73, and matrix information 41 that are captured as monitoring images at times t1 to t7. In the vicinity of each object region 72, identifiers #A to #D indicating corresponding moving objects are attached. In addition, the x mark represents the head position of the matrix, Q represents the coordinates of the head position, P1 to P4 represent the coordinates of the vertices of the matrix area 73, and the arrows represent a part of the movement locus 401.

時刻t1において移動物体#Aが静止し始め、時刻t2において移動物体#Bが移動物体#Aの近傍にて静止し始め、物体領域72−2にはこれらの移動物体が対応付けられている。そして、時刻t2から静止時間Tsが経過した時刻t3において、移動物体#A及び#Bは共に物体領域72−3に対応付けられ、且つ、それぞれの移動物体#A及び#Bは静止状態であるので、行列認識手段52によって物体領域72−3は行列領域、移動物体#A及び#Bは行列物体と判定される。   At time t1, the moving object #A starts to stand still, and at time t2, the moving object #B starts to stop near the moving object #A, and these moving objects are associated with the object region 72-2. Then, at time t3 when the stationary time Ts has elapsed from time t2, the moving objects #A and #B are both associated with the object region 72-3, and the respective moving objects #A and #B are in a stationary state. Therefore, the matrix recognition means 52 determines that the object region 72-3 is a matrix region and the moving objects #A and #B are matrix objects.

行列認識手段52は、物体領域72−3の外接矩形Rect(P1,P2)を行列領域73−3として求め、移動物体#Aの位置を先頭位置Qとして求め、静止状態がより長い移動物体#Aに参入順序1番、移動物体#Bに参入順序2番を付与し、これらを含む行列情報41−3を記憶部4に記憶させる。   The matrix recognition means 52 obtains the circumscribed rectangle Rect (P1, P2) of the object area 72-3 as the matrix area 73-3, obtains the position of the moving object #A as the head position Q, and moves the moving object # having a longer stationary state # The entry order No. 1 is assigned to A, the entry order No. 2 is assigned to the moving object #B, and the matrix information 41-3 including these is stored in the storage unit 4.

時刻t4では移動物体#Cが行列領域73−4に重なり、物体領域72−4には移動物体#A及び#Bに加えて移動物体#Cが対応付けられる。しかし、この時点では移動物体#Cは静止状態と判定されず、移動物体#Cは行列物体として判定されない。行列情報41−4の内容は前時刻から更新されない。   At time t4, the moving object #C overlaps the matrix area 73-4, and the moving area #C is associated with the object area 72-4 in addition to the moving objects #A and #B. However, at this time point, the moving object #C is not determined to be stationary, and the moving object #C is not determined as a matrix object. The contents of the matrix information 41-4 are not updated from the previous time.

移動物体#Cは、時刻t4から静止時間Tsが経過する前の時刻t5において物体領域72−5aとは別の物体領域72−5bと対応付けられる。すなわち、移動物体#Cは行列に参入したのではなく、時刻t4にて行列領域と交差しただけであると判定され、行列情報41−5の内容は前時刻から更新されない。   The moving object #C is associated with an object region 72-5b different from the object region 72-5a at time t5 before the stationary time Ts elapses from time t4. That is, it is determined that the moving object #C has not entered the matrix but only crossed the matrix area at time t4, and the contents of the matrix information 41-5 are not updated from the previous time.

時刻t6において物体領域#Dが移動物体#A及び#Bの近傍にて静止し始める。時刻t6から静止時間Tsが経過した時刻t7において物体領域72−7には移動物体#A,#B及び#Dが対応付けられ、移動物体#Dは静止状態であると判定される。行列認識手段52は、物体領域72−7を行列領域として外接矩形Rect(P3,P4)を求め、先頭位置Qを更新し、移動物体#Dに参入順序3番を付して、行列情報41−7を更新する。   At time t6, the object region #D starts to stand still in the vicinity of the moving objects #A and #B. At time t7 when the stationary time Ts has elapsed from time t6, the moving object #A, #B, and #D are associated with the object region 72-7, and it is determined that the moving object #D is in a stationary state. The matrix recognition means 52 obtains the circumscribed rectangle Rect (P3, P4) using the object region 72-7 as the matrix region, updates the head position Q, attaches the entry order number 3 to the moving object #D, and sets the matrix information 41. Update -7.

このようにして、行列認識手段52により行列認識処理が行われ、各行列情報41が更新される。   Thus, the matrix recognition process is performed by the matrix recognition means 52, and each matrix information 41 is updated.

次に、制御部5の不審行動検知手段53は、各移動物体の移動軌跡401を分析して不審行動に該当するか否かを判定し(S10)、不審行動を検知すると(S11にてYES)、不審画像情報を含む異常信号を生成して表示部6へ出力する(S12)。   Next, the suspicious behavior detection means 53 of the control unit 5 analyzes the movement trajectory 401 of each moving object to determine whether or not it corresponds to the suspicious behavior (S10), and detects the suspicious behavior (YES in S11). ), An abnormal signal including suspicious image information is generated and output to the display unit 6 (S12).

なお、不審行動の検知は既存の方法を適用して行うことができる。例えば、移動物体の正常な行動のパターンを集めた正常行動パターンと、各移動物体の移動軌跡401と、を比較して、正常行動パターンから乖離した移動物体があれば不審行動として検知するものとすればよい。また、監視空間に予め定めた規定時間以上滞在している移動物体があれば不審行動として検出してもよい。   Note that suspicious behavior can be detected by applying an existing method. For example, a normal action pattern that collects normal action patterns of moving objects is compared with the movement trajectory 401 of each moving object, and any moving object that deviates from the normal action pattern is detected as a suspicious action. do it. Further, if there is a moving object staying in the monitoring space for a predetermined time or more, it may be detected as suspicious behavior.

異常信号が入力された表示部6は、音響出力手段により警報出力し、モニタ装置に不審画像情報を表示する。不審画像情報は、例えば、不審行動が検知された移動軌跡401が示す移動物体の位置周辺を監視画像から切り出した静止画若しくは動画、又は、監視画像において不審行動が検知された移動軌跡401が示す移動物体の位置を強調する図形や文字を合成した静止画若しくは動画としてもよい。これにより、監視員は不審画像情報を基に案内又は排除といった対処の必要性を把握し、必要であれば監視空間に急行して対処を行う。以上の処理を終えると、処理は再びステップS1へ戻される。   The display unit 6 to which the abnormal signal is inputted outputs a warning by the sound output means, and displays the suspicious image information on the monitor device. The suspicious image information is, for example, a still image or a moving image obtained by cutting out the vicinity of the position of the moving object indicated by the movement trajectory 401 in which the suspicious behavior is detected, or the movement trajectory 401 in which the suspicious behavior is detected in the monitoring image. It may be a still image or a moving image in which figures and characters that emphasize the position of the moving object are combined. As a result, the monitoring person grasps the necessity of countermeasures such as guidance or exclusion based on the suspicious image information, and if necessary, promptly approaches the monitoring space to perform the countermeasures. When the above process is completed, the process returns to step S1 again.

また、上記実施の形態では、対応付け手段51は、あいまい性が判定された場合に参入順序が最先の移動物体を離脱領域に優先的に対応付けるものであった。別の実施の形態では、類似度に対して行列への参入順序が先であるほど高い重み付けを行うことによって優先的な対応付けを行う。この場合、類似度の算出式は、例えば、次式とすればよい。   Further, in the above embodiment, the association unit 51 preferentially associates the moving object with the earliest entry order with the leaving area when the ambiguity is determined. In another embodiment, preferential association is performed by assigning a higher weight to the degree of similarity in the order of entry into the matrix. In this case, the similarity calculation formula may be, for example, the following formula.

[数3]
類似度=α×画像類似度+β×位置類似度+(1−α−β)・w
w=(行列物体の数−参入順序)/(行列物体の数)
但し、0<α<1,0<β<1,α+β=1とする。
[Equation 3]
Similarity = α × image similarity + β × position similarity + (1−α−β) · w
w = (number of matrix objects−entry order) / (number of matrix objects)
However, 0 <α <1, 0 <β <1, α + β = 1.

以上のように、本実施の形態によれば、移動物体を追跡する際に行列を構成する各移動物体の特定及び行列から離脱する各移動物体の同定の確度を向上させることができる。   As described above, according to the present embodiment, it is possible to improve the accuracy of specifying each moving object constituting a matrix and identifying each moving object that leaves the matrix when tracking the moving object.

また、本実施の形態では、移動物体追跡装置1の各部の機能を1つのコンピュータで実現する態様を説明したがこれに限定されるものではない。移動物体追跡装置1の各部の機能は一般的なコンピュータをプログラムにより制御することによって実現できるものであり、これらの装置の各機能を適宜組み合わせて1つのコンピュータで処理させてもよいし、各機能をネットワーク等で接続された複数のコンピュータで分散処理させてもよい。   Further, in the present embodiment, the mode in which the function of each unit of the moving object tracking device 1 is realized by one computer has been described, but the present invention is not limited to this. The functions of each part of the moving object tracking device 1 can be realized by controlling a general computer by a program, and the functions of these devices may be appropriately combined and processed by one computer. May be distributed by a plurality of computers connected by a network or the like.

本発明の実施の形態における移動物体追跡装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the moving object tracking apparatus in embodiment of this invention. 本発明の実施の形態における移動物体追跡装置における処理を示すフローチャートである。It is a flowchart which shows the process in the moving object tracking apparatus in embodiment of this invention. 本発明の実施の形態における移動物体追跡装置における対応付け補正処理を示すフローチャートである。It is a flowchart which shows the matching correction | amendment process in the moving object tracking device in embodiment of this invention. 本発明の実施の形態における移動物体追跡装置における行列認識処理を示すフローチャートである。It is a flowchart which shows the matrix recognition process in the moving object tracking apparatus in embodiment of this invention. 本発明の実施の形態における移動物体追跡装置における行列認識処理を示すフローチャートである。It is a flowchart which shows the matrix recognition process in the moving object tracking apparatus in embodiment of this invention. 本発明の実施の形態における行列認識処理を説明する図である。It is a figure explaining the matrix recognition process in embodiment of this invention. 本発明の実施の形態における行列認識処理を説明する図である。It is a figure explaining the matrix recognition process in embodiment of this invention. 本発明の実施の形態における対応付け補正処理を説明する図である。It is a figure explaining the correlation correction | amendment process in embodiment of this invention. 本発明の実施の形態におけるあいまい性の判定処理を説明する図である。It is a figure explaining the determination process of the ambiguity in embodiment of this invention.

符号の説明Explanation of symbols

1 移動物体追跡装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 表示部、40 物体情報、41 行列情報、42 設備領域、50 物体領域抽出手段、51 対応付け手段、52 行列認識手段、53 不審行動検知手段、70 領域、73 行列領域、80 領域、81 物体領域、82 行列領域、83 距離範囲閾値D、400 参照画像情報、401 移動軌跡、510 離脱領域検出手段。   DESCRIPTION OF SYMBOLS 1 Moving object tracking apparatus, 2 Imaging part, 3 Operation part, 4 Storage part, 5 Control part, 6 Display part, 40 Object information, 41 Matrix information, 42 Equipment area | region, 50 Object area extraction means, 51 Correlation means, 52 Matrix recognition means, 53 Suspicious behavior detection means, 70 area, 73 matrix area, 80 area, 81 object area, 82 matrix area, 83 distance range threshold D, 400 reference image information, 401 movement locus, 510 departure area detection means.

Claims (6)

移動物体により行列が形成され得る監視空間を順次撮像した監視画像を用いて、前記移動物体を追跡する移動物体追跡装置であって、
前記監視画像から前記移動物体が存在する物体領域を抽出する物体領域抽出手段と、
前記物体領域内の画像と、前記移動物体毎の画像上の特徴を表す参照画像情報との類似度に基づいて前記物体領域と前記移動物体とを対応付ける対応付け手段と、
複数の前記移動物体と対応付けられた物体領域を行列が形成されている行列領域とし、前記行列領域と対応付けられた前記移動物体を行列物体とし、前記行列領域、前記行列物体及び前記行列物体の行列への参入順序を含む行列情報を記憶部に記憶させる行列認識手段と、
前記行列領域から離脱した前記物体領域を離脱領域として検出する離脱領域検出手段と、を備え、
前記対応付け手段は、前記離脱領域検出手段が離脱領域を検出すると、前記参入順序が最先の前記行列物体を優先して対応付けることを特徴とする移動物体追跡装置。
A moving object tracking device that tracks a moving object using monitoring images obtained by sequentially imaging a monitoring space in which a matrix can be formed by the moving object,
Object region extraction means for extracting an object region where the moving object is present from the monitoring image;
Association means for associating the object region with the moving object based on the similarity between the image in the object region and reference image information representing a feature on the image of each moving object;
The object region associated with the plurality of moving objects is a matrix region in which a matrix is formed, the moving object associated with the matrix region is a matrix object, and the matrix region, the matrix object, and the matrix object Matrix recognition means for storing matrix information including the order of entry into the matrix in the storage unit;
A leaving area detecting means for detecting the object area leaving the matrix area as a leaving area, and
The moving unit tracking apparatus according to claim 1, wherein when the leaving area detecting unit detects a leaving area, the associating unit preferentially associates the matrix object with the first entry order.
前記対応付け手段は、前記離脱領域と複数の前記参照画像情報との類似度の分布から対応付けのあいまい性を判定し、あいまいと判定された離脱領域に前記参入順序が最先の前記行列物体を対応付けることを特徴とする請求項1に記載の移動物体追跡装置。   The association means determines the ambiguity of association from the similarity distribution between the leaving area and the plurality of reference image information, and the matrix object having the first entry order in the leaving area determined to be ambiguous The moving object tracking device according to claim 1, wherein: 前記離脱領域検出手段は、記憶されている前記行列領域と予め定められた割合未満で重なり合う前記物体領域を前記離脱領域として検出することを特徴とする請求項1又は2に記載の移動物体追跡装置。   3. The moving object tracking device according to claim 1, wherein the leaving area detecting unit detects the object area that overlaps the stored matrix area at a predetermined ratio as the leaving area. 4. . 前記対応付け手段は、前記移動物体と対応付けられた前記物体領域内の位置を当該移動物体の移動軌跡として前記記憶部に記憶させ、
前記行列認識手段は、前記移動軌跡を参照して静止状態にある前記移動物体のみを前記行列物体とすることを特徴とする請求項1から3のいずれか1つに記載の移動物体追跡装置。
The association unit causes the storage unit to store a position in the object region associated with the moving object as a movement locus of the moving object,
4. The moving object tracking apparatus according to claim 1, wherein the matrix recognition unit refers to only the moving object that is in a stationary state with reference to the moving locus as the matrix object. 5.
前記行列認識手段は、前記参入順序が最先の前記行列物体の位置を行列の先頭位置として前記行列情報に含めて記憶させ、
前記対応付け手段は、前記先頭位置から予め定めた距離範囲内に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けることを特徴とする請求項1から4のいずれか1つに記載の移動物体追跡装置。
The matrix recognition means includes the position of the matrix object with the earliest entry order included in the matrix information as the head position of the matrix, and stores it.
5. The association unit according to claim 1, wherein the association unit preferentially associates the matrix object having the first entry order with the departure area detected within a predetermined distance range from the head position. The moving object tracking apparatus as described in any one.
前記対応付け手段は、前記行列領域と、前記移動物体の利用に供される設備の設置場所に対応する前記監視画像上の設備領域と、の間に検出された前記離脱領域に前記参入順序が最先の前記行列物体を優先して対応付けることを特徴とする請求項1から4のいずれか1つに記載の移動物体追跡装置。   The associating means has the entry order in the separation area detected between the matrix area and the equipment area on the monitoring image corresponding to the installation location of equipment to be used for the moving object. 5. The moving object tracking apparatus according to claim 1, wherein the first matrix object is associated with priority.
JP2008303335A 2008-11-28 2008-11-28 Moving object tracking device Expired - Fee Related JP5063567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008303335A JP5063567B2 (en) 2008-11-28 2008-11-28 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008303335A JP5063567B2 (en) 2008-11-28 2008-11-28 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2010130383A JP2010130383A (en) 2010-06-10
JP5063567B2 true JP5063567B2 (en) 2012-10-31

Family

ID=42330432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303335A Expired - Fee Related JP5063567B2 (en) 2008-11-28 2008-11-28 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP5063567B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680143A (en) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 Quick image search method for video investigation

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048690A (en) * 2010-08-30 2012-03-08 Secom Co Ltd Monitoring apparatus
CN103281477B (en) * 2013-05-17 2016-05-11 天津大学 Multi-target track method based on multi-level characteristic association
US11151389B2 (en) 2017-03-31 2021-10-19 Nec Corporation Information processing apparatus, control method, and program
JP6852791B2 (en) * 2017-06-30 2021-03-31 日本電気株式会社 Information processing equipment, control methods, and programs
WO2019053789A1 (en) * 2017-09-12 2019-03-21 日本電気株式会社 Information processing apparatus, control method, and program
JP6427650B1 (en) 2017-11-21 2018-11-21 三菱電機インフォメーションシステムズ株式会社 Tracking device and tracking program
JP7370548B1 (en) 2022-11-15 2023-10-30 株式会社アジラ Abnormal behavior detection system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4402505B2 (en) * 2004-04-27 2010-01-20 グローリー株式会社 Waiting time guidance system and method
CN101107637B (en) * 2004-11-02 2013-02-06 传感电子公司 Line monitoring system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680143A (en) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 Quick image search method for video investigation
CN104680143B (en) * 2015-02-28 2018-02-27 武汉烽火众智数字技术有限责任公司 A kind of fast image retrieval method for video investigation

Also Published As

Publication number Publication date
JP2010130383A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP5063567B2 (en) Moving object tracking device
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
JP5121258B2 (en) Suspicious behavior detection system and method
US9684835B2 (en) Image processing system, image processing method, and program
KR101824446B1 (en) A reinforcement learning based vehicle number recognition method for CCTV
JP5025607B2 (en) Abnormal behavior detection device
US9292939B2 (en) Information processing system, information processing method and program
US8879786B2 (en) Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program
JP4874150B2 (en) Moving object tracking device
JP6729793B2 (en) Information processing apparatus, control method, and program
US8860815B2 (en) Apparatus, method and computer program for image-based tracking of surveillance objects
JP2009048428A (en) Moving object tracking device
JP6833354B2 (en) Information processing equipment, information processing methods and programs
KR20150051630A (en) Apparatus and method for detecting terrorism using irregular motion of peoples
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
JP2008250772A (en) Mobile object tracking device
JP2008005399A (en) Device and method for detecting a neglected object
JP7107596B2 (en) Station monitoring system and station monitoring method
JP5370009B2 (en) Monitoring system
JP4250172B2 (en) Object detection method and object detection apparatus
US10762467B2 (en) Placement information registration device, placement information registration method, and placement information registration program
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
JP5164658B2 (en) Image processing apparatus, image processing method, and program
JP5865709B2 (en) Image monitoring device
JPH08167022A (en) Image monitor device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120807

R150 Certificate of patent or registration of utility model

Ref document number: 5063567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees