JP2019106631A - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP2019106631A
JP2019106631A JP2017238178A JP2017238178A JP2019106631A JP 2019106631 A JP2019106631 A JP 2019106631A JP 2017238178 A JP2017238178 A JP 2017238178A JP 2017238178 A JP2017238178 A JP 2017238178A JP 2019106631 A JP2019106631 A JP 2019106631A
Authority
JP
Japan
Prior art keywords
person
group
determination
image
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017238178A
Other languages
Japanese (ja)
Other versions
JP6994375B2 (en
Inventor
知行 永橋
Tomoyuki Nagahashi
知行 永橋
文彦 高橋
Fumihiko Takahashi
文彦 高橋
直也 大島
Naoya Oshima
直也 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017238178A priority Critical patent/JP6994375B2/en
Publication of JP2019106631A publication Critical patent/JP2019106631A/en
Application granted granted Critical
Publication of JP6994375B2 publication Critical patent/JP6994375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image monitoring device with which it is possible to efficiently monitoring a suspicious person who could have performed a highly suspicious delivery in a monitor area where many and unspecified persons gather and there could be contact between people only having come to meet.SOLUTION: Person tracking means 50 track a plurality of persons appearing in a monitor area on the basis of monitor images successively acquired by image acquisition means 30 by imaging a prescribed monitor area, and group detection means 51 detects a group of persons, from among a plurality of persons, who have maintained a proximity positional relation that the person-to-person distance is less than or equal to a prescribed proximity determination distance within a prescribed range of suspicious action determination times. When persons in a group became to have a separate positional relation where they exceed a prescribed separation determination distance longer than the proximity determination distance, separate action determination means 53 determines that separate action has occurred in the group, and suspicious person determination means 54 determines that the persons in the group, for which the occurrence of the separate action is determined, are suspicious persons.SELECTED DRAWING: Figure 2

Description

本発明は、監視領域を撮像した画像から、受け渡し行為等を行った可能性のある不審者を検知する画像監視装置に関する。   The present invention relates to an image monitoring apparatus for detecting a suspicious person who may have performed an act of delivery or the like from an image obtained by imaging a monitoring area.

昨今、空港の到着ロビーのように不特定多数の人物が集まる監視領域においてテロに対する監視の強化が急務とされている。そのような監視領域で監視すべき項目のひとつに危険物の受け渡し行為が挙げられる。   Recently, there is an urgent need to strengthen surveillance against terrorism in a surveillance area where an unspecified number of people gather, such as an airport arrival lobby. One of the items to be monitored in such a surveillance area is the act of delivering dangerous goods.

従来、不特定多数の人物が集まる監視領域を撮影して画像解析することにより受け渡し行為を自動検出することで監視効率の向上を図っていた。   Conventionally, monitoring efficiency has been improved by automatically detecting passing behavior by imaging and analyzing a monitoring area in which a large number of unspecified persons gather.

例えば、特許文献1に記載の画像監視装置においては、異なる時刻に撮影された同一の人物の像を比較して基準値以上の大きさを有する相違領域が検出された場合に当該人物に所持物の有無の変化が生じたと判定し、所持物の所持状態から非所持状態に変化した所持物消失人物と所持物の非所持状態から所持状態に変化した所持物出現人物との距離が予め定めた距離範囲内である場合に受け渡し行為があったと判定していた。   For example, in the image monitoring device described in Patent Document 1, when a different area having a size equal to or larger than a reference value is detected by comparing images of the same person photographed at different times, the person possessed by the person It is determined that a change has occurred in the presence or absence of an object, and the distance between the possessed object lost person who has changed from possessed state to not possessed state and the possessed object appearing person who changed from possessed state to possessed state is predetermined When it was within the distance range, it was judged that there was a delivery act.

また、例えば、特許文献2に記載の画像監視システムにおいては、撮影された人物の像と予め登録したカバン等の物品の画像または物品の特徴量とを照合して当該人物が登録された物品を所持しているか否かを判定し、所持物品が消失した人物と所持物品が出現した人物との距離が予め定めた距離範囲内である場合に受け渡し行為があったと判定していた。または、当該システムにおいては、撮影された画像から所持物品を受け渡している最中の人物の姿勢の特徴が検出された場合に受け渡し行為があったと判定していた。   Also, for example, in the image monitoring system described in Patent Document 2, the article in which the person is registered is checked by collating the image of the photographed person with the image or article feature of the article such as a bag registered beforehand. It was judged whether or not it was possessed, and it was judged that there was a delivery act when the distance between the person whose possessed article disappeared and the person whose possessed article appeared was within a predetermined distance range. Alternatively, in the system, it is determined that the delivery act has occurred when the feature of the posture of the person in the middle of delivering the possessed article is detected from the photographed image.

特開2017−016344号公報Unexamined-Japanese-Patent No. 2017-016344 特開2017−028561号公報JP, 2017-028561, A

しかしながら、到着ロビーのように不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域では、不審度の低い受け渡しが頻繁に検出されてしまい、監視効率が低下する問題があった。   However, in the monitoring area where an unspecified large number of people gather like an arrival lobby and contact between people occurs exclusively for meeting, the delivery with low degree of suspiciousness is frequently detected, resulting in the problem of a reduction in monitoring efficiency. there were.

例えば、到着ロビーでは、到着した人物と出迎える人物の間で土産物の授受が頻繁に生じ得る。また、到着ロビーでは、到着した人物の労をねぎらって、出迎える人物が到着した人物のカバンを運ぶ行為も頻繁に生じ得る。   For example, in the arrival lobby, souvenirs may frequently be exchanged between the arriving person and the welcoming person. Also, in the arrival lobby, there may be frequent acts of carrying a bag of the person who has arrived, aiming for the labor of the person who has arrived.

本発明は、上記問題を鑑みてなされたものであり、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審度の高い受け渡しを行った可能性のある不審者を効率的に監視可能な画像監視装置を提供することを目的とする。   The present invention has been made in view of the above-mentioned problems, and it is possible that delivery with a high degree of suspiciousness is performed in a monitoring area in which an unspecified large number of people gather and contact between persons occurs exclusively for meeting. An object of the present invention is to provide an image monitoring apparatus capable of efficiently monitoring a suspicious person.

かかる目的を達成するために本発明は、所定の監視領域を撮影した監視画像を順次取得する画像取得手段と、前記監視画像に基づいて前記監視領域に出現した複数の人物を追跡する人物追跡手段と、前記複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離以下である近接位置関係を維持した人物のグループを検出するグループ検出手段と、前記グループの人物が前記近接判定距離よりも長く定められた離間判定距離を超える離間位置関係となった場合に当該グループに別行動が発生したと判定する別行動判定手段と、前記別行動の発生が判定されたグループの人物を不審者と判定する不審者判定手段と、を備えたことを特徴とする画像監視装置を提供する。   In order to achieve the above object, according to the present invention, there is provided an image acquisition means for sequentially acquiring a surveillance image obtained by photographing a predetermined surveillance area, and a person tracking means for tracking a plurality of persons appearing in the surveillance area based on the surveillance image. And group detection means for detecting, from among the plurality of persons, a group of persons maintaining a proximity positional relationship whose inter-person distance is equal to or less than a predetermined proximity determination distance within a predetermined suspicious activity determination time period; When another person in the group is in the separated position relationship in which the distance determination distance is longer than the proximity determination distance, another action determination unit determines that another action has occurred in the group, and the occurrence of the other action is An image monitoring apparatus comprising: a suspicious person determination unit that determines a person of a determined group as a suspicious person.

また、さらに、前記監視領域内の互いに異なる進入口に対応する複数の進入口領域を予め記憶している監視領域情報記憶手段、を備え、前記グループ検出手段は、出現した位置が異なる前記進入口領域である人物を含んだ前記グループを検出することが好適である。   Furthermore, monitoring area information storage means storing in advance a plurality of entrance areas corresponding to different entrances in the monitoring area, the group detection means is characterized in that the entrances having different positions appear. It is preferable to detect the group including a person who is a region.

また、前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合に前記グループを検出することが好適である。   In addition, the group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement direction difference immediately before becoming the proximity position relationship, and the movement direction difference is a predetermined difference. It is preferable to detect the group when the direction determination angle is exceeded.

また、前記監視画像における前記近接位置関係を維持していた人物の人物画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が前記受け渡し姿勢であるか否かを判定する姿勢判定手段、をさらに備え、前記グループ検出手段は、前記受け渡し姿勢が判定された人物のグループを検出することが好適である。   Further, the person image of the person maintaining the proximity position relationship in the monitoring image is compared with the image feature of the delivery posture obtained in advance to determine whether or not the posture of the person is the delivery posture. It is preferable to further include an attitude determination unit, wherein the group detection unit detects a group of persons for which the delivery attitude has been determined.

また、前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離以下である場合に前記グループを検出することが好適である。   Further, the group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement distance when the proximity position relationship is maintained, and the movement distance is a predetermined value. It is preferable to detect the group when it is equal to or less than the stationary determination distance.

また、前記別行動判定手段は、前記グループの人物が前記離間位置関係を継続した離間時間を計測し、前記離間時間が所定の別行動判定時間を超えた場合に当該グループに前記別行動が発生したと判定することが好適である。   Further, the separate behavior determination means measures a separation time in which a person of the group continues the separation positional relationship, and the separate behavior occurs in the group when the separation time exceeds a predetermined separate behavior determination time. It is preferable to determine that the

また、前記別行動判定手段は、前記グループの人物が前記離間位置関係を維持したまま前記監視領域から消失した場合に当該グループに前記別行動が発生したと判定することが好適である。   Further, it is preferable that the separate action determination unit determines that the separate action has occurred in the group when the person in the group disappears from the monitoring area while maintaining the separated positional relationship.

また、前記別行動判定手段は、前記離間位置関係となったグループについて、前記近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度を超える場合に前記別行動が発生したと判定することが好適である。   Further, the separate behavior determining means calculates, for the group having the separated positional relationship, a movement direction difference of a person from the close positional relationship to the separated positional relationship, and the movement direction difference is a predetermined separate behavior. It is preferable to determine that the separate action has occurred when the determination angle is exceeded.

また、前記不審者判定手段は、前記人物の前記監視領域における滞在時間を計測し、前記別行動の発生が判定されたグループの人物の前記滞在時間が所定の短期滞在判定時間以下である場合に当該人物を不審者と判定することが好適である。   Further, the suspicious person determination means measures the stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of the another action is determined is equal to or less than a predetermined short stay determination time. It is preferable to determine the person as a suspicious person.

本発明によれば、出迎えや単なる並進をした人物と区別して不審な受け渡しを行った可能性のある不審者を判定できるため、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審者を効率的に監視できる。   According to the present invention, since it is possible to determine a suspicious person who may have made a suspicious delivery by distinguishing it from a person who has made a meeting or a mere translation, a large number of unspecified persons gather and contact between the persons exclusively for a meeting. In the monitoring area where a problem occurs, a suspicious person can be efficiently monitored.

実施形態に係る画像監視装置1の概略の構成を示すブロック図である。It is a block diagram showing a schematic structure of image surveillance device 1 concerning an embodiment. 実施形態に係る画像監視装置1の機能を示す機能ブロック図である。It is a functional block diagram showing the function of image surveillance device 1 concerning an embodiment. 監視領域情報とグループ検出の様子を例示した模式図である。It is a schematic diagram which illustrated the situation of surveillance field information and group detection. 監視領域情報と別行動判定および不審者判定の様子を例示した模式図である。It is the schematic diagram which illustrated the mode of monitoring area | region information, another action determination, and a suspicious person determination. 人物情報記憶手段40の人物情報の例を示した図である。FIG. 6 is a diagram showing an example of person information in person information storage means 40. グループ情報記憶手段42のグループ情報の例を示した図である。FIG. 6 is a diagram showing an example of group information of group information storage means 42. 受け渡し姿勢を判定する処理の例を示した図である。It is the figure which showed the example of the process which determines a delivery attitude | position. 実施形態に係る画像監視装置の動作を示したフローチャートである。It is the flowchart which showed the operation of the graphics surveillance device which relates to the execution form. 実施形態に係る画像監視装置による人物追跡処理のフローチャートである。It is a flowchart of person tracking processing by the image monitoring device according to the embodiment. 実施形態に係る画像監視装置によるグループ検出処理のフローチャートである。It is a flowchart of the group detection process by the image monitoring apparatus which concerns on embodiment. 実施形態に係る画像監視装置による別行動判定処理のフローチャートである。It is a flowchart of another behavior determination processing by the image monitoring device according to the embodiment. 実施形態に係る画像監視装置による不審者判定処理のフローチャートである。It is a flowchart of the suspicious person determination processing by the image monitoring device according to the embodiment.

以下、本発明の実施形態として、空港内の到着ロビーが撮影された監視画像から不審者を検出して、検出結果を監視員に対して表示する画像監視装置1の例を説明する。すなわち本実施形態における監視領域は到着ロビーである。   Hereinafter, as an embodiment of the present invention, an example of the image monitoring device 1 will be described which detects a suspicious person from a monitoring image in which an arrival lobby in an airport is photographed and displays the detection result to a surveillance officer. That is, the monitoring area in this embodiment is an arrival lobby.

<画像監視装置1の構成>
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および表示部6からなる。
<Configuration of Image Monitoring Device 1>
FIG. 1 is a block diagram showing a schematic configuration of the image monitoring device 1. The image monitoring apparatus 1 includes an imaging unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, and a display unit 6.

撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、監視領域を所定の時間間隔で撮影して監視画像を順次出力する撮影手段である。例えば、撮影部2は、隣り合う監視カメラとの共有視野を有して連鎖配置された複数の監視カメラである。これらの監視カメラは、それぞれ監視領域内や監視領域近傍の天井、柱、壁、ポールなどに当該監視領域を俯瞰する視野に固定された状態で設置され、予めキャリブレーションされる。撮影部2は、監視領域をフレーム周期1秒で撮影し、可視のカラー画像を生成する。以下、フレーム周期で刻まれる時間を時刻と称する。なお、撮影部2を単一のカメラで構成してもよいし、カラー画像の代わりにモノクロ画像を生成してもよい。   The photographing unit 2 is a monitoring camera, is connected to the image processing unit 5 through the communication unit 3, and is a photographing unit that photographs a monitoring area at predetermined time intervals and sequentially outputs a monitoring image. For example, the imaging unit 2 is a plurality of surveillance cameras arranged in a chain with a shared view with the adjacent surveillance cameras. Each of these surveillance cameras is installed in a surveillance area or a ceiling, a pillar, a wall, a pole, etc. in the vicinity of the surveillance area while being fixed in a field of view over the surveillance area and calibrated in advance. The photographing unit 2 photographs the monitoring area at a frame cycle of 1 second to generate a visible color image. Hereinafter, the time to be engraved in the frame period is referred to as time. Note that the imaging unit 2 may be configured by a single camera, or a monochrome image may be generated instead of a color image.

通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示部6と接続される。通信部3は、撮影部2から監視画像を取得して画像処理部5に入力し、画像処理部5から入力された検出結果を表示部6に出力する。   The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5, and the other end of which is the photographing unit 2 and the display unit 6 via a coaxial cable or a communication network such as LAN (Local Area Network) or the Internet. Connected The communication unit 3 acquires a monitoring image from the imaging unit 2 and inputs the monitoring image to the image processing unit 5, and outputs the detection result input from the image processing unit 5 to the display unit 6.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。   The storage unit 4 is a memory device such as a read only memory (ROM) or a random access memory (RAM), and stores various programs and various data. The storage unit 4 is connected to the image processing unit 5 to input and output such information with the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示部6とも接続され、通信部3経由で撮影部2から取得した監視画像を解析することにより不審者を検出し、検出結果を通信部3経由で表示部6に表示させる。   The image processing unit 5 is configured by an arithmetic device such as a central processing unit (CPU), a digital signal processor (DSP), and a micro control unit (MCU). The image processing unit 5 is connected to the storage unit 4 and reads out and executes a program from the storage unit 4 to operate as various processing means / control means, store various data in the storage unit 4 and read it out. The image processing unit 5 is also connected to the imaging unit 2 and the display unit 6 via the communication unit 3 and detects and detects a suspicious person by analyzing the monitoring image acquired from the imaging unit 2 via the communication unit 3 The result is displayed on the display unit 6 via the communication unit 3.

表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3を介して画像処理部5と接続され、画像処理部5による検出結果を表示する表示手段である。監視員は表示された検出結果を視認して不審者に対する対処の必要性を判断し、必要に応じて対処員を急行させる等の対処を行う。   The display unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the image processing unit 5 via the communication unit 3 and is a display unit that displays the detection result by the image processing unit 5 . The observer visually recognizes the displayed detection results to determine the necessity of coping with the suspicious person, and takes action such as rushing a cooperator as necessary.

<画像監視装置1の機能>
図2は画像監視装置1の機能を示す機能ブロック図である。通信部3は画像取得手段30および不審者情報出力手段31等として機能し、記憶部4は人物情報記憶手段40、監視領域情報記憶手段41およびグループ情報記憶手段42等として機能する。画像処理部5は、人物追跡手段50、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54等として機能する。
<Function of Image Monitoring Device 1>
FIG. 2 is a functional block diagram showing the functions of the image monitoring device 1. The communication unit 3 functions as an image acquisition unit 30 and a suspicious person information output unit 31 and the like, and the storage unit 4 functions as a person information storage unit 40, a monitoring area information storage unit 41 and a group information storage unit 42 and the like. The image processing unit 5 functions as a person tracking unit 50, a group detection unit 51, a posture determination unit 52, another action determination unit 53, a suspicious person determination unit 54, and the like.

画像取得手段30は、撮影手段である撮影部2から監視画像を順次取得して、取得した監視画像を人物追跡手段50、姿勢判定手段52および不審者情報出力手段31に順次出力する。   The image acquisition unit 30 sequentially acquires a monitor image from the imaging unit 2 which is an imaging unit, and sequentially outputs the acquired monitor image to the person tracking unit 50, the posture determination unit 52, and the suspicious person information output unit 31.

以下、図2〜図7を参照して各手段について説明する。   Each means will be described below with reference to FIGS.

人物情報記憶手段40は、監視画像に写る各人物についての情報である人物情報を記憶する。具体的には、人物情報記憶手段40は、各人物の人物情報として、人物追跡手段50によって監視画像から抽出された当該人物の人物画像、当該人物画像が抽出された位置(人物位置)が列挙された人物位置履歴、監視画像において当該人物の人物画像を特徴づける色ヒストグラムなどの人物特徴量などを当該人物の人物IDと対応付けて記憶する。人物位置履歴には少なくとも出現位置と現在位置が含まれる。   The personal information storage means 40 stores personal information which is information about each person shown in the monitoring image. Specifically, the person information storage means 40 enumerates, as person information of each person, a person image of the person extracted from the monitoring image by the person tracking means 50, and a position (person position) at which the person image is extracted. The stored person position history, person feature quantities such as a color histogram characterizing the person image of the person in the monitoring image, and the like are stored in association with the person ID of the person. The person position history includes at least the appearance position and the current position.

また、人物情報記憶手段40は、各人物の人物情報として、さらに各人物の人物IDと対応付けて当該人物に関するグループ検出手段51、別行動判定手段53および不審者判定手段54の中間データを記憶する。   Further, the personal information storage means 40 stores intermediate data of the group detection means 51, the separate action determination means 53 and the suspicious person determination means 54 related to the person as the personal information of each person in association with the person ID of each person. Do.

図5は人物情報のうちの中間データを例示したものであり、図5(a)は或る時刻tにおいて追跡中の人物A〜Eの中間データ200を、図5(b)はその30時刻後の中間データ201を、それぞれ示している。   FIG. 5 exemplifies the intermediate data of the person information, and FIG. 5 (a) shows intermediate data 200 of the persons A to E being tracked at a certain time t, and FIG. Subsequent intermediate data 201 are shown respectively.

出現位置は、グループ検出手段51が生成する中間データであり、各人物が出現した監視領域内の進入口に対応する。本実施形態において出現位置には、初期値である空欄、「入国ゲート」、「入退室エリア」のいずれかが設定される。   The appearance position is intermediate data generated by the group detection unit 51, and corresponds to the entrance in the monitoring area where each person has appeared. In the present embodiment, in the appearance position, any one of an initial value blank, "entry gate", and "entry / exit area" is set.

滞在時間は、不審者判定手段54が生成する中間データであり、各人物が監視領域内に滞在している時間を表す。   The stay time is intermediate data generated by the suspicious person determination means 54, and represents the time during which each person is staying in the monitoring area.

静止時間は、グループ検出手段51が生成する中間データであり、各人物が静止とみなせる状態となっていた時間を表す。   The stationary time is intermediate data generated by the group detection unit 51, and represents a time during which each person can be regarded as stationary.

直近移動方向は、別行動判定手段53が生成する中間データであり、各人物の最新の移動方向を表す。本実施形態において、移動方向は、監視領域を模したXYZ座標系の仮想三次元空間におけるX軸方向を0度として反時計回りに増加する角度で表す。   The latest movement direction is intermediate data generated by the separate action determination unit 53, and represents the latest movement direction of each person. In the present embodiment, the movement direction is represented by an angle that increases counterclockwise with the X-axis direction in the virtual three-dimensional space of the XYZ coordinate system that simulates the monitoring area as 0 degree.

人物追跡手段50は、画像取得手段30から順次入力される監視画像を解析することにより監視領域に出現した複数の人物を追跡して各人物の人物情報を生成し、生成した人物情報を人物情報記憶手段40に記憶させる。   The person tracking unit 50 analyzes a monitoring image sequentially input from the image acquiring unit 30, thereby tracking a plurality of persons appearing in the monitoring area to generate person information of each person, and the generated person information is person information It is stored in the storage means 40.

具体的には、人物追跡手段50は、入力された監視画像に背景差分処理を施して人物領域を検出し、監視画像から人物領域内の画像を切り出して人物画像を抽出する。また、人物追跡手段50は、当該人物画像から特徴量を抽出して人物情報記憶手段40に記憶されている人物特徴量との類似度を算出するとともに、当該人物画像の代表点を人物位置として算出する。   Specifically, the human tracking means 50 performs background subtraction processing on the input monitoring image to detect a human region, extracts an image within the human region from the monitoring image, and extracts a human image. Further, the person tracking means 50 extracts the feature amount from the person image and calculates the degree of similarity with the person feature amount stored in the person information storage means 40, and sets the representative point of the person image as the person position. calculate.

人物位置は例えば各人物の最下端(足元)の三次元位置である。例えば、撮影部2をキャリブレーションされた複数の監視カメラで構成する場合、各監視カメラから抽出した人物画像を世界座標系に逆投影して得られる視体積に三次元人物モデルを当てはめることで頭部中心位置を決定することができる。人物位置は人物の重心、最上端または頭部中心など他の代表点とすることもできる。また人物位置は、監視画像の平面座標系(すなわち人物画像の代表点)で表してもよい。   The position of the person is, for example, the three-dimensional position of the lowermost end (foot) of each person. For example, when the imaging unit 2 is configured by a plurality of calibrated surveillance cameras, a head is obtained by applying a three-dimensional person model to a view volume obtained by back projecting a person image extracted from each surveillance camera onto a world coordinate system. The part center position can be determined. The position of the person can also be another representative point such as the center of gravity, the top end, or the center of the head of the person. The position of the person may be represented by a plane coordinate system of the monitoring image (that is, a representative point of the person image).

人物画像から抽出した特徴量との類似度が予め定めた同定閾値を超える人物特徴量が記憶されていない場合、人物追跡手段50は、新たな人物IDを発行し、人物画像から抽出した特徴量を人物特徴量として当該人物IDと対応付けて人物情報記憶手段40に記憶させるとともに、当該人物IDと対応付けて人物画像および人物位置を人物情報記憶手段40に記憶させる。なお、撮影部2を複数の監視カメラで構成する場合は、例えば、人物から最も近い監視カメラにて抽出した人物画像を記憶させればよい。   When the person feature amount whose similarity with the feature amount extracted from the person image exceeds a predetermined identification threshold is not stored, the person tracking unit 50 issues a new person ID, and the feature amount extracted from the person image Is stored in the personal information storage unit 40 in association with the personal ID as the personal feature amount, and is stored in the personal information storage unit 40 in association with the personal ID and the personal image and the position of the human. In addition, what is necessary is just to memorize | store the person image extracted by the surveillance camera closest to a person, for example, when comprising the imaging | photography part 2 with several surveillance cameras.

一方、人物画像から抽出した特徴量との類似度が同定閾値を超える人物特徴量が記憶されている場合、人物追跡手段50は、当該人物画像を当該人物特徴量が示す人物のものと同定する。人物追跡手段50は、人物画像を、同定した人物の人物IDおよび人物位置と紐づけて人物情報記憶手段40に記憶させる。また、人物追跡手段50は同定した人物の人物特徴量を人物画像から抽出した特徴量で更新する。   On the other hand, when a person feature whose similarity with the feature extracted from the person image exceeds the identification threshold is stored, the person tracking unit 50 identifies the person image as that of the person indicated by the person feature. . The person tracking means 50 stores the person image in the person information storage means 40 in association with the person ID and the person position of the identified person. Further, the person tracking means 50 updates the person feature amount of the identified person with the feature amount extracted from the person image.

また、人物追跡手段50は、いずれの人物画像とも同定されなかった人物特徴量を、監視領域外に移動して追跡を終えた人物のものであるとして人物情報記憶手段40から削除する。   Also, the person tracking means 50 deletes the person feature amount that has not been identified as any person image from the person information storage means 40 as being of the person who has moved to the outside of the monitoring area and finished tracking.

監視領域情報記憶手段41は、監視領域内の互いに異なる進入口を表す第一進入口領域および第二進入口領域と含んだ監視領域情報を予め記憶している。例えば、到着ロビーを監視領域とする本実施形態において、第一進入口領域が表す第一進入口は入国ゲートであり、第二進入口領域が表す第二進入口はそれ以外の扉、通路およびエスカレータの乗降口などである。監視領域は出迎えられる者と出迎える者とが専ら接触し、出迎えられる者は少なくとも第一進入口領域から出現した人物の中に含まれ、出迎える者は少なくとも第二進入口領域から出現した人物の中に含まれると推定できる。   The monitoring area information storage means 41 stores in advance monitoring area information including a first entrance area and a second entrance area representing different entrances in the monitoring area. For example, in the present embodiment in which the arrival lobby is the surveillance area, the first entrance represented by the first entrance area is the entry gate, and the second entrance represented by the second entrance area is the other door, aisle, and the like. It is the entrance of the escalator. The surveillance area is a contact between the person to be met and the person to be met, and the person to be greeted is at least included among the persons emerging from the first entrance area, and the person to be met is at least among the persons emerging from the second entrance area. It can be estimated that it is included in

例えば、人物位置を人物の最下端の三次元位置で表す本実施形態においては、第一進入口領域および第二進入口領域のそれぞれは、監視領域を模した仮想三次元空間における基準面上(床面上)の領域として設定される。図3はXYZ座標系で表される仮想三次元空間の基準面を模式的に表したものであり、基準面上に設定された第一進入口領域101、第二進入口領域102,103を例示している。   For example, in the present embodiment in which the position of the person is represented by the three-dimensional position of the lowermost end of the person, each of the first entrance area and the second entrance area is on the reference plane in the virtual three-dimensional space Set as the area of the floor surface). FIG. 3 schematically shows a reference plane of a virtual three-dimensional space represented by an XYZ coordinate system, and the first entrance area 101 and the second entrance area 102 and 103 set on the reference plane are shown. It is illustrated.

なお、人物位置を他の代表点とする場合は仮想三次元空間における三次元領域としてもよく、人物位置を監視画像の平面座標系の代表点とする場合は当該平面座標系の二次元領域とすることができる。   Note that when the position of the person is another representative point, it may be a three-dimensional area in the virtual three-dimensional space, and when the position of the person is a representative point of the plane coordinate system of the monitoring image, the two-dimensional area of the plane coordinate system can do.

グループ情報記憶手段42は、人物の組み合わせに関する情報を記憶する。本実施形態においてグループ情報記憶手段42には、追跡中の人物の全ペアに関し、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54による検出結果や判定結果の他に、これら各手段による中間データを記憶する。そのため、グループとして検出された人物のペアに関する情報の他に、未だグループとして検出されていない人物ペアの情報を含んで記憶するが、便宜上これらをグループ情報と称する。   The group information storage means 42 stores information on a combination of persons. In the present embodiment, the group information storage means 42 relates to all the pairs of persons under tracking, other than the detection results and the judgment results by the group detection means 51, the posture judgment means 52, the another action judgment means 53 and the suspicious person judgment means 54. The intermediate data by these means are stored. Therefore, in addition to the information on the pair of persons detected as the group, the information on the person pair not yet detected as the group is included and stored, but these are referred to as group information for convenience.

図6は図5の人物情報に対応するグループ情報300を例示している。   FIG. 6 illustrates the group information 300 corresponding to the person information of FIG.

人物ペアは、追跡中の人物のペアであり、人物IDの組み合わせで表される。   The person pair is a pair of persons being tracked, and is represented by a combination of person IDs.

近接時間は、グループ検出手段51が生成する中間データであり、各人物ペアが近接していた時間を表す。   The proximity time is intermediate data generated by the group detection unit 51, and represents the time during which each person pair was in proximity.

姿勢フラグは、姿勢判定手段52が生成する判定結果のデータであり、各人物ペアの姿勢が受け渡し姿勢と判定された場合は1、そうでない場合は0が設定される。   The posture flag is data of the determination result generated by the posture determination means 52, and is set to 1 when the posture of each person pair is determined to be the delivery posture, and 0 otherwise.

グループフラグは、グループ検出手段51が生成する検出結果のデータであり、各人物ペアがグループとして検出された場合は1、そうでない場合は0が設定される。   The group flag is data of the detection result generated by the group detection unit 51, and is set to 1 when each person pair is detected as a group, and 0 otherwise.

離間時間は、別行動判定手段53が生成する中間データであり、各人物ペアが離間していた時間を表す。離間時間はグループとして検出された人物ペアについてのみ計測される。   The separation time is intermediate data generated by the separate action determination means 53, and represents the time when each person pair is separated. The separation time is measured only for the person pair detected as a group.

別行動状態は、別行動判定手段53が生成する判定結果のデータであり、各人物ペアについて、確度の高い別行動が判定された場合は「あり」、確度の低い別行動が判定された場合は「警告」、そうでない場合は「なし」が設定される。別行動状態はグループとして検出された人物ペアについてのみ判定される。   The separate action state is data of the determination result generated by the separate action determination means 53, and "Yes" when another action with high accuracy is determined for each person pair, and another action with low accuracy is determined Is set to "Warning", otherwise it is set to "None". Another behavioral state is determined only for the person pair detected as a group.

不審度は、不審者判定手段54が生成する判定結果のデータであり、各人物ペアを構成する人物が不審者の可能性があると判定された場合は1以上の整数、そうでなければ0が設定される。本実施形態において不審度の値域は0〜2である。不審者の可能性があると判定された場合、不審者である確度が高いほど大きな値が設定される。   The suspiciousness degree is data of the judgment result generated by the suspicious person judging means 54, and it is an integer of 1 or more when it is judged that there is a possibility of a person who constitutes each person pair being a suspicious person, 0 otherwise Is set. In the present embodiment, the range of the degree of suspiciousness is 0-2. When it is determined that there is a possibility of a suspicious person, the larger the certainty of being a suspicious person, the larger the value is set.

グループ検出手段51は、複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離D1以下である近接位置関係を維持した人物のグループを不審者の可能性があるグループとして検出し、検出したグループの情報をグループ情報記憶手段42に記憶させる。   The group detection means 51 can be a group of persons of the person who maintained the proximity position relationship between the plurality of persons whose distance between the persons is equal to or less than the predetermined proximity judgment distance D1 within the predetermined suspicious behavior judgment time period. The information is detected as a group having sex and the information of the detected group is stored in the group information storage means 42.

具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻において追跡中である人物の組み合わせ(人物ペア)ごとに人物位置の間の距離(人物間距離)を算出してD1と比較することで近接位置関係であるか否かを判定し、近接位置関係であると判定された人物ペアごとに近接位置関係であると判定され続けた時間(近接時間)を計測して群行動判定時間T1および短期接触判定時間T2と比較し、近接時間がT1を超えており且つT2以下であるグループを検出する。   Specifically, the group detection unit 51 refers to the person information stored in the person information storage unit 40 and the group information stored in the group information storage unit 42, and the person being tracked at each time The distance between the positions of the persons (the distance between the persons) is calculated for each combination (person pair) and is compared with D1 to determine whether or not it is the proximity position relationship, and it is determined to be the proximity position relationship. The time (proximity time) that has been determined to be in close proximity relation for each person pair is measured and compared with the group action determination time T1 and the short-term contact determination time T2, the proximity time exceeds T1 and is less than or equal to T2 Detect a group

つまり、T1よりも長い時間、D1以下の距離に近接し続けていた人物同士は、単にすれ違った人物同士ではなく、会話や受け渡しなどの相手への関与があった人物同士であるとし、さらに、T2以下の短い時間だけ、D1以下の距離に近接し続けていた人物同士は、長時間人目に触れることを避けて接触した人物同士であるとし、これらの人物を不審者の可能性があるグループとして検出する。群行動判定時間T1は例えば歩いてすれ違う人物同士がD1以下の距離に近接してからD1を超える距離に離間するまでの典型的な所要時間にマージンを加えた長さに予め設定しておくことができ、短期接触判定時間T2は例えば受け渡しのみに要する時間にマージンを加えた長さに予め設定しておくことができ、近接判定距離D1は例えば腕2本分の長さにマージンを加えた距離に予め設定しておくことができる。   That is, it is assumed that the persons who continued to be close to the distance of D1 or less for a longer time than T1 are not simply the persons passing each other but the persons having the involvement in the other party such as conversation or delivery. Persons who continued to be close to the distance of D1 or less for a short time of T2 or less are those who have been in contact with each other, avoiding contact with the eyes for a long time, and these persons are groups that have the possibility of suspicious persons As detected. The group action determination time T1 is set, for example, in advance to a typical required time for the passing people to walk away from each other to a distance less than D1 and then to a distance exceeding D1 plus a margin. The short-term contact determination time T2 can be set in advance to, for example, the length of time required only for delivery plus a margin, and the proximity determination distance D1 is, for example, the length for two arms plus a margin The distance can be set in advance.

ここで、時間と距離だけで検出したグループには、たまたま並進しているだけの人物も含まれ得る。そこで、たまたま並進しているだけの人物をグループとして検出しないよう、グループ検出手段51は、出現した位置に対応する進入口領域が異なる人物とを含んだグループを検出する。具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報と監視領域情報記憶手段41に記憶されている監視領域情報とを参照し、各人物の出現位置を第一進入口領域および第二進入口領域の座標と比較することによって、当該人物の出現位置が第一進入口領域であるか、第二進入口領域であるかを判定する。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した人物の組み合わせのうち、出現位置が第一進入口領域である人物と出現位置が第二進入口領域である人物の組み合わせをグループとして検出する。   Here, a group detected only by time and distance may include a person who is merely translating by chance. Therefore, the group detection unit 51 detects a group including persons having different entry areas corresponding to the appearing positions so as not to detect a person who is merely translating by chance as a group. Specifically, the group detection unit 51 refers to the personal information stored in the personal information storage unit 40 and the monitoring area information stored in the monitoring area information storage unit 41, and the appearance position of each person is By comparing the coordinates of the first entrance area and the second entrance area, it is determined whether the appearance position of the person is the first entrance area or the second entrance area. And group detection means 51 is a person whose appearance position is a first entrance area among combinations of persons maintaining proximity position relation whose distance between persons is equal to or less than proximity determination distance D1 within the range of suspicious activity determination time And a combination of persons whose occurrence positions are the second entrance area is detected as a group.

また、相手への関与があった人物同士であることの確度を高めるために、両者が立ち止まったことをグループ検出の条件とすることもできる。すなわち、グループ検出手段51は、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離D0以下である場合にグループを検出する。なお、近接位置関係を維持した時間の全てにおいてD0以下の移動距離である必要はなく、所定の静止判定時間T3だけD0以下の移動距離であれば相手への関与があった人物同士であることを確認できる。   In addition, in order to increase the certainty of being persons who have been involved in the other party, it is possible to set that both have stopped as a condition for group detection. That is, the group detection unit 51 calculates the movement distance when the proximity position relationship is maintained for the person maintaining the proximity position relationship within the range of the suspicious activity determination time, and the movement distance is determined to be a predetermined stationary. A group is detected when the distance is less than or equal to D0. In addition, it is not necessary to be the movement distance of D0 or less in all of the time when maintaining the close positional relationship, and it is the persons who have participated in each other if it is the movement distance of D0 or less for the predetermined stationary judgment time T3. You can check

具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物位置から当該人物の近接位置関係が判定されている間の移動距離を算出してD0と比較し、移動距離がD0以下であった時間(静止時間)を計測してT3と比較する。静止判定距離D0は例えば人ひとりの幅程度の距離とすることができ、静止判定時間T3は例えば群行動判定時間T1と同程度の時間に予め設定しておくことができる。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した、出現位置が異なる進入口領域である人物の組み合わせのうち、T3よりも長い時間に移動距離がD0以下である人物を含む組み合わせをグループとして検出する。   Specifically, the group detection unit 51 refers to the person information stored in the person information storage unit 40, and the proximity position relationship of the person is determined from the person position of the person determined to be the proximity position relationship. The movement distance during the period is calculated and compared with D0, and the time (resting time) in which the movement distance is D0 or less is measured and compared with T3. The stationary determination distance D0 can be set to, for example, a distance of about the width of an individual, and the stationary determination time T3 can be set in advance to, for example, approximately the same time as the group behavior determination time T1. Then, the group detection unit 51 maintains the proximity position relationship in which the inter-person distance is equal to or less than the proximity determination distance D1 within the range of the suspicious activity determination time, and sets T3 among combinations of persons who are entrance regions having different appearance positions. A combination including a person whose movement distance is less than or equal to D0 is detected as a group in a longer time.

そして、グループ検出手段51は、グループ情報における、グループとして検出された人物ペアのグループフラグに1、グループとして検出されていない人物ペアのグループフラグに0を設定する。また、グループ検出手段51は、検出処理の中間結果として、人物情報における各人物の出現位置、静止時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの近接時間をグループ情報記憶手段42との間で入出力する。   Then, the group detection means 51 sets 1 in the group flag of the person pair detected as a group in the group information and 0 in the group flag of the person pair not detected as a group. Further, the group detection unit 51 appropriately inputs and outputs the appearance position of each person in the person information and the still time as the intermediate result of the detection process with the person information storage unit 40, and the proximity time of each person pair in the group information Are input to and output from the group information storage means 42.

また、受け渡しがあった人物同士であることの確度を高めるために、両者が立ち止まったことに加えて、或いは両者が立ち止まったことに代えて、受け渡しの姿勢をとったことをグループ検出の条件としてもよい。   In addition, in order to increase the certainty of the persons who had the delivery, in addition to the two having stopped, or in place of the two having stopped, taking the posture of the delivery as a condition of the group detection It is also good.

そのために、姿勢判定手段52は、監視画像のうちのグループの人物が近接位置関係を維持していた時の監視画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が受け渡し姿勢であるか否かを判定し、判定結果をグループ情報記憶手段42に記憶させる。そして、グループ検出手段51は、この判定結果を参照してグループの検出を行う。   Therefore, the posture determination means 52 compares the monitoring image when the person in the group in the monitoring image maintains the close positional relationship with the image feature of the delivery posture acquired in advance, and the posture of the person is It is determined whether or not it is a delivery attitude, and the determination result is stored in the group information storage unit 42. The group detection unit 51 detects a group with reference to the determination result.

具体的には、まず、姿勢判定手段52は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物画像から複数の部位を検出する。すなわち、姿勢判定手段52は、予め頭、右肩、右肘、右手首、左肩、左肘、左手首、右臀部、右膝、右足首、左臀部、左膝、左足首の各画像および各画像間の位置関係を学習した部位識別器であって記憶部4に記憶させている部位識別器に、近接位置関係であると判定された人物の人物画像を入力して、当該人物画像における部位の配置を特定する。   Specifically, first, the posture determination means 52 detects a plurality of parts from the person image of the person determined to be in the close positional relationship, with reference to the person information stored in the person information storage means 40. That is, the posture determination means 52 has images of the head, right shoulder, right elbow, right wrist, left shoulder, left elbow, left wrist, right hip, right knee, right ankle, left hip, left knee, left ankle and each image in advance. A human body image of a person determined to be in a close positional relationship is input to a part classifier that is a part classifier that has learned the positional relationship between images and stored in the storage unit 4, and a part in the human image Identify the placement of

次に、姿勢判定手段52は、特定した配置における右手および左手の部位形状モデルの位置を検出する。検出された位置は各人物の人物領域におけるローカルな位置である。姿勢判定手段52は、各人物の人物画像における右手および左手の位置に、当該人物の人物画像の代表位置である人物位置を加えて監視領域におけるグローバルな右手および左手の位置を算出する。なお、人物画像中の人物領域と複数の部位の形状モデルとの形状マッチングによって各部位の位置を検出してもよい。   Next, the posture determination means 52 detects the positions of the right-hand and left-hand part shape models in the specified arrangement. The detected position is a local position in the person area of each person. The posture determination means 52 adds the position of the person who is the representative position of the person image of the person to the positions of the right hand and left hand in the person image of each person to calculate the position of the global right hand and left hand in the monitoring area. The position of each part may be detected by shape matching between a person area in a person image and a shape model of a plurality of parts.

続いて、姿勢判定手段52は、近接位置関係であると判定された人物の間で監視領域における右手および左手の位置の組み合わせの距離を算出して、算出した距離の中から最小の距離を人物間での手の距離として求める。   Subsequently, the posture determination means 52 calculates the distance of the combination of the position of the right hand and the left hand in the monitoring area among the persons determined to be in the close positional relationship, and selects the minimum distance from among the calculated distances. Calculated as the distance between hands.

そして、姿勢判定手段52は、近接位置関係であると判定された人物の組み合わせについて、当該人物間での手の距離が予め定めた閾値D3以下である場合に、人物の組み合わせの姿勢が受け渡し姿勢であると判定して、グループ情報記憶手段42の姿勢フラグを1に更新する。なお、姿勢フラグの初期値は0であり、1に更新されなかった人物の組み合わせの姿勢フラグは0に維持される。また閾値D3はカバンの幅程度の長さに予め設定しておくことができる。   Then, the posture determination means 52 determines that the posture of the combination of persons is the delivery posture when the distance of the hand between the persons is less than or equal to a predetermined threshold D3 for the combination of the persons determined to be in the close positional relationship. The posture flag of the group information storage unit 42 is updated to one. The initial value of the posture flag is 0, and the posture flag of the combination of persons not updated to 1 is maintained at 0. The threshold value D3 can be set in advance to a length of about the width of the bag.

図7は、カバンを受け渡している人物AとCの人物画像510,520に対する姿勢判定処理の例を示している。図中の丸印は検出された部位の位置を示している。この例では、姿勢判定手段52によって、左側の人物Aの人物画像510から右手首511および左手首512が検出され、右側の人物Cの人物画像520から右手首521および左手首522が検出されている。そして、姿勢判定手段52は、これらのうち左手首512と右手首521の間の距離を人物間での手の距離として算出し、当該距離がD3以下であることから人物AとCの姿勢は受け渡し姿勢であると判定し、図6のグループ情報における人物ペア「A,C」の姿勢フラグの値を1に更新する。   FIG. 7 shows an example of the posture determination process for person images 510 and 520 of persons A and C who are delivering bags. The circle in the figure indicates the position of the detected site. In this example, the right wrist 511 and the left wrist 512 are detected from the person image 510 of the left person A by the posture determination means 52, and the right wrist 521 and the left wrist 522 are detected from the person image 520 of the right person C. There is. And the posture determination means 52 calculates the distance between the left wrist 512 and the right wrist 521 among them as the distance of the hand between persons, and since the distance is D3 or less, the postures of the persons A and C are It is determined that the posture is the delivery posture, and the value of the posture flag of the person pair “A, C” in the group information of FIG.

グループ検出手段51によって検出されるグループには、不審者グループのみならず単なる出迎えのグループも含まれている。別行動判定手段53は、検出されたグループを構成する人物がその後に別行動をとったか否かを判定することにより、別行動をとる不審グループと、別行動をとらないことが多い出迎えのグループの区別を可能にする。   The groups detected by the group detection means 51 include not only suspicious person groups but also simple pick-up groups. The separate action determination means 53 determines whether or not the persons who make up the detected group have taken another action after that, and thus a suspicious group taking another action and a group of a meeting who often does not take another action. To distinguish between

そのために別行動判定手段53は、少なくとも、グループの人物が近接判定距離D1よりも長く定められた離間判定距離D2を超える離間位置関係となった場合に当該グループに別行動が発生したと判定し、判定結果をグループ情報記憶手段42に記憶させる。具体的には、別行動判定手段53は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに人物間距離を算出してD2と比較することで当該人物ペアが離間位置関係であるか否かを判定する。例えば、離間判定距離D2は近接判定距離D1の3倍程度の長さなどとすることができる。   Therefore, the separate action determination unit 53 determines that the separate action has occurred in the group when at least a person in the group has a separated positional relationship in which the separation determination distance D2 longer than the close determination distance D1 is determined. The group information storage unit 42 stores the determination result. Specifically, the separate action determination means 53 refers to the person information stored in the person information storage means 40 and the group information stored in the group information storage means 42, and adds 1 to the group flag at each time. It is determined whether or not the person pair is in a separated positional relationship by calculating the inter-person distance for each person pair for which is set and comparing with D2. For example, the separation determination distance D2 may be about three times as long as the proximity determination distance D1.

図5には、或る時刻tにおける人物情報の中間データ200を例示している。また、図3には、図5で示した時刻tまでに、人物A〜Eを追跡して得られた人物位置を結んだ移動軌跡110〜114を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。   FIG. 5 illustrates intermediate data 200 of person information at a certain time t. Further, FIG. 3 schematically shows movement trajectories 110 to 114 in which the positions of the persons obtained by tracking the persons A to E are connected by the time t shown in FIG. 5. Further, FIG. 6 illustrates the group information 300 after 30 hours from time t.

これらを基にグループ検出手段51によるグループ検出の例を説明する。   An example of group detection by the group detection unit 51 will be described based on these.

図5の中間データ200および図3の移動軌跡110,112に示したように、人物Aの出現位置は入国ゲート101、人物Cの出現位置は入退室エリア102であり、互いに異なる。人物AとCは、時刻tにおいてD1以下の距離に近接し、図6のグループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物AとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「A,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「A,C」は検出条件を満たすものとされ、グループとして検出された。   As shown in the intermediate data 200 of FIG. 5 and the movement trajectories 110 and 112 of FIG. 3, the appearance position of the person A is the entry gate 101, and the appearance position of the person C is the entry / exit area 102, which are different from each other. The persons A and C are close to a distance equal to or less than D1 at time t, and the close positional relationship is maintained for 10 hours thereafter as shown in the close time of the group information 300 in FIG. Also, as shown in the stationary time of the intermediate data 200, at least the persons A and C were stationary for five times while the close positional relationship was maintained. Furthermore, as shown in the group information 300, it is determined that the person pair "A, C" has taken the delivery attitude, and 1 is set to the attitude flag of the pair. From these data, the person pair “A, C” is determined to satisfy the detection condition and is detected as a group.

また、中間データ200および移動軌跡111に示したように、人物Bの出現位置は入国ゲート101であり、人物Cの出現位置とは異なる。人物BとCは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「B,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「B,C」は検出条件を満たすものとされ、グループとして検出された。   Further, as shown in the intermediate data 200 and the movement locus 111, the appearance position of the person B is the entry gate 101, which is different from the appearance position of the person C. People B and C were close to a distance of D1 or less at time t, and as shown in the proximity time of group information 300, the proximity positional relationship was maintained for 10 hours thereafter. Also, as shown in the stationary time of the intermediate data 200, at least the persons B and C have been stationary for 5 hours while the close positional relationship is maintained. Furthermore, as shown in the group information 300, it is determined that the person pair "B, C" has taken delivery posture, and 1 is set to the posture flag of the pair. From these data, the person pair "B, C" is considered to satisfy the detection condition and is detected as a group.

また、中間データ200および移動軌跡113,114に示したように、人物Dの出現位置は入国ゲート101であり、人物Eの出現位置は入退室エリア103であり、互いに異なる。人物DとEは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「D,E」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「D,E」は検出条件を満たすものとされ、グループとして検出された。   Further, as shown in the intermediate data 200 and the movement trajectories 113 and 114, the appearance position of the person D is the entry gate 101, and the appearance position of the person E is the entry / exit area 103, which are different from each other. The persons D and E were close to a distance equal to or less than D1 at time t, and as shown in the proximity time of the group information 300, the proximity positional relationship was maintained for 10 hours thereafter. Also, as shown in the stationary time of the intermediate data 200, at least the persons B and C have been stationary for 5 hours while the close positional relationship is maintained. Furthermore, as shown in the group information 300, it is determined that the person pair "D, E" has taken delivery attitude, and 1 is set to the attitude flag of the pair. From these data, the person pair "D, E" is considered to satisfy the detection condition and is detected as a group.

ここで、不審者ではない出迎えのグループであっても、グループの中のひとりの歩みが遅れてグループの中の別のひとりがそれに気づかずに短時間だけ先に進んでしまうことが生じ得る。このような場合の誤報を防止するために別行動判定手段53は離間の際の移動方向および/または離間時間を確認することが好適である。   Here, even if it is a group that is not a suspicious person, it may happen that one step in the group is delayed and another one in the group moves ahead for a short time without noticing it. In order to prevent a false alarm in such a case, it is preferable that the separate behavior judging means 53 confirm the moving direction and / or the separation time at the time of separation.

すなわち、別行動判定手段53は、離間位置関係となったグループについて、近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度rを超える場合に別行動が発生したと判定する。   That is, the separate action determination means 53 calculates the movement direction difference of the person from the proximity position relation to the separation position relation for the group having the separation position relation, and the movement direction difference is a predetermined another action determination angle If it exceeds r, it is determined that another action has occurred.

また、別行動判定手段53は、グループの人物が離間位置関係を継続した離間時間を計測し、離間時間が所定の別行動判定時間T4を超えた場合に当該グループに別行動が発生したと判定する。   Further, the separate action determination means 53 measures the separation time in which a person in the group continues the separation positional relationship, and determines that the separate action has occurred in the group when the separation time exceeds the predetermined separate action determination time T4. Do.

具体的には、別行動判定手段53は、人物情報とグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに、人物間距離がD2を超えたときの両者の直近移動方向の差を離間時の移動方向差として算出して別行動判定角度rと比較するとともに、人物間距離がD2を超えている時間を離間時間として計測してT4と比較し、移動方向差がrを超え、且つ離間時間がT4を超えた場合に当該人物ペアに別行動が発生したと判定する。別行動判定角度rは例えば90度とすることができ、離間時間は例えば数秒程度の長さとすることができる。   Specifically, the separate action determination means 53 refers to the person information and the group information, and the distance between persons exceeds D2 for each person pair whose group flag is set to 1 at each time. The difference between the most recent movement direction of the two is calculated as the movement direction difference at the time of separation and compared with another behavior determination angle r, and the time when the distance between persons exceeds D2 is measured as the separation time and compared with T4. When the movement direction difference exceeds r and the separation time exceeds T4, it is determined that another action has occurred in the person pair. The separate action determination angle r may be, for example, 90 degrees, and the separation time may be, for example, several seconds.

なお、上記説明では、移動方向差がrを超え且つ離間時間がT4を超えることを条件としたが、一方のみの成立を条件とし、移動方向差がrを超えた場合に別行動が発生したと判定してもよいし、離間時間がT4を超えた場合に別行動が発生したと判定してもよい。また、2以上の条件成立を管理して成立した条件別にランク付けしてもよい。   In the above description, although the moving direction difference exceeds r and the separation time exceeds T4, another action occurs when the moving direction difference exceeds r on condition that only one of the moving conditions is satisfied. It may be determined that the other action has occurred when the separation time exceeds T4. Further, two or more conditions may be managed and ranked according to the satisfied conditions.

本実施形態では、移動方向差がrを超え且つ離間時間がT4を超えた場合と、離間時間がT4を超えた場合に別行動が発生したと判定し、前者を後者よりも確信度が高い状態として管理する。   In this embodiment, it is determined that another action has occurred when the movement direction difference exceeds r and the separation time exceeds T4, and when the separation time exceeds T4, the former has higher confidence than the latter. Manage as a state.

そして、別行動判定手段53は、グループ情報における、移動方向差がrを超え且つ離間時間がT4を超えた人物ペアの別行動状態に「あり」、離間時間がT4を超えた且つ移動方向差が未だrを超えていない人物ペアの別行動状態に「警告」、それ以外の人物ペアの別行動状態に「なし」を設定する。また、別行動判定手段53は、判定処理の中間結果として、人物情報における各人物の離間時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの直近移動方向をグループ情報記憶手段42との間で入出力する。   Then, the separate behavior determining means 53 determines that the moving direction difference exceeds r and the separation time exceeds T4 in the group information in the separate behavior state of the pair of persons, the separation time exceeds T4, and the movement direction difference is Set “Warning” to another behavior state of the person pair whose r has not yet exceeded r, and “none” to the other behavior state of the other person pair. Further, the separate action determination means 53 appropriately inputs / outputs the separation time of each person in the person information to / from the person information storage means 40 as an intermediate result of the determination process, and calculates the latest movement direction of each person pair in group information. Input / output with the group information storage means 42.

不審者判定手段54は、少なくとも別行動判定手段53による判定結果を参照して、別行動の発生が判定されたグループの人物を不審者と判定し、不審者の情報(不審者情報)を生成して不審者情報出力手段31に出力する。   The suspicious person determination means 54 determines that the person in the group in which the occurrence of another action is determined is a suspicious person with reference to at least the determination result by the separate action determination means 53, and generates information (suspicious person information) of the suspicious person Then, the information is output to the suspicious person information output means 31.

具体的には、不審者判定手段54は、グループ情報記憶手段42に記憶されたグループ情報を参照し、別行動状態が「あり」または「警告」である人物ペアを構成する人物を不審者と判定して、グループ情報記憶手段42のグループ情報における当該人物ペアの不審度に1以上の値を設定する。このとき、不審者判定手段54は、別行動状態が「警告」である場合よりも「あり」である場合の方が不審者である確度が高いとして、「警告」である場合の不審度を1、「あり」である場合の不審度を2に設定する。   Specifically, the suspicious person determination means 54 refers to the group information stored in the group information storage means 42, and sets a person who constitutes a pair of persons whose other action state is "Yes" or "Warning" with the suspicious person. It determines and sets one or more values to the suspiciousness degree of the said person pair in the group information of the group information storage means 42. At this time, the suspicious person determination means 54 determines that the degree of suspiciousness is “warning”, assuming that the likelihood of being a suspicious person is higher when the other behavior state is “yes” than when the other action state is “warning”. 1. Set the suspiciousness degree when it is "Available" to 2.

ここで、受け渡しを行う不審者は人目を避けるために監視領域の滞在時間を短く済ませる傾向があると考えられる。そこで、不審者判定手段54は、人物の前記監視領域における滞在時間を計測し、別行動の発生が判定されたグループの人物の滞在時間が所定の短期滞在判定時間T5以下である場合に当該人物を不審者と判定することもできる。短期滞在判定時間T5は例えば事前の実験等を通じて得られた監視領域の平均滞在時間よりも短い時間に予め設定される。   Here, it is considered that the suspicious person performing the delivery tends to shorten the stay time of the monitoring area in order to avoid the eyes. Therefore, the suspicious person determination means 54 measures the stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of another action is determined is the predetermined short stay determination time T5 or less. Can also be determined as a suspicious person. The short-term stay determination time T5 is preset to a time shorter than the average stay time of the monitoring area obtained through, for example, prior experiments.

或いは、滞在時間の短さに応じて不審者である確度を高めることも好適である。この場合、例えば、不審者判定手段54は、別行動状態が「あり」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を3に設定し、別行動状態が「あり」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を2に設定する。また、例えば、不審者判定手段54は、さらに別行動状態が「警告」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を2に設定し、別行動状態が「警告」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を1に設定する。   Alternatively, it is also preferable to increase the certainty of being a suspicious person according to the short stay time. In this case, for example, the suspicious person determination means 54 sets the suspiciousness degree of the pair to 3 when the stay time of any of the persons who make up the person pair whose separate action state is “A” is equal to or less than T5. The suspiciousness degree of the pair is set to 2 when the stay time of the person who constitutes the person pair whose other action state is "yes" exceeds T5. Further, for example, the suspicious person determination means 54 sets the suspiciousness degree of the pair to 2 when the stay time of any of the persons constituting the person pair whose another action state is “warning” is T5 or less. The suspiciousness degree of the pair is set to 1 when the stay time of the persons constituting the person pair whose other action state is "warning" exceeds T5 in any case.

また、不審者判定手段54は、不審度が1以上である人物グループを構成する人物の人物情報を基に、監視員が当該人物の行動等を視認可能な不審者情報を生成して、不審者情報出力手段31に出力する。例えば、不審者情報は、監視画像、該当する人物ペアの不審度、および該当する人物の人物画像を合成した画像とすることができる。   In addition, the suspicious person determination means 54 generates suspicious person information in which the monitoring person can visually recognize the action of the person based on the person information of the persons constituting the person group having a degree of suspiciousness of 1 or more. It is outputted to the person information output means 31. For example, the suspicious person information can be an image obtained by combining the monitoring image, the suspiciousness degree of the corresponding person pair, and the person image of the corresponding person.

不審者情報出力手段31は、不審者判定手段54から入力された不審者情報を通信網を介して表示部6に伝送する。そして、不審者情報は、表示部6によって表示され、監視員により視認される。   The suspicious person information output unit 31 transmits the suspicious person information input from the suspicious person determination unit 54 to the display unit 6 via the communication network. Then, the suspicious person information is displayed by the display unit 6 and is visually recognized by the surveillance staff.

図5には、或る時刻tの30時刻後における人物情報の中間データ201を例示している。また、図4には、時刻tからその30時刻後までに、人物A〜Eを追跡して得られた人物位置を結んだ移動軌跡210〜214を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。   FIG. 5 exemplifies the intermediate data 201 of the personal information 30 hours after a certain time t. Further, FIG. 4 schematically shows movement trajectories 210 to 214 connecting person positions obtained by tracking the persons A to E from time t to 30 hours later. Further, FIG. 6 illustrates the group information 300 after 30 hours from time t.

これらを基に別行動判定手段53による別行動判定処理と不審者判定手段54による不審者判定の例を説明する。   Based on these, an example of another behavior determination processing by the other behavior determination means 53 and a suspicious person determination by the suspicious person determination means 54 will be described.

グループ情報300に示したように、グループフラグに1が設定された人物ペア「A,C」、「B,C」および「D,E」がグループとして検出されている。   As shown in the group information 300, person pairs "A, C", "B, C" and "D, E" for which 1 is set in the group flag are detected as a group.

そのうちの人物ペア「A,C」は、移動軌跡210,211に示したように離間時の移動方向差が大きく、グループ情報300の離間時間に示したように15時刻の間、離間位置関係を継続している。これらのデータから人物ペア「A,C」には別行動が発生したと判定され、別行動状態に「あり」が設定された。そして、別行動状態が「あり」に設定されたことを受けて、人物ペア「A,C」の不審度が2に設定された。   Among them, the person pair “A, C” has a large movement direction difference at the time of separation as shown by the movement trajectories 210 and 211, and as shown at the separation time of the group information 300, continuing. From these data, it is determined that another action has occurred for the person pair "A, C", and "A" is set as the other action state. Then, the suspiciousness degree of the person pair "A, C" is set to 2 in response to the other behavior state being set to "present".

人物ペア「B,C」は、移動軌跡211,212から分かるように離間時の移動方向差が大きいが、グループ情報300に示したように離間時間は未だ5時刻である。これらのデータから人物ペア「B,C」には別行動が発生したと判定され、未だ離間時間が短いため別行動状態に「警告」が設定された。そして、別行動状態が「警告」に設定されたことを受けて、人物ペア「B,C」の不審度が1に設定された。   The person pair “B, C” has a large movement direction difference at the time of separation as seen from the movement trajectories 211 and 212, but as shown in the group information 300, the separation time is still five times. From these data, it is determined that another action has occurred for the person pair "B, C", and "warning" is set to the other action state because the separation time is still short. Then, the suspiciousness degree of the person pair "B, C" is set to 1 in response to the other behavior state being set to "Warning".

人物ペア「D,E」は、移動軌跡213,214から分かるように離間時の移動方向差が小さいため、別行動の発生が判定されない。そのため、人物ペア「D,E」の別行動状態は「なし」のままとなり、人物ペア「B,C」の不審度は0のままとなる。   Since the movement direction difference at the time of separation is small as the person pair “D, E” can be seen from the movement trajectories 213 and 214, the occurrence of another action is not determined. Therefore, the another behavior state of the person pair "D, E" remains "none", and the suspiciousness degree of the person pair "B, C" remains zero.

図8〜図12のフローチャートを参照して画像監視装置1の動作を説明する。   The operation of the image monitoring device 1 will be described with reference to the flowcharts of FIGS.

画像監視装置1の管理者は監視領域が無人であることを確認して画像監視装置1を起動する。起動後、撮影部2は監視領域を所定時間間隔で撮影して監視画像を順次出力する。通信部3は画像取得手段30として動作し、監視画像は画像取得手段30を介して画像処理部5に順次入力される。   The administrator of the image monitoring device 1 confirms that the monitoring area is unmanned and starts the image monitoring device 1. After activation, the imaging unit 2 captures the monitoring area at predetermined time intervals and sequentially outputs monitoring images. The communication unit 3 operates as the image acquisition unit 30, and the monitoring image is sequentially input to the image processing unit 5 via the image acquisition unit 30.

画像処理部5では監視画像が取得されるたびに図8のステップS1〜S5の処理が繰り返される。   The image processing unit 5 repeats the processing of steps S1 to S5 of FIG. 8 each time a monitoring image is acquired.

画像取得手段30を介して監視画像が取得されると(S1)、画像処理部5が人物追跡手段50等として動作するとともに記憶部4が人物情報記憶手段40等として動作し、監視画像中の各人物を追跡する(S2)。   When a surveillance image is acquired via the image acquisition unit 30 (S1), the image processing unit 5 operates as a person tracking unit 50 etc. and the storage unit 4 operates as a person information storage unit 40 etc. Track each person (S2).

図9を参照してステップS2の人物追跡処理を説明する。人物追跡処理の過程においては、画像処理部5がグループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54としても動作するとともに、記憶部4が監視領域情報記憶手段40およびグループ情報記憶手段42としても動作し、適宜、グループ検出や別行動判定、不審者判定のための情報生成が行われる。   The person tracking process of step S2 will be described with reference to FIG. In the process of person tracking processing, the image processing unit 5 also operates as a group detection unit 51, a posture determination unit 52, another action determination unit 53, and a suspicious person determination unit 54, and the storage unit 4 is a monitoring area information storage unit 40. Also, it operates as the group information storage unit 42, and information generation for group detection, another action determination, and a suspicious person determination is appropriately performed.

まず、人物追跡手段50は、監視画像と背景画像との差分処理により監視画像から人物画像を抽出して人物位置(現在位置)を特定する(S211)。また、ステップS211において人物追跡手段50は、適宜、背景画像の更新を行う。なお、起動直後から所定時間が経過するまで、ステップS211において人物追跡手段50は入力された監視画像を平均化するなどして背景画像を生成し、記憶部4に記憶させる処理を行うだけで、ステップS212〜S226の処理を省略する。   First, the person tracking means 50 extracts a person image from the surveillance image by differential processing between the surveillance image and the background image, and identifies the person position (current position) (S211). In addition, in step S211, the person tracking unit 50 appropriately updates the background image. It should be noted that the person tracking means 50 generates a background image by averaging the input monitor image or the like in step S211 and stores the image in the storage unit 4 until the predetermined time elapses from immediately after the activation. The processing of steps S212 to S226 is omitted.

次に、人物追跡手段50は、人物画像のそれぞれから特徴量を抽出して、人物情報記憶手段40に記憶している追跡中の人物(追跡人物)の人物特徴量と比較して人物画像の人物IDを特定することで、人物の対応付けを行う(S212)。このとき、人物追跡手段50は、いずれの追跡人物とも対応づかない人物画像には新規の人物IDを付与する。   Next, the person tracking means 50 extracts the feature amount from each of the person images, and compares it with the person feature amount of the person (tracking person) being tracked stored in the person information storage means 40 By specifying the person ID, the person is associated (S212). At this time, the person tracking unit 50 assigns a new person ID to a person image that does not correspond to any of the persons being tracked.

続いて、人物追跡手段50は、新規の人物(新規人物)を含めた追跡人物を順次注目人物に設定してステップS213〜S226のループ処理を実行する。   Subsequently, the person tracking unit 50 sequentially sets the tracking person including the new person (new person) as the target person and executes the loop process of steps S213 to S226.

追跡人物のループ処理において、まず、人物追跡手段50は、注目人物が新規人物であるか否かを確認する(S214)。人物情報記憶手段40に記録がなければ新規人物である。注目人物が新規人物であれば(ステップS214にてyes)、処理をステップS215に進める。   In the loop process of the tracking person, first, the human tracking means 50 checks whether the noted person is a new person (S214). If there is no record in the person information storage means 40, it is a new person. If the focused person is a new person (yes in step S214), the process proceeds to step S215.

ステップS215においては新規人物の人物情報とグループ情報の追記が行われる。すなわち、人物追跡手段50は、ステップS212で付与した注目人物の人物ID、ステップS211で抽出した人物画像、ステップS212で抽出した人物特徴量を有する人物情報を人物情報記憶手段40に追加記憶させる。また、グループ検出手段51は注目人物の人物IDとその他の追跡人物の人物IDとを組み合わせた新規の人物ペアのグループ情報をグループ情報記憶手段42に追加記憶させる。   In step S215, the addition of the person information of the new person and the group information is performed. That is, the person tracking means 50 causes the person information storage means 40 to additionally store the person ID of the notable person given in step S212, the person image extracted in step S211, and the person information having the person feature amount extracted in step S212. Further, the group detection unit 51 causes the group information storage unit 42 to additionally store group information of a new person pair in which the person ID of the person of interest and the person ID of the other tracking person are combined.

続くステップS216においては新規人物の人物情報とグループ情報が初期化される。すなわち、グループ検出手段51はステップS215で追記された人物情報における出現位置を空欄、静止時間を0に更新する。また、グループ検出手段51はステップS215で追記されたグループ情報における近接時間を0、グループフラグを0に更新する。また、姿勢判定手段52は当該グループ情報における姿勢判定フラグを0に更新する。また、別行動判定手段53は、当該人物情報における直近移動方向を空欄に更新し、当該グループ情報における離間時間を0、別行動状態を「なし」に更新する。また、不審者判定手段54は当該人物情報における滞在時間を0に更新し、当該グループ情報における不審度を0に更新する。   In the subsequent step S216, personal information and group information of the new person are initialized. That is, the group detection unit 51 updates the appearance position in the personal information added at step S215 as a blank, and updates the stillness time to zero. Further, the group detection unit 51 updates the proximity time in the group information additionally written in step S215 to 0 and the group flag to 0. Further, the posture determination means 52 updates the posture determination flag in the group information to zero. Further, the separate action determination means 53 updates the latest movement direction in the person information to blanks, and updates the separation time in the group information to 0, and the separate action state to "none". Also, the suspicious person determination means 54 updates the stay time in the personal information to 0, and updates the suspiciousness degree in the group information to 0.

続くステップS217において、グループ検出手段51は注目人物の現在位置を、監視領域情報記憶手段41に記憶されている監視領域情報と比較して、注目人物の出現位置が第一進入口領域であるか第二進入口領域であるかを判定し、判定結果を人物情報記憶手段40に記憶させる。本実施形態では、第一進入口領域であれば「入国ゲート」、第二進入口領域であれば「入退室エリア」という文字列が記憶される。   In the subsequent step S217, the group detection unit 51 compares the current position of the person of interest with the monitoring area information stored in the monitoring area information storage unit 41, and determines whether the appearance position of the person of interest is the first entry area It is determined whether it is the second entrance area and the determination result is stored in the person information storage unit 40. In the present embodiment, a character string “entry gate” is stored in the first entrance area, and a character string “entry / exit area” is stored in the second entrance area.

ステップS217の判定を終えると処理はステップS226に進められる。   When the determination in step S217 is finished, the process proceeds to step S226.

一方、注目人物が新規人物でない場合(ステップS214にてno)、処理はステップS218に進められる。   On the other hand, if the noted person is not a new person (NO in step S214), the process proceeds to step S218.

ステップS218において人物追跡手段50およびグループ検出手段51は注目人物が消失(すなわち監視領域外に移動)したか否かを確認する。消失した場合(ステップS218にてyes)、人物追跡手段50が注目人物の人物情報を人物情報記憶手段40から削除するとともに、グループ検出手段51が注目人物を含む人物ペアのグループ情報をグループ情報記憶手段42から削除して(S225)、処理はステップS226に進められる。   In step S218, the person tracking unit 50 and the group detection unit 51 confirm whether or not the person of interest has disappeared (ie, moved out of the monitoring area). When it disappears (yes in step S218), the person tracking means 50 deletes the person information of the noted person from the person information storage means 40, and the group detection means 51 stores the group information of the person pair including the noted person in the group information After deleting from the means 42 (S225), the process proceeds to step S226.

他方、注目人物が消失していない場合(ステップS218にてno)、処理はステップS219に進められる。   On the other hand, if the noted person has not disappeared (NO in step S218), the process proceeds to step S219.

ステップS219において、グループ検出手段51は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動距離を算出して静止判定距離D0と比較する。移動距離がD0以下である場合(ステップS219にてyes)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を1時刻だけインクリメントする(S220)。他方、移動距離がD0を超えている場合(ステップS219にてno)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を0にリセットして(S221)処理をステップS222に進める。   In step S219, the group detection unit 51 determines the stillness by calculating the movement distance from the person position one time before the noted person stored in the person information storage unit 40 and the current position of the noted person identified in step S211. Compare with distance D0. If the movement distance is D0 or less (yes in step S219), the group detection unit 51 increments the stillness time of the noted person stored in the person information storage unit 40 by one time (S220). On the other hand, when the movement distance exceeds D0 (No in step S219), the group detection unit 51 resets the stillness time of the noted person stored in the person information storage unit 40 to 0 (S221). Proceed to step S222.

続くステップS222において、不審者判定手段54は、人物情報記憶手段40に記憶されている注目人物の滞在時間を1時刻だけインクリメントする。   In the subsequent step S222, the suspicious person determination means 54 increments the stay time of the noted person stored in the person information storage means 40 by one time.

続くステップS223において、別行動判定手段53は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動方向を算出して、算出した移動方向を人物情報記憶手段40における注目人物の直近移動方向に上書き記憶させる。   In the following step S223, the separate action determination means 53 calculates the movement direction from the person position one time before the attention person stored in the person information storage means 40 and the current position of the attention person specified in step S211. The calculated moving direction is overwritten and stored in the nearest moving direction of the noted person in the person information storage unit 40.

続くステップS224において、人物追跡手段50は、ステップS211で特定した注目人物の現在位置を人物情報記憶手段40における注目人物の現在位置に上書き記憶させる。   In the following step S224, the person tracking means 50 overwrites and stores the current position of the noted person specified in step S211 in the current position of the noted person in the person information storage means 40.

続くステップS226において人物追跡手段50は新規人物を含めた追跡人物の全てを注目人物として処理し終えたか否かを確認する。未処理の追跡人物がある場合(ステップS226にてno)、処理はステップS213に戻されて次の追跡人物の処理が行われる。他方、全ての追跡人物を処理し終えた場合(ステップS226にてyes)、処理は図8のステップS3へと進められる。   In the subsequent step S226, the person tracking means 50 confirms whether or not all of the chase persons including the new person have been processed as the target person. If there is an unprocessed chase person (No in step S226), the process returns to step S213, and the process of the next chase person is performed. On the other hand, if all the tracking persons have been processed (YES in step S226), the process proceeds to step S3 in FIG.

ステップS3においては、人物追跡処理によって更新された人物情報およびグループ情報を基にしてグループ検出処理が行われる。   In step S3, a group detection process is performed based on the person information and the group information updated by the person tracking process.

図10を参照してステップS3のグループ検出処理を説明する。グループ検出処理の過程においては、画像処理部5がグループ検出手段51および姿勢判定手段52として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。   The group detection process of step S3 will be described with reference to FIG. In the process of group detection processing, the image processing unit 5 operates as the group detection unit 51 and the posture determination unit 52, and the storage unit 4 operates as the person information storage unit 40 and the group information storage unit 42.

グループ検出手段51は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS311〜S323のループ処理を実行する。   The group detection unit 51 reads group information from the group information storage unit 42, sequentially sets a person pair included in the group information as a target pair, and executes the loop process of steps S311 to S323.

人物ペアのループ処理において、まず、グループ検出手段51は、注目ペアのグループフラグが0であるか否かを確認する(S312)。グループフラグが0であれば注目ペアが不審者のグループの可能性があるか否かが未定であるとして(ステップS312にてyes)、処理をステップS313に進める。他方、グループフラグが1である場合(ステップS312にてno)、ステップS313〜S322は省略されて処理はステップS323に進められる。   In the loop processing of a person pair, first, the group detection unit 51 confirms whether or not the group flag of the target pair is 0 (S312). If the group flag is 0, it is not determined whether or not there is a possibility of the group of suspicious individuals for the pair of attentions (yes in step S312), and the process proceeds to step S313. On the other hand, when the group flag is 1 (no in step S312), steps S313 to S322 are omitted, and the process proceeds to step S323.

ステップS313において、グループ検出手段51は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の出現位置を比較する。両者の出現した進入口が異なる場合(ステップS313にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS314に進める。他方、出現した進入口が同一である場合(ステップS313にてno)、ステップS314〜S322は省略されて処理はステップS323に進められる。   In step S313, the group detection unit 51 reads the personal information of each of the persons who form the target pair from the personal information storage unit 40, and compares the appearance positions of the two. If the two entrances are different (yes in step S313), the group detection unit 51 determines that there is a possibility of a group of suspicious individuals and advances the process to step S314. On the other hand, if the appeared entrances are the same (NO in step S313), steps S314 to S322 are omitted, and the process proceeds to step S323.

ステップS314においてグループ検出手段51は注目ペアを構成する人物それぞれの静止時間を静止判定時間T3と比較する。両者の静止時間が共にT3を超えている場合(ステップS314にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS315に進める。他方、静止時間の一方がT3以下であった場合(ステップS314にてno)、ステップS315〜S322は省略されて処理はステップS323に進められる。   In step S314, the group detection unit 51 compares the stillness time of each of the persons constituting the noted pair with the stillness judgment time T3. If both stationary times exceed T3 (yes in step S314), the group detection unit 51 advances the process to step S315 on the assumption that there is a possibility of a group of suspicious persons. On the other hand, if one of the stationary times is T3 or less (NO in step S314), steps S315 to S322 are omitted, and the process proceeds to step S323.

ステップS315において、グループ検出手段51は、注目ペアを構成する人物の現在位置から人物間距離を算出して人物間距離を近接判定距離D1と比較する。人物間距離がD1以下である場合(ステップS315にてyes)、グループ検出手段51はグループ情報記憶手段42に記憶されている注目ペアの近接時間を1時刻だけ増加させて(S316)、処理をステップS317に進める。他方、人物間距離がD1を超えている場合(ステップS315にてno)、ステップS316〜S322は省略されて処理はステップS323に進められる。   In step S315, the group detection unit 51 calculates the inter-person distance from the current position of the persons constituting the target pair, and compares the inter-person distance with the proximity determination distance D1. When the inter-person distance is equal to or less than D1 (yes in step S315), the group detection unit 51 increases the proximity time of the target pair stored in the group information storage unit 42 by one time (S316). Proceed to step S317. On the other hand, when the inter-person distance exceeds D1 (NO in step S315), steps S316 to S322 are omitted, and the process proceeds to step S323.

ステップS317において、姿勢判定手段52は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置と人物画像から注目ペアの姿勢が受け渡し姿勢であるか否かを判定する。注目ペアの姿勢が受け渡し姿勢である場合(ステップS317にてyes)、姿勢判定手段52は、グループ情報記憶手段42に記憶されている注目ペアの姿勢フラグを1に更新する(S318)。他方、注目ペアの姿勢が受け渡し姿勢でなかった場合(ステップS317にてno)、ステップS318の処理は省略される。   In step S317, the posture determination means 52 reads out the personal information of each of the persons constituting the attention pair from the person information storage means 40, and determines whether the posture of the attention pair is the delivery attitude from the current position of both and the person image. judge. If the posture of the attention pair is the delivery posture (yes in step S317), the posture determination means 52 updates the posture flag of the attention pair stored in the group information storage means 42 to 1 (S318). On the other hand, when the posture of the attention pair is not the delivery posture (NO in step S317), the process of step S318 is omitted.

ステップS319〜S321において、グループ検出手段51は、グループ情報記憶手段42から注目ペアのグループ情報を改めて読み出すとともに、人物情報記憶手段40から注目ペアを構成する人物それぞれの人物情報を改めて読み出して、これらの情報を基に注目ペアが不審者のグループの可能性があるか否かを判定する。   In steps S319 to S321, the group detection unit 51 newly reads out the group information of the noted pair from the group information storage unit 42, and reads again the person information of each of the persons constituting the noted pair from the person information storage unit 40. Based on the information in, it is determined whether or not the focused pair is a possibility of a group of suspicious persons.

ステップS319においてグループ検出手段51は注目ペアの姿勢フラグが1であるか否かを確認する。姿勢フラグが1である場合(ステップS319にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS320に進める。他方、姿勢フラグが0である場合(ステップS319にてno)、ステップS320〜S322は省略されて処理はステップS323に進められる。   In step S319, the group detection unit 51 confirms whether the posture flag of the target pair is one. If the posture flag is 1 (yes in step S319), the group detection unit 51 advances the process to step S320 on the assumption that there is the possibility of a group of suspicious persons. On the other hand, when the posture flag is 0 (no in step S319), steps S320 to S322 are omitted, and the process proceeds to step S323.

ステップS320においてグループ検出手段51は注目ペアの近接時間を群行動判定時間T1と比較する。近接時間がT1を超えている場合(ステップS320にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS321に進める。他方、近接時間がT1以下である場合(ステップS320にてno)、ステップS321,S322は省略されて処理はステップS323に進められる。   In step S320, the group detection unit 51 compares the proximity time of the target pair with the group behavior determination time T1. If the proximity time exceeds T1 (yes in step S320), the group detection unit 51 determines that there is a possibility of a group of suspicious individuals, and advances the process to step S321. On the other hand, if the proximity time is equal to or less than T1 (NO in step S320), steps S321 and S322 are omitted, and the process proceeds to step S323.

ステップS321においてグループ検出手段51は注目ペアの近接時間を短期接触判定時間T2と比較する。近接時間がT2以下である場合(ステップS321にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして、グループ情報記憶手段42に記憶されている注目ペアのグループフラグを1に更新する(S322)。他方、近接時間がT2を超えている場合(ステップS321にてno)、不審者のグループである可能性は無いとしてステップS322は省略されて処理はステップS323に進められる。   In step S321, the group detection unit 51 compares the proximity time of the target pair with the short-term contact determination time T2. When the proximity time is equal to or less than T2 (yes in step S321), the group detection unit 51 determines that there is a possibility of the group of the suspicious person, and the group flag of the attention pair stored in the group information storage unit 42 is 1 To (S322). On the other hand, if the proximity time exceeds T2 (NO in step S321), step S322 is omitted because there is no possibility that the group is a suspicious person, and the process proceeds to step S323.

ステップS323においてグループ検出手段51はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS323にてno)、処理はステップS311に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS323にてyes)、処理は図8のステップS4へと進められる。   In step S323, the group detection unit 51 confirms whether all the person pairs included in the group information have been processed as the target pair. If there is an unprocessed person pair (No in step S323), the process returns to step S311 to perform the process of the next person pair. On the other hand, if all of the person pairs have been processed (YES in step S323), the process proceeds to step S4 in FIG.

ステップS4においては、グループ検出処理によって検出されたグループの人物に別行動が発生したか否かを判定する別行動判定処理が行われる。   In step S4, another action determination process is performed to determine whether another action has occurred for the person in the group detected by the group detection process.

図11を参照してステップS4の別行動判定処理を説明する。別行動判定処理の過程においては、画像処理部5が別行動判定手段53として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。   Another action determination process of step S4 will be described with reference to FIG. In the process of the separate action determination process, the image processing unit 5 operates as the separate action determination unit 53, and the storage unit 4 operates as the person information storage unit 40 and the group information storage unit 42.

別行動判定手段53は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS411〜S422のループ処理を実行する。   The separate action determination unit 53 reads out the group information from the group information storage unit 42, sequentially sets the person pair included in the group information as a target pair, and executes the loop process of steps S411 to S422.

人物ペアのループ処理において、まず、別行動判定手段53は、注目ペアのグループフラグが1であるか否かを確認する(S412)。グループフラグが1であれば(ステップS412にてyes)、処理をステップS413に進める。他方、グループフラグが0であれば判定対象でないとして(ステップS412にてno)、処理をステップS422に進める。   In the loop processing of the person pair, the separate behavior determination means 53 first confirms whether the group flag of the attention pair is 1 (S412). If the group flag is 1 (yes in step S412), the process proceeds to step S413. On the other hand, if the group flag is 0, it is not determined (No in step S412), and the process proceeds to step S422.

また、別行動判定手段53は、注目ペアの別行動状態が「なし」または「警告」であるかを確認する(S413)。別行動状態が「なし」または「警告」であれば判定対象であるとして(ステップS413にてyes)、処理をステップS414に進める。他方、別行動状態が「あり」であれば判定済みであるとして(ステップS413にてno)、処理をステップS422に進める。   Further, the other-action determining means 53 confirms whether the another-action state of the attention pair is “none” or “warning” (S413). If another behavior state is "none" or "warning", the process proceeds to step S414 as a determination target (yes in step S413). On the other hand, if it is determined that the other behavior state is "YES" (NO in step S413), the process proceeds to step S422.

ステップS414において、別行動判定手段53は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置から人物間距離を算出して人物間距離を離間判定距離D2と比較する。人物間距離がD2を超えている場合(ステップS414にてyes)、別行動判定手段53はグループ情報記憶手段42に記憶されている注目ペアの離間時間を1時刻だけ増加させて(S417)、処理をステップS418に進める。他方、人物間距離がD2以下である場合は別行動が発生していないとして(ステップS414にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの離間時間を0にリセットするとともに(S415)、同ペアの別行動状態に「なし」を設定して(S416)、処理をステップS422に進める。   In step S414, the separate action determination means 53 reads out the personal information of each of the persons constituting the pair of interest from the personal information storage means 40, calculates the inter-person distance from the current position of both, and determines the inter-person distance as the separation determination distance D2. Compare with. When the inter-person distance exceeds D2 (yes in step S414), the separate action determination unit 53 increases the separation time of the target pair stored in the group information storage unit 42 by one time (S417), The process then proceeds to step S418. On the other hand, when the inter-person distance is equal to or less than D2, it is determined that another action has not occurred (No in step S414), and the other action determination unit 53 resets the separation time of the target pair in the group information storage unit 42 to 0. At the same time (S415), "none" is set to the other behavior state of the same pair (S416), and the process proceeds to step S422.

ステップS418において、別行動判定手段53は、ステップS417で更新した注目ペアの離間時間を別行動判定時間T4と比較する。離間時間がT4を超えている場合は別行動が発生しているとして(ステップS418にてyes)、処理をステップS419に進める。他方、離間時間がT4以下である場合は別行動が発生していないとして(ステップS418にてno)、ステップS419〜S421は省略されて処理はステップS422に進められる。   In step S418, the another behavior determination means 53 compares the separation time of the attention pair updated in step S417 with the other behavior determination time T4. If the separation time exceeds T4, another process is generated (YES in step S418), and the process proceeds to step S419. On the other hand, if the separation time is equal to or less than T4, another action is not generated (NO in step S418), steps S419 to S421 are omitted, and the process proceeds to step S422.

ステップS419において、別行動判定手段53は、注目ペアを構成する人物の間で直近移動方向の差である移動方向差を算出して移動方向差を別方向判定角度rと比較する。移動方向差がrを超えている場合は別行動発生の確信度の高い状態であるとして(ステップS419にてyes)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「あり」を設定して(S421)、処理をステップS422に進める。他方、移動方向差がr以下である場合は別行動発生の可能性がある状態が続いているとして(ステップS419にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「警告」を設定して(S420)、処理をステップS422に進める。   In step S419, the another action determination unit 53 calculates a moving direction difference which is a difference between the closest moving directions among the persons constituting the pair of interest, and compares the moving direction difference with the other direction determination angle r. If the movement direction difference exceeds r, it is determined that the certainty factor of occurrence of another action is high (yes in step S419), the another action determination means 53 changes the other action state of the noted pair in the group information storage means 42 “Avail” is set (S421), and the process proceeds to step S422. On the other hand, if the movement direction difference is equal to or less than r, it is assumed that the state where there is a possibility of occurrence of another action continues (No in step S419). "Warning" is set in the action state (S420), and the process proceeds to step S422.

ステップS422において別行動判定手段53はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS422にてno)、処理はステップS411に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS422にてyes)、処理は図8のステップS5へと進められる。   In step S422, the other-action determination means 53 confirms whether all the person pairs included in the group information have been processed as a target pair. If there is an unprocessed person pair (No in step S422), the process returns to step S411 to process the next person pair. On the other hand, if all the pairs of persons have been processed (YES in step S422), the process proceeds to step S5 in FIG.

ステップS5においては、別行動判定処理の結果に基づいて不審者を判定する不審者判定処理が行われる。   In step S5, a suspicious person determination process of determining a suspicious person based on the result of the separate action determination process is performed.

図12を参照してステップS5の不審者判定処理を説明する。不審者判定処理の過程においては、画像処理部5が不審者判定手段54として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。   The suspicious person determination process of step S5 will be described with reference to FIG. In the process of the suspicious person determination process, the image processing unit 5 operates as the suspicious person determination unit 54, and the storage unit 4 operates as the personal information storage unit 40 and the group information storage unit 42.

不審者判定手段54は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS511〜S518のループ処理を実行する。   The suspicious person determination unit 54 reads out the group information from the group information storage unit 42, sequentially sets the person pair contained in the group information as a target pair, and executes the loop process of steps S511 to S518.

人物ペアのループ処理において、不審者判定手段54は、グループ情報における注目ペアの別行動状態を確認する(S512,S515)。   In the loop processing of the person pair, the suspicious person determination means 54 confirms another behavior state of the noted pair in the group information (S512, S515).

注目ペアの別行動状態が「あり」である場合(ステップS512にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を2に更新する(S514)。   When the another behavior state of the noted pair is "present" (yes in step S512), the suspicious person determination means 54 updates the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair to 2 (S514) .

そして、別行動状態が「警告」または「なし」である場合(ステップS512にてno)、不審者判定手段54は、処理をステップS515に進める。   Then, if the separate action state is “warning” or “none” (NO in step S512), the suspicious person determination means 54 advances the process to step S515.

他方、注目ペアを構成する人物の滞在時間がいずれもT5を超えている場合(ステップS513にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。   On the other hand, when the stay time of the persons constituting the noted pair exceeds T5 in any case (no in step S513), the suspicious person judging means 54 determines the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair. It is updated to 0 (S517), and the process proceeds to step S518.

ステップS515において不審者判定手段54は注目ペアの別行動状態を再び確認する。注目ペアの別行動状態が「警告」である場合(ステップS515にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を1に更新し(S516)、処理をステップS518に進める。   In step S515, the suspicious person determination means 54 again confirms another behavior state of the noted pair. When the another behavior state of the noted pair is "warning" (yes in step S515), the suspicious person determination means 54 updates the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair to 1 (S516) The process then proceeds to step S518.

他方、注目ペアの別行動状態が「なし」である場合(ステップS515にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。   On the other hand, when the another behavior state of the noticed pair is "none" (No in step S515), the suspicious person judging means 54 updates the suspiciousness degree of the noticed pair in the group information storage means 42 of the noticed pair to 0 ( S517), the process proceeds to step S518.

ステップS518において不審者判定手段54はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS518にてno)、処理はステップS511に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS518にてyes)、処理は図8のステップS6へと進められる。   In step S518, the suspicious person determination means 54 confirms whether or not all the pairs of persons included in the group information have been processed as a target pair. If there is an unprocessed person pair (No in step S518), the process returns to step S511 to process the next person pair. On the other hand, if all of the person pairs have been processed (YES in step S518), the process proceeds to step S6 in FIG.

ステップS6において、不審者判定手段54は、改めてグループ情報記憶手段42のグループ情報を参照し、不審度が1以上であるグループの有無を確認する。   In step S6, the suspicious person determination means 54 refers again to the group information in the group information storage means 42, and confirms the presence or absence of a group whose suspiciousness degree is 1 or more.

不審度が1以上であるグループがある場合(ステップS6にてyes)、不審者情報の生成および出力が行われる(S7)。   If there is a group whose suspiciousness degree is 1 or more (yes in step S6), generation and output of suspicious person information are performed (S7).

ステップS7において、不審者判定手段54は、不審度が1以上である人物ペアを構成する人物の人物情報を人物情報記憶手段40から読み出す。そして、不審者判定手段54は、人物ごとに当該各人物が属する人物ペアの不審度を表す文字列、と当該各人物の人物画像を合成した不審者画像を生成する。さらに、不審者判定手段54は、これら1または複数の不審者画像を監視画像に並べて合成した画像を不審者情報として生成し、通信部3に出力する。   In step S7, the suspicious person determination means 54 reads out, from the person information storage means 40, the person information of the person who constitutes the person pair whose degree of suspiciousness is one or more. Then, the suspicious person determination means 54 generates a suspicious person image in which a character string indicating the degree of suspiciousness of the person pair to which each person belongs belongs for each person and the person image of each person. Further, the suspicious person determination means 54 generates an image obtained by arranging and combining the one or a plurality of suspicious person images in the monitoring image as suspicious person information, and outputs the image to the communication unit 3.

不審者情報を入力された通信部3は不審者情報出力手段31として動作し、不審者情報を表示部6に伝送する。表示部6は不審情報を監視員が視認可能に表示する。   The communication unit 3 into which the suspicious person information is input operates as the suspicious person information output unit 31 and transmits the suspicious person information to the display unit 6. The display unit 6 displays the suspicious information so that the supervisor can view it.

他方、不審度が1以上であるグループがない場合(ステップS6にてno)、ステップS7は省略される。このとき、画像処理部5は監視画像をそのまま通信部3に出力して表示部6に伝送させ、表示部6に監視画像を表示させてもよい。   On the other hand, when there is no group whose degree of suspiciousness is 1 or more (No in step S6), step S7 is omitted. At this time, the image processing unit 5 may output the monitor image as it is to the communication unit 3 and transmit the monitor image to the display unit 6 and cause the display unit 6 to display the monitor image.

以上の処理を終えると処理は再びステップS1に戻される。   When the above process is completed, the process returns to step S1.

<変形例>
(1)上記実施形態においては、空港内の到着ロビーを監視領域とする例を示したが、バスの到着ロビー、駅の改札前、通路の合流地点など、人と人とが専ら異方向から到来して合流する領域に適用可能である。
<Modification>
(1) In the above embodiment, an example is shown in which the arrival lobby in the airport is used as a monitoring area. However, people and people are exclusively from different directions, such as the arrival lobby of the bus, the station before the ticket gate, and the junction of the passage. It is applicable to the area which arrives and joins.

(2)上記実施形態およびその変形例においては、2種類の進入口領域を設定する例を示したが、三叉路の各通路上に進入口領域を設定する等、3種類以上の進入口領域を設定してもよい。   (2) In the above embodiment and its modification, an example in which two types of entrance areas are set is shown, but three or more types of entrance areas may be set, such as setting entrance areas on each passage of the trifurcation. It may be set.

(3)上記実施形態およびその各変形例においては、グループ検出手段51が群行動判定時間T1を下限値とし短期接触判定時間T2を上限値とする不審行動判定時間の範囲内で近接位置関係を維持した人物のグループを検出する例を示したが、上限値を省略し、近接時間が群行動判定時間T1を超える範囲を不審行動判定時間の範囲としてもよい。   (3) In the above embodiment and each variation, the group detection unit 51 sets the proximity position relationship within the range of suspicious activity determination time with the group behavior determination time T1 as the lower limit and the short-term contact determination time T2 as the upper limit. Although the example which detects the group of the person who maintained was shown, the upper limit may be omitted and the range where the proximity time exceeds the group behavior determination time T1 may be the range of the suspicious behavior determination time.

(4)上記実施形態およびその各変形例においては、グループ検出手段51が出現位置に基づいて異方向から到来した人物のグループを検出する例を示したが、出現位置に代わる検出指標として人物の移動方向を用いることもできる。
その場合、グループ検出手段51が、上述した別行動判定手段53と同様にして、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合にグループを検出する。
(4) In the above-described embodiment and each of the modifications, an example is shown in which the group detection unit 51 detects a group of persons arriving from different directions based on the appearance position. The direction of movement can also be used.
In that case, the group detection means 51, similar to the separate action determination means 53 described above, for the person whose proximity position relationship is maintained within the range of the suspicious activity determination time, the movement direction difference immediately before the proximity position relationship The group is calculated when the movement direction difference exceeds a predetermined other direction determination angle.

(5)上記実施形態およびその各変形例においては、別行動判定手段53が近接位置関係から離間位置関係となるまでの人物の移動方向差に基づいて別行動の発生を検出する例を示したが、移動方向差に代わる検出指標として監視領域からの消失を用いることもできる。
その場合、別行動判定手段53は、グループの人物が離間位置関係を維持したまま監視領域から消失した場合に当該グループに別行動が発生したと判定する。
(5) In the above-described embodiment and each of the modifications, an example is shown in which the separate action determination unit 53 detects the occurrence of another action based on the movement direction difference of the person from the close position relation to the separated position relation. However, it is also possible to use the disappearance from the monitoring area as a detection index instead of the movement direction difference.
In that case, the separate behavior determining means 53 determines that another group of behaviors has occurred when the group person disappears from the monitoring area while maintaining the separated positional relationship.

(6)上記実施形態およびその各変形例においては、人物追跡手段50が人物位置履歴として出現位置と最新位置を記録し、グループ検出手段51、別行動判定手段53、不審者判定手段54が逐次的に人物位置履歴を参照して各種処理を行う例を示した。さらなる変形例においては、撮影手段が撮影時刻を付加して監視画像を出力して、人物追跡手段50が人物位置履歴として出現位置から最新位置までの人物位置と撮影時刻の組を記録し、グループ検出手段51、別行動判定手段53および不審者判定手段54が適宜に人物位置履歴をさかのぼることによって各種処理を行ってもよい。この場合、例えば、直前移動方向を3時刻以上の移動方向の平均とすることができる。また、この場合、例えば、不審者判定手段54は不審者情報に不審度が1以上の人物についての移動軌跡を加えて出力することもできる。   (6) In the above embodiment and each of the modifications, the person tracking unit 50 records the appearance position and the latest position as the person position history, and the group detection unit 51, the separate action determination unit 53, and the suspicious person determination unit 54 sequentially In the example, various processes are performed with reference to the person position history. In a further modification, the photographing means adds the photographing time and outputs the monitoring image, and the person tracking means 50 records a set of the person position and the photographing time from the appearance position to the latest position as the person position history, The detection unit 51, the separate action determination unit 53, and the suspicious person determination unit 54 may perform various processing by tracing back the person position history as appropriate. In this case, for example, the immediately preceding movement direction can be an average of movement directions of three or more times. Further, in this case, for example, the suspicious person determination means 54 can add the movement locus of a person whose suspiciousness degree is one or more to the suspicious person information and output it.

(7)上記実施形態およびその各変形例においては、グループ検出手段51が、近接位置関係の維持に加えて、出現位置か移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を満足する人物のグループを検出する例を示したが、グループ検出手段51は、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を省略して検出してもよいし、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件のうちのひとつの条件を用いて検出してもよいし、出現位置の条件と移動方向差の条件を同時使用しない範囲で出現位置の条件、移動方向差の条件、受け渡し姿勢の条件、静止時間の条件のうちの2以上の条件を組み合わせて検出してもよい。
(7) In the above-described embodiment and each of the modifications, the group detection unit 51 satisfies the condition of the appearance position or the movement direction difference, the condition of the delivery posture, and the condition of the stationary time in addition to the maintenance of the close positional relationship. Although an example of detecting a group of persons is shown, the group detection unit 51 may detect the condition of the appearance position, the condition of the moving direction difference, the condition of the delivery posture, and the condition of the stationary time. It may be detected using one of the condition of position, the condition of movement direction difference, the condition of delivery posture and the condition of stationary time, or the range where the condition of appearance position and the condition of movement direction difference are not used simultaneously Two or more conditions among the condition of appearance position, the condition of movement direction difference, the condition of delivery posture, and the condition of stationary time may be combined and detected.

1・・・画像監視装置
2・・・撮影部
3・・・通信部
30・・・画像取得手段
31・・・不審者情報出力手段
4・・・記憶部
40・・・人物情報記憶手段
41・・・監視領域情報記憶手段
42・・・グループ情報記憶手段
5・・・画像処理部
50・・・人物追跡手段
51・・・グループ検出手段
52・・・姿勢判定手段
53・・・別行動判定手段
54・・・不審者判定手段
6・・・表示部

1 ... image monitoring device 2 ... imaging unit 3 ... communication unit 30 ... image acquisition unit 31 ... suspicious person information output unit 4 ... storage unit 40 ... person information storage unit 41 ... monitoring area information storage means 42 ... group information storage means 5 ... image processing unit 50 ... person tracking means 51 ... group detection means 52 ... posture determination means 53 ... another action Judgment means 54 ・ ・ ・ Suspicious person judgment means 6 ・ ・ ・ Display part

Claims (9)

所定の監視領域を撮影した監視画像を順次取得する画像取得手段と、
前記監視画像に基づいて前記監視領域に出現した複数の人物を追跡する人物追跡手段と、
前記複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離以下である近接位置関係を維持した人物のグループを検出するグループ検出手段と、
前記グループの人物が前記近接判定距離よりも長く定められた離間判定距離を超える離間位置関係となった場合に当該グループに別行動が発生したと判定する別行動判定手段と、
前記別行動の発生が判定されたグループの人物を不審者と判定する不審者判定手段と、
を備えたことを特徴とする画像監視装置。
An image acquisition unit that sequentially acquires surveillance images obtained by imaging a predetermined surveillance area;
Person tracking means for tracking a plurality of persons appearing in the monitoring area based on the monitoring image;
Group detection means for detecting, from among the plurality of persons, a group of persons maintaining a proximity positional relationship whose inter-person distance is equal to or less than a predetermined proximity determination distance within a predetermined suspicious activity determination time range;
Another action determination means for determining that another action has occurred in the group when the separated position relationship in which the person in the group exceeds the separation determination distance longer than the proximity determination distance;
A suspicious person judging means for judging a person in a group, for which the occurrence of the another action is judged to be a suspicious person,
An image monitoring apparatus comprising:
さらに、前記監視領域内の互いに異なる進入口に対応する複数の進入口領域を予め記憶している監視領域情報記憶手段、を備え、
前記グループ検出手段は、出現した位置が異なる前記進入口領域である人物を含んだ前記グループを検出する、請求項1に記載の画像監視装置。
And monitoring area information storage means for storing in advance a plurality of entrance areas corresponding to different entrances in the monitoring area.
The image monitoring apparatus according to claim 1, wherein the group detection unit detects the group including a person who is the entrance area different in the appearing position.
前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合に前記グループを検出する、請求項1に記載の画像監視装置。   The group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement direction difference immediately before becoming the proximity position relationship, and the movement direction difference is determined to be another predetermined direction. The image monitoring device according to claim 1, wherein the group is detected when an angle is exceeded. 前記監視画像における前記近接位置関係を維持していた人物の人物画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が前記受け渡し姿勢であるか否かを判定する姿勢判定手段、をさらに備え、
前記グループ検出手段は、前記受け渡し姿勢が判定された人物のグループを検出する、請求項1から請求項3のいずれかひとつに記載の画像監視装置。
Posture determination that determines whether the posture of the person is the delivery posture by comparing the person image of the person who maintained the proximity position relationship in the monitoring image with the image feature of the delivery posture obtained in advance Means, and
The image monitoring apparatus according to any one of claims 1 to 3, wherein the group detection unit detects a group of persons whose transfer posture has been determined.
前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離以下である場合に前記グループを検出する、請求項1から請求項4のいずれかひとつに記載の画像監視装置。   The group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement distance when the proximity position relationship is maintained, and the movement distance is determined to be a predetermined stationary The image monitoring device according to any one of claims 1 to 4, wherein the group is detected when the distance is equal to or less than a distance. 前記別行動判定手段は、前記グループの人物が前記離間位置関係を継続した離間時間を計測し、前記離間時間が所定の別行動判定時間を超えた場合に当該グループに前記別行動が発生したと判定する、請求項1から請求項5のいずれかひとつに記載の画像監視装置。   The separate action determination means measures a separation time in which a person of the group continues the separation positional relationship, and the separation action is generated when the separation time exceeds a predetermined separate action determination time. The image monitoring apparatus according to any one of claims 1 to 5, which determines. 前記別行動判定手段は、前記グループの人物が前記離間位置関係を維持したまま前記監視領域から消失した場合に当該グループに前記別行動が発生したと判定する、請求項1から請求項6のいずれかひとつに記載の画像監視装置。   The said another action determination means determines that the said another action generate | occur | produced to the said group, when the person of the said group lose | disappears from the said monitoring area | region, maintaining the said spaced apart positional relationship. The image monitoring device according to any one of the preceding claims. 前記別行動判定手段は、前記離間位置関係となったグループについて、前記近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度を超える場合に前記別行動が発生したと判定する、請求項1から請求項6のいずれかひとつに記載の画像監視装置。   The separate action determination means calculates, for the group in the separated position relationship, the movement direction difference of the person from the close position relationship to the separated position relationship, and the movement direction difference is a predetermined separate action determination angle. The image monitoring device according to any one of claims 1 to 6, wherein it is determined that the other action has occurred when the value of d. 前記不審者判定手段は、前記人物の前記監視領域における滞在時間を計測し、前記別行動の発生が判定されたグループの人物の前記滞在時間が所定の短期滞在判定時間以下である場合に当該人物を不審者と判定する、請求項1から請求項8のいずれかひとつに記載の画像監視装置。
The suspicious person determination means measures a stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of the another action is determined is equal to or less than a predetermined short stay determination time The image monitoring device according to any one of claims 1 to 8, wherein it is determined that the person is a suspicious person.
JP2017238178A 2017-12-12 2017-12-12 Image monitoring device Active JP6994375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017238178A JP6994375B2 (en) 2017-12-12 2017-12-12 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238178A JP6994375B2 (en) 2017-12-12 2017-12-12 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2019106631A true JP2019106631A (en) 2019-06-27
JP6994375B2 JP6994375B2 (en) 2022-01-14

Family

ID=67062086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238178A Active JP6994375B2 (en) 2017-12-12 2017-12-12 Image monitoring device

Country Status (1)

Country Link
JP (1) JP6994375B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113347387A (en) * 2020-02-18 2021-09-03 株式会社日立制作所 Image monitoring system and image monitoring method
EP3901820A2 (en) 2020-04-21 2021-10-27 Hitachi, Ltd. Event analysis system and event analysis method
JPWO2021246078A1 (en) * 2020-06-05 2021-12-09
CN114494350A (en) * 2022-01-28 2022-05-13 北京中电兴发科技有限公司 Personnel gathering detection method and device
WO2022158201A1 (en) * 2021-01-22 2022-07-28 ソニーグループ株式会社 Image processing device, image processing method, and program
JP7446806B2 (en) 2019-03-29 2024-03-11 キヤノン株式会社 Information processing device, method and program
JP7449211B2 (en) 2020-09-28 2024-03-13 京セラ株式会社 Systems, electronic devices, control methods for electronic devices, and programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087771A (en) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd Monitoring system and monitoring method
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2008252519A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processing apparatus
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087771A (en) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd Monitoring system and monitoring method
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2008252519A (en) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc Image processing apparatus
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7446806B2 (en) 2019-03-29 2024-03-11 キヤノン株式会社 Information processing device, method and program
JP2021132267A (en) * 2020-02-18 2021-09-09 株式会社日立製作所 Video monitoring system and video monitoring method
CN113347387A (en) * 2020-02-18 2021-09-03 株式会社日立制作所 Image monitoring system and image monitoring method
JP7355674B2 (en) 2020-02-18 2023-10-03 株式会社日立製作所 Video monitoring system and video monitoring method
US11721092B2 (en) 2020-04-21 2023-08-08 Hitachi, Ltd. Event analysis system and event analysis method
EP3901820A2 (en) 2020-04-21 2021-10-27 Hitachi, Ltd. Event analysis system and event analysis method
JPWO2021246078A1 (en) * 2020-06-05 2021-12-09
JP7392850B2 (en) 2020-06-05 2023-12-06 日本電気株式会社 Image processing device, image processing method, and program
WO2021246078A1 (en) * 2020-06-05 2021-12-09 日本電気株式会社 Image processing device, image processing method, and program
JP7449211B2 (en) 2020-09-28 2024-03-13 京セラ株式会社 Systems, electronic devices, control methods for electronic devices, and programs
WO2022158201A1 (en) * 2021-01-22 2022-07-28 ソニーグループ株式会社 Image processing device, image processing method, and program
CN114494350B (en) * 2022-01-28 2022-10-14 北京中电兴发科技有限公司 Personnel gathering detection method and device
CN114494350A (en) * 2022-01-28 2022-05-13 北京中电兴发科技有限公司 Personnel gathering detection method and device

Also Published As

Publication number Publication date
JP6994375B2 (en) 2022-01-14

Similar Documents

Publication Publication Date Title
JP2019106631A (en) Image monitoring device
CN111383421B (en) Privacy protection fall detection method and system
US10007850B2 (en) System and method for event monitoring and detection
Kwolek et al. Fuzzy inference-based fall detection using kinect and body-worn accelerometer
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
Sokolova et al. A fuzzy model for human fall detection in infrared video
Shoaib et al. View-invariant fall detection for elderly in real home environment
JP2010239992A (en) Person identification device, person identification method, and person identification program
Poonsri et al. Improvement of fall detection using consecutive-frame voting
US11270562B2 (en) Video surveillance system and video surveillance method
CN104318578A (en) Video image analyzing method and system
Poonsri et al. Fall detection using Gaussian mixture model and principle component analysis
JP2022191288A (en) Information processing device
Pramerdorfer et al. Fall detection based on depth-data in practice
JP6851221B2 (en) Image monitoring device
CN113384267A (en) Fall real-time detection method, system, terminal equipment and storage medium
Hsu et al. Development of a vision based pedestrian fall detection system with back propagation neural network
Gruenwedel et al. Low-complexity scalable distributed multicamera tracking of humans
CN115909498A (en) Three-dimensional laser point cloud intelligent falling monitoring method and system
WO2020241034A1 (en) Monitoring system and monitoring method
Rothmeier et al. Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System
Virgona et al. Socially constrained tracking in crowded environments using shoulder pose estimates
JP2019029747A (en) Image monitoring system
US20240112496A1 (en) Image processing apparatus, authentication system, method, and non-transitory computer-readable storage medium
CN116189238B (en) Human shape detection and identification fall detection method based on neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6994375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150