JP4759988B2 - Surveillance system using multiple cameras - Google Patents

Surveillance system using multiple cameras Download PDF

Info

Publication number
JP4759988B2
JP4759988B2 JP2004332587A JP2004332587A JP4759988B2 JP 4759988 B2 JP4759988 B2 JP 4759988B2 JP 2004332587 A JP2004332587 A JP 2004332587A JP 2004332587 A JP2004332587 A JP 2004332587A JP 4759988 B2 JP4759988 B2 JP 4759988B2
Authority
JP
Japan
Prior art keywords
camera
moving body
information
cameras
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004332587A
Other languages
Japanese (ja)
Other versions
JP2006146378A (en
Inventor
和範 高橋
小沼  知恵子
博 正嶋
裕人 森實
政人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004332587A priority Critical patent/JP4759988B2/en
Priority to CNB2005100875894A priority patent/CN100556130C/en
Publication of JP2006146378A publication Critical patent/JP2006146378A/en
Application granted granted Critical
Publication of JP4759988B2 publication Critical patent/JP4759988B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象空間に設置された複数のカメラによって撮影された移動体、例えば人物,自動車等を認識し、照合又は追跡する監視システムに関する。   The present invention relates to a monitoring system for recognizing and collating or tracking a moving body, for example, a person, a car, or the like taken by a plurality of cameras installed in a target space.

犯罪検挙率の低下など社会不安に対処するために、セキュリティレベルの維持・向上を目的として、不審者・不審車監視用カメラの設置台数が増加している。導入初期段階においては、カメラで撮影した映像を監視室にて監視員が目視し、異常事態には警察や警備員を現場に派遣したり、映像をレコーダに記憶して犯罪発生後の捜査に役立てるなど、直接的・間接的な手法を用いて、犯罪発生の事前防止,事後対策に資してきた。しかし、設置台数の急増を受け、カメラだけでなく、監視員の増員,レコーダの増設など、セキュリティシステムに対するコスト増,リソース不足が問題化してきている。この問題への対策として、コンピュータを用いてカメラ映像内の人物や自動車などの監視対象を自動認識することで監視員の目視監視負担を軽減する方式が提案されている。例えば、特許文献1では、複数のカメラそれぞれにおいて、画像認識技術を用いて、人物全体特徴情報や顔特徴情報を抽出し、カメラ間でその抽出した情報を交換する技術が開示されている。   In order to cope with social unrest such as a decrease in crime clearance rate, the number of cameras for monitoring suspicious persons / suspicious vehicles is increasing for the purpose of maintaining and improving the security level. In the initial stage of introduction, the surveillance staff visually observes the video taken with the camera in the surveillance room, dispatches police and security guards to the scene in abnormal situations, or stores the video in the recorder for investigation after the crime occurs Using direct and indirect methods such as making use, it has contributed to crime prevention in advance and countermeasures. However, due to the rapid increase in the number of installations, not only cameras but also the number of monitoring personnel and recorders have been increased, resulting in increased costs and insufficient resources for security systems. As a countermeasure against this problem, there has been proposed a method for reducing the visual monitoring burden on a monitor by automatically recognizing a monitoring target such as a person or a car in a camera image using a computer. For example, Patent Document 1 discloses a technique in which, for each of a plurality of cameras, the whole person feature information and face feature information are extracted using an image recognition technique, and the extracted information is exchanged between the cameras.

特開2003−324720号公報JP 2003-324720 A

多数のカメラが設置される監視では、監視対象空間を限られた監視員リソースで効率的に業務が遂行できるようにするための監視支援技術が必要になる。また、監視対象領域のセキュリティを確保するためには、先に述べたカメラによる監視の他に、建物内であれば、各部屋への施錠により許可された人のみが入出可能な対策を取るのが通常である。開錠の実現方法としては、従来の鍵だけではなく、暗証番号入力,ICカード併用、更には指紋や静脈などのバイオメトリクス認証による個人同定など、より高いレベルでのシステム導入が進んできている。このように、セキュリティレベルを確保には、監視カメラ増設と施錠によるアクセス制限の両方が必要となるが、過度なシステム導入は、コスト増とユーザの不便を招くことになってしまうため、設定すべきセキュリティレベルに応じて柔軟にシステムを組合せることが出来る必要がある。   In monitoring in which a large number of cameras are installed, monitoring support technology is required to enable the work to be efficiently performed with limited monitoring personnel resources in the monitoring target space. In order to ensure the security of the monitored area, in addition to the above-mentioned monitoring by the camera, if it is inside a building, take measures to allow only authorized persons to enter and exit each room. Is normal. As an unlocking method, not only conventional keys but also security code entry, IC card use, and personal identification by biometrics authentication such as fingerprints and veins are being introduced at a higher level. . As described above, in order to secure the security level, it is necessary to both increase the number of surveillance cameras and restrict access by locking. However, excessive system introduction will increase costs and inconvenience the user. It is necessary to be able to combine systems flexibly according to the security level to be achieved.

以上説明したシステムに対する要求を踏まえて、公知技術を検討すると、特許文献1記載のように、全体特徴情報で照合した移動体の映像を監視モニタに表示したり、監視員が追跡対象の移動体を指定する方式では、監視員自身が不審挙動であるかを判断したり、対象移動体の監視空間内での移動経路を推定する必要があり、監視負担の軽減には不十分である。また、不特定多数が特定のエリア(例えばビル内の廊下など)にアクセス可能なケースでは、来場数が多い時には、全員を目視で追跡することは現実的ではなく、適用可能な場面が限定される。   Based on the requirements for the system described above, when a known technique is examined, as described in Patent Document 1, an image of a moving body collated with overall feature information is displayed on a monitoring monitor, or a moving body that is monitored by a monitoring person In this method, it is necessary to determine whether the monitoring person himself is suspicious or to estimate the movement path in the monitoring space of the target moving body, which is insufficient for reducing the monitoring burden. In addition, in cases where an unspecified number of people can access a specific area (for example, a corridor in a building), it is not practical to track everyone visually when the number of visitors is large, and applicable scenes are limited. The

本発明は、監視カメラに映る移動体の追跡精度を向上することを目的としている。   An object of the present invention is to improve the tracking accuracy of a moving object reflected on a surveillance camera.

課題を解決する手段として、まず、監視対象空間に複数のカメラを設置し、画像認識技術を用いて、その映像から移動体およびその特徴量情報を抽出する特徴量抽出手段を設ける。この特徴量抽出手段では、情報抽出は所定の時間間隔、又はタイミングで繰り返し実行される。   As means for solving the problem, first, a feature amount extraction means for installing a plurality of cameras in the monitoring target space and extracting the moving object and its feature amount information from the video using an image recognition technique is provided. In this feature amount extraction means, information extraction is repeatedly executed at predetermined time intervals or timings.

カメラで撮影した映像およびその抽出した移動体の特徴量情報は、通信ネットワークを経由して移動体の照合追跡手段に送られる。照合追跡手段は後述する監視空間データベース,移動体分離集約手段,経路算出手段,移動体整合度算出手段,個人特定情報整合手段,制限エリア侵入判定手段,挙動分析・不審者検知手段から構成される。   The video captured by the camera and the extracted feature information of the moving body are sent to the moving body collation and tracking means via the communication network. The verification tracking means is composed of a monitoring space database, a moving object separation and aggregation means, a route calculation means, a moving object matching degree calculation means, a personal identification information matching means, a restricted area intrusion determination means, a behavior analysis / suspicious person detection means, which will be described later. .

照合追跡手段は、監視対象空間全域を三次元モデルとして表現し、更に移動体が移動可能な空間のつながりをネットワーク表現した監視空間データベースを中心に持ち、送られてきた特徴量情報を蓄積する。監視空間データベースにおいて、各カメラの位置およびその撮影範囲は三次元モデルおよびネットワークモデルと相互に関連つけられており、特徴量情報はカメラ情報と関連して蓄積される。   The verification tracking means expresses the entire monitoring target space as a three-dimensional model, and further has a monitoring space database that expresses the connection of the space in which the mobile body can move, centered on the network, and accumulates the transmitted feature information. In the surveillance space database, the position of each camera and its photographing range are correlated with the three-dimensional model and the network model, and the feature amount information is stored in association with the camera information.

ここで、一つのカメラ映像内には一般的に複数の移動体が存在するため、それらを個別の移動体として分離する必要がある。そのため、所定の間隔で動作する移動体分離集約手段は、データベースに蓄積されている各カメラ毎の特徴量情報を取り出し、既に特徴量空間にマッピングされ、グループ分けされている特徴量集合との距離的な近さや抽出した移動体の映像空間内での推定移動方向・距離の情報を用いて、どの特徴量集合に属するか決定する。ここで特徴量集合とは、同じ移動体に対して特徴量抽出処理を実施するたびに得られる情報の集まりをさし、一つの移動体が一つのカメラ視野に進入してから退出するまでの情報を用いて、特徴量ベクトルの平均値とその分散値で代表することも可能である。   Here, since a plurality of moving bodies generally exist in one camera image, it is necessary to separate them as individual moving bodies. Therefore, the moving object separation and aggregation means that operates at a predetermined interval takes out the feature amount information for each camera stored in the database, and the distance from the feature amount set that has already been mapped to the feature amount space and grouped Using the information on the approximate proximity and the estimated moving direction / distance in the video space of the extracted moving object, it is determined which feature set belongs to. Here, the feature amount set refers to a collection of information obtained each time the feature amount extraction processing is performed on the same moving object, from one moving object entering one camera field of view until leaving. Using information, it is also possible to represent the feature value vector by its average value and its variance value.

次に、分離・集約した移動体を追跡するために、照合追跡手段における経路算出手段により、監視対象空間におけるカメラ撮影範囲間での移動経路の候補を求める。経路算出では、通路や部屋などの人の移動空間の接続状態をデータベースでネットワークとしてモデル化された情報を対象として、出発地点から目的地点間での、設定したリンクコストの最小値を探索する。監視空間の構成が単純であれば、事前にカメラ間の全組合せにおける全経路をテーブルとして求めておくことも可能である。   Next, in order to track the separated / aggregated moving body, a route calculation unit in the verification tracking unit obtains a movement route candidate between the camera photographing ranges in the monitoring target space. In the route calculation, the minimum value of the set link cost between the departure point and the destination point is searched for information modeled as a network in the database of the connection state of a person's movement space such as a passage or a room. If the configuration of the monitoring space is simple, it is possible to obtain all routes in all combinations between cameras in advance as a table.

そして、照合追跡手段における移動体整合度算出手段において、二つの移動体の特徴量集合同士の整合度を算出する。整合度は、二つの集合の特徴量空間における近さの指標として定義する。この時、それぞれのカメラ視野を移動体が通過する度に次々と抽出される特徴量集合の、どの組合せをもって整合度を算出するかが適切な追跡を実現する上でポイントになる。そこで、まず移動体が上流側カメラ視野を通過した時の移動方向の情報を用いて、先に説明した経路算出手段により移動体が到達しうる下流側カメラまでの経路を求め、その所要時間を推定する。この時、階段やエレベータを経由した経路には通路とは異なる重みをつけて求める。そして、その所要時間から所定の時間内に通過した移動体との整合度をそれぞれ求めておく。二つの移動体が一致するかどうかは、整合度に対応する判定値を設定して決める。この判定値を変更することで、追跡対象を狭めたり,広げたりすることが可能となる。また、移動体の滞留に対処するため、所要時間を逆算して下流側カメラで捉えた移動体に相当する上流側移動体が存在しないときには、時間をさかのぼって、所定の整合度に見合う移動体を求める。   Then, the moving body matching degree calculation means in the verification tracking means calculates the matching degree between the feature amount sets of the two moving bodies. The degree of matching is defined as an index of closeness in the feature amount space of the two sets. At this time, the combination of the feature value sets extracted one after another each time the moving object passes through each camera field of view is the key to realizing appropriate tracking. Therefore, first, using the information on the moving direction when the moving body passes through the upstream camera field of view, the route calculation means explained above determines the route to the downstream camera that can be reached by the moving body, and the required time is calculated. presume. At this time, the route passing through the stairs and the elevator is obtained with a weight different from that of the passage. Then, the degree of matching with the moving body that has passed within a predetermined time from the required time is obtained. Whether or not the two moving objects match is determined by setting a determination value corresponding to the degree of matching. By changing this determination value, it is possible to narrow or widen the tracking target. In addition, in order to cope with the stay of the moving body, when there is no upstream side moving body corresponding to the moving body captured by the downstream camera by calculating the required time, the moving body goes back to the predetermined degree of matching. Ask for.

以上説明した処理を表示手段にて、監視員に見せることが必要である。表示手段では、監視対象空間を三次元的にとらえて、様々な視点を設定して表示する機能,設置されたカメラの位置およびその映像を表示する機能が含まれている。カメラ映像の表示では、監視員が特定のカメラを選択したり、一つの表示部に複数のカメラ映像を時間を区切って自動的に切り替えて映し出す。各カメラ毎に抽出した特徴量情報によって、移動方向別の通過人数を映像に重ねて表示することで、映像を注視していなくても、監視員は混雑状況を把握することができる。   It is necessary to show the processing described above to the monitoring staff using the display means. The display means includes a function of viewing the monitored space three-dimensionally and setting and displaying various viewpoints, and a function of displaying the position of the installed camera and its video. In the display of the camera video, the monitor selects a specific camera, or a plurality of camera videos are automatically switched and displayed on a single display unit with a time interval. By displaying the number of passing people in each moving direction on the video based on the feature amount information extracted for each camera, the monitor can grasp the congestion situation even when the video is not watched.

また、監視員が映像中の特定の移動体を指定することにより、その移動体の移動経路を推定した結果を表示したり、カメラ間での整合度を求めることで、自動的に追跡することが可能である。これは夜間など移動体がまばらになった場合には、監視員が指定しなくても、画像認識技術で検知した移動体をすべて追跡することが実現出来る。逆に、日中など移動体が多い場合には、追跡結果を表示に重ねても、わかりにくくなるため、監視員の指定した対象のみの追跡情報を表示する。ここで、監視員が整合度に対応する判定値を任意に変化させることを可能にすることにより、追跡対象を広げたり,狭めたりすることができるようになり、追跡抜けを防ぐことができるようになる。   In addition, when a monitor specifies a specific moving object in the video, the result of estimating the moving path of the moving object is displayed, and tracking is automatically performed by obtaining the degree of consistency between cameras. Is possible. In the case where the moving body becomes sparse, such as at night, it is possible to track all the moving bodies detected by the image recognition technology without specifying by the observer. Conversely, when there are many moving objects such as during the day, even if the tracking results are superimposed on the display, it becomes difficult to understand, so the tracking information of only the target designated by the observer is displayed. Here, by allowing the observer to arbitrarily change the judgment value corresponding to the degree of consistency, the tracking target can be expanded or narrowed, and the tracking failure can be prevented. become.

一方、照合追跡手段には、ドアに据え付けられたカード認証やバイオメトリクス認証等の個人特定情報整合手段が含まれる。カード認証によりそのカード所有者の特定情報と対応付けることが可能となる。よって、カード認証手段のついたドア近傍を監視カメラで撮影し、外見の特徴量情報を抽出し、同時に、カード情報によりその所有者の情報と関連つける。外見的な特徴量情報とその個人情報を関連つけることで、その人が監視対象のどのエリアに入っても良いのかを判定することが可能となる。それを同じく照合追跡手段にある制限エリア侵入判定手段により判断する。この時、制限エリア侵入判定手段はドアに取り付けられた開閉センサと接続され、その開閉情報は侵入判定有無に用いられる。   On the other hand, the verification tracking means includes personal identification information matching means such as card authentication and biometric authentication installed on the door. Card authentication can be associated with specific information of the cardholder. Therefore, the vicinity of the door with the card authentication means is photographed by the monitoring camera, the feature value information of the appearance is extracted, and at the same time, the card information is associated with the owner information. By associating the apparent feature information with the personal information, it is possible to determine which area of the monitoring target the person can enter. This is determined by the restricted area intrusion determining means also in the verification tracking means. At this time, the restricted area intrusion determination means is connected to an open / close sensor attached to the door, and the open / close information is used for presence / absence determination of intrusion.

この時、権限のない人が制限エリアに侵入した場合は、表示手段にそのための警報情報を表示し、監視員は必要に応じて、警備員を現場に派遣したり、スピーカーによりエリアからの退出を呼びかけることが出来る。   At this time, if an unauthorized person enters the restricted area, warning information is displayed on the display means, and the monitor dispatches security personnel to the scene as needed, or leaves the area with speakers. Can be called.

また、照合追跡手段には、移動体の移動軌跡を分析することにより、初めての来訪者やいつものユーザ,不審者であるかどうかを判定して監視空間データベースを経て、表示手段により制限エリアへの侵入と同様な警報を表示する挙動分析・不審者検知手段を設けている。   The verification tracking means analyzes the movement trajectory of the moving body to determine whether it is a first visitor, a normal user, or a suspicious person, passes through the monitoring space database, and enters the restricted area by the display means. A behavior analysis / suspicious person detection means for displaying an alarm similar to that of the intruder is provided.

本発明により、監視対象領域内の移動体に対する追跡性能が向上し、それにより監視員の負担が軽減されるとともに、ユーザにとって煩わしくないセキュリティソリューションを提供することが可能となる。   According to the present invention, it is possible to improve the tracking performance for a moving object in the monitoring target area, thereby reducing the burden on the monitoring staff and providing a security solution that is not troublesome for the user.

本発明を用いた監視システムの例を、図面を用いて説明する。   An example of a monitoring system using the present invention will be described with reference to the drawings.

図1を用いて実施例を説明する。監視システムでは、まず、カメラ101と移動体特徴量抽出装置102やカメラ103と移動体特徴量抽出装置104の組合せが監視対象空間に複数台設置され、それぞれがネットワーク105に接続されている。図1では2組が接続されている構成を示しているが、それ以上の組を接続することが可能である。照合追跡装置106は、ネットワークを経由してカメラおよび移動体特徴量抽出装置と接続され、そこから映像と特徴量情報を受信する。また、カード認証装置117およびドア開閉センサ118と接続され、それぞれの機器からカード情報,ドア開閉情報を受信する。照合追跡装置106は、また、カメラ映像や監視対象の移動体の移動軌跡,制限エリアへの侵入警告などを表示する監視用ディスプレイ107と接続され、監視員に状況を伝える役割を持つ。   An embodiment will be described with reference to FIG. In the monitoring system, first, a plurality of combinations of the camera 101 and the moving body feature amount extraction device 102 and the camera 103 and the moving body feature amount extraction device 104 are installed in the monitoring target space, and each is connected to the network 105. Although FIG. 1 shows a configuration in which two sets are connected, more sets can be connected. The verification tracking device 106 is connected to the camera and the moving object feature amount extraction device via the network, and receives video and feature amount information therefrom. The card authentication device 117 and the door opening / closing sensor 118 are connected to receive card information and door opening / closing information from the respective devices. The verification tracking device 106 is also connected to a monitoring display 107 that displays a camera image, a movement trajectory of a moving object to be monitored, an intrusion warning to a restricted area, and the like, and has a role of transmitting a situation to a monitoring person.

照合追跡装置106は、監視空間データベース108,特徴量情報受信記憶機能109,カメラ内移動体分離集約機能110,カメラ間移動経路算出機能111,カメラ間移動体整合度算出機能112,監視状況表示機能113,カード認証整合機能114,制限エリア侵入判定機能115,挙動分析不審者検知機能116から構成される。各機能の詳細は後述する。なお、以下で説明される照合追跡装置106の機能は、1つの装置に実装されるだけでなく、複数の装置に分散して実装することも可能である。   The verification tracking device 106 includes a monitoring space database 108, a feature amount information reception storage function 109, an intra-camera moving object separation and aggregation function 110, an inter-camera moving path calculation function 111, an inter-camera moving object matching degree calculation function 112, and a monitoring status display function. 113, a card authentication matching function 114, a restricted area intrusion determination function 115, and a behavior analysis suspicious person detection function 116. Details of each function will be described later. Note that the function of the verification tracking device 106 described below can be implemented not only in one device but also distributed in a plurality of devices.

次に、移動体特徴量抽出装置102,104について説明する。本装置では、カメラで撮影した映像から画像認識手法を適用して特徴量情報を抽出し、それを外部に出力する機能を有する。図2を用いてその処理手順フローを説明する。まず、ステップ201にてカメラで撮影した映像を取り込む。カメラはNTSC形式などのアナログ信号を出力するものやJPEG形式などのデジタル情報を出力するものなど、どの方式のものでも実現可能であり、アナログ形式の場合は、画像認識処理するために、デジタル情報に変換して装置内のメモリに記憶する。   Next, the moving body feature quantity extraction devices 102 and 104 will be described. This apparatus has a function of extracting feature amount information from an image captured by a camera by applying an image recognition method and outputting the feature amount information to the outside. The processing procedure flow will be described with reference to FIG. First, in step 201, an image captured by the camera is captured. The camera can be realized by any method such as an analog signal output such as NTSC format or a digital output such as JPEG format. In the case of the analog format, the digital information is used for image recognition processing. And stored in a memory in the apparatus.

次に、ステップ202では記憶されたデジタル映像情報から映像内に存在する移動体を抽出する。抽出の具体的方式として、背景差分法を適用する。背景差分法とは、移動体が存在しない状態の映像データを背景として保存しておき、移動体が映っている映像データとピクセル毎の輝度値の差分を求めることで、背景には存在しなかった移動体の領域を求める手法である。そして、人物の大きさなどの情報を用いて、移動体領域を個別の人物に分割するのが本ステップでの役割である。   Next, in step 202, a moving body existing in the video is extracted from the stored digital video information. The background subtraction method is applied as a specific method of extraction. The background subtraction method saves video data in a state where there is no moving object as the background, and obtains the difference between the video data showing the moving object and the luminance value for each pixel. This is a method for obtaining a region of a moving object. The role of this step is to divide the moving body region into individual persons using information such as the size of the person.

次に、ステップ203ではステップ202で人物毎に分割された領域からそれぞれの特徴量を算出する。ここでは、特徴量として、下半身と上半身の最頻輝度値を求める方式を説明する。まず、人物の全身が映っている領域のみを処理対象とするため、画像の上下左右の境界にかかっている場合は処理をスキップする。次に、全身領域から輪郭形状の変動点,輝度値の変動点などの情報を用いて、頭部を除いた上半身部分と下半身部分のそれぞれの領域を確定する。そして、それぞれの部分領域内の全画素の輝度値を集計して、出現頻度が最も多い輝度値をその部分領域の代表特徴量とするのである。この処理により、二つの特徴量(上半身最頻輝度値と下半身最頻輝度値)を得ることができる。また、人物の画像内での位置情報(例えば、上半身の重心位置など)を求めて、特徴量情報と合わせて管理しておくことで、移動速度や移動方向を求めることができる。特徴量としては他にも輪郭形状の大きさや色情報を組合せて使うことも可能である。   Next, in step 203, each feature amount is calculated from the area divided for each person in step 202. Here, a method for obtaining the most frequent luminance values of the lower body and the upper body as the feature amount will be described. First, since only the region where the whole body of a person is shown is processed, the processing is skipped when it falls on the upper, lower, left, and right boundaries of the image. Next, using the information such as the contour shape variation point and the luminance value variation point from the whole body region, the upper body part and the lower body part excluding the head are determined. Then, the luminance values of all the pixels in each partial area are aggregated, and the luminance value having the highest appearance frequency is set as the representative feature amount of the partial area. By this processing, two feature quantities (upper body mode luminance value and lower body mode luminance value) can be obtained. Further, by obtaining position information (for example, the position of the center of gravity of the upper body) in a person image and managing it together with the feature amount information, the movement speed and the movement direction can be obtained. As the feature amount, it is also possible to use a combination of the contour shape size and color information.

最後に、ステップ204にて、一つのカメラ映像から得られた特徴量情報(通常は複数の情報)を照合追跡装置に送る。送信する情報には、カメラID,映像取得時刻,ローカルIDなどの情報が付与される。以上説明したステップ201からステップ204までの処理はステップ205にて終了指定が設定されない限り、繰り返し実行される。処理周期は実装する装置での上記の処理時間,カメラのフレームレート,移動体の移動速度を考慮して値が決められる。   Finally, in step 204, feature amount information (usually a plurality of information) obtained from one camera image is sent to the verification tracking device. Information to be transmitted includes information such as camera ID, video acquisition time, and local ID. The processing from step 201 to step 204 described above is repeatedly executed unless end designation is set in step 205. The value of the processing period is determined in consideration of the processing time in the apparatus to be mounted, the frame rate of the camera, and the moving speed of the moving object.

次に、照合追跡装置106における監視空間データベース108について図3を用いて説明する。図3はデータベースの構成データを示したものであり、監視空間データベース108は、建物データベース302,利用者データベース311そして監視データベース314から構成され、それぞれのデータが相互に参照される。   Next, the monitoring space database 108 in the verification tracking device 106 will be described with reference to FIG. FIG. 3 shows the configuration data of the database. The monitoring space database 108 includes a building database 302, a user database 311, and a monitoring database 314, and the respective data are referred to each other.

建物データベース302は、外観形状三次元データ303,フロア別空間データ304,エレベータデータ305,階段データ306,カメラデータ307,カード認証装置データ308,ドア開閉センサデータ309、そしてネットワークデータ310から構成される。   The building database 302 includes three-dimensional appearance shape data 303, floor space data 304, elevator data 305, stairs data 306, camera data 307, card authentication device data 308, door opening / closing sensor data 309, and network data 310. .

ここで図4を用いて建物データベースについて説明する。外観形状三次元データ303は、図4では監視対象空間を三次元モデル401で表現したものであり、監視員等に分かりやすく見せるためにこのデータは用いられる。フロア402,エレベータ403,階段404は、それぞれフロア別空間データ304,エレベータデータ305,階段データ
306の事例として示したものである。この三つのデータは移動体としての人が存在しうる場所を示している。
Here, the building database will be described with reference to FIG. The appearance shape three-dimensional data 303 is a representation of the monitoring target space by a three-dimensional model 401 in FIG. 4, and this data is used in order to make it easy to understand for a monitor or the like. The floor 402, the elevator 403, and the stairs 404 are shown as examples of the space-specific space data 304, the elevator data 305, and the stairs data 306, respectively. These three data indicate places where a person as a moving object may exist.

図5はフロア上の施設配置の一例を示したものである。このフロアには部屋501から部屋504の部屋がありその周囲を通路で囲んでいる。フロアへはエレベータ505,
506か、階段507,508を使って人が出入りする。人が通過する通路はカメラ(および特徴量抽出装置)510から512にて撮影されている。各部屋のドアは開閉センサがついたドア517,518,519,520か、カード認証装置がついたドア513,514,515,516から人の出入りが可能となっているものとする。建物データベース302におけるカメラデータ307は、このようにフロアに取り付けられた位置や撮影範囲のデータを有し、カード認証装置データ308は、カード認証装置の位置や出入り口としてつながる部屋と通路のデータを有し、ドア開閉センサデータ309は、同様にセンサの位置や出入り口としてつながる部屋と通路のデータを有するものとする。
FIG. 5 shows an example of facility arrangement on the floor. On this floor, there are rooms 501 to 504, which are surrounded by a passage. Elevator 505 to the floor
People go in and out using 506 or stairs 507 and 508. A passage through which a person passes is photographed by cameras (and feature quantity extraction devices) 510 to 512. It is assumed that the doors of each room allow people to enter and exit from doors 517, 518, 519, and 520 with open / close sensors or doors 513, 514, 515, and 516 with card authentication devices. The camera data 307 in the building database 302 includes data on the position and shooting range attached to the floor in this way, and the card authentication device data 308 includes data on the location of the card authentication device and the room and passage connected as the entrance / exit. Similarly, the door opening / closing sensor data 309 includes data of a room and a passage connected as a sensor position and an entrance / exit.

次に、経路探索に用いるためのネットワークデータ310について、図6を用いて説明する。まず、通路や部屋などの人が移動する空間をスケルトン表現したものをリンクのベースとする。人の流れが分岐合流する地点やドアやエレベータ・階段によってその空間に人の出入りが発生する地点等をノードと定義し、ノード間は人の移動が可能なリンクとして表現する。図6では、このフロアが通路から構成されるネットワークと各部屋毎に構成されるネットワークの計5つのネットワークにより表現されることを示している。ノードとして、ドアノード,エレベータノード,階段ノード,分岐ノード,ターミナルノードを定義する。ドアノードは通路と部屋,通路と通路,部屋と部屋を結ぶノードであり、別々のネットワーク同士を結びつける役割を担う。図7に示しているようにエレベータノードはエレベータの各フロアに定義し、そのノード間をフロア間をつなげるリンクで結びつけるものであり、フロア間のネットワーク同士を結びつける役割を担う。階段ノードもエレベータノードと同様にフロア間のネットワーク同士を結びつける役割を担うが、エレベータノードを結ぶリンク列ではその中の一箇所にしか人は存在しないが(エレベータ内のかごは1つであるため)、階段ノード同士を結ぶリンクにはそのような制約が無いのが違いである。分岐ノードは人の出入りがない分岐地点に定義されるノードであり、ターミナルノードは人の出入りがないリンクの末端に定義されるノードである。以上説明したネットワークデータを用いることにより、任意のフロアにおけるノード・リンクから別の任意のフロアにおけるノード・リンクまでの経路を生成することが可能となる。   Next, network data 310 for use in route search will be described with reference to FIG. First, a skeleton representation of a space where people move, such as passages and rooms, is used as the base of the link. A point where a person's flow branches and joins, a point where a person enters and leaves the space by a door, an elevator, or a staircase is defined as a node, and a node is expressed as a link that allows movement of a person. FIG. 6 shows that this floor is expressed by a total of five networks, a network composed of passages and a network constructed for each room. As nodes, door nodes, elevator nodes, stair nodes, branch nodes, and terminal nodes are defined. A node is a node connecting a passage and a room, a passage and a passage, and a room and a room, and plays a role of connecting separate networks. As shown in FIG. 7, an elevator node is defined on each floor of the elevator, and the nodes are connected by links connecting the floors, and plays a role of connecting networks between the floors. The stairway node also plays a role of connecting networks between floors like the elevator node, but there is only one person in the link row connecting the elevator nodes (because there is only one car in the elevator). ), The difference between the links connecting the staircase nodes is that there is no such restriction. A branch node is a node defined at a branch point where no person enters or exits, and a terminal node is a node defined at the end of a link where no person enters or exits. By using the network data described above, it is possible to generate a route from a node link on an arbitrary floor to a node link on another arbitrary floor.

図3における利用者データベース311は、その空間にアクセスする権限のある特定された人物の情報を集めたものであり、組織構成員データ312と登録済み来場者データ
313から構成される。具体的には、各フロアに入居している団体・会社およびその組織構成,組織を構成する人員リストの情報を含み、各組織や個人のレベルでの各部屋へのアクセス権限の情報や各個人のカード情報・バイオメトリクス情報が含まれる。登録済み来場者データも同様であり、そのフロアに一時的にアクセスする来場者の情報を組織構成員データと同様な形式で記録するものとする。カード認証やその他の認証(顔認証や指紋認証,静脈認証,音声認証などのバイオメトリクス認証含む)によって個人が特定されると、このデータベースの情報が参照され、その個人に許可されるアクセス可能なエリアを特定することができる。組織・個人の特定情報と結び付けられない移動体が、制限エリアへ侵入した場合は、アラーム出力の対象となる。
The user database 311 in FIG. 3 is a collection of information on specified persons who have the authority to access the space, and is composed of organization member data 312 and registered visitor data 313. Specifically, it includes information on the groups and companies occupying each floor, the organization structure, and the personnel list that constitutes the organization, information on access rights to each room at each organization and individual level, and each individual Card information and biometrics information. The same applies to registered visitor data, and information on visitors who temporarily access the floor is recorded in the same format as the organization member data. When an individual is identified by card authentication or other authentication (including biometric authentication such as face authentication, fingerprint authentication, vein authentication, voice authentication, etc.), the information in this database is referred to, and access permitted for the individual is permitted. An area can be specified. If a mobile object that is not linked to specific organization / individual information enters the restricted area, it is subject to alarm output.

図3の監視データベース314は、主にカメラおよび特徴量抽出装置から送られてくるデータを蓄積し、算出された移動体,移動経路,整合度などのデータを蓄積するものであり、カメラ映像データ315,抽出特徴量データ316,カメラ内照合追跡データ317、そしてカメラ間照合追跡データ318から構成される。次に説明する照合追跡装置内の多くの機能はこのデータベースをワークエリアとしても利用する。   The monitoring database 314 in FIG. 3 accumulates data mainly sent from the camera and the feature quantity extraction device, and accumulates data such as the calculated moving body, moving path, and degree of matching. 315, extracted feature value data 316, in-camera verification tracking data 317, and inter-camera verification tracking data 318. Many functions in the verification tracking apparatus described below also use this database as a work area.

次に、図1における特徴量情報受信記憶機能109について以下説明する。この機能はネットワークを経由して複数のカメラおよび移動体特徴量抽出装置から送られてくる映像と特徴量情報を受信し、それぞれ監視空間データベース108内の監視データベース314におけるカメラ映像データ315,抽出特徴量データ316に記憶する役割を担う。映像データはすべてを保管するためには多くの記憶容量が必要となるため、期限を切って過去のデータは削除したり、人物が映っているシーンのみを選択的に記憶手段に記録したりする。   Next, the feature amount information reception storage function 109 in FIG. 1 will be described below. This function receives video and feature amount information sent from a plurality of cameras and moving body feature amount extraction devices via a network, and extracts camera feature data 315 in the monitoring database 314 in the monitoring space database 108, respectively. It plays a role of storing in the quantity data 316. To store all video data, a large amount of storage capacity is required, so past data is deleted after the expiration date, or only scenes where people are shown are selectively recorded in the storage means. .

図1におけるカメラ内移動体分離集約機能110について以下説明する。図8は各カメラで撮影された映像のスナップと所定の時間内に抽出された特徴量をグラフにプロットしたものを例示している。ここでは、図5で例示したフロアに配置されたカメラの中の、三つのカメラを対象として図8(a)にカメラ509のスナップ映像801と抽出特徴量グラフ802を、図8(b)にカメラ510のスナップ映像811と抽出特徴量グラフ812を、図8(c)にカメラ512のスナップ映像821と抽出特徴量グラフ822を、それぞれ例示している。スナップ映像801では、三人の人物が抽出され、人物803は画像の奥側に移動し、人物804,805は画像の手前に移動するものとする。抽出特徴量グラフ802は、先に例示したように上半身最頻輝度値と下半身最頻輝度値の二つの値を特徴量として、特徴量空間を表す二次元グラフにその抽出した値をプロットしたものである。スナップ映像801がある特定時刻の1シーンのみを表すものに対し、抽出特徴量グラフ802は所定の時刻間において抽出された特徴量をまとめてプロット表示している。図2のフローチャートで説明したように、移動体特徴量抽出装置によって、スナップ映像
801から三人の人物803,804,805がそれぞれ抽出され、その映像に対して、抽出特徴量グラフ802にプロットされるデータが三つ求められ、それが特徴量情報受信記憶機能109を経て、監視空間データベース108に保管される。カメラ視野内人物の移動時間差,照明等の外部環境の変動,人物の動きによる大きさ・向きの変動等により、特徴量の抽出時間に時刻差が生じ、また同じ人物に対する特徴量も変動する。この時間的にずれて抽出され、変動を伴う特徴量を個別の移動体別の情報として整理する役割をカメラ内移動体分離集約機能110が担っている。つまり、グラフ802において、バラバラにプロットされた特徴量をデータ集合806,807,808のようにそれぞれのデータ集合としてまとめ、移動体と対応付けるのである。この例では、人物803に相当するデータ集合がデータ集合808に、人物804に相当するデータ集合がデータ集合807に、人物805に相当するデータ集合がデータ集合806に、それぞれ対応するものとして以下の説明を展開する。
The in-camera moving object separation and aggregation function 110 in FIG. 1 will be described below. FIG. 8 exemplifies a graph in which snaps of images taken by each camera and feature amounts extracted within a predetermined time are plotted on a graph. Here, the snap image 801 and the extracted feature amount graph 802 of the camera 509 are illustrated in FIG. 8A for three cameras among the cameras arranged on the floor illustrated in FIG. 5, and the extracted feature amount graph 802 is illustrated in FIG. 8B. The snap image 811 and the extracted feature amount graph 812 of the camera 510 are illustrated, and the snap image 821 and the extracted feature amount graph 822 of the camera 512 are illustrated in FIG. 8C, respectively. In the snap image 801, three persons are extracted, the person 803 moves to the back side of the image, and the persons 804 and 805 move to the front of the image. The extracted feature amount graph 802 is obtained by plotting the extracted values on a two-dimensional graph representing the feature amount space with the upper body mode luminance value and the lower body mode luminance value as feature amounts as exemplified above. It is. Whereas the snap video 801 represents only one scene at a certain time, the extracted feature amount graph 802 plots and displays the feature amounts extracted during a predetermined time. As described with reference to the flowchart of FIG. 2, the moving object feature amount extraction apparatus extracts three persons 803, 804, and 805 from the snap image 801, and plots the images on the extracted feature amount graph 802. Three pieces of data are obtained and stored in the monitoring space database 108 via the feature amount information reception storage function 109. Due to differences in the movement time of the person in the camera field of view, fluctuations in the external environment such as lighting, fluctuations in the size and orientation due to the movement of the person, a time difference occurs in the extraction time of the feature quantity, and the feature quantity for the same person also varies. The in-camera moving body separation / aggregation function 110 plays a role of organizing feature quantities extracted with time lag and accompanying fluctuations as individual moving body information. That is, in the graph 802, feature quantities plotted apart are collected as respective data sets such as data sets 806, 807, and 808, and are associated with a moving object. In this example, the data set corresponding to the person 803 corresponds to the data set 808, the data set corresponding to the person 804 corresponds to the data set 807, and the data set corresponding to the person 805 corresponds to the data set 806, respectively. Expand the description.

カメラ内移動体分離集約機能110の処理手順を図9のフローチャートを用いて説明する。特徴量抽出装置から送られてくる情報は、映像データは監視データベース314のカメラ映像データ315に蓄積され、特徴量データは抽出特徴量データ316に蓄積されるが、それぞれカメラ毎,時刻毎の情報として保管される。送られてきたデータを移動体情報として整理するために、まず未処理カメラの特徴量抽出情報を選択し(ステップ901)、その中のまだ整理が終わっていない未処理時刻情報を選択する(ステップ902)。次に、ステップ903のカメラ・時刻別特徴量分離集約処理により、既にある移動体情報に追加したり、新規移動体として登録したり、退出した移動体として処理したりする。その処理結果は監視データベース314のカメラ内照合追跡データ317に保管される。そして、まだ処理していない別の時刻の情報が残っていれば(ステップ904)、ステップ
902からの処理を繰り返し、また、まだ処理していない別のカメラの抽出情報が残っていれば(ステップ905)、ステップ901からの処理を繰り返す。
The processing procedure of the in-camera moving object separation and aggregation function 110 will be described with reference to the flowchart of FIG. As for the information sent from the feature quantity extraction device, the video data is accumulated in the camera video data 315 of the monitoring database 314, and the feature quantity data is accumulated in the extracted feature quantity data 316. Stored as. In order to organize the sent data as moving body information, first, feature amount extraction information of an unprocessed camera is selected (step 901), and unprocessed time information that has not yet been organized is selected (step 901). 902). Next, by the camera / time-specific feature amount separation / aggregation process in step 903, the information is added to the existing mobile object information, registered as a new mobile object, or processed as an exiting mobile object. The processing result is stored in the in-camera verification tracking data 317 of the monitoring database 314. If information on another time that has not yet been processed remains (step 904), the processing from step 902 is repeated, and if extraction information on another camera that has not yet been processed remains (step 904). 905), the processing from step 901 is repeated.

次に、ステップ903にあるカメラ・時刻別特徴量分離集約処理の詳細を図10のフローチャートを用いて説明する。まず、ステップ1001にて処理対象のカメラ情報について、そのカメラ内に既に移動体として登録されているデータ集合(これをカメラ内既存移動体と呼ぶ)が存在するかどうかを確認する。存在していない場合は、新たに移動体がカメラ視野に進入してきたことに相当するため、ステップ1002にてすべての未処理特徴量情報をカメラ内に新規に現れた移動体としてデータ集合を新設して登録する(これをカメラ内新規移動体と呼ぶ)。図8における801,811,812がこの条件に合う場合には、それぞれ3つ,2つ,1つのカメラ内新規移動体が登録されることになる。   Next, details of the camera / time-specific feature amount separation / aggregation processing in step 903 will be described with reference to the flowchart of FIG. First, in step 1001, it is confirmed whether or not there is a data set (referred to as an in-camera existing moving body) already registered as a moving body in the camera for the camera information to be processed. If it does not exist, this is equivalent to a new moving object entering the camera field of view. Therefore, in step 1002, a data set is newly created as a moving object that newly appears in the camera with all unprocessed feature information. And register (this is called a new in-camera moving body). When 801, 811 and 812 in FIG. 8 meet this condition, three, two and one new moving bodies in the camera are registered, respectively.

一方、カメラ内既存移動体が存在する場合は、特徴量情報はその既存移動体と同じ人物としてデータを追加するか、新規移動体として登録するかどちらかになる。これを判定するために、空間距離とマハラノビス距離の二つの距離量を用いる。まず、未処理の特徴量情報を選択し(ステップ1003)、すべてのカメラ内既存移動体におけるデータ集合の中で、最新情報のカメラ内位置と、選択した特徴量のカメラ内位置との空間距離をそれぞれ算出する(ステップ1004)。最新情報の位置としては、直前のデータだけでなく、例えばカルマンフィルターを用いたその時刻に対する移動予測位置を用いてもよい。このカルマンフィルターとは時系列として観測される計測データを用いて、未来の時刻における予測値を求め、また、新たな計測データによってその予測精度を改善する手法である。また、すべてのカメラ内既存移動体におけるデータ集合の中で、特徴量集合と選択した特徴量とのマハラノビス距離を算出する(ステップ1005)。マハラノビス距離は統計で用いられる指標で、データ集合の平均値と対象値との距離を集合の標準偏差で割った値であり、分布を考慮に入れたデータ集合と1つのデータとの近さを表すものである。ここでは特徴量の類似度を示す指標として用いる。これをすべての未処理特徴量に対して繰り返す(ステップ1006)。   On the other hand, when there is an existing moving body in the camera, the feature amount information is either added as data as the same person as the existing moving body or registered as a new moving body. In order to determine this, two distance quantities, a spatial distance and a Mahalanobis distance, are used. First, unprocessed feature quantity information is selected (step 1003), and the spatial distance between the latest information in-camera position and the selected feature quantity in-camera position in the data set of all existing moving bodies in camera. Are calculated respectively (step 1004). As the position of the latest information, not only the immediately preceding data, but also, for example, a movement predicted position for the time using a Kalman filter may be used. This Kalman filter is a technique for obtaining a predicted value at a future time using measurement data observed as a time series, and improving the prediction accuracy using new measurement data. Further, the Mahalanobis distance between the feature quantity set and the selected feature quantity among the data sets in all the existing mobile bodies in the camera is calculated (step 1005). Mahalanobis distance is an index used in statistics, and is the value obtained by dividing the distance between the average value of the data set and the target value by the standard deviation of the set, and the proximity of the data set taking into account the distribution and one data. It represents. Here, it uses as a parameter | index which shows the similarity degree of a feature-value. This is repeated for all unprocessed feature values (step 1006).

次に、ステップ1007にて、算出した空間距離とマハラノビス距離からなる、すべてのベクトル組で、その大きさが最小値となる組を求める。ベクトルの大きさが最小であることが既存移動体と一致するということにはならないため、所定のしきい値を設定し、その値の範囲内であるかどうかチェックする(ステップ1008)。もし範囲内であれば、ステップ1009にあるように、選択した組の特徴量情報をカメラ内既存移動体情報に追加し、この組を次の選択候補から除く。これを候補となる既存移動体が存在するまで、ステップ1007以下を繰り返す(ステップ1010)。ステップ1008にて、ベクトルの大きさが所定の範囲を超えた場合は、残りの既存移動体情報はカメラ視野から退出したか、他の移動体との重なりで本来抽出されるべき特徴量が抽出されなかったと考えられる。そこで、対象となる既存移動体の最新位置が、例えば、図3のネットワークデータ310を参照して、退出地点近傍内にある場合には、移動体が退出したものと見なし、その既存移動体情報にそのことを示す情報を追記して、カメラ内既存移動体としての登録情報から削除する(ステップ1012)。最後に、どのカメラ内既存移動体とも結び付けられなかった未処理特徴量は、新規にカメラ視野に進入したものとしてカメラ内新規移動体として登録する(ステップ1011)。   Next, in step 1007, a set whose magnitude is the minimum value is obtained from all the vector sets including the calculated spatial distance and Mahalanobis distance. Since the smallest vector size does not coincide with the existing moving object, a predetermined threshold value is set, and it is checked whether it is within the range of the value (step 1008). If it is within the range, as in step 1009, the feature amount information of the selected set is added to the existing moving body information in the camera, and this set is removed from the next selection candidate. Step 1007 and subsequent steps are repeated until there is a candidate existing mobile object (step 1010). In step 1008, if the vector size exceeds the predetermined range, the remaining existing moving body information is extracted from the camera field of view or the feature quantity that should be extracted by overlapping with other moving bodies is extracted. It is thought that it was not done. Therefore, when the latest position of the target existing mobile object is within the vicinity of the exit point with reference to, for example, the network data 310 of FIG. 3, it is considered that the mobile object has exited, and the existing mobile object information Is added to the information indicating that and deleted from the registered information as the existing moving body in the camera (step 1012). Finally, the unprocessed feature quantity that has not been associated with any in-camera existing moving body is registered as a new in-camera moving body as having newly entered the camera view (step 1011).

以上説明した処理を実施することにより、カメラ509の情報については、グラフ802において、データ集合806から808として情報を集約することができ、また、映像
801における個別の人物との対応付けもできる。また、カメラ510の情報についても、グラフ812において、データ集合815,816を分離でき、それぞれ映像811の人物814,813との対応付けができ、カメラ512の情報についても、グラフ822におけるデータ集合824と映像821における人物823とが対応付けられる。
By performing the processing described above, information on the camera 509 can be aggregated as data sets 806 to 808 in the graph 802, and can be associated with individual persons in the video 801. In addition, regarding the information of the camera 510, the data sets 815 and 816 can be separated in the graph 812 and can be associated with the persons 814 and 813 of the video 811 respectively, and the information of the camera 512 is also the data set 824 in the graph 822. And the person 823 in the video 821 are associated with each other.

次に、図1におけるカメラ間移動経路算出機能111について以下説明する。移動経路算出は、例えば図6に示したようなノードとリンクから構成されるネットワーク表現データを対象とする。経路探索手法としては、リンクコストが最小となる経路を探索する方式であるダイクストラ法を基本とする。ダイクストラ法を適用することにより、指定したノードから残りの全ノードに対する最小リンクコスト経路を求めることができる。このダイクストラ法とはネットワークのリンクに設定されたコストに対して、各ノードへの最小値経路を、開始点から1つずつ確定して、それをネットワーク全体に広げていくアルゴリズムであり、地図における最短経路探索の基本アルゴリズムとして広く利用されているものである。そして、ここでのリンクコストには移動時間に対応するものを選択する必要がある。そのため、フロア内ではノード間の距離に人の平均移動速度を掛け合わせたものを、階段ノード間には階段距離に階段昇降平均速度を掛け合わせたものを、エレベータノード間にはエレベータホールでの平均待ち時間にエレベータのフロア間移動時間(扉開閉時の出入り時間含む)を加えたものを用いる。以上説明したようなリンクコストに時間依存性がない指標を用いる場合は、カメラ間およびノード間の最小重み経路は、オフラインで事前に求めておくことが可能であり、それを例えば監視空間データベース108のネットワークデータ310に保管して、参照するだけで経路が得られるようにすることができる。   Next, the inter-camera movement path calculation function 111 in FIG. 1 will be described below. The movement route calculation is targeted for network expression data composed of nodes and links as shown in FIG. 6, for example. The route search method is based on the Dijkstra method, which is a method for searching for a route with the lowest link cost. By applying the Dijkstra method, it is possible to obtain the minimum link cost path from the designated node to all remaining nodes. This Dijkstra method is an algorithm that determines the minimum value route to each node one by one from the starting point for the cost set for the link of the network, and spreads it throughout the network. It is widely used as a basic algorithm for shortest path search. In this case, it is necessary to select a link cost corresponding to the travel time. Therefore, in the floor, the distance between the nodes multiplied by the average moving speed of the person, between the staircase nodes multiplied by the staircase distance multiplied by the stair climbing average speed, and between the elevator nodes in the elevator hall Use the average waiting time plus the time required to move the elevator between floors (including the time to enter and exit the door). When using an index having no time dependency in the link cost as described above, the minimum weight path between the cameras and between the nodes can be obtained in advance offline, for example, the monitoring space database 108. The network data 310 can be stored so that a route can be obtained simply by referring to it.

しかし、以下の説明項目を考慮すると、実際は必要になった時点で移動経路を求める処理を実行する必要が出てくる。まず、抽出した移動体の特徴量情報の、その位置の時間遷移データから、カメラ視野内での移動速度を求めることが出来る。リンクコストの設定に平均移動速度ではなく、この算出した移動速度を適用することでリンクコストが変わることになる。また、エレベータでの移動時間も、統計的な平均値ではなく、その時のエレベータの稼動データ(どの時刻にどのフロアにいたか)から求めた実績値を用いることでリンクコストが変わることになる。エレベータによる移動は他のフロアにおける呼の状況や運行管理モードに大きく影響されるため、精度の高い推定には、エレベータの運行をモデル化し、シミュレーションによりその挙動を推定する必要がある。一方、移動体の特徴量情報よりカメラ視野からの移動体の退出方向を得ることができるが、経路はその向きに大きく依存することになる。よって、まず経路探索の出発地点からその移動方向にある途中の分岐点までネットワーク上の経路を求め、次にその分岐点からダイクストラ法を適用して最小コスト経路を求める必要がある。   However, in consideration of the following explanation items, it is necessary to execute a process for obtaining a movement route when it is actually necessary. First, the moving speed within the camera field of view can be obtained from the time transition data at the position of the feature amount information of the extracted moving object. The link cost is changed by applying the calculated moving speed instead of the average moving speed to the link cost setting. In addition, the travel time at the elevator is not a statistical average value, but the link cost is changed by using the actual value obtained from the elevator operation data at that time (which floor at which time). Since movement by an elevator is greatly influenced by the call status and operation management mode on other floors, it is necessary to model the operation of the elevator and estimate its behavior by simulation for high-precision estimation. On the other hand, the moving direction of the moving body from the camera field of view can be obtained from the feature amount information of the moving body, but the path greatly depends on the direction. Therefore, it is necessary to first obtain a route on the network from the starting point of the route search to an intermediate branch point in the moving direction, and then obtain the minimum cost route from the branch point by applying the Dijkstra method.

上記の説明を踏まえ、カメラ間移動経路算出機能111を図11を用いて説明する。まず、まだ経路算出が終わっていない未処理のカメラデータを選択し(ステップ1101)、その中の移動体情報を選択する(ステップ1102)。そして、移動体速度・方向を算出し、その速度情報を用いてネットワークのリンクコストを設定する(ステップ1103)。次に、エレベータの稼動データを用いたエレベータノード間のリンクコストを設定し
(ステップ1104)、移動方向を考慮した分岐点までの推定経路を算出する(ステップ1105)。最後に、分岐点よりダイクストラ法による最小コスト経路を算出し(ステップ1106)、その経路を例えば監視空間データベース108内のカメラ間照合追跡データ318に保存する(ステップ1107)。以上の処理をすべての移動体に対して(ステップ1108)、そしてすべてのカメラデータに対して(ステップ1109)繰り返す。
Based on the above description, the inter-camera movement path calculation function 111 will be described with reference to FIG. First, unprocessed camera data for which route calculation has not yet been completed is selected (step 1101), and moving body information in the camera data is selected (step 1102). Then, the moving body speed / direction is calculated, and the link cost of the network is set using the speed information (step 1103). Next, the link cost between the elevator nodes using the elevator operation data is set (step 1104), and the estimated route to the branch point in consideration of the moving direction is calculated (step 1105). Finally, the minimum cost path by the Dijkstra method is calculated from the branch point (step 1106), and the path is stored in the inter-camera collation tracking data 318 in the monitoring space database 108 (step 1107). The above processing is repeated for all moving objects (step 1108) and for all camera data (step 1109).

以上説明した方式を図5のフロアおよび図6のネットワーク表現に適用し、図5のカメラ509でとらえた移動体を例に説明する。図8(a)に例示するように、カメラ映像から抽出した三人の移動体情報から、それぞれの特徴量や移動速度,移動方向を求めることができ、その移動速度を用いてリンクコストを設定する。人物803は映像の奥へ移動することから、その分岐点に至るまでの経路を図12における推定経路1202として求めることができる。一方、人物804,805は映像の手前に移動することから、その分岐点に至るまでの経路を図12における推定経路1201として求めることができる。そして、各分岐点よりダイクストラ法を適用して経路として設定されていない全ノードへの最小リンクコスト経路を求めるのである。同様にカメラ510に対する推定経路として推定経路1203および推定経路1204,カメラ512に対する推定経路として推定経路
1205をそれぞれ求めることができる。本ケースでは、分岐点にカメラが設置されているが、一般的には分岐点とカメラ設置地点は一致せず、またネットワーク規模が大きくなると経路探索処理により自動的に経路を求める必要が明確になる。
The method described above is applied to the floor in FIG. 5 and the network representation in FIG. 6, and a moving body captured by the camera 509 in FIG. 5 will be described as an example. As illustrated in FIG. 8A, the feature amount, moving speed, and moving direction can be obtained from the moving body information of the three persons extracted from the camera image, and the link cost is set using the moving speed. To do. Since the person 803 moves to the back of the video, the route to the branch point can be obtained as the estimated route 1202 in FIG. On the other hand, since the persons 804 and 805 move to the front of the video, the route to the branch point can be obtained as the estimated route 1201 in FIG. Then, the minimum link cost route to all nodes not set as a route is obtained by applying the Dijkstra method from each branch point. Similarly, the estimated route 1203 and the estimated route 1204 can be obtained as estimated routes for the camera 510 and the estimated route 1205 as estimated routes for the camera 512, respectively. In this case, a camera is installed at the branch point, but in general, the branch point and the camera installation point do not match, and it is clearly necessary to obtain a route automatically by route search processing when the network scale increases. Become.

ここで、図5で示した事例では、カメラは通路のみに設置されているため、移動経路は通路上のリンクからのみ構成されるネットワークのみが探索対象であったが、部屋内にカメラを設置した場合は、複数のネットワークにまたがった探索が必要になる。この場合は、部屋から通路までの経路をまず求め、次に通路ネットワークを探索対象とするような、2段階探索を適用する。   Here, in the example shown in FIG. 5, since the camera is installed only in the passage, only the network composed only of the links on the passage is the search target, but the camera is installed in the room. In this case, it is necessary to search across multiple networks. In this case, a two-stage search is applied in which a route from the room to the passage is first obtained and then the passage network is searched.

次に、図1におけるカメラ間移動体整合度算出機能112について以下説明する。図8を用いて本機能の目的を説明する。ここでは三人の人物が登場し、カメラ509からカメラ510へ二人の人物が、残りの一人の人物がカメラ509からカメラ512へ移動したとする。この時に、映像801の人物803が映像821の人物823と、映像801の人物804と人物805が映像811の人物813と人物814にそれぞれが照合することを推定するのである。この照合には、先に説明したカメラ間の移動経路とカメラ内移動体の集合データが必要になる。図8の三つの映像データを時間を追って見ると、まず映像801に三人が登場し、カメラ内を移動した後、カメラ視野から退出する。その時刻から人物が移動する時間分だけ遅れて、映像811および映像821に人物が登場して、また退出していく。カメラ視野外の移動経路途中に人の出入り口があった場合は、上流側カメラで撮影した人物が下流側のカメラに登場しなかったり、あるいは上流側カメラに映っていない人物が下流側のカメラで登場することもある。また、本実施例では監視対象の人物を三人のみとして説明しているが、通常はそれぞれのカメラ内を次から次へと人が移動していくことを想定する必要がある。   Next, the inter-camera moving body matching degree calculation function 112 in FIG. 1 will be described below. The purpose of this function will be described with reference to FIG. Here, it is assumed that three persons appear, two persons move from the camera 509 to the camera 510, and the remaining one person moves from the camera 509 to the camera 512. At this time, it is estimated that the person 803 of the video 801 collates with the person 823 of the video 821, and the person 804 and the person 805 of the video 801 collate with the person 813 and the person 814 of the video 811, respectively. This collation requires the above-described movement path between cameras and aggregate data of moving bodies within the camera. When the three pieces of video data in FIG. 8 are viewed over time, first, three people appear in the video 801, move through the camera, and then leave the camera view. The person appears in the video 811 and the video 821 and then exits with a delay of the time the person moves from that time. If there is a person's doorway on the way out of the camera's field of view, the person captured by the upstream camera will not appear in the downstream camera, or the person who is not reflected in the upstream camera will appear in the downstream camera. It may appear. In the present embodiment, only three persons to be monitored are described, but it is usually necessary to assume that people move from one to the next in each camera.

以上を踏まえて、本機能の目的である人物照合を精度よく実現するためには、まず移動時間を考慮した照合データの時間軸上の絞込みが必要であり、そのためにカメラ間移動経路算出機能111で求めた経路情報を用いる。各カメラから抽出された移動体がその視野から退出したと判定された時点で(図10のフローチャートのステップ1012で判定)、その移動体の行き先の経路上にあるカメラの設置地点までの経路およびその移動時間を参照する。そして、そのカメラまで到達する可能性のある移動体情報として、予測到達時間(退出時刻に移動時間を加えたもの)の前後に検索時刻ウィンドウを設定し、退出した移動体情報への参照とともに、記憶しておく。例として、図13に、図8の801における人物804と805が、上流側カメラである図5のカメラ509から下流側カメラであるカメラ510に移動する場合を時間軸上に示す。カメラ509における人物804と
805は同時にカメラに映っており、進入から退出までの時間に重なりがある。また、カメラ510に設定する検索時刻ウィンドウも二つの人物向けの範囲が重なっている様子が示されている。
Based on the above, in order to accurately realize the person verification that is the purpose of this function, it is first necessary to narrow down the verification data on the time axis in consideration of the movement time. For this reason, the inter-camera movement path calculation function 111 is required. The route information obtained in step 1 is used. When it is determined that the mobile body extracted from each camera has left the field of view (determined in step 1012 of the flowchart of FIG. 10), the path to the camera installation point on the destination path of the mobile body and Refer to the travel time. And as mobile object information that may reach the camera, a search time window is set before and after the estimated arrival time (exit time plus movement time), and with reference to the mobile object information that has exited, Remember. As an example, FIG. 13 shows on the time axis the case where the persons 804 and 805 in 801 in FIG. 8 move from the camera 509 in FIG. 5 that is the upstream camera to the camera 510 that is the downstream camera. The persons 804 and 805 in the camera 509 are reflected on the camera at the same time, and there is an overlap in time from entry to exit. In addition, the search time window set in the camera 510 also shows that the ranges for two persons overlap.

次に、カメラ間で対応する移動体を推定する手順を説明する。図14は、カメラ510の時刻軸上に設定されたカメラ509からの検索時刻ウィンドウと、カメラ内移動体分離集約機能110によって図8の映像811に示されるような人物813と人物814の進入退出を抽出した様子を示している。ここではカメラの視野から退出した時点で、カメラ間で対応する移動体を探す処理を実行するものとする。まず、人物814が退出した時点で、検索時刻ウィンドウの範囲に含まれているすべての上流側移動体を候補として移動体同士の整合度を算出する。この場合、人物814に対応する特徴量集合815と、人物
804と人物805に対応する特徴量集合807と特徴量集合806との整合度を算出することになる。
Next, a procedure for estimating the corresponding moving body between the cameras will be described. FIG. 14 shows the search time window from the camera 509 set on the time axis of the camera 510, and the entry and exit of the person 813 and the person 814 as shown in the video 811 of FIG. It shows a state that is extracted. Here, it is assumed that when the camera leaves the field of view, a process of searching for a corresponding moving body between the cameras is executed. First, when the person 814 leaves, the degree of matching between the moving bodies is calculated using all the upstream moving bodies included in the range of the search time window as candidates. In this case, the degree of matching between the feature value set 815 corresponding to the person 814, the feature value set 807 corresponding to the person 804 and the person 805, and the feature value set 806 is calculated.

ここで、二つのデータ集合同士の整合度を定義するために、まず、統計学における判別分析で用いられる線形判別関数によって得られる値を近接度として定義する。線形判別関数は二つのグループを分離する最適な直線(一般的には超平面)であり、その定義式に各グループそれぞれのサンプル点の値を代入したものを判別得点と呼ぶ。判別得点はサンプル点と線形判別関数との離れ具合を示す指標である。二つのグループ全サンプルに対する判別得点の偏差平方和は、二つのグループ間の距離を表す指標と各グループ内の変動の和を示す指標の、二つの指標の加算で表現できることが知られている。その前者の指標を
(全サンプル数−1)で割った値が分散に相当するため、その値の平方根をここでは近接度と定義する。具体的には判別得点の個別グループの平均をそれぞれZ1ave,Z2ave、全体平均をZave、それぞれのサンプル数をN1,N2とすると、近接度D12は以下の式1で定義される。
Here, in order to define the degree of matching between two data sets, first, a value obtained by a linear discriminant function used in discriminant analysis in statistics is defined as the proximity. A linear discriminant function is an optimal straight line (generally a hyperplane) that separates two groups, and a value obtained by substituting the value of each sample point in each group is called a discriminant score. The discrimination score is an index indicating the degree of separation between the sample point and the linear discrimination function. It is known that the deviation sum of squares of the discrimination scores for all the samples in two groups can be expressed by adding two indices, an index indicating the distance between the two groups and an index indicating the sum of the fluctuations in each group. Since the value obtained by dividing the former index by (total number of samples-1) corresponds to the variance, the square root of the value is defined as the proximity here. Specifically, assuming that the average of individual groups of discrimination scores is Z1 ave and Z2 ave , the overall average is Z ave , and the number of samples is N1 and N2, respectively, the proximity D12 is defined by the following formula 1.

D12=√((N1*(Z1ave−Zave)2 +N2*(Z2ave−Zave)2) /(N1
+N2−1)) …(式1)
近接度の定義には他にもマハラノビス距離を用いる方法も適用可能である。近接度が小さければ二つの移動体は同じものである可能性が高く、逆に大きければ別のものである可能性が高いといえる。そこで近接度の所定の範囲を0から1に正規化し、1から引いた値を二つの移動体間で定義される整合度として用いることで、よりわかりやすい指標となる。近接度の下限値をDmin,上限値をDmaxとすると近接度D12に対応する整合度M12を以下の式2で定義する。
D12 = √ ((N1 * ( Z1 ave -Z ave) 2 + N2 * (Z2 ave -Z ave) 2) / (N1
+ N2-1)) (Formula 1)
In addition to the definition of proximity, a method using the Mahalanobis distance is also applicable. If the proximity is small, the two moving bodies are likely to be the same, and conversely if the proximity is large, the possibility is high that they are different. Therefore, a predetermined range of proximity is normalized from 0 to 1, and a value subtracted from 1 is used as the degree of matching defined between the two moving objects, so that the index becomes easier to understand. When the lower limit value of the proximity is Dmin and the upper limit is Dmax, the matching degree M12 corresponding to the proximity D12 is defined by the following equation 2.

M12=1−(D12−Dmin)/(Dmax−Dmin) …(式2)
ただし、D12がDmaxより大きな値のときは、M12=0、D12がDminより小さな値のときは、M12=1とする。
M12 = 1− (D12−Dmin) / (Dmax−Dmin) (Expression 2)
However, M12 = 0 when D12 is larger than Dmax, and M12 = 1 when D12 is smaller than Dmin.

上記で定義した整合度を図8の特徴量集合815と特徴量集合806間、および特徴量集合815と特徴量集合807間でそれぞれ求めると、特徴量集合815と特徴量集合
806との組合せが整合度として1に近い値となる。設定した判定値よりも大きな値であった場合は、この二つの組は一致するものとして判定されることになる。一致した場合は、対応する805向け検索時刻ウィンドウ情報を削除し、また、退出した814移動体情報に、上流側で対応する人物805の移動体情報への参照を記録しておく。これにより移動経路も含めた追跡が可能となる。同様にして、人物813が退出した時点には、検索時刻ウィンドウ内として対応する移動体は人物804に対してのものだけであるから、特徴量集合816と特徴量集合807の整合度を算出し、それが判定値よりも大きな値になるか調べる。このケースでは1に近い値になるため、この二つの組は一致するものとして、対応する804向け検索時刻ウィンドウ情報を削除し、退出した人物813の移動体情報に、人物804の移動体情報への参照を記録しておく。
When the degree of matching defined above is obtained between the feature quantity set 815 and the feature quantity set 806 and between the feature quantity set 815 and the feature quantity set 807 in FIG. 8, the combination of the feature quantity set 815 and the feature quantity set 806 is obtained. The matching degree is a value close to 1. If the value is larger than the set determination value, the two sets are determined as matching. If they match, the corresponding search time window information for 805 is deleted, and the reference to the moving body information of the corresponding person 805 on the upstream side is recorded in the exited 814 moving body information. As a result, the tracking including the moving route becomes possible. Similarly, when the person 813 leaves, since the corresponding moving object in the search time window is only for the person 804, the degree of matching between the feature quantity set 816 and the feature quantity set 807 is calculated. , Whether it becomes a value larger than the judgment value. In this case, since the value is close to 1, it is assumed that the two sets match, the corresponding search time window information for 804 is deleted, and the moving body information of the person 813 who has left is changed to the moving body information of the person 804. Record the references.

基本的には以上の処理を各カメラに対応する情報毎に実施することで、移動体同士の整合度の算出および一致の有無の判定を実施することができる。なお、この処理はカメラ視野に進入した時点や進入してから所定の時間を経過した時点など進入から退出までのどの時刻でも実行可能である。ここで、実際の場面を想定した場合、二つのカメラ間の経路途中で人の出入りが発生したり、長時間滞留していたり、途中で引き返してきたりするケースを想定しておく必要がある。   Basically, by performing the above processing for each piece of information corresponding to each camera, it is possible to calculate the degree of matching between moving bodies and determine whether there is a match. This process can be executed at any time from entry to exit, such as when entering the camera field of view or when a predetermined time has elapsed since entering. Here, when an actual scene is assumed, it is necessary to assume a case where a person enters or exits in the middle of a route between two cameras, stays for a long time, or turns back in the middle.

即ち、移動体がカメラ視野から退出したタイミングで、上流側カメラの移動体情報との整合度を算出しようとした場合、予測通りに移動体が到着した時には、先に説明したように検索時刻ウィンドウの範囲内にある移動体情報を選択すればよいが、長時間滞留していた場合は、照合すべき検索時刻ウィンドウの範囲を超えてしまっているので、ウィンドウの過去の時間をさかのぼって検索する必要がある。過去の移動体と対応付けられなかった検索時刻ウィンドウを探し、その移動体情報との整合度が判定値を超えるか(=滞留していた)、所定の探索限界時間に達するかまで探索を続ける。あるいは途中で引き返してきた場合は、そのカメラ自身の過去の退出移動体情報をさかのぼって探索し、同じく整合度が判定値を超えるか(=引き返してきた)、所定の探索限界時間に達するかまで探索を続ける。この滞留と引き返しの二つの場合でそれぞれ整合する移動体が探索された場合は、現在時刻に近いほうを追跡対象となる上流側カメラの移動体情報とする。以上説明したどの判定でも対応する移動体が見つからない場合は、経路の途中から新規に人物が進入してきたものとみなし、このカメラを基点として下流側カメラに向かって移動体を追跡することになる。なお、対応する移動体がみつからない検索時刻ウィンドウで、探索限界時間を超えたものは、上流側カメラの人物は経路途中で出てしまったものとみなす。   That is, when the moving object tries to calculate the degree of matching with the moving object information of the upstream camera at the timing when the moving object leaves the camera field of view, when the moving object arrives as expected, the search time window as described above. You can select moving body information within the range, but if you have stayed for a long time, the search time window that should be collated has been exceeded, so search past the past time in the window. There is a need. A search time window that is not associated with a past mobile object is searched, and the search is continued until the degree of consistency with the mobile object information exceeds a determination value (= has stayed) or a predetermined search limit time is reached. . Alternatively, if the camera is turned back in the middle, it searches backwards for the camera's own past moving body information, until the matching degree exceeds the judgment value (returned) or until the predetermined search limit time is reached. Continue searching. If a matching moving body is searched for in both cases of staying and turning back, the moving object information of the upstream camera to be tracked is the one closer to the current time. If no corresponding moving body is found in any of the determinations described above, it is assumed that a person has entered from the middle of the route, and the moving body is traced toward the downstream camera with this camera as a base point. . Note that if the search time window in which the corresponding moving object is not found exceeds the search time limit, it is considered that the person of the upstream camera has exited in the middle of the route.

上記の説明をまとめたものを図15のフローチャートに示す。あるカメラの視野から移動体が退出すると、その退出移動体情報を参照し(ステップ1501)、その退出時刻を範囲内に含む検索時刻ウィンドウを探す(ステップ1502)。対象となる検索時刻ウィンドウに対応する上流側カメラの移動体情報とこの退出移動体情報との整合度を算出し
(ステップ1503)、その値が判定値を超えた場合は(ステップ1504)、退出移動体情報に整合した上流側カメラの移動体情報への参照を記録し、対応する検索時刻ウィンドウを削除し(1505)、ステップ1502へ戻る。ステップ1504にて整合度が判定値以下の場合もステップ1502へ戻る。これを退出時刻を含むすべての検索時刻ウィンドウに対して実行する。判定値が低い場合や類似な移動体が同時に到着した場合などは複数の上流側移動体情報と整合する場合もある。つまり、ここでの照合追跡では、その経路が一本の場合だけでなく、分岐を含むネットワークになることもある。
A summary of the above description is shown in the flowchart of FIG. When a moving object exits from the field of view of a certain camera, the information on the moving object is referred to (step 1501), and a search time window that includes the exit time within the range is searched (step 1502). The degree of matching between the moving body information of the upstream camera corresponding to the target search time window and the leaving moving body information is calculated (step 1503), and when the value exceeds the determination value (step 1504), the exiting is performed. A reference to the moving body information of the upstream camera that matches the moving body information is recorded, the corresponding search time window is deleted (1505), and the process returns to step 1502. If it is determined in step 1504 that the matching level is equal to or less than the determination value, the process returns to step 1502. This is executed for all search time windows including the exit time. When the determination value is low, or when similar mobile objects arrive at the same time, the information may match a plurality of upstream mobile object information. That is, in the verification tracking here, not only a single route but also a network including a branch may be formed.

すべての検索時刻ウィンドウをチェックした結果、退出移動体に対応する上流側移動体が探索された場合(ステップ1506)は、処理を終了する。もし探索されなかった場合は、時間を順番に過去にさかのぼって、削除されなかった検索時刻ウィンドウに対応する移動体、あるいは、そのカメラから退出した移動体と本退出移動体との整合度を算出し
(ステップ1507)、整合度が判定値を超えた場合(ステップ1508)は、退出移動体に整合した上流側移動体情報あるいは同じカメラから過去に退出した移動体情報への参照を記録し、探索時刻ウィンドウに対応した場合はその情報を削除して(ステップ1511)終了する。ステップ1508で、整合度が判定値以下の場合は、探索限界時間を超えない限り(ステップ1509)、ステップ1507へ戻って過去の情報をさかのぼって検索する。探索限界時間を超えた場合は、退出移動体を照合追跡の基点としてその情報を記録して(ステップ1510)終了する。
As a result of checking all the search time windows, if an upstream mobile body corresponding to the leaving mobile body is found (step 1506), the process is terminated. If the search is not searched, the degree of consistency between the moving object corresponding to the search time window that has not been deleted or the moving object that has left the camera and the actual moving object is calculated by going back in time. (Step 1507), and when the degree of matching exceeds the determination value (Step 1508), record the reference to the upstream mobile body information matched with the leaving mobile body or the mobile body information exited in the past from the same camera, If it corresponds to the search time window, the information is deleted (step 1511) and the process ends. If the matching degree is equal to or smaller than the determination value in step 1508, the process returns to step 1507 and searches past information as long as the search limit time is not exceeded (step 1509). If the search limit time is exceeded, the information is recorded with the exit mobile body as a reference tracking base point (step 1510), and the process ends.

次に、図1における監視状況表示機能113について以下説明する。本機能は監視空間データベース108の情報を参照して、監視員に対して監視用ディスプレイ107を通じて、現在の状況あるいは過去の状況を表示するものである。監視用ディスプレイ107にて表示される画面の例を図16を用いて説明する。図16は監視操作卓およびディスプレイ表示を模式的に示したものであり、全体ウィンドウ1601は、建物配置の全体あるいは一部を示すメインウィンドウ1602,監視状況を示すステータスウィンドウ1603,各監視カメラの映像を映す映像ウィンドウ1604〜1609から構成される。   Next, the monitoring status display function 113 in FIG. 1 will be described below. This function refers to the information in the monitoring space database 108 and displays the current status or the past status to the monitor through the monitoring display 107. An example of a screen displayed on the monitoring display 107 will be described with reference to FIG. FIG. 16 schematically shows a monitoring console and a display. An overall window 1601 is a main window 1602 showing the whole or a part of the building layout, a status window 1603 showing the monitoring status, and images of each monitoring camera. Is composed of video windows 1604 to 1609 for projecting images.

ここでは、メインウィンドウ1602には各フロアの概略図とカメラ配置およびその番号,人物を追跡している場合の移動軌跡と制限エリアに進入したことによる警告表示を示している。本ウィンドウの表示には、図3における建物データベース302(図4,図5で例示),監視データベース314の情報を用いるが、三次元表示技術,コンピュータグラフィックス技術を用いることで、よりリアルな表示を監視員に提供することも可能である。また、逆に建物情報を簡略化し、カメラやその他の関係設備を強調して表示するようなディフォルメを用いた表示も可能である。   Here, the main window 1602 shows a schematic diagram of each floor, a camera arrangement, its number, and a movement display when a person is being tracked and a warning display for entering a restricted area. For the display of this window, the information of the building database 302 (illustrated in FIGS. 4 and 5) and the monitoring database 314 in FIG. 3 is used, but more realistic display can be achieved by using three-dimensional display technology and computer graphics technology. Can also be provided to the observer. On the other hand, it is possible to display using a deformed form that simplifies the building information and displays the camera and other related equipment in an emphasized manner.

ステータスウィンドウ1603は、図1における挙動分析不審者検知機能116および制限エリア侵入判定機能118にて得られた警告情報を表示する機能を担う。   The status window 1603 has a function of displaying warning information obtained by the behavior analysis suspicious person detection function 116 and the restricted area intrusion determination function 118 in FIG.

画面1604から画面1609までの6つの画面は、監視カメラの番号とともにその映像を表示するものである。ネットワーク105を経由して送られてくる映像情報を直接各映像ウィンドウに表示するか、監視データベース314に蓄積された映像データを読み出して表示するかのいずれかの方式を用いる。一般的には、表示領域の制限により、設置したカメラ台数に対して、表示用の映像ウィンドウの数の方が少ないことが多い。この時は、各映像ウィンドウに表示するカメラを個々に選択,切り替えて監視したり、事前に各映像ウィンドウ毎に複数のカメラ映像を登録しておき、所定の時間間隔で自動的に切り替えて表示する方式を用いる。また、カメラ内照合追跡データ317を参照して、退出した移動体数をカウントすることによって、所定の時刻からの通過人数を求め、それを重ねて表示することが可能である。また、移動の方向別に分けて表示することも可能である。   Six screens from a screen 1604 to a screen 1609 display the video together with the surveillance camera number. Either the video information sent via the network 105 is directly displayed on each video window, or the video data stored in the monitoring database 314 is read and displayed. In general, the number of video windows for display is often smaller than the number of installed cameras due to the limitation of the display area. At this time, the camera to be displayed in each video window is individually selected and switched for monitoring, or a plurality of camera videos are registered in advance for each video window, and automatically switched and displayed at predetermined time intervals. Use the method to do. In addition, by referring to the in-camera verification tracking data 317, the number of moving bodies that have left the office is counted, so that the number of people passing from a predetermined time can be obtained and displayed in an overlapping manner. It is also possible to display the display separately for each direction of movement.

この映像表示を含めた監視条件を設定するウィンドウの事例を図17により説明する。ここでは、6つの映像ウィンドウに対して、それぞれ、自動切り替え表示か,固定表示かを選択でき、自動切り替えの場合はその時間間隔を入力できる。選択するカメラはプルダウンメニューから選び、カメラ番号,順序などを設定する。一方、メインウィンドウ1602にて例示したような追跡状況の表示に関する設定を、同じ監視条件設定ウィンドウの下部に例示した。これまで説明した図1のカメラ内移動体分離集約機能110,カメラ間経路算出機能111,カメラ間移動体整合度算出機能112によって、随時、照合追跡処理が実施され、その結果は監視データベース314に保存されている。このデータを画面表示する場合、人数が多くなると、画面上での経路の重なり表示が多数発生し、監視員にとってわかりにくいものになってしまう。よって、ここでは、追跡状況の表示は監視員からの要求があった場合を基本とする。一方、夜間のように、人数は少ないが、セキュリティ上の監視重要度は高くなる場合の監視員に対する監視業務の効率的支援が必要である。そこで、所定の人数以下で、かつ、所定の設定時刻間においては、監視員からの要求が無くても、追跡処理で得られた情報をメインウィンドウに表示する機能を設ける。これを自動追跡表示と呼ぶ。自動追跡表示に必要な設定として、機能のON/OFF,追跡対象上限人数,表示対象時刻設定(ここでは三つの設定が可能な例を示す),自動追跡専用映像ウィンドウの選択がある。   An example of a window for setting monitoring conditions including this video display will be described with reference to FIG. Here, for each of the six video windows, either automatic switching display or fixed display can be selected, and in the case of automatic switching, the time interval can be input. Select the camera to be selected from the pull-down menu, and set the camera number and order. On the other hand, the setting related to the display of the tracking status as exemplified in the main window 1602 is exemplified in the lower part of the same monitoring condition setting window. The verification tracking processing is performed at any time by the intra-camera moving object separation and aggregation function 110, the inter-camera path calculation function 111, and the inter-camera moving object matching degree calculation function 112 of FIG. 1 described so far, and the result is stored in the monitoring database 314. Saved. When this data is displayed on the screen, if the number of people increases, a large number of overlapping routes are displayed on the screen, making it difficult for the observer to understand. Therefore, here, the display of the tracking status is basically based on a request from the supervisor. On the other hand, when the number of people is small but the importance of security monitoring becomes high, such as at night, it is necessary to efficiently support the monitoring work for the monitoring staff. Therefore, a function is provided to display information obtained by the tracking process on the main window even if there is no request from the monitoring person for a predetermined number of people or less and for a predetermined set time. This is called automatic tracking display. Settings required for automatic tracking display include ON / OFF of the function, upper limit number of tracking targets, setting of display target time (here, three examples are possible), and selection of a video window dedicated to automatic tracking.

図18に自動追跡表示の設定をONとした時の、画面表示例を示す。この例では三人の人物が追跡対象となっており、メインウィンドウには、追跡経路1801から1803の三つの追跡経路が表示されている。追跡経路は、監視データベース314のカメラ間照合追跡データ318に保存されているデータを参照して表示する。自動追跡専用映像ウィンドウ1804では、追跡対象の人物がカメラ視野に入ると、その映像を表示する。同時に複数のカメラ映像を表示する必要が発生した場合は、時間的に後から要求が発生した映像を別途保存しておき、追跡対象がカメラ視野から退出した時点で、その蓄積した映像を再生表示する。自動追跡専用映像ウィンドウは複数設定可能である。   FIG. 18 shows a screen display example when the automatic tracking display setting is set to ON. In this example, three persons are to be tracked, and three tracking paths 1801 to 1803 are displayed in the main window. The tracking path is displayed with reference to data stored in the inter-camera verification tracking data 318 of the monitoring database 314. In the automatic tracking dedicated video window 1804, when a person to be tracked enters the camera view, the video is displayed. If it is necessary to display multiple camera images at the same time, the requested video is stored separately, and the accumulated video is played back and displayed when the tracked object leaves the camera field of view. To do. Multiple automatic tracking video windows can be set.

図19に監視員からの要求によって追跡対象を指定した場合の画面例を示す。任意の映像ウィンドウ内の追跡対象をポインティングデバイスにより選択すると(1901)、メインウィンドウには、移動経路が表示され(1902)、また、その経路上で追跡対象が通過したカメラを強調表示する(1903)。追跡専用の映像ウィンドウを指定した場合は、各カメラを通過した時の映像とカメラ間移動体整合度算出機能112で求められた整合度の値を重ねて表示する。これを通過カメラ毎に自動的に切り替える。この整合度の状態の表示方法としては、この実施例で示されているように整合度の数値を表示しても良いし、この数値に応じたグラフ、又は画面や整合度を示す表示ウィンドウの表示色を変化させることで知らしめることが可能になる。   FIG. 19 shows an example of a screen when a tracking target is designated by a request from a supervisor. When a tracking target in an arbitrary video window is selected by a pointing device (1901), a moving path is displayed in the main window (1902), and a camera through which the tracking target passes is highlighted (1903). ). When a video window dedicated to tracking is specified, the image obtained when passing through each camera and the value of the matching degree obtained by the inter-camera moving body matching degree calculation function 112 are displayed in an overlapping manner. This is automatically switched for each passing camera. As a method of displaying the state of consistency, a numerical value of consistency may be displayed as shown in this embodiment, a graph corresponding to this numerical value, or a display window indicating the degree of consistency or a display window indicating the degree of consistency. It is possible to notify by changing the display color.

ここで、カメラ間移動体整合度算出機能にて、二つの移動体が一致すると見なす判定値の設定ウィンドウの事例を図20に示す。判定値は個々のカメラ毎に設定できるようにする。これはカメラの設置場所により環境条件が異なるためである。図20ではスライドバーを用いて設定する例を示している。また、判定値を全カメラに対して一斉に高くしたり低くしたりするための、判定値増減ボタンを設け、また、リセットボタンにより全カメラの判定値を1に再設定する機能を実行する。本ウィンドウは監視員が直接操作することも可能であるが、システム設定者の調整ツールとしても用いられる。   Here, FIG. 20 shows an example of a determination value setting window for determining that two moving bodies match with the inter-camera moving body matching degree calculation function. The judgment value can be set for each individual camera. This is because environmental conditions differ depending on the installation location of the camera. FIG. 20 shows an example of setting using a slide bar. In addition, a determination value increase / decrease button is provided to increase or decrease the determination value for all cameras at once, and a function for resetting the determination value of all cameras to 1 by a reset button is executed. This window can be operated directly by the supervisor, but is also used as an adjustment tool for the system setter.

また、監視追跡業務を想定した時に、その時点でのリアルタイムの映像情報の他に、直前までの映像をプレイバックして不審行動かどうかを見極めることが必要になると考えられる。図21は蓄積した映像を同期を取って再生,早送り,巻戻し表示するための、監視映像再生コントローラの事例を示したものである。各映像ウィンドウに表示するカメラをそれぞれ選択し、開始時刻を設定する。ディフォルトは現在時刻である。再生コントロールには、通常再生,早送り再生,プレイバック再生,早送りプレイバック再生,停止のボタンを用いる。   In addition, when a monitoring and tracking operation is assumed, it may be necessary to determine whether or not the action is suspicious by playing back the previous video in addition to the real-time video information at that time. FIG. 21 shows an example of a monitoring video playback controller for reproducing, fast-forwarding, and rewinding the stored video in synchronization. Select the camera to be displayed in each video window and set the start time. The default is the current time. For playback control, buttons of normal playback, fast forward playback, playback playback, fast forward playback playback, and stop are used.

次に、図1におけるカード認証装置117について説明する。ここでいうカード認証装置とは、ドアの施錠を解除するために設置されたICカード情報読み取りと暗証番号入力機能を備えたものをさす。図5では513,514,515,516として例示し、図
22ではICカードシンボル2202によってその設置位置を示している。図1におけるカード認証整合機能114は、カード認証装置117と接続し、監視空間データベース
108内の利用者データベース311を検索して、カードIDと一致する情報を探す。そして検索した情報からその人が入ろうとしている部屋に入室する権限があるかどうかを確認し、権限があれば開錠する。本装置を使った入退室が発生した時には、図22に示すシンボルの付近にそのID情報を表示する。また、入室する権限がない場合には、そのカードシンボルを点滅させたり、色を変えたりして、監視員にアラームを発する。これらのアクセス情報は監視空間データベース108のカード認証装置データ308に入退室記録としてそのログを保存しておく。
Next, the card authentication device 117 in FIG. 1 will be described. Here, the card authentication device refers to a device equipped with an IC card information reading function and a password input function installed to unlock the door. In FIG. 5, it is illustrated as 513, 514, 515, 516, and in FIG. 22, the installation position is indicated by an IC card symbol 2202. The card authentication matching function 114 in FIG. 1 connects to the card authentication device 117, searches the user database 311 in the monitoring space database 108, and searches for information that matches the card ID. Then, from the retrieved information, it is confirmed whether or not there is an authority to enter the room that the person is going to enter, and if there is an authority, unlocking is performed. When entry / exit using this apparatus occurs, the ID information is displayed near the symbol shown in FIG. If there is no authority to enter the room, the card symbol is blinked or the color is changed, and an alarm is issued to the supervisor. The access information is stored in the card authentication device data 308 of the monitoring space database 108 as an entry / exit record.

カード認証整合機能114は、また、移動体の照合追跡処理との連携を図る役割を担う。例えば、カード認証装置を操作する人物が視野に入る位置に取り付けられた監視カメラと組合せることで、監視カメラで抽出した人部の外見から見た特徴量集合と、ICカード所有者の特定個人情報を結びつけることが可能となる。これによって、それまで匿名の人物として照合追跡したものが、個人情報と組合せた照合追跡が可能となるため、例えば、照合追跡している個人の執務場所に応じた整合度判定値の設定が可能となり、より追跡精度が向上すると考えられる。また、カード認証装置がカメラ視野に入っていない場合でも、カメラ間を移動する人物、あるいはカメラ間の経路の途中から進入してきた人物として、カードIDから参照できる個人情報を関連付けることができるようになる。   The card authentication matching function 114 also plays a role of coordinating with the verification tracking processing of the mobile object. For example, by combining with a surveillance camera attached to a position where a person who operates the card authentication device enters the field of view, a feature amount set viewed from the appearance of the human part extracted by the surveillance camera and a specific individual of the IC card owner It becomes possible to connect information. This makes it possible to collate and track what has been tracked as an anonymous person so far in combination with personal information, so for example, it is possible to set a consistency judgment value according to the work location of the individual who is collated and tracked Thus, it is considered that the tracking accuracy is further improved. Also, even when the card authentication device is not in the camera field of view, it is possible to associate personal information that can be referred to from the card ID as a person who moves between cameras or who has entered from the middle of the path between cameras. Become.

本実施例ではカード認証装置を用いて説明したが、この装置の代わりに指紋認証や静脈認証などのバイオメトリクス認証装置を用いても実現できる。つまり、個人を特定する情報を参照できる装置であればどのようなものを用いてもよい。   In the present embodiment, the card authentication apparatus is used for the description. However, this apparatus can be used instead of a biometric authentication apparatus such as fingerprint authentication or vein authentication. That is, any device can be used as long as it can refer to information for identifying an individual.

次に、図1におけるドア開閉センサ118について説明する。開閉センサは、ドアの開け閉めを検知するものであり、それによって人の出入りがあったと仮定することができる。図5では開閉センサ517,518,519,520として例示し、図22ではドアシンボル2201によってその設置位置を示している。図1における制限エリア侵入判定機能115は、ドア開閉センサ118と接続し、カメラ間での人物追跡の途中で、ドア開閉が検知された時に、追跡中の人物が特定個人情報と結びついていれば、その部屋への入室権限有無をチェックし、入室権限がない場合にアラームを発する。アラームはステータスウィンドウ表示とドアシンボル点滅などにより監視員に伝える。同様に、追跡中の人物が特定個人情報と結びついていない場合、その部屋に不特定者が入室可能かどうかチェックし、不可の場合にアラームを発するのである。さらに、通路にスピーカを設置しておくことにより、対象人物に警報を伝えることができる。   Next, the door opening / closing sensor 118 in FIG. 1 will be described. The open / close sensor detects opening / closing of the door, and it can be assumed that a person has entered or exited. In FIG. 5, the open / close sensors 517, 518, 519, and 520 are illustrated, and in FIG. The restricted area intrusion determination function 115 in FIG. 1 is connected to the door opening / closing sensor 118, and if the person being tracked is associated with specific personal information when the door opening / closing is detected during the tracking of the person between the cameras. Check whether the room has authority to enter the room, and issue an alarm if there is no authority to enter the room. Alarms are communicated to the supervisor through status window display and door symbol blinking. Similarly, if the person being tracked is not connected to specific personal information, it is checked whether or not an unspecified person can enter the room, and an alarm is issued if it is not possible. Furthermore, an alarm can be transmitted to the target person by installing a speaker in the passage.

図5に示すように部屋のすべてのドアにセンサあるいはカード認証装置を取り付けることにより、カメラ間移動経路の途中での人の出入りが推定できるようになり、結果として追跡精度が向上する。   As shown in FIG. 5, by attaching sensors or card authentication devices to all the doors in the room, it becomes possible to estimate the entrance / exit of a person on the way of the movement path between cameras, and as a result, the tracking accuracy is improved.

最後に、図1における挙動分析不審者検知機能116について説明する。本機能は、人物の移動軌跡を分析することで、その人物が不審者である可能性が高い時にアラームを発するものである。ある人物がその監視空間をよく知っている場合、目的地に向かってまっすぐに移動速度の変動も少ない移動軌跡を描くものと考えられる。逆に、初めてその場所を訪問した場合は、移動方向を確認しながらゆっくりと移動し、その移動軌跡の変動も大きなものになると考えられる。一方、目的をもった不審者は、同じ場所を何度も往復したり、カメラ間での移動滞留時間が長かったりするものと考えられる。よって、移動軌跡の変動が所定の値を超えた場合を不審行動と判定し、例えば、図22のアラーム表示2203を画面に出力したり、ステータスウィンドウにその旨を表示するなどして、監視員の注意を喚起する。   Finally, the behavior analysis suspicious person detection function 116 in FIG. 1 will be described. This function generates an alarm when analyzing the movement trajectory of a person and when the possibility that the person is a suspicious person is high. When a person knows the monitoring space well, it is considered that he or she draws a movement trajectory that is straight toward the destination with little fluctuation in movement speed. On the contrary, when the place is visited for the first time, it moves slowly while confirming the moving direction, and it is considered that the fluctuation of the moving locus becomes large. On the other hand, it is considered that a suspicious person with a purpose travels back and forth many times in the same place or takes a long time to move between cameras. Therefore, when the movement trajectory fluctuation exceeds a predetermined value, it is determined as suspicious behavior. For example, the alarm display 2203 in FIG. 22 is output on the screen, or the fact is displayed in the status window. Call attention.

尚、上述した実施例では、本発明は建物内の人を対象とした監視システムとして説明したが、これは道路空間における自動車を監視対象として適用することも可能である。   In the above-described embodiment, the present invention has been described as a monitoring system for a person in a building, but this can also be applied to a vehicle in a road space as a monitoring target.

本発明によれば、対象空間に設置された複数のカメラによって撮影された移動体、例えば人物,自動車等を高精度に認識し、照合又は追跡する監視システムを提供することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the monitoring system which recognizes and collates or tracks the mobile body image | photographed with the some camera installed in object space, for example, a person, a motor vehicle, etc. with high precision.

本発明を用いた監視システムの全体構成を示す図である。It is a figure which shows the whole structure of the monitoring system using this invention. 移動体特徴量抽出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a moving body feature-value extraction apparatus. 監視空間データベースの内訳を示す図である。It is a figure which shows the breakdown of the monitoring space database. 本発明で例示として用いる建物構成を説明する図である。It is a figure explaining the building composition used as an illustration by this invention. 本発明で例示として用いるフロア構成を示した図である。It is the figure which showed the floor structure used as an illustration by this invention. 例示として用いるフロア構成のネットワーク表現を示す図である。It is a figure which shows the network expression of the floor structure used as an illustration. 二つのフロア間を結ぶ階段ノードとエレベータノードのリンクを説明する図である。It is a figure explaining the link of the staircase node and elevator node which connect between two floors. 監視カメラで撮影した映像スナップ例と抽出した特徴量をグラフにプロットした例を示す図である。It is a figure which shows the example which plotted the example of the image | video snap image | photographed with the monitoring camera, and the extracted feature-value on a graph. カメラ内移動体分離集約機能の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the moving body isolation | separation collection function in a camera. カメラ・時刻別特徴量分離集約処理のフローチャートである。It is a flowchart of a camera / time-specific feature amount separation and aggregation process. カメラ間移動経路算出機能の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the movement path | route calculation function between cameras. 算出した経路の事例を説明する図である。It is a figure explaining the example of the calculated route. 上流側カメラで抽出した移動体情報を下流側カメラで照合するための、検索時刻ウィンドウを設定する説明図である。It is explanatory drawing which sets the search time window for collating the mobile body information extracted with the upstream camera with a downstream camera. あるカメラで抽出した特徴量と設定された検索時刻ウィンドウとの時間軸上での関係を説明する図である。It is a figure explaining the relationship on the time axis between the feature-value extracted with a certain camera, and the set search time window. カメラ間移動体整合度算出機能の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the moving body matching degree calculation function between cameras. 監視用ディスプレイでの表示内容を説明する図である。It is a figure explaining the display content on the monitor display. 監視条件を設定するためのウィンドウの事例を示す図である。It is a figure which shows the example of the window for setting monitoring conditions. 自動追跡表示設定時の監視ディスプレイでの表示例を示す図である。It is a figure which shows the example of a display on the monitoring display at the time of automatic tracking display setting. 監視員が選択した追跡対象の情報の表示例を示す図である。It is a figure which shows the example of a display of the information of the tracking object which the monitoring person selected. 整合度に対する判定値を設定するウィンドウの事例を示す図である。It is a figure which shows the example of the window which sets the determination value with respect to a matching degree. 蓄積された映像データを再生表示するためのコントローラの事例を示す図である。It is a figure which shows the example of the controller for reproducing | regenerating and displaying the accumulate | stored video data. カード認証,ドア開閉センサ,挙動分析不審者検知機能の情報を監視ディスプレイに表示した事例を示す図である。It is a figure which shows the example which displayed the information of the card | curd authentication, the door opening / closing sensor, and the behavior analysis suspicious person detection function on the monitoring display.

符号の説明Explanation of symbols

101,103,509〜512…監視カメラ、102,104…移動体特徴量抽出装置、105…ネットワーク、106…照合追跡装置、107…監視用ディスプレイ、108…監視空間データベース、109…特徴量情報受信記憶機能、110…カメラ内移動体分離集約機能、111…カメラ間移動経路算出機能、112…カメラ間移動体整合度算出機能、113…監視状況表示機能、114…カード認証整合機能、115…制限エリア侵入判定機能、116…挙動分析不審者検知機能、117…カード認証装置、118…ドア開閉センサ、201〜205,901〜905,1001〜1012,1101〜1109,1501〜1511…フローチャートの処理ステップ、302…建物データベース、
303…外観形状三次元データ、304…フロア別空間データ、305…エレベータデータ、306…階段データ、307…カメラデータ、308…カード認証装置データ、309…ドア開閉センサデータ、310…ネットワークデータ、311…利用者データベース、312…組織・構成員データ、313…登録済み来場者データ、314…監視データベース、315…カメラ映像データ、316…抽出特徴量データ、317…カメラ内照合追跡データ、318…カメラ間照合追跡データ、401…建物外観イメージ、402…フロア構成イメージ、403…エレベータイメージ、404…階段イメージ、501〜504…部屋、505,506…エレベータ、507,508…階段、513〜516…カード認証装置付きドア、517〜520…開閉センサ付きドア、801…カメラ509スナップ映像、802…カメラ509特徴量プロットグラフ、803〜805,813,814,823…人物、806〜808,824,815,816…特徴量集合、811…カメラ510スナップ映像、812…カメラ510特徴量プロットグラフ、821…カメラ512スナップ映像、822…カメラ512特徴量プロットグラフ、1201〜1205…推定経路、1601…ディスプレイ全体、1602…メインウィンドウ、1603…ステータスウィンドウ、1604〜1609…映像ウィンドウ、1801〜1803…追跡経路、1804…自動追跡専用映像ウィンドウ、1901…追跡対象選択、1902…移動経路表示、1903…通過カメラ表示、1904…通過時点カメラ映像表示、2201…ドア開閉センサシンボル、2202…カード認証装置シンボル、2203…アラーム表示。
DESCRIPTION OF SYMBOLS 101,103,509-512 ... Monitoring camera, 102,104 ... Mobile body feature-value extraction apparatus, 105 ... Network, 106 ... Collation tracking apparatus, 107 ... Monitoring display, 108 ... Monitoring space database, 109 ... Reception of feature-value information Storage function 110 ... Camera moving object separation and aggregation function 111 ... Camera moving path calculation function 112 ... Camera moving object matching degree calculation function 113 ... Monitoring status display function 114 ... Card authentication matching function 115 ... Restriction Area intrusion determination function, 116 ... behavior analysis suspicious person detection function, 117 ... card authentication device, 118 ... door open / close sensor, 201 to 205, 901 to 905, 1001 to 1012, 1101 to 1109, 1501 to 1511 ... processing steps of the flowchart 302 ... Building database,
303: Three-dimensional appearance shape data, 304: Space data by floor, 305 ... Elevator data, 306 ... Stair data, 307 ... Camera data, 308 ... Card authentication device data, 309 ... Door open / close sensor data, 310 ... Network data, 311 ... User database, 312 ... Organization / member data, 313 ... Registered visitor data, 314 ... Monitoring database, 315 ... Camera video data, 316 ... Extracted feature data, 317 ... In-camera verification tracking data, 318 ... Camera Inter-tracking tracking data, 401 ... Building exterior image, 402 ... Floor composition image, 403 ... Elevator image, 404 ... Stair image, 501-504 ... Room, 505, 506 ... Elevator, 507, 508 ... Stair, 513-516 ... Card Door with authentication device, 517-52 ... door with open / close sensor, 801 ... camera 509 snap video, 802 ... camera 509 feature plot graph, 803-805, 813, 814, 823 ... person, 806-808, 824, 815, 816 ... feature set, 811 ... Camera 510 snap image, 812 ... Camera 510 feature plot graph, 821 ... Camera 512 snap image, 822 ... Camera 512 feature plot graph, 1201-1205 ... Estimated path, 1601 ... Entire display, 1602 ... Main window, 1603 ... Status Window, 1604 to 1609 ... video window, 1801 to 1803 ... tracking path, 1804 ... video window dedicated to automatic tracking, 1901 ... tracking target selection, 1902 ... moving path display, 1903 ... passing camera display, 1904 ... passing point camera Image display, 2201 ... door opening and closing sensor symbol, 2202 ... card authentication device symbol, 2203 ... the alarm display.

Claims (5)

監視対象空間に分散して複数のカメラが設置され、それぞれのカメラが映す映像の中から移動体の特徴量を示す情報を抽出し、その抽出された特徴量を用いて、それぞれのカメラで撮影された移動体が同一であるかを判定する監視システムにおいて、
個別のカメラ毎に抽出した特徴量を移動体別に分離集約するカメラ内移動体分離集約手段と、移動体のカメラ間の移動経路を算出するカメラ間移動経路算出手段と、前記移動経路を用いてカメラ間を移動した移動体を推定し、カメラ間を移動したと推定される移動体の移動前後における特徴量集合の整合度を算出し整合性があるものを対応させて追跡するカメラ間移動体整合度算出手段と、監視空間全体情報を管理するデータベースとを含む照合追跡装置と、
前記移動体の状態を表示する表示装置とを備え、
前記照合追跡装置には、個人認証装置とドア開閉センサとが接続され、
前記照合追跡装置は、前記移動体が前記個人認証装置により個人認証を行った場合に、前記移動体と前記個人認証装置から取得した個人情報とを結びつける認証整合手段を備え、
前記認証整合手段と前記カメラ間移動体整合度算出手段とによって前記移動体を前記個人情報と組合せて追跡し、前記移動体が前記個人認証装置と前記ドア開閉センサとのうち前記ドア開閉センサのみが設けられたドアを開いたときに、前記個人情報から前記移動体がその部屋へ入室する権限があるかを判断し、権限がない場合には警報を発することを特徴とする複数カメラを用いた監視システム。
Multiple cameras are installed in the monitoring target space, and information indicating the feature amount of the moving object is extracted from the video imaged by each camera, and the extracted feature value is used to shoot with each camera. In a monitoring system for determining whether the same moving body is the same,
Intra-camera moving body separation and aggregation means for separating and aggregating feature quantities extracted for each individual camera by moving body, inter-camera movement path calculation means for calculating a movement path between cameras of the moving body, and using the movement path The inter-camera moving body that estimates the moving body that has moved between the cameras, calculates the degree of consistency of the feature set before and after the movement of the moving body that is estimated to have moved between the cameras, and tracks the matching in correspondence A matching and tracking device including a matching degree calculation means and a database for managing the entire monitoring space information;
A display device for displaying the state of the moving body,
A personal authentication device and a door opening / closing sensor are connected to the verification tracking device,
The verification tracking device includes an authentication matching unit that links the mobile body and personal information acquired from the personal authentication device when the mobile body performs personal authentication by the personal authentication device.
The authentication matching means and the inter-camera moving body matching degree calculation means track the moving body in combination with the personal information, and the moving body is only the door opening / closing sensor of the personal authentication device and the door opening / closing sensor. A plurality of cameras are used, wherein when the door provided with is opened, it is determined from the personal information whether the mobile body has the right to enter the room, and an alarm is issued if there is no right. Had a surveillance system.
請求項1に記載の監視システムにおいて、
前記移動体が進入制限エリアに進入した場合、警報を発することを特徴とする複数カメラを用いた監視システム。
The monitoring system according to claim 1,
A monitoring system using a plurality of cameras, wherein an alarm is issued when the moving body enters an entry restricted area.
請求項1または2に記載の監視システムにおいて、
前記カメラ内移動体分離集約手段にて、カメラ内既存移動体の最新情報のカメラ内位置と抽出された特徴量のカメラ内位置との空間距離と、カメラ内既存移動体の特徴量集合と抽出された特徴量とのマハラノビス距離を算出した特徴量空間距離の二つの指標を用いて抽出された特徴量を移動体別に分離集約し、前記カメラ間移動経路算出手段にてカメラで検知した移動体の移動速度・方向情報を用いた経路コストを設定し、前記経路コストを考慮して前記移動体のカメラ間の移動経路を算出し、前記カメラ間移動体整合度算出手段で、移動体の特徴量集合同士の距離の近さを用いて整合度を算出することを特徴とする複数カメラを用いた監視システム。
The monitoring system according to claim 1 or 2,
In the in-camera moving body separating and aggregating means , the spatial distance between the in-camera position of the latest information of the existing moving body in the camera and the extracted in-camera position of the extracted feature amount, and the feature amount set and extraction of the existing moving body in the camera moving the two feature amounts extracted by using an index to separate aggregated by mobile, detected by the camera at the inter-camera movement path calculation means and Mahalanobis distance calculated feature amount space distance between the feature quantity The path cost using the moving speed / direction information of the body is set, the movement path between the cameras of the moving body is calculated in consideration of the path cost, and the inter- camera moving body matching degree calculating means A monitoring system using a plurality of cameras, characterized in that the degree of matching is calculated by using the closeness of distances between feature quantity sets.
請求項1から3の何れかに記載の監視システムにおいて、
表示装置に表示する追跡対象を監視員が個別に指定する手段と、通過人数に対応して自動的に追跡対象を選択する手段を選ぶことができ、また、整合度の判定値を全体あるいは個別カメラ毎に任意設定することができる機能を有することを特徴とする複数カメラを用いた監視システム。
The monitoring system according to any one of claims 1 to 3,
You can select the means for the monitor to individually specify the tracking target to be displayed on the display device, and the means for automatically selecting the tracking target according to the number of people passing through the system. A monitoring system using a plurality of cameras, which has a function that can be arbitrarily set for each camera.
請求項1から4の何れかに記載の監視システムにおいて、
データベースに保存されたカメラ映像と移動体照合追跡情報を、時刻の同期をとって再生表示することを特徴とする複数カメラを用いた監視システム。
The monitoring system according to any one of claims 1 to 4,
A monitoring system using a plurality of cameras, wherein a camera image stored in a database and moving object verification tracking information are reproduced and displayed in synchronization with time.
JP2004332587A 2004-11-17 2004-11-17 Surveillance system using multiple cameras Expired - Fee Related JP4759988B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004332587A JP4759988B2 (en) 2004-11-17 2004-11-17 Surveillance system using multiple cameras
CNB2005100875894A CN100556130C (en) 2004-11-17 2005-07-28 Use the surveillance of a plurality of video cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004332587A JP4759988B2 (en) 2004-11-17 2004-11-17 Surveillance system using multiple cameras

Publications (2)

Publication Number Publication Date
JP2006146378A JP2006146378A (en) 2006-06-08
JP4759988B2 true JP4759988B2 (en) 2011-08-31

Family

ID=36626009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004332587A Expired - Fee Related JP4759988B2 (en) 2004-11-17 2004-11-17 Surveillance system using multiple cameras

Country Status (2)

Country Link
JP (1) JP4759988B2 (en)
CN (1) CN100556130C (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10181197B2 (en) 2015-02-20 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Tracking assistance device, tracking assistance system, and tracking assistance method
DE112017003800T5 (en) 2016-08-24 2019-05-09 Panasonic Intellectual Property Management Co., Ltd. MONITORING SUPPORT DEVICE, MONITORING SUPPORT SYSTEM AND MONITORING SUPPORT PROCESS
US11716448B2 (en) 2019-07-09 2023-08-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4363421B2 (en) * 2006-06-30 2009-11-11 ソニー株式会社 Monitoring system, monitoring system server and monitoring method
JP4201025B2 (en) 2006-06-30 2008-12-24 ソニー株式会社 Monitoring device, monitoring system, filter setting method, and monitoring program
JP4827694B2 (en) * 2006-11-06 2011-11-30 パナソニック株式会社 Monitoring system
JP5121258B2 (en) * 2007-03-06 2013-01-16 株式会社東芝 Suspicious behavior detection system and method
JP4937016B2 (en) * 2007-07-09 2012-05-23 三菱電機株式会社 Monitoring device, monitoring method and program
WO2009025140A1 (en) * 2007-08-21 2009-02-26 Nec Corporation Behavior monitoring system and behavior monitoring method
KR100883065B1 (en) * 2007-08-29 2009-02-10 엘지전자 주식회사 Apparatus and method for record control by motion detection
JP2009098774A (en) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp Person tracking system, person tracking method and person tracking program
JP2009134381A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Passage path information display device
JP5012589B2 (en) * 2008-03-10 2012-08-29 三菱電機株式会社 Human tracking system using image information
JP2009268005A (en) * 2008-04-30 2009-11-12 Meidensha Corp Intrusion object detecting and tracking device
JP5198151B2 (en) * 2008-05-30 2013-05-15 株式会社日立製作所 Video search device and video search method
JP4613230B2 (en) * 2008-07-23 2011-01-12 株式会社日立製作所 Moving object monitoring device
JP5195156B2 (en) * 2008-08-25 2013-05-08 ソニー株式会社 Monitoring device, monitoring system, and filter setting method
JP4751442B2 (en) * 2008-12-24 2011-08-17 株式会社東芝 Video surveillance system
JP5627858B2 (en) * 2009-03-31 2014-11-19 シーシーアイ株式会社 Biosensor
CN102388608B (en) * 2009-04-10 2014-07-02 欧姆龙株式会社 Monitoring system, and monitoring terminal
JP5218655B2 (en) * 2009-06-11 2013-06-26 富士通株式会社 Suspicious person detection device, suspicious person detection method, and suspicious person detection program
WO2011010490A1 (en) * 2009-07-22 2011-01-27 オムロン株式会社 Surveillance camera terminal
JP2011145839A (en) * 2010-01-13 2011-07-28 Nippon Steel Corp Monitoring system, device, method and program
WO2011151999A1 (en) 2010-05-31 2011-12-08 日本電気株式会社 Flow line detection system, flow line detection method and flow line detection program
CN101873432B (en) * 2010-06-21 2012-06-27 杭州海康威视数字技术股份有限公司 Small picture playback method and device of digital video recorder
JP5777310B2 (en) * 2010-09-21 2015-09-09 株式会社日立国際電気 Image security system and authentication method
CN102034328B (en) * 2010-12-10 2012-06-27 山东申普交通科技有限公司 Intelligent monitoring method
CN102831615A (en) * 2011-06-13 2012-12-19 索尼公司 Object monitoring method and device as well as monitoring system operating method
CN102427519B (en) * 2011-08-01 2015-09-02 广东威创视讯科技股份有限公司 A kind of video monitoring display packing based on GIS map and device
JP2013192154A (en) * 2012-03-15 2013-09-26 Omron Corp Monitoring device, reliability calculation program and reliability calculation method
JP2012128877A (en) * 2012-03-19 2012-07-05 Toshiba Corp Suspicious behavior detection system and method
CN104737534B (en) 2012-10-23 2018-02-16 索尼公司 Information processor, information processing method, program and information processing system
JP6195449B2 (en) * 2013-01-30 2017-09-13 セコム株式会社 Shooting system
CN103200364B (en) * 2013-03-11 2016-03-23 太仓中科信息技术研究院 Based on the camera lifting lattice special efficacy image pickup method of marker characteristic
JP6561830B2 (en) 2013-04-16 2019-08-21 日本電気株式会社 Information processing system, information processing method, and program
WO2014175356A1 (en) 2013-04-26 2014-10-30 日本電気株式会社 Information processing system, information processing method, and program
JP5438861B1 (en) * 2013-07-11 2014-03-12 パナソニック株式会社 Tracking support device, tracking support system, and tracking support method
JP5506989B1 (en) * 2013-07-11 2014-05-28 パナソニック株式会社 Tracking support device, tracking support system, and tracking support method
JP5506990B1 (en) * 2013-07-11 2014-05-28 パナソニック株式会社 Tracking support device, tracking support system, and tracking support method
JP2015046028A (en) * 2013-08-28 2015-03-12 ソニー株式会社 Information processing apparatus, and information processing method
CN103795985B (en) * 2014-02-14 2017-09-19 浙江宇视科技有限公司 A kind of linkage collocation method and device based on threedimensional model
CN104159067A (en) * 2014-03-18 2014-11-19 深圳市贝尔信智能系统有限公司 Intelligent monitoring system and method based on combination of 3DGIS with real scene video
JP2015216518A (en) * 2014-05-12 2015-12-03 富士通株式会社 Information processing method, program, and information processing apparatus
KR102282465B1 (en) * 2014-10-27 2021-07-27 한화테크윈 주식회사 Method and Apparatus for loitering visualization
JP6492746B2 (en) 2015-02-23 2019-04-03 富士通株式会社 Image processing program, image processing apparatus, and image processing method
JP2016162098A (en) * 2015-02-27 2016-09-05 株式会社ワイ・イー・シー Multi-trace system
JP6573361B2 (en) * 2015-03-16 2019-09-11 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and computer program
WO2017099037A1 (en) * 2015-12-09 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
CN106897590A (en) * 2015-12-17 2017-06-27 阿里巴巴集团控股有限公司 The method of calibration and device of figure information
JP2017167870A (en) * 2016-03-17 2017-09-21 セコム株式会社 Flying object monitoring system, and flying object monitoring apparatus
CN106056867A (en) * 2016-06-30 2016-10-26 北京奇虎科技有限公司 Monitoring method and apparatus
JP6740074B2 (en) * 2016-09-30 2020-08-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2018186438A (en) * 2017-04-27 2018-11-22 サイレックス・テクノロジー株式会社 Encoder and coding method
JP6833617B2 (en) * 2017-05-29 2021-02-24 株式会社東芝 Mobile tracking equipment, mobile tracking methods and programs
CN109427074A (en) * 2017-08-31 2019-03-05 深圳富泰宏精密工业有限公司 Image analysis system and method
CN107635188A (en) * 2017-09-08 2018-01-26 安徽四创电子股份有限公司 A kind of video frequency vehicle trace analysis method based on Docker platforms
KR101989461B1 (en) * 2017-11-15 2019-06-14 오토아이티(주) Safety system and Method for Robot working environment using vision system
CN107944371A (en) * 2017-11-17 2018-04-20 辽宁公安司法管理干部学院 A kind of public security video monitoring image processing method based on data mining
JP7009987B2 (en) * 2017-12-27 2022-01-26 トヨタ自動車株式会社 Automatic driving system and automatic driving method
JP2020102135A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Tracking system, tracking processing method, and program
JP7334512B2 (en) * 2019-07-08 2023-08-29 日本電気株式会社 Verification method, verification device, and program
DE112019007455T5 (en) * 2019-07-19 2022-03-03 Mitsubishi Electric Corporation DISPLAY PROCESSING DEVICE, DISPLAY PROCESSING METHOD AND PROGRAM
JP6862596B1 (en) * 2020-07-10 2021-04-21 株式会社 日立産業制御ソリューションズ How to select video analysis equipment, wide area surveillance system and camera
US20230260139A1 (en) * 2020-08-04 2023-08-17 Mitsubishi Electric Corporation Moving body tracking system, moving body tracking device, non-transitory computer-readable medium, and moving body tracking method
CN113971782B (en) * 2021-12-21 2022-04-19 云丁网络技术(北京)有限公司 Comprehensive monitoring information management method and system
CN114025141B (en) * 2022-01-05 2022-07-05 凯新创达(深圳)科技发展有限公司 Picture adjusting and playing method and picture adjusting and playing device
CN114758305A (en) * 2022-06-15 2022-07-15 成都西物信安智能系统有限公司 Method for constructing intrusion early warning monitoring database
CN115131935A (en) * 2022-08-30 2022-09-30 山东千颐科技有限公司 Alarm system for preventing entrance into dangerous area

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (en) * 1991-02-28 1992-09-29 Hitachi Ltd Monitoring device
JPH09330415A (en) * 1996-06-10 1997-12-22 Hitachi Ltd Picture monitoring method and system therefor
JP2003132468A (en) * 2001-10-24 2003-05-09 Shimizu Corp Security system in open space
JP2003196765A (en) * 2001-12-25 2003-07-11 Victor Co Of Japan Ltd System for confirming moving object and authentication recording medium
JP4309145B2 (en) * 2003-02-07 2009-08-05 パナソニック株式会社 Apartment house security system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10181197B2 (en) 2015-02-20 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Tracking assistance device, tracking assistance system, and tracking assistance method
DE112017003800T5 (en) 2016-08-24 2019-05-09 Panasonic Intellectual Property Management Co., Ltd. MONITORING SUPPORT DEVICE, MONITORING SUPPORT SYSTEM AND MONITORING SUPPORT PROCESS
US11716448B2 (en) 2019-07-09 2023-08-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Also Published As

Publication number Publication date
CN1777281A (en) 2006-05-24
CN100556130C (en) 2009-10-28
JP2006146378A (en) 2006-06-08

Similar Documents

Publication Publication Date Title
JP4759988B2 (en) Surveillance system using multiple cameras
US11288495B2 (en) Object tracking and best shot detection system
US7088846B2 (en) Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
JP4881766B2 (en) Inter-camera link relation information generation device
US20110285851A1 (en) Intruder situation awareness system
US7148912B2 (en) Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
WO2018180588A1 (en) Facial image matching system and facial image search system
US20050105765A1 (en) Video surveillance system with object detection and probability scoring based on object class
JP2006221355A (en) Monitoring device and monitoring system
JP2008152328A (en) Suspicious person monitoring system
JP4808139B2 (en) Monitoring system
CN102311039A (en) Monitor unit
CN111325954B (en) Personnel loss early warning method, device, system and server
JP4892268B2 (en) Entrance / exit / location management system
US20050105764A1 (en) Video surveillance system with connection probability computation that is a function of object size
US20050104959A1 (en) Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter
CN111814510A (en) Detection method and device for remnant body
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP6806626B2 (en) Person group tracking device and person group tracking method
JP6558178B2 (en) Nuisance agent estimation system, control method and control program for nuisance agent estimation system
CN109905661B (en) Monitoring terminal device, monitoring system, and computer-readable non-transitory storage medium storing monitoring display control program
KR102663258B1 (en) Entry and location management system and method using facial and behavior recognition
JP6879336B2 (en) Annoying actor estimation system, control method and control program of annoying actor estimation system
CN210109834U (en) Door discrepancy detection device
WO2005050581A2 (en) Video surveillance system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4759988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees