JP4759988B2 - Surveillance system using multiple cameras - Google Patents
Surveillance system using multiple cameras Download PDFInfo
- Publication number
- JP4759988B2 JP4759988B2 JP2004332587A JP2004332587A JP4759988B2 JP 4759988 B2 JP4759988 B2 JP 4759988B2 JP 2004332587 A JP2004332587 A JP 2004332587A JP 2004332587 A JP2004332587 A JP 2004332587A JP 4759988 B2 JP4759988 B2 JP 4759988B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- moving body
- information
- cameras
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、対象空間に設置された複数のカメラによって撮影された移動体、例えば人物,自動車等を認識し、照合又は追跡する監視システムに関する。 The present invention relates to a monitoring system for recognizing and collating or tracking a moving body, for example, a person, a car, or the like taken by a plurality of cameras installed in a target space.
犯罪検挙率の低下など社会不安に対処するために、セキュリティレベルの維持・向上を目的として、不審者・不審車監視用カメラの設置台数が増加している。導入初期段階においては、カメラで撮影した映像を監視室にて監視員が目視し、異常事態には警察や警備員を現場に派遣したり、映像をレコーダに記憶して犯罪発生後の捜査に役立てるなど、直接的・間接的な手法を用いて、犯罪発生の事前防止,事後対策に資してきた。しかし、設置台数の急増を受け、カメラだけでなく、監視員の増員,レコーダの増設など、セキュリティシステムに対するコスト増,リソース不足が問題化してきている。この問題への対策として、コンピュータを用いてカメラ映像内の人物や自動車などの監視対象を自動認識することで監視員の目視監視負担を軽減する方式が提案されている。例えば、特許文献1では、複数のカメラそれぞれにおいて、画像認識技術を用いて、人物全体特徴情報や顔特徴情報を抽出し、カメラ間でその抽出した情報を交換する技術が開示されている。
In order to cope with social unrest such as a decrease in crime clearance rate, the number of cameras for monitoring suspicious persons / suspicious vehicles is increasing for the purpose of maintaining and improving the security level. In the initial stage of introduction, the surveillance staff visually observes the video taken with the camera in the surveillance room, dispatches police and security guards to the scene in abnormal situations, or stores the video in the recorder for investigation after the crime occurs Using direct and indirect methods such as making use, it has contributed to crime prevention in advance and countermeasures. However, due to the rapid increase in the number of installations, not only cameras but also the number of monitoring personnel and recorders have been increased, resulting in increased costs and insufficient resources for security systems. As a countermeasure against this problem, there has been proposed a method for reducing the visual monitoring burden on a monitor by automatically recognizing a monitoring target such as a person or a car in a camera image using a computer. For example,
多数のカメラが設置される監視では、監視対象空間を限られた監視員リソースで効率的に業務が遂行できるようにするための監視支援技術が必要になる。また、監視対象領域のセキュリティを確保するためには、先に述べたカメラによる監視の他に、建物内であれば、各部屋への施錠により許可された人のみが入出可能な対策を取るのが通常である。開錠の実現方法としては、従来の鍵だけではなく、暗証番号入力,ICカード併用、更には指紋や静脈などのバイオメトリクス認証による個人同定など、より高いレベルでのシステム導入が進んできている。このように、セキュリティレベルを確保には、監視カメラ増設と施錠によるアクセス制限の両方が必要となるが、過度なシステム導入は、コスト増とユーザの不便を招くことになってしまうため、設定すべきセキュリティレベルに応じて柔軟にシステムを組合せることが出来る必要がある。 In monitoring in which a large number of cameras are installed, monitoring support technology is required to enable the work to be efficiently performed with limited monitoring personnel resources in the monitoring target space. In order to ensure the security of the monitored area, in addition to the above-mentioned monitoring by the camera, if it is inside a building, take measures to allow only authorized persons to enter and exit each room. Is normal. As an unlocking method, not only conventional keys but also security code entry, IC card use, and personal identification by biometrics authentication such as fingerprints and veins are being introduced at a higher level. . As described above, in order to secure the security level, it is necessary to both increase the number of surveillance cameras and restrict access by locking. However, excessive system introduction will increase costs and inconvenience the user. It is necessary to be able to combine systems flexibly according to the security level to be achieved.
以上説明したシステムに対する要求を踏まえて、公知技術を検討すると、特許文献1記載のように、全体特徴情報で照合した移動体の映像を監視モニタに表示したり、監視員が追跡対象の移動体を指定する方式では、監視員自身が不審挙動であるかを判断したり、対象移動体の監視空間内での移動経路を推定する必要があり、監視負担の軽減には不十分である。また、不特定多数が特定のエリア(例えばビル内の廊下など)にアクセス可能なケースでは、来場数が多い時には、全員を目視で追跡することは現実的ではなく、適用可能な場面が限定される。
Based on the requirements for the system described above, when a known technique is examined, as described in
本発明は、監視カメラに映る移動体の追跡精度を向上することを目的としている。 An object of the present invention is to improve the tracking accuracy of a moving object reflected on a surveillance camera.
課題を解決する手段として、まず、監視対象空間に複数のカメラを設置し、画像認識技術を用いて、その映像から移動体およびその特徴量情報を抽出する特徴量抽出手段を設ける。この特徴量抽出手段では、情報抽出は所定の時間間隔、又はタイミングで繰り返し実行される。 As means for solving the problem, first, a feature amount extraction means for installing a plurality of cameras in the monitoring target space and extracting the moving object and its feature amount information from the video using an image recognition technique is provided. In this feature amount extraction means, information extraction is repeatedly executed at predetermined time intervals or timings.
カメラで撮影した映像およびその抽出した移動体の特徴量情報は、通信ネットワークを経由して移動体の照合追跡手段に送られる。照合追跡手段は後述する監視空間データベース,移動体分離集約手段,経路算出手段,移動体整合度算出手段,個人特定情報整合手段,制限エリア侵入判定手段,挙動分析・不審者検知手段から構成される。 The video captured by the camera and the extracted feature information of the moving body are sent to the moving body collation and tracking means via the communication network. The verification tracking means is composed of a monitoring space database, a moving object separation and aggregation means, a route calculation means, a moving object matching degree calculation means, a personal identification information matching means, a restricted area intrusion determination means, a behavior analysis / suspicious person detection means, which will be described later. .
照合追跡手段は、監視対象空間全域を三次元モデルとして表現し、更に移動体が移動可能な空間のつながりをネットワーク表現した監視空間データベースを中心に持ち、送られてきた特徴量情報を蓄積する。監視空間データベースにおいて、各カメラの位置およびその撮影範囲は三次元モデルおよびネットワークモデルと相互に関連つけられており、特徴量情報はカメラ情報と関連して蓄積される。 The verification tracking means expresses the entire monitoring target space as a three-dimensional model, and further has a monitoring space database that expresses the connection of the space in which the mobile body can move, centered on the network, and accumulates the transmitted feature information. In the surveillance space database, the position of each camera and its photographing range are correlated with the three-dimensional model and the network model, and the feature amount information is stored in association with the camera information.
ここで、一つのカメラ映像内には一般的に複数の移動体が存在するため、それらを個別の移動体として分離する必要がある。そのため、所定の間隔で動作する移動体分離集約手段は、データベースに蓄積されている各カメラ毎の特徴量情報を取り出し、既に特徴量空間にマッピングされ、グループ分けされている特徴量集合との距離的な近さや抽出した移動体の映像空間内での推定移動方向・距離の情報を用いて、どの特徴量集合に属するか決定する。ここで特徴量集合とは、同じ移動体に対して特徴量抽出処理を実施するたびに得られる情報の集まりをさし、一つの移動体が一つのカメラ視野に進入してから退出するまでの情報を用いて、特徴量ベクトルの平均値とその分散値で代表することも可能である。 Here, since a plurality of moving bodies generally exist in one camera image, it is necessary to separate them as individual moving bodies. Therefore, the moving object separation and aggregation means that operates at a predetermined interval takes out the feature amount information for each camera stored in the database, and the distance from the feature amount set that has already been mapped to the feature amount space and grouped Using the information on the approximate proximity and the estimated moving direction / distance in the video space of the extracted moving object, it is determined which feature set belongs to. Here, the feature amount set refers to a collection of information obtained each time the feature amount extraction processing is performed on the same moving object, from one moving object entering one camera field of view until leaving. Using information, it is also possible to represent the feature value vector by its average value and its variance value.
次に、分離・集約した移動体を追跡するために、照合追跡手段における経路算出手段により、監視対象空間におけるカメラ撮影範囲間での移動経路の候補を求める。経路算出では、通路や部屋などの人の移動空間の接続状態をデータベースでネットワークとしてモデル化された情報を対象として、出発地点から目的地点間での、設定したリンクコストの最小値を探索する。監視空間の構成が単純であれば、事前にカメラ間の全組合せにおける全経路をテーブルとして求めておくことも可能である。 Next, in order to track the separated / aggregated moving body, a route calculation unit in the verification tracking unit obtains a movement route candidate between the camera photographing ranges in the monitoring target space. In the route calculation, the minimum value of the set link cost between the departure point and the destination point is searched for information modeled as a network in the database of the connection state of a person's movement space such as a passage or a room. If the configuration of the monitoring space is simple, it is possible to obtain all routes in all combinations between cameras in advance as a table.
そして、照合追跡手段における移動体整合度算出手段において、二つの移動体の特徴量集合同士の整合度を算出する。整合度は、二つの集合の特徴量空間における近さの指標として定義する。この時、それぞれのカメラ視野を移動体が通過する度に次々と抽出される特徴量集合の、どの組合せをもって整合度を算出するかが適切な追跡を実現する上でポイントになる。そこで、まず移動体が上流側カメラ視野を通過した時の移動方向の情報を用いて、先に説明した経路算出手段により移動体が到達しうる下流側カメラまでの経路を求め、その所要時間を推定する。この時、階段やエレベータを経由した経路には通路とは異なる重みをつけて求める。そして、その所要時間から所定の時間内に通過した移動体との整合度をそれぞれ求めておく。二つの移動体が一致するかどうかは、整合度に対応する判定値を設定して決める。この判定値を変更することで、追跡対象を狭めたり,広げたりすることが可能となる。また、移動体の滞留に対処するため、所要時間を逆算して下流側カメラで捉えた移動体に相当する上流側移動体が存在しないときには、時間をさかのぼって、所定の整合度に見合う移動体を求める。 Then, the moving body matching degree calculation means in the verification tracking means calculates the matching degree between the feature amount sets of the two moving bodies. The degree of matching is defined as an index of closeness in the feature amount space of the two sets. At this time, the combination of the feature value sets extracted one after another each time the moving object passes through each camera field of view is the key to realizing appropriate tracking. Therefore, first, using the information on the moving direction when the moving body passes through the upstream camera field of view, the route calculation means explained above determines the route to the downstream camera that can be reached by the moving body, and the required time is calculated. presume. At this time, the route passing through the stairs and the elevator is obtained with a weight different from that of the passage. Then, the degree of matching with the moving body that has passed within a predetermined time from the required time is obtained. Whether or not the two moving objects match is determined by setting a determination value corresponding to the degree of matching. By changing this determination value, it is possible to narrow or widen the tracking target. In addition, in order to cope with the stay of the moving body, when there is no upstream side moving body corresponding to the moving body captured by the downstream camera by calculating the required time, the moving body goes back to the predetermined degree of matching. Ask for.
以上説明した処理を表示手段にて、監視員に見せることが必要である。表示手段では、監視対象空間を三次元的にとらえて、様々な視点を設定して表示する機能,設置されたカメラの位置およびその映像を表示する機能が含まれている。カメラ映像の表示では、監視員が特定のカメラを選択したり、一つの表示部に複数のカメラ映像を時間を区切って自動的に切り替えて映し出す。各カメラ毎に抽出した特徴量情報によって、移動方向別の通過人数を映像に重ねて表示することで、映像を注視していなくても、監視員は混雑状況を把握することができる。 It is necessary to show the processing described above to the monitoring staff using the display means. The display means includes a function of viewing the monitored space three-dimensionally and setting and displaying various viewpoints, and a function of displaying the position of the installed camera and its video. In the display of the camera video, the monitor selects a specific camera, or a plurality of camera videos are automatically switched and displayed on a single display unit with a time interval. By displaying the number of passing people in each moving direction on the video based on the feature amount information extracted for each camera, the monitor can grasp the congestion situation even when the video is not watched.
また、監視員が映像中の特定の移動体を指定することにより、その移動体の移動経路を推定した結果を表示したり、カメラ間での整合度を求めることで、自動的に追跡することが可能である。これは夜間など移動体がまばらになった場合には、監視員が指定しなくても、画像認識技術で検知した移動体をすべて追跡することが実現出来る。逆に、日中など移動体が多い場合には、追跡結果を表示に重ねても、わかりにくくなるため、監視員の指定した対象のみの追跡情報を表示する。ここで、監視員が整合度に対応する判定値を任意に変化させることを可能にすることにより、追跡対象を広げたり,狭めたりすることができるようになり、追跡抜けを防ぐことができるようになる。 In addition, when a monitor specifies a specific moving object in the video, the result of estimating the moving path of the moving object is displayed, and tracking is automatically performed by obtaining the degree of consistency between cameras. Is possible. In the case where the moving body becomes sparse, such as at night, it is possible to track all the moving bodies detected by the image recognition technology without specifying by the observer. Conversely, when there are many moving objects such as during the day, even if the tracking results are superimposed on the display, it becomes difficult to understand, so the tracking information of only the target designated by the observer is displayed. Here, by allowing the observer to arbitrarily change the judgment value corresponding to the degree of consistency, the tracking target can be expanded or narrowed, and the tracking failure can be prevented. become.
一方、照合追跡手段には、ドアに据え付けられたカード認証やバイオメトリクス認証等の個人特定情報整合手段が含まれる。カード認証によりそのカード所有者の特定情報と対応付けることが可能となる。よって、カード認証手段のついたドア近傍を監視カメラで撮影し、外見の特徴量情報を抽出し、同時に、カード情報によりその所有者の情報と関連つける。外見的な特徴量情報とその個人情報を関連つけることで、その人が監視対象のどのエリアに入っても良いのかを判定することが可能となる。それを同じく照合追跡手段にある制限エリア侵入判定手段により判断する。この時、制限エリア侵入判定手段はドアに取り付けられた開閉センサと接続され、その開閉情報は侵入判定有無に用いられる。 On the other hand, the verification tracking means includes personal identification information matching means such as card authentication and biometric authentication installed on the door. Card authentication can be associated with specific information of the cardholder. Therefore, the vicinity of the door with the card authentication means is photographed by the monitoring camera, the feature value information of the appearance is extracted, and at the same time, the card information is associated with the owner information. By associating the apparent feature information with the personal information, it is possible to determine which area of the monitoring target the person can enter. This is determined by the restricted area intrusion determining means also in the verification tracking means. At this time, the restricted area intrusion determination means is connected to an open / close sensor attached to the door, and the open / close information is used for presence / absence determination of intrusion.
この時、権限のない人が制限エリアに侵入した場合は、表示手段にそのための警報情報を表示し、監視員は必要に応じて、警備員を現場に派遣したり、スピーカーによりエリアからの退出を呼びかけることが出来る。 At this time, if an unauthorized person enters the restricted area, warning information is displayed on the display means, and the monitor dispatches security personnel to the scene as needed, or leaves the area with speakers. Can be called.
また、照合追跡手段には、移動体の移動軌跡を分析することにより、初めての来訪者やいつものユーザ,不審者であるかどうかを判定して監視空間データベースを経て、表示手段により制限エリアへの侵入と同様な警報を表示する挙動分析・不審者検知手段を設けている。 The verification tracking means analyzes the movement trajectory of the moving body to determine whether it is a first visitor, a normal user, or a suspicious person, passes through the monitoring space database, and enters the restricted area by the display means. A behavior analysis / suspicious person detection means for displaying an alarm similar to that of the intruder is provided.
本発明により、監視対象領域内の移動体に対する追跡性能が向上し、それにより監視員の負担が軽減されるとともに、ユーザにとって煩わしくないセキュリティソリューションを提供することが可能となる。 According to the present invention, it is possible to improve the tracking performance for a moving object in the monitoring target area, thereby reducing the burden on the monitoring staff and providing a security solution that is not troublesome for the user.
本発明を用いた監視システムの例を、図面を用いて説明する。 An example of a monitoring system using the present invention will be described with reference to the drawings.
図1を用いて実施例を説明する。監視システムでは、まず、カメラ101と移動体特徴量抽出装置102やカメラ103と移動体特徴量抽出装置104の組合せが監視対象空間に複数台設置され、それぞれがネットワーク105に接続されている。図1では2組が接続されている構成を示しているが、それ以上の組を接続することが可能である。照合追跡装置106は、ネットワークを経由してカメラおよび移動体特徴量抽出装置と接続され、そこから映像と特徴量情報を受信する。また、カード認証装置117およびドア開閉センサ118と接続され、それぞれの機器からカード情報,ドア開閉情報を受信する。照合追跡装置106は、また、カメラ映像や監視対象の移動体の移動軌跡,制限エリアへの侵入警告などを表示する監視用ディスプレイ107と接続され、監視員に状況を伝える役割を持つ。
An embodiment will be described with reference to FIG. In the monitoring system, first, a plurality of combinations of the
照合追跡装置106は、監視空間データベース108,特徴量情報受信記憶機能109,カメラ内移動体分離集約機能110,カメラ間移動経路算出機能111,カメラ間移動体整合度算出機能112,監視状況表示機能113,カード認証整合機能114,制限エリア侵入判定機能115,挙動分析不審者検知機能116から構成される。各機能の詳細は後述する。なお、以下で説明される照合追跡装置106の機能は、1つの装置に実装されるだけでなく、複数の装置に分散して実装することも可能である。
The verification tracking device 106 includes a
次に、移動体特徴量抽出装置102,104について説明する。本装置では、カメラで撮影した映像から画像認識手法を適用して特徴量情報を抽出し、それを外部に出力する機能を有する。図2を用いてその処理手順フローを説明する。まず、ステップ201にてカメラで撮影した映像を取り込む。カメラはNTSC形式などのアナログ信号を出力するものやJPEG形式などのデジタル情報を出力するものなど、どの方式のものでも実現可能であり、アナログ形式の場合は、画像認識処理するために、デジタル情報に変換して装置内のメモリに記憶する。
Next, the moving body feature
次に、ステップ202では記憶されたデジタル映像情報から映像内に存在する移動体を抽出する。抽出の具体的方式として、背景差分法を適用する。背景差分法とは、移動体が存在しない状態の映像データを背景として保存しておき、移動体が映っている映像データとピクセル毎の輝度値の差分を求めることで、背景には存在しなかった移動体の領域を求める手法である。そして、人物の大きさなどの情報を用いて、移動体領域を個別の人物に分割するのが本ステップでの役割である。
Next, in
次に、ステップ203ではステップ202で人物毎に分割された領域からそれぞれの特徴量を算出する。ここでは、特徴量として、下半身と上半身の最頻輝度値を求める方式を説明する。まず、人物の全身が映っている領域のみを処理対象とするため、画像の上下左右の境界にかかっている場合は処理をスキップする。次に、全身領域から輪郭形状の変動点,輝度値の変動点などの情報を用いて、頭部を除いた上半身部分と下半身部分のそれぞれの領域を確定する。そして、それぞれの部分領域内の全画素の輝度値を集計して、出現頻度が最も多い輝度値をその部分領域の代表特徴量とするのである。この処理により、二つの特徴量(上半身最頻輝度値と下半身最頻輝度値)を得ることができる。また、人物の画像内での位置情報(例えば、上半身の重心位置など)を求めて、特徴量情報と合わせて管理しておくことで、移動速度や移動方向を求めることができる。特徴量としては他にも輪郭形状の大きさや色情報を組合せて使うことも可能である。
Next, in
最後に、ステップ204にて、一つのカメラ映像から得られた特徴量情報(通常は複数の情報)を照合追跡装置に送る。送信する情報には、カメラID,映像取得時刻,ローカルIDなどの情報が付与される。以上説明したステップ201からステップ204までの処理はステップ205にて終了指定が設定されない限り、繰り返し実行される。処理周期は実装する装置での上記の処理時間,カメラのフレームレート,移動体の移動速度を考慮して値が決められる。
Finally, in
次に、照合追跡装置106における監視空間データベース108について図3を用いて説明する。図3はデータベースの構成データを示したものであり、監視空間データベース108は、建物データベース302,利用者データベース311そして監視データベース314から構成され、それぞれのデータが相互に参照される。
Next, the
建物データベース302は、外観形状三次元データ303,フロア別空間データ304,エレベータデータ305,階段データ306,カメラデータ307,カード認証装置データ308,ドア開閉センサデータ309、そしてネットワークデータ310から構成される。
The
ここで図4を用いて建物データベースについて説明する。外観形状三次元データ303は、図4では監視対象空間を三次元モデル401で表現したものであり、監視員等に分かりやすく見せるためにこのデータは用いられる。フロア402,エレベータ403,階段404は、それぞれフロア別空間データ304,エレベータデータ305,階段データ
306の事例として示したものである。この三つのデータは移動体としての人が存在しうる場所を示している。
Here, the building database will be described with reference to FIG. The appearance shape three-
図5はフロア上の施設配置の一例を示したものである。このフロアには部屋501から部屋504の部屋がありその周囲を通路で囲んでいる。フロアへはエレベータ505,
506か、階段507,508を使って人が出入りする。人が通過する通路はカメラ(および特徴量抽出装置)510から512にて撮影されている。各部屋のドアは開閉センサがついたドア517,518,519,520か、カード認証装置がついたドア513,514,515,516から人の出入りが可能となっているものとする。建物データベース302におけるカメラデータ307は、このようにフロアに取り付けられた位置や撮影範囲のデータを有し、カード認証装置データ308は、カード認証装置の位置や出入り口としてつながる部屋と通路のデータを有し、ドア開閉センサデータ309は、同様にセンサの位置や出入り口としてつながる部屋と通路のデータを有するものとする。
FIG. 5 shows an example of facility arrangement on the floor. On this floor, there are
People go in and out using 506 or
次に、経路探索に用いるためのネットワークデータ310について、図6を用いて説明する。まず、通路や部屋などの人が移動する空間をスケルトン表現したものをリンクのベースとする。人の流れが分岐合流する地点やドアやエレベータ・階段によってその空間に人の出入りが発生する地点等をノードと定義し、ノード間は人の移動が可能なリンクとして表現する。図6では、このフロアが通路から構成されるネットワークと各部屋毎に構成されるネットワークの計5つのネットワークにより表現されることを示している。ノードとして、ドアノード,エレベータノード,階段ノード,分岐ノード,ターミナルノードを定義する。ドアノードは通路と部屋,通路と通路,部屋と部屋を結ぶノードであり、別々のネットワーク同士を結びつける役割を担う。図7に示しているようにエレベータノードはエレベータの各フロアに定義し、そのノード間をフロア間をつなげるリンクで結びつけるものであり、フロア間のネットワーク同士を結びつける役割を担う。階段ノードもエレベータノードと同様にフロア間のネットワーク同士を結びつける役割を担うが、エレベータノードを結ぶリンク列ではその中の一箇所にしか人は存在しないが(エレベータ内のかごは1つであるため)、階段ノード同士を結ぶリンクにはそのような制約が無いのが違いである。分岐ノードは人の出入りがない分岐地点に定義されるノードであり、ターミナルノードは人の出入りがないリンクの末端に定義されるノードである。以上説明したネットワークデータを用いることにより、任意のフロアにおけるノード・リンクから別の任意のフロアにおけるノード・リンクまでの経路を生成することが可能となる。
Next,
図3における利用者データベース311は、その空間にアクセスする権限のある特定された人物の情報を集めたものであり、組織構成員データ312と登録済み来場者データ
313から構成される。具体的には、各フロアに入居している団体・会社およびその組織構成,組織を構成する人員リストの情報を含み、各組織や個人のレベルでの各部屋へのアクセス権限の情報や各個人のカード情報・バイオメトリクス情報が含まれる。登録済み来場者データも同様であり、そのフロアに一時的にアクセスする来場者の情報を組織構成員データと同様な形式で記録するものとする。カード認証やその他の認証(顔認証や指紋認証,静脈認証,音声認証などのバイオメトリクス認証含む)によって個人が特定されると、このデータベースの情報が参照され、その個人に許可されるアクセス可能なエリアを特定することができる。組織・個人の特定情報と結び付けられない移動体が、制限エリアへ侵入した場合は、アラーム出力の対象となる。
The
図3の監視データベース314は、主にカメラおよび特徴量抽出装置から送られてくるデータを蓄積し、算出された移動体,移動経路,整合度などのデータを蓄積するものであり、カメラ映像データ315,抽出特徴量データ316,カメラ内照合追跡データ317、そしてカメラ間照合追跡データ318から構成される。次に説明する照合追跡装置内の多くの機能はこのデータベースをワークエリアとしても利用する。
The
次に、図1における特徴量情報受信記憶機能109について以下説明する。この機能はネットワークを経由して複数のカメラおよび移動体特徴量抽出装置から送られてくる映像と特徴量情報を受信し、それぞれ監視空間データベース108内の監視データベース314におけるカメラ映像データ315,抽出特徴量データ316に記憶する役割を担う。映像データはすべてを保管するためには多くの記憶容量が必要となるため、期限を切って過去のデータは削除したり、人物が映っているシーンのみを選択的に記憶手段に記録したりする。
Next, the feature amount information
図1におけるカメラ内移動体分離集約機能110について以下説明する。図8は各カメラで撮影された映像のスナップと所定の時間内に抽出された特徴量をグラフにプロットしたものを例示している。ここでは、図5で例示したフロアに配置されたカメラの中の、三つのカメラを対象として図8(a)にカメラ509のスナップ映像801と抽出特徴量グラフ802を、図8(b)にカメラ510のスナップ映像811と抽出特徴量グラフ812を、図8(c)にカメラ512のスナップ映像821と抽出特徴量グラフ822を、それぞれ例示している。スナップ映像801では、三人の人物が抽出され、人物803は画像の奥側に移動し、人物804,805は画像の手前に移動するものとする。抽出特徴量グラフ802は、先に例示したように上半身最頻輝度値と下半身最頻輝度値の二つの値を特徴量として、特徴量空間を表す二次元グラフにその抽出した値をプロットしたものである。スナップ映像801がある特定時刻の1シーンのみを表すものに対し、抽出特徴量グラフ802は所定の時刻間において抽出された特徴量をまとめてプロット表示している。図2のフローチャートで説明したように、移動体特徴量抽出装置によって、スナップ映像
801から三人の人物803,804,805がそれぞれ抽出され、その映像に対して、抽出特徴量グラフ802にプロットされるデータが三つ求められ、それが特徴量情報受信記憶機能109を経て、監視空間データベース108に保管される。カメラ視野内人物の移動時間差,照明等の外部環境の変動,人物の動きによる大きさ・向きの変動等により、特徴量の抽出時間に時刻差が生じ、また同じ人物に対する特徴量も変動する。この時間的にずれて抽出され、変動を伴う特徴量を個別の移動体別の情報として整理する役割をカメラ内移動体分離集約機能110が担っている。つまり、グラフ802において、バラバラにプロットされた特徴量をデータ集合806,807,808のようにそれぞれのデータ集合としてまとめ、移動体と対応付けるのである。この例では、人物803に相当するデータ集合がデータ集合808に、人物804に相当するデータ集合がデータ集合807に、人物805に相当するデータ集合がデータ集合806に、それぞれ対応するものとして以下の説明を展開する。
The in-camera moving object separation and aggregation function 110 in FIG. 1 will be described below. FIG. 8 exemplifies a graph in which snaps of images taken by each camera and feature amounts extracted within a predetermined time are plotted on a graph. Here, the
カメラ内移動体分離集約機能110の処理手順を図9のフローチャートを用いて説明する。特徴量抽出装置から送られてくる情報は、映像データは監視データベース314のカメラ映像データ315に蓄積され、特徴量データは抽出特徴量データ316に蓄積されるが、それぞれカメラ毎,時刻毎の情報として保管される。送られてきたデータを移動体情報として整理するために、まず未処理カメラの特徴量抽出情報を選択し(ステップ901)、その中のまだ整理が終わっていない未処理時刻情報を選択する(ステップ902)。次に、ステップ903のカメラ・時刻別特徴量分離集約処理により、既にある移動体情報に追加したり、新規移動体として登録したり、退出した移動体として処理したりする。その処理結果は監視データベース314のカメラ内照合追跡データ317に保管される。そして、まだ処理していない別の時刻の情報が残っていれば(ステップ904)、ステップ
902からの処理を繰り返し、また、まだ処理していない別のカメラの抽出情報が残っていれば(ステップ905)、ステップ901からの処理を繰り返す。
The processing procedure of the in-camera moving object separation and aggregation function 110 will be described with reference to the flowchart of FIG. As for the information sent from the feature quantity extraction device, the video data is accumulated in the
次に、ステップ903にあるカメラ・時刻別特徴量分離集約処理の詳細を図10のフローチャートを用いて説明する。まず、ステップ1001にて処理対象のカメラ情報について、そのカメラ内に既に移動体として登録されているデータ集合(これをカメラ内既存移動体と呼ぶ)が存在するかどうかを確認する。存在していない場合は、新たに移動体がカメラ視野に進入してきたことに相当するため、ステップ1002にてすべての未処理特徴量情報をカメラ内に新規に現れた移動体としてデータ集合を新設して登録する(これをカメラ内新規移動体と呼ぶ)。図8における801,811,812がこの条件に合う場合には、それぞれ3つ,2つ,1つのカメラ内新規移動体が登録されることになる。
Next, details of the camera / time-specific feature amount separation / aggregation processing in
一方、カメラ内既存移動体が存在する場合は、特徴量情報はその既存移動体と同じ人物としてデータを追加するか、新規移動体として登録するかどちらかになる。これを判定するために、空間距離とマハラノビス距離の二つの距離量を用いる。まず、未処理の特徴量情報を選択し(ステップ1003)、すべてのカメラ内既存移動体におけるデータ集合の中で、最新情報のカメラ内位置と、選択した特徴量のカメラ内位置との空間距離をそれぞれ算出する(ステップ1004)。最新情報の位置としては、直前のデータだけでなく、例えばカルマンフィルターを用いたその時刻に対する移動予測位置を用いてもよい。このカルマンフィルターとは時系列として観測される計測データを用いて、未来の時刻における予測値を求め、また、新たな計測データによってその予測精度を改善する手法である。また、すべてのカメラ内既存移動体におけるデータ集合の中で、特徴量集合と選択した特徴量とのマハラノビス距離を算出する(ステップ1005)。マハラノビス距離は統計で用いられる指標で、データ集合の平均値と対象値との距離を集合の標準偏差で割った値であり、分布を考慮に入れたデータ集合と1つのデータとの近さを表すものである。ここでは特徴量の類似度を示す指標として用いる。これをすべての未処理特徴量に対して繰り返す(ステップ1006)。 On the other hand, when there is an existing moving body in the camera, the feature amount information is either added as data as the same person as the existing moving body or registered as a new moving body. In order to determine this, two distance quantities, a spatial distance and a Mahalanobis distance, are used. First, unprocessed feature quantity information is selected (step 1003), and the spatial distance between the latest information in-camera position and the selected feature quantity in-camera position in the data set of all existing moving bodies in camera. Are calculated respectively (step 1004). As the position of the latest information, not only the immediately preceding data, but also, for example, a movement predicted position for the time using a Kalman filter may be used. This Kalman filter is a technique for obtaining a predicted value at a future time using measurement data observed as a time series, and improving the prediction accuracy using new measurement data. Further, the Mahalanobis distance between the feature quantity set and the selected feature quantity among the data sets in all the existing mobile bodies in the camera is calculated (step 1005). Mahalanobis distance is an index used in statistics, and is the value obtained by dividing the distance between the average value of the data set and the target value by the standard deviation of the set, and the proximity of the data set taking into account the distribution and one data. It represents. Here, it uses as a parameter | index which shows the similarity degree of a feature-value. This is repeated for all unprocessed feature values (step 1006).
次に、ステップ1007にて、算出した空間距離とマハラノビス距離からなる、すべてのベクトル組で、その大きさが最小値となる組を求める。ベクトルの大きさが最小であることが既存移動体と一致するということにはならないため、所定のしきい値を設定し、その値の範囲内であるかどうかチェックする(ステップ1008)。もし範囲内であれば、ステップ1009にあるように、選択した組の特徴量情報をカメラ内既存移動体情報に追加し、この組を次の選択候補から除く。これを候補となる既存移動体が存在するまで、ステップ1007以下を繰り返す(ステップ1010)。ステップ1008にて、ベクトルの大きさが所定の範囲を超えた場合は、残りの既存移動体情報はカメラ視野から退出したか、他の移動体との重なりで本来抽出されるべき特徴量が抽出されなかったと考えられる。そこで、対象となる既存移動体の最新位置が、例えば、図3のネットワークデータ310を参照して、退出地点近傍内にある場合には、移動体が退出したものと見なし、その既存移動体情報にそのことを示す情報を追記して、カメラ内既存移動体としての登録情報から削除する(ステップ1012)。最後に、どのカメラ内既存移動体とも結び付けられなかった未処理特徴量は、新規にカメラ視野に進入したものとしてカメラ内新規移動体として登録する(ステップ1011)。
Next, in
以上説明した処理を実施することにより、カメラ509の情報については、グラフ802において、データ集合806から808として情報を集約することができ、また、映像
801における個別の人物との対応付けもできる。また、カメラ510の情報についても、グラフ812において、データ集合815,816を分離でき、それぞれ映像811の人物814,813との対応付けができ、カメラ512の情報についても、グラフ822におけるデータ集合824と映像821における人物823とが対応付けられる。
By performing the processing described above, information on the
次に、図1におけるカメラ間移動経路算出機能111について以下説明する。移動経路算出は、例えば図6に示したようなノードとリンクから構成されるネットワーク表現データを対象とする。経路探索手法としては、リンクコストが最小となる経路を探索する方式であるダイクストラ法を基本とする。ダイクストラ法を適用することにより、指定したノードから残りの全ノードに対する最小リンクコスト経路を求めることができる。このダイクストラ法とはネットワークのリンクに設定されたコストに対して、各ノードへの最小値経路を、開始点から1つずつ確定して、それをネットワーク全体に広げていくアルゴリズムであり、地図における最短経路探索の基本アルゴリズムとして広く利用されているものである。そして、ここでのリンクコストには移動時間に対応するものを選択する必要がある。そのため、フロア内ではノード間の距離に人の平均移動速度を掛け合わせたものを、階段ノード間には階段距離に階段昇降平均速度を掛け合わせたものを、エレベータノード間にはエレベータホールでの平均待ち時間にエレベータのフロア間移動時間(扉開閉時の出入り時間含む)を加えたものを用いる。以上説明したようなリンクコストに時間依存性がない指標を用いる場合は、カメラ間およびノード間の最小重み経路は、オフラインで事前に求めておくことが可能であり、それを例えば監視空間データベース108のネットワークデータ310に保管して、参照するだけで経路が得られるようにすることができる。
Next, the inter-camera movement
しかし、以下の説明項目を考慮すると、実際は必要になった時点で移動経路を求める処理を実行する必要が出てくる。まず、抽出した移動体の特徴量情報の、その位置の時間遷移データから、カメラ視野内での移動速度を求めることが出来る。リンクコストの設定に平均移動速度ではなく、この算出した移動速度を適用することでリンクコストが変わることになる。また、エレベータでの移動時間も、統計的な平均値ではなく、その時のエレベータの稼動データ(どの時刻にどのフロアにいたか)から求めた実績値を用いることでリンクコストが変わることになる。エレベータによる移動は他のフロアにおける呼の状況や運行管理モードに大きく影響されるため、精度の高い推定には、エレベータの運行をモデル化し、シミュレーションによりその挙動を推定する必要がある。一方、移動体の特徴量情報よりカメラ視野からの移動体の退出方向を得ることができるが、経路はその向きに大きく依存することになる。よって、まず経路探索の出発地点からその移動方向にある途中の分岐点までネットワーク上の経路を求め、次にその分岐点からダイクストラ法を適用して最小コスト経路を求める必要がある。 However, in consideration of the following explanation items, it is necessary to execute a process for obtaining a movement route when it is actually necessary. First, the moving speed within the camera field of view can be obtained from the time transition data at the position of the feature amount information of the extracted moving object. The link cost is changed by applying the calculated moving speed instead of the average moving speed to the link cost setting. In addition, the travel time at the elevator is not a statistical average value, but the link cost is changed by using the actual value obtained from the elevator operation data at that time (which floor at which time). Since movement by an elevator is greatly influenced by the call status and operation management mode on other floors, it is necessary to model the operation of the elevator and estimate its behavior by simulation for high-precision estimation. On the other hand, the moving direction of the moving body from the camera field of view can be obtained from the feature amount information of the moving body, but the path greatly depends on the direction. Therefore, it is necessary to first obtain a route on the network from the starting point of the route search to an intermediate branch point in the moving direction, and then obtain the minimum cost route from the branch point by applying the Dijkstra method.
上記の説明を踏まえ、カメラ間移動経路算出機能111を図11を用いて説明する。まず、まだ経路算出が終わっていない未処理のカメラデータを選択し(ステップ1101)、その中の移動体情報を選択する(ステップ1102)。そして、移動体速度・方向を算出し、その速度情報を用いてネットワークのリンクコストを設定する(ステップ1103)。次に、エレベータの稼動データを用いたエレベータノード間のリンクコストを設定し
(ステップ1104)、移動方向を考慮した分岐点までの推定経路を算出する(ステップ1105)。最後に、分岐点よりダイクストラ法による最小コスト経路を算出し(ステップ1106)、その経路を例えば監視空間データベース108内のカメラ間照合追跡データ318に保存する(ステップ1107)。以上の処理をすべての移動体に対して(ステップ1108)、そしてすべてのカメラデータに対して(ステップ1109)繰り返す。
Based on the above description, the inter-camera movement
以上説明した方式を図5のフロアおよび図6のネットワーク表現に適用し、図5のカメラ509でとらえた移動体を例に説明する。図8(a)に例示するように、カメラ映像から抽出した三人の移動体情報から、それぞれの特徴量や移動速度,移動方向を求めることができ、その移動速度を用いてリンクコストを設定する。人物803は映像の奥へ移動することから、その分岐点に至るまでの経路を図12における推定経路1202として求めることができる。一方、人物804,805は映像の手前に移動することから、その分岐点に至るまでの経路を図12における推定経路1201として求めることができる。そして、各分岐点よりダイクストラ法を適用して経路として設定されていない全ノードへの最小リンクコスト経路を求めるのである。同様にカメラ510に対する推定経路として推定経路1203および推定経路1204,カメラ512に対する推定経路として推定経路
1205をそれぞれ求めることができる。本ケースでは、分岐点にカメラが設置されているが、一般的には分岐点とカメラ設置地点は一致せず、またネットワーク規模が大きくなると経路探索処理により自動的に経路を求める必要が明確になる。
The method described above is applied to the floor in FIG. 5 and the network representation in FIG. 6, and a moving body captured by the
ここで、図5で示した事例では、カメラは通路のみに設置されているため、移動経路は通路上のリンクからのみ構成されるネットワークのみが探索対象であったが、部屋内にカメラを設置した場合は、複数のネットワークにまたがった探索が必要になる。この場合は、部屋から通路までの経路をまず求め、次に通路ネットワークを探索対象とするような、2段階探索を適用する。 Here, in the example shown in FIG. 5, since the camera is installed only in the passage, only the network composed only of the links on the passage is the search target, but the camera is installed in the room. In this case, it is necessary to search across multiple networks. In this case, a two-stage search is applied in which a route from the room to the passage is first obtained and then the passage network is searched.
次に、図1におけるカメラ間移動体整合度算出機能112について以下説明する。図8を用いて本機能の目的を説明する。ここでは三人の人物が登場し、カメラ509からカメラ510へ二人の人物が、残りの一人の人物がカメラ509からカメラ512へ移動したとする。この時に、映像801の人物803が映像821の人物823と、映像801の人物804と人物805が映像811の人物813と人物814にそれぞれが照合することを推定するのである。この照合には、先に説明したカメラ間の移動経路とカメラ内移動体の集合データが必要になる。図8の三つの映像データを時間を追って見ると、まず映像801に三人が登場し、カメラ内を移動した後、カメラ視野から退出する。その時刻から人物が移動する時間分だけ遅れて、映像811および映像821に人物が登場して、また退出していく。カメラ視野外の移動経路途中に人の出入り口があった場合は、上流側カメラで撮影した人物が下流側のカメラに登場しなかったり、あるいは上流側カメラに映っていない人物が下流側のカメラで登場することもある。また、本実施例では監視対象の人物を三人のみとして説明しているが、通常はそれぞれのカメラ内を次から次へと人が移動していくことを想定する必要がある。
Next, the inter-camera moving body matching
以上を踏まえて、本機能の目的である人物照合を精度よく実現するためには、まず移動時間を考慮した照合データの時間軸上の絞込みが必要であり、そのためにカメラ間移動経路算出機能111で求めた経路情報を用いる。各カメラから抽出された移動体がその視野から退出したと判定された時点で(図10のフローチャートのステップ1012で判定)、その移動体の行き先の経路上にあるカメラの設置地点までの経路およびその移動時間を参照する。そして、そのカメラまで到達する可能性のある移動体情報として、予測到達時間(退出時刻に移動時間を加えたもの)の前後に検索時刻ウィンドウを設定し、退出した移動体情報への参照とともに、記憶しておく。例として、図13に、図8の801における人物804と805が、上流側カメラである図5のカメラ509から下流側カメラであるカメラ510に移動する場合を時間軸上に示す。カメラ509における人物804と
805は同時にカメラに映っており、進入から退出までの時間に重なりがある。また、カメラ510に設定する検索時刻ウィンドウも二つの人物向けの範囲が重なっている様子が示されている。
Based on the above, in order to accurately realize the person verification that is the purpose of this function, it is first necessary to narrow down the verification data on the time axis in consideration of the movement time. For this reason, the inter-camera movement
次に、カメラ間で対応する移動体を推定する手順を説明する。図14は、カメラ510の時刻軸上に設定されたカメラ509からの検索時刻ウィンドウと、カメラ内移動体分離集約機能110によって図8の映像811に示されるような人物813と人物814の進入退出を抽出した様子を示している。ここではカメラの視野から退出した時点で、カメラ間で対応する移動体を探す処理を実行するものとする。まず、人物814が退出した時点で、検索時刻ウィンドウの範囲に含まれているすべての上流側移動体を候補として移動体同士の整合度を算出する。この場合、人物814に対応する特徴量集合815と、人物
804と人物805に対応する特徴量集合807と特徴量集合806との整合度を算出することになる。
Next, a procedure for estimating the corresponding moving body between the cameras will be described. FIG. 14 shows the search time window from the
ここで、二つのデータ集合同士の整合度を定義するために、まず、統計学における判別分析で用いられる線形判別関数によって得られる値を近接度として定義する。線形判別関数は二つのグループを分離する最適な直線(一般的には超平面)であり、その定義式に各グループそれぞれのサンプル点の値を代入したものを判別得点と呼ぶ。判別得点はサンプル点と線形判別関数との離れ具合を示す指標である。二つのグループ全サンプルに対する判別得点の偏差平方和は、二つのグループ間の距離を表す指標と各グループ内の変動の和を示す指標の、二つの指標の加算で表現できることが知られている。その前者の指標を
(全サンプル数−1)で割った値が分散に相当するため、その値の平方根をここでは近接度と定義する。具体的には判別得点の個別グループの平均をそれぞれZ1ave,Z2ave、全体平均をZave、それぞれのサンプル数をN1,N2とすると、近接度D12は以下の式1で定義される。
Here, in order to define the degree of matching between two data sets, first, a value obtained by a linear discriminant function used in discriminant analysis in statistics is defined as the proximity. A linear discriminant function is an optimal straight line (generally a hyperplane) that separates two groups, and a value obtained by substituting the value of each sample point in each group is called a discriminant score. The discrimination score is an index indicating the degree of separation between the sample point and the linear discrimination function. It is known that the deviation sum of squares of the discrimination scores for all the samples in two groups can be expressed by adding two indices, an index indicating the distance between the two groups and an index indicating the sum of the fluctuations in each group. Since the value obtained by dividing the former index by (total number of samples-1) corresponds to the variance, the square root of the value is defined as the proximity here. Specifically, assuming that the average of individual groups of discrimination scores is Z1 ave and Z2 ave , the overall average is Z ave , and the number of samples is N1 and N2, respectively, the proximity D12 is defined by the following
D12=√((N1*(Z1ave−Zave)2 +N2*(Z2ave−Zave)2) /(N1
+N2−1)) …(式1)
近接度の定義には他にもマハラノビス距離を用いる方法も適用可能である。近接度が小さければ二つの移動体は同じものである可能性が高く、逆に大きければ別のものである可能性が高いといえる。そこで近接度の所定の範囲を0から1に正規化し、1から引いた値を二つの移動体間で定義される整合度として用いることで、よりわかりやすい指標となる。近接度の下限値をDmin,上限値をDmaxとすると近接度D12に対応する整合度M12を以下の式2で定義する。
D12 = √ ((N1 * ( Z1 ave -Z ave) 2 + N2 * (Z2 ave -Z ave) 2) / (N1
+ N2-1)) (Formula 1)
In addition to the definition of proximity, a method using the Mahalanobis distance is also applicable. If the proximity is small, the two moving bodies are likely to be the same, and conversely if the proximity is large, the possibility is high that they are different. Therefore, a predetermined range of proximity is normalized from 0 to 1, and a value subtracted from 1 is used as the degree of matching defined between the two moving objects, so that the index becomes easier to understand. When the lower limit value of the proximity is Dmin and the upper limit is Dmax, the matching degree M12 corresponding to the proximity D12 is defined by the
M12=1−(D12−Dmin)/(Dmax−Dmin) …(式2)
ただし、D12がDmaxより大きな値のときは、M12=0、D12がDminより小さな値のときは、M12=1とする。
M12 = 1− (D12−Dmin) / (Dmax−Dmin) (Expression 2)
However, M12 = 0 when D12 is larger than Dmax, and M12 = 1 when D12 is smaller than Dmin.
上記で定義した整合度を図8の特徴量集合815と特徴量集合806間、および特徴量集合815と特徴量集合807間でそれぞれ求めると、特徴量集合815と特徴量集合
806との組合せが整合度として1に近い値となる。設定した判定値よりも大きな値であった場合は、この二つの組は一致するものとして判定されることになる。一致した場合は、対応する805向け検索時刻ウィンドウ情報を削除し、また、退出した814移動体情報に、上流側で対応する人物805の移動体情報への参照を記録しておく。これにより移動経路も含めた追跡が可能となる。同様にして、人物813が退出した時点には、検索時刻ウィンドウ内として対応する移動体は人物804に対してのものだけであるから、特徴量集合816と特徴量集合807の整合度を算出し、それが判定値よりも大きな値になるか調べる。このケースでは1に近い値になるため、この二つの組は一致するものとして、対応する804向け検索時刻ウィンドウ情報を削除し、退出した人物813の移動体情報に、人物804の移動体情報への参照を記録しておく。
When the degree of matching defined above is obtained between the feature quantity set 815 and the feature quantity set 806 and between the feature quantity set 815 and the feature quantity set 807 in FIG. 8, the combination of the feature quantity set 815 and the feature quantity set 806 is obtained. The matching degree is a value close to 1. If the value is larger than the set determination value, the two sets are determined as matching. If they match, the corresponding search time window information for 805 is deleted, and the reference to the moving body information of the corresponding person 805 on the upstream side is recorded in the exited 814 moving body information. As a result, the tracking including the moving route becomes possible. Similarly, when the
基本的には以上の処理を各カメラに対応する情報毎に実施することで、移動体同士の整合度の算出および一致の有無の判定を実施することができる。なお、この処理はカメラ視野に進入した時点や進入してから所定の時間を経過した時点など進入から退出までのどの時刻でも実行可能である。ここで、実際の場面を想定した場合、二つのカメラ間の経路途中で人の出入りが発生したり、長時間滞留していたり、途中で引き返してきたりするケースを想定しておく必要がある。 Basically, by performing the above processing for each piece of information corresponding to each camera, it is possible to calculate the degree of matching between moving bodies and determine whether there is a match. This process can be executed at any time from entry to exit, such as when entering the camera field of view or when a predetermined time has elapsed since entering. Here, when an actual scene is assumed, it is necessary to assume a case where a person enters or exits in the middle of a route between two cameras, stays for a long time, or turns back in the middle.
即ち、移動体がカメラ視野から退出したタイミングで、上流側カメラの移動体情報との整合度を算出しようとした場合、予測通りに移動体が到着した時には、先に説明したように検索時刻ウィンドウの範囲内にある移動体情報を選択すればよいが、長時間滞留していた場合は、照合すべき検索時刻ウィンドウの範囲を超えてしまっているので、ウィンドウの過去の時間をさかのぼって検索する必要がある。過去の移動体と対応付けられなかった検索時刻ウィンドウを探し、その移動体情報との整合度が判定値を超えるか(=滞留していた)、所定の探索限界時間に達するかまで探索を続ける。あるいは途中で引き返してきた場合は、そのカメラ自身の過去の退出移動体情報をさかのぼって探索し、同じく整合度が判定値を超えるか(=引き返してきた)、所定の探索限界時間に達するかまで探索を続ける。この滞留と引き返しの二つの場合でそれぞれ整合する移動体が探索された場合は、現在時刻に近いほうを追跡対象となる上流側カメラの移動体情報とする。以上説明したどの判定でも対応する移動体が見つからない場合は、経路の途中から新規に人物が進入してきたものとみなし、このカメラを基点として下流側カメラに向かって移動体を追跡することになる。なお、対応する移動体がみつからない検索時刻ウィンドウで、探索限界時間を超えたものは、上流側カメラの人物は経路途中で出てしまったものとみなす。 That is, when the moving object tries to calculate the degree of matching with the moving object information of the upstream camera at the timing when the moving object leaves the camera field of view, when the moving object arrives as expected, the search time window as described above. You can select moving body information within the range, but if you have stayed for a long time, the search time window that should be collated has been exceeded, so search past the past time in the window. There is a need. A search time window that is not associated with a past mobile object is searched, and the search is continued until the degree of consistency with the mobile object information exceeds a determination value (= has stayed) or a predetermined search limit time is reached. . Alternatively, if the camera is turned back in the middle, it searches backwards for the camera's own past moving body information, until the matching degree exceeds the judgment value (returned) or until the predetermined search limit time is reached. Continue searching. If a matching moving body is searched for in both cases of staying and turning back, the moving object information of the upstream camera to be tracked is the one closer to the current time. If no corresponding moving body is found in any of the determinations described above, it is assumed that a person has entered from the middle of the route, and the moving body is traced toward the downstream camera with this camera as a base point. . Note that if the search time window in which the corresponding moving object is not found exceeds the search time limit, it is considered that the person of the upstream camera has exited in the middle of the route.
上記の説明をまとめたものを図15のフローチャートに示す。あるカメラの視野から移動体が退出すると、その退出移動体情報を参照し(ステップ1501)、その退出時刻を範囲内に含む検索時刻ウィンドウを探す(ステップ1502)。対象となる検索時刻ウィンドウに対応する上流側カメラの移動体情報とこの退出移動体情報との整合度を算出し
(ステップ1503)、その値が判定値を超えた場合は(ステップ1504)、退出移動体情報に整合した上流側カメラの移動体情報への参照を記録し、対応する検索時刻ウィンドウを削除し(1505)、ステップ1502へ戻る。ステップ1504にて整合度が判定値以下の場合もステップ1502へ戻る。これを退出時刻を含むすべての検索時刻ウィンドウに対して実行する。判定値が低い場合や類似な移動体が同時に到着した場合などは複数の上流側移動体情報と整合する場合もある。つまり、ここでの照合追跡では、その経路が一本の場合だけでなく、分岐を含むネットワークになることもある。
A summary of the above description is shown in the flowchart of FIG. When a moving object exits from the field of view of a certain camera, the information on the moving object is referred to (step 1501), and a search time window that includes the exit time within the range is searched (step 1502). The degree of matching between the moving body information of the upstream camera corresponding to the target search time window and the leaving moving body information is calculated (step 1503), and when the value exceeds the determination value (step 1504), the exiting is performed. A reference to the moving body information of the upstream camera that matches the moving body information is recorded, the corresponding search time window is deleted (1505), and the process returns to step 1502. If it is determined in
すべての検索時刻ウィンドウをチェックした結果、退出移動体に対応する上流側移動体が探索された場合(ステップ1506)は、処理を終了する。もし探索されなかった場合は、時間を順番に過去にさかのぼって、削除されなかった検索時刻ウィンドウに対応する移動体、あるいは、そのカメラから退出した移動体と本退出移動体との整合度を算出し
(ステップ1507)、整合度が判定値を超えた場合(ステップ1508)は、退出移動体に整合した上流側移動体情報あるいは同じカメラから過去に退出した移動体情報への参照を記録し、探索時刻ウィンドウに対応した場合はその情報を削除して(ステップ1511)終了する。ステップ1508で、整合度が判定値以下の場合は、探索限界時間を超えない限り(ステップ1509)、ステップ1507へ戻って過去の情報をさかのぼって検索する。探索限界時間を超えた場合は、退出移動体を照合追跡の基点としてその情報を記録して(ステップ1510)終了する。
As a result of checking all the search time windows, if an upstream mobile body corresponding to the leaving mobile body is found (step 1506), the process is terminated. If the search is not searched, the degree of consistency between the moving object corresponding to the search time window that has not been deleted or the moving object that has left the camera and the actual moving object is calculated by going back in time. (Step 1507), and when the degree of matching exceeds the determination value (Step 1508), record the reference to the upstream mobile body information matched with the leaving mobile body or the mobile body information exited in the past from the same camera, If it corresponds to the search time window, the information is deleted (step 1511) and the process ends. If the matching degree is equal to or smaller than the determination value in
次に、図1における監視状況表示機能113について以下説明する。本機能は監視空間データベース108の情報を参照して、監視員に対して監視用ディスプレイ107を通じて、現在の状況あるいは過去の状況を表示するものである。監視用ディスプレイ107にて表示される画面の例を図16を用いて説明する。図16は監視操作卓およびディスプレイ表示を模式的に示したものであり、全体ウィンドウ1601は、建物配置の全体あるいは一部を示すメインウィンドウ1602,監視状況を示すステータスウィンドウ1603,各監視カメラの映像を映す映像ウィンドウ1604〜1609から構成される。
Next, the monitoring
ここでは、メインウィンドウ1602には各フロアの概略図とカメラ配置およびその番号,人物を追跡している場合の移動軌跡と制限エリアに進入したことによる警告表示を示している。本ウィンドウの表示には、図3における建物データベース302(図4,図5で例示),監視データベース314の情報を用いるが、三次元表示技術,コンピュータグラフィックス技術を用いることで、よりリアルな表示を監視員に提供することも可能である。また、逆に建物情報を簡略化し、カメラやその他の関係設備を強調して表示するようなディフォルメを用いた表示も可能である。
Here, the
ステータスウィンドウ1603は、図1における挙動分析不審者検知機能116および制限エリア侵入判定機能118にて得られた警告情報を表示する機能を担う。
The
画面1604から画面1609までの6つの画面は、監視カメラの番号とともにその映像を表示するものである。ネットワーク105を経由して送られてくる映像情報を直接各映像ウィンドウに表示するか、監視データベース314に蓄積された映像データを読み出して表示するかのいずれかの方式を用いる。一般的には、表示領域の制限により、設置したカメラ台数に対して、表示用の映像ウィンドウの数の方が少ないことが多い。この時は、各映像ウィンドウに表示するカメラを個々に選択,切り替えて監視したり、事前に各映像ウィンドウ毎に複数のカメラ映像を登録しておき、所定の時間間隔で自動的に切り替えて表示する方式を用いる。また、カメラ内照合追跡データ317を参照して、退出した移動体数をカウントすることによって、所定の時刻からの通過人数を求め、それを重ねて表示することが可能である。また、移動の方向別に分けて表示することも可能である。
Six screens from a
この映像表示を含めた監視条件を設定するウィンドウの事例を図17により説明する。ここでは、6つの映像ウィンドウに対して、それぞれ、自動切り替え表示か,固定表示かを選択でき、自動切り替えの場合はその時間間隔を入力できる。選択するカメラはプルダウンメニューから選び、カメラ番号,順序などを設定する。一方、メインウィンドウ1602にて例示したような追跡状況の表示に関する設定を、同じ監視条件設定ウィンドウの下部に例示した。これまで説明した図1のカメラ内移動体分離集約機能110,カメラ間経路算出機能111,カメラ間移動体整合度算出機能112によって、随時、照合追跡処理が実施され、その結果は監視データベース314に保存されている。このデータを画面表示する場合、人数が多くなると、画面上での経路の重なり表示が多数発生し、監視員にとってわかりにくいものになってしまう。よって、ここでは、追跡状況の表示は監視員からの要求があった場合を基本とする。一方、夜間のように、人数は少ないが、セキュリティ上の監視重要度は高くなる場合の監視員に対する監視業務の効率的支援が必要である。そこで、所定の人数以下で、かつ、所定の設定時刻間においては、監視員からの要求が無くても、追跡処理で得られた情報をメインウィンドウに表示する機能を設ける。これを自動追跡表示と呼ぶ。自動追跡表示に必要な設定として、機能のON/OFF,追跡対象上限人数,表示対象時刻設定(ここでは三つの設定が可能な例を示す),自動追跡専用映像ウィンドウの選択がある。
An example of a window for setting monitoring conditions including this video display will be described with reference to FIG. Here, for each of the six video windows, either automatic switching display or fixed display can be selected, and in the case of automatic switching, the time interval can be input. Select the camera to be selected from the pull-down menu, and set the camera number and order. On the other hand, the setting related to the display of the tracking status as exemplified in the
図18に自動追跡表示の設定をONとした時の、画面表示例を示す。この例では三人の人物が追跡対象となっており、メインウィンドウには、追跡経路1801から1803の三つの追跡経路が表示されている。追跡経路は、監視データベース314のカメラ間照合追跡データ318に保存されているデータを参照して表示する。自動追跡専用映像ウィンドウ1804では、追跡対象の人物がカメラ視野に入ると、その映像を表示する。同時に複数のカメラ映像を表示する必要が発生した場合は、時間的に後から要求が発生した映像を別途保存しておき、追跡対象がカメラ視野から退出した時点で、その蓄積した映像を再生表示する。自動追跡専用映像ウィンドウは複数設定可能である。
FIG. 18 shows a screen display example when the automatic tracking display setting is set to ON. In this example, three persons are to be tracked, and three tracking paths 1801 to 1803 are displayed in the main window. The tracking path is displayed with reference to data stored in the inter-camera
図19に監視員からの要求によって追跡対象を指定した場合の画面例を示す。任意の映像ウィンドウ内の追跡対象をポインティングデバイスにより選択すると(1901)、メインウィンドウには、移動経路が表示され(1902)、また、その経路上で追跡対象が通過したカメラを強調表示する(1903)。追跡専用の映像ウィンドウを指定した場合は、各カメラを通過した時の映像とカメラ間移動体整合度算出機能112で求められた整合度の値を重ねて表示する。これを通過カメラ毎に自動的に切り替える。この整合度の状態の表示方法としては、この実施例で示されているように整合度の数値を表示しても良いし、この数値に応じたグラフ、又は画面や整合度を示す表示ウィンドウの表示色を変化させることで知らしめることが可能になる。
FIG. 19 shows an example of a screen when a tracking target is designated by a request from a supervisor. When a tracking target in an arbitrary video window is selected by a pointing device (1901), a moving path is displayed in the main window (1902), and a camera through which the tracking target passes is highlighted (1903). ). When a video window dedicated to tracking is specified, the image obtained when passing through each camera and the value of the matching degree obtained by the inter-camera moving body matching
ここで、カメラ間移動体整合度算出機能にて、二つの移動体が一致すると見なす判定値の設定ウィンドウの事例を図20に示す。判定値は個々のカメラ毎に設定できるようにする。これはカメラの設置場所により環境条件が異なるためである。図20ではスライドバーを用いて設定する例を示している。また、判定値を全カメラに対して一斉に高くしたり低くしたりするための、判定値増減ボタンを設け、また、リセットボタンにより全カメラの判定値を1に再設定する機能を実行する。本ウィンドウは監視員が直接操作することも可能であるが、システム設定者の調整ツールとしても用いられる。 Here, FIG. 20 shows an example of a determination value setting window for determining that two moving bodies match with the inter-camera moving body matching degree calculation function. The judgment value can be set for each individual camera. This is because environmental conditions differ depending on the installation location of the camera. FIG. 20 shows an example of setting using a slide bar. In addition, a determination value increase / decrease button is provided to increase or decrease the determination value for all cameras at once, and a function for resetting the determination value of all cameras to 1 by a reset button is executed. This window can be operated directly by the supervisor, but is also used as an adjustment tool for the system setter.
また、監視追跡業務を想定した時に、その時点でのリアルタイムの映像情報の他に、直前までの映像をプレイバックして不審行動かどうかを見極めることが必要になると考えられる。図21は蓄積した映像を同期を取って再生,早送り,巻戻し表示するための、監視映像再生コントローラの事例を示したものである。各映像ウィンドウに表示するカメラをそれぞれ選択し、開始時刻を設定する。ディフォルトは現在時刻である。再生コントロールには、通常再生,早送り再生,プレイバック再生,早送りプレイバック再生,停止のボタンを用いる。 In addition, when a monitoring and tracking operation is assumed, it may be necessary to determine whether or not the action is suspicious by playing back the previous video in addition to the real-time video information at that time. FIG. 21 shows an example of a monitoring video playback controller for reproducing, fast-forwarding, and rewinding the stored video in synchronization. Select the camera to be displayed in each video window and set the start time. The default is the current time. For playback control, buttons of normal playback, fast forward playback, playback playback, fast forward playback playback, and stop are used.
次に、図1におけるカード認証装置117について説明する。ここでいうカード認証装置とは、ドアの施錠を解除するために設置されたICカード情報読み取りと暗証番号入力機能を備えたものをさす。図5では513,514,515,516として例示し、図
22ではICカードシンボル2202によってその設置位置を示している。図1におけるカード認証整合機能114は、カード認証装置117と接続し、監視空間データベース
108内の利用者データベース311を検索して、カードIDと一致する情報を探す。そして検索した情報からその人が入ろうとしている部屋に入室する権限があるかどうかを確認し、権限があれば開錠する。本装置を使った入退室が発生した時には、図22に示すシンボルの付近にそのID情報を表示する。また、入室する権限がない場合には、そのカードシンボルを点滅させたり、色を変えたりして、監視員にアラームを発する。これらのアクセス情報は監視空間データベース108のカード認証装置データ308に入退室記録としてそのログを保存しておく。
Next, the
カード認証整合機能114は、また、移動体の照合追跡処理との連携を図る役割を担う。例えば、カード認証装置を操作する人物が視野に入る位置に取り付けられた監視カメラと組合せることで、監視カメラで抽出した人部の外見から見た特徴量集合と、ICカード所有者の特定個人情報を結びつけることが可能となる。これによって、それまで匿名の人物として照合追跡したものが、個人情報と組合せた照合追跡が可能となるため、例えば、照合追跡している個人の執務場所に応じた整合度判定値の設定が可能となり、より追跡精度が向上すると考えられる。また、カード認証装置がカメラ視野に入っていない場合でも、カメラ間を移動する人物、あるいはカメラ間の経路の途中から進入してきた人物として、カードIDから参照できる個人情報を関連付けることができるようになる。
The card
本実施例ではカード認証装置を用いて説明したが、この装置の代わりに指紋認証や静脈認証などのバイオメトリクス認証装置を用いても実現できる。つまり、個人を特定する情報を参照できる装置であればどのようなものを用いてもよい。 In the present embodiment, the card authentication apparatus is used for the description. However, this apparatus can be used instead of a biometric authentication apparatus such as fingerprint authentication or vein authentication. That is, any device can be used as long as it can refer to information for identifying an individual.
次に、図1におけるドア開閉センサ118について説明する。開閉センサは、ドアの開け閉めを検知するものであり、それによって人の出入りがあったと仮定することができる。図5では開閉センサ517,518,519,520として例示し、図22ではドアシンボル2201によってその設置位置を示している。図1における制限エリア侵入判定機能115は、ドア開閉センサ118と接続し、カメラ間での人物追跡の途中で、ドア開閉が検知された時に、追跡中の人物が特定個人情報と結びついていれば、その部屋への入室権限有無をチェックし、入室権限がない場合にアラームを発する。アラームはステータスウィンドウ表示とドアシンボル点滅などにより監視員に伝える。同様に、追跡中の人物が特定個人情報と結びついていない場合、その部屋に不特定者が入室可能かどうかチェックし、不可の場合にアラームを発するのである。さらに、通路にスピーカを設置しておくことにより、対象人物に警報を伝えることができる。
Next, the door opening /
図5に示すように部屋のすべてのドアにセンサあるいはカード認証装置を取り付けることにより、カメラ間移動経路の途中での人の出入りが推定できるようになり、結果として追跡精度が向上する。 As shown in FIG. 5, by attaching sensors or card authentication devices to all the doors in the room, it becomes possible to estimate the entrance / exit of a person on the way of the movement path between cameras, and as a result, the tracking accuracy is improved.
最後に、図1における挙動分析不審者検知機能116について説明する。本機能は、人物の移動軌跡を分析することで、その人物が不審者である可能性が高い時にアラームを発するものである。ある人物がその監視空間をよく知っている場合、目的地に向かってまっすぐに移動速度の変動も少ない移動軌跡を描くものと考えられる。逆に、初めてその場所を訪問した場合は、移動方向を確認しながらゆっくりと移動し、その移動軌跡の変動も大きなものになると考えられる。一方、目的をもった不審者は、同じ場所を何度も往復したり、カメラ間での移動滞留時間が長かったりするものと考えられる。よって、移動軌跡の変動が所定の値を超えた場合を不審行動と判定し、例えば、図22のアラーム表示2203を画面に出力したり、ステータスウィンドウにその旨を表示するなどして、監視員の注意を喚起する。
Finally, the behavior analysis suspicious
尚、上述した実施例では、本発明は建物内の人を対象とした監視システムとして説明したが、これは道路空間における自動車を監視対象として適用することも可能である。 In the above-described embodiment, the present invention has been described as a monitoring system for a person in a building, but this can also be applied to a vehicle in a road space as a monitoring target.
本発明によれば、対象空間に設置された複数のカメラによって撮影された移動体、例えば人物,自動車等を高精度に認識し、照合又は追跡する監視システムを提供することが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the monitoring system which recognizes and collates or tracks the mobile body image | photographed with the some camera installed in object space, for example, a person, a motor vehicle, etc. with high precision.
101,103,509〜512…監視カメラ、102,104…移動体特徴量抽出装置、105…ネットワーク、106…照合追跡装置、107…監視用ディスプレイ、108…監視空間データベース、109…特徴量情報受信記憶機能、110…カメラ内移動体分離集約機能、111…カメラ間移動経路算出機能、112…カメラ間移動体整合度算出機能、113…監視状況表示機能、114…カード認証整合機能、115…制限エリア侵入判定機能、116…挙動分析不審者検知機能、117…カード認証装置、118…ドア開閉センサ、201〜205,901〜905,1001〜1012,1101〜1109,1501〜1511…フローチャートの処理ステップ、302…建物データベース、
303…外観形状三次元データ、304…フロア別空間データ、305…エレベータデータ、306…階段データ、307…カメラデータ、308…カード認証装置データ、309…ドア開閉センサデータ、310…ネットワークデータ、311…利用者データベース、312…組織・構成員データ、313…登録済み来場者データ、314…監視データベース、315…カメラ映像データ、316…抽出特徴量データ、317…カメラ内照合追跡データ、318…カメラ間照合追跡データ、401…建物外観イメージ、402…フロア構成イメージ、403…エレベータイメージ、404…階段イメージ、501〜504…部屋、505,506…エレベータ、507,508…階段、513〜516…カード認証装置付きドア、517〜520…開閉センサ付きドア、801…カメラ509スナップ映像、802…カメラ509特徴量プロットグラフ、803〜805,813,814,823…人物、806〜808,824,815,816…特徴量集合、811…カメラ510スナップ映像、812…カメラ510特徴量プロットグラフ、821…カメラ512スナップ映像、822…カメラ512特徴量プロットグラフ、1201〜1205…推定経路、1601…ディスプレイ全体、1602…メインウィンドウ、1603…ステータスウィンドウ、1604〜1609…映像ウィンドウ、1801〜1803…追跡経路、1804…自動追跡専用映像ウィンドウ、1901…追跡対象選択、1902…移動経路表示、1903…通過カメラ表示、1904…通過時点カメラ映像表示、2201…ドア開閉センサシンボル、2202…カード認証装置シンボル、2203…アラーム表示。
DESCRIPTION OF SYMBOLS 101,103,509-512 ... Monitoring camera, 102,104 ... Mobile body feature-value extraction apparatus, 105 ... Network, 106 ... Collation tracking apparatus, 107 ... Monitoring display, 108 ... Monitoring space database, 109 ... Reception of feature-value information Storage function 110 ... Camera moving object separation and
303: Three-dimensional appearance shape data, 304: Space data by floor, 305 ... Elevator data, 306 ... Stair data, 307 ... Camera data, 308 ... Card authentication device data, 309 ... Door open / close sensor data, 310 ... Network data, 311 ... User database, 312 ... Organization / member data, 313 ... Registered visitor data, 314 ... Monitoring database, 315 ... Camera video data, 316 ... Extracted feature data, 317 ... In-camera verification tracking data, 318 ... Camera Inter-tracking tracking data, 401 ... Building exterior image, 402 ... Floor composition image, 403 ... Elevator image, 404 ... Stair image, 501-504 ... Room, 505, 506 ... Elevator, 507, 508 ... Stair, 513-516 ... Card Door with authentication device, 517-52 ... door with open / close sensor, 801 ...
Claims (5)
個別のカメラ毎に抽出した特徴量を移動体別に分離集約するカメラ内移動体分離集約手段と、移動体のカメラ間の移動経路を算出するカメラ間移動経路算出手段と、前記移動経路を用いてカメラ間を移動した移動体を推定し、カメラ間を移動したと推定される移動体の移動前後における特徴量集合の整合度を算出し整合性があるものを対応させて追跡するカメラ間移動体整合度算出手段と、監視空間全体情報を管理するデータベースとを含む照合追跡装置と、
前記移動体の状態を表示する表示装置とを備え、
前記照合追跡装置には、個人認証装置とドア開閉センサとが接続され、
前記照合追跡装置は、前記移動体が前記個人認証装置により個人認証を行った場合に、前記移動体と前記個人認証装置から取得した個人情報とを結びつける認証整合手段を備え、
前記認証整合手段と前記カメラ間移動体整合度算出手段とによって前記移動体を前記個人情報と組合せて追跡し、前記移動体が前記個人認証装置と前記ドア開閉センサとのうち前記ドア開閉センサのみが設けられたドアを開いたときに、前記個人情報から前記移動体がその部屋へ入室する権限があるかを判断し、権限がない場合には警報を発することを特徴とする複数カメラを用いた監視システム。 Multiple cameras are installed in the monitoring target space, and information indicating the feature amount of the moving object is extracted from the video imaged by each camera, and the extracted feature value is used to shoot with each camera. In a monitoring system for determining whether the same moving body is the same,
Intra-camera moving body separation and aggregation means for separating and aggregating feature quantities extracted for each individual camera by moving body, inter-camera movement path calculation means for calculating a movement path between cameras of the moving body, and using the movement path The inter-camera moving body that estimates the moving body that has moved between the cameras, calculates the degree of consistency of the feature set before and after the movement of the moving body that is estimated to have moved between the cameras, and tracks the matching in correspondence A matching and tracking device including a matching degree calculation means and a database for managing the entire monitoring space information;
A display device for displaying the state of the moving body,
A personal authentication device and a door opening / closing sensor are connected to the verification tracking device,
The verification tracking device includes an authentication matching unit that links the mobile body and personal information acquired from the personal authentication device when the mobile body performs personal authentication by the personal authentication device.
The authentication matching means and the inter-camera moving body matching degree calculation means track the moving body in combination with the personal information, and the moving body is only the door opening / closing sensor of the personal authentication device and the door opening / closing sensor. A plurality of cameras are used, wherein when the door provided with is opened, it is determined from the personal information whether the mobile body has the right to enter the room, and an alarm is issued if there is no right. Had a surveillance system.
前記移動体が進入制限エリアに進入した場合、警報を発することを特徴とする複数カメラを用いた監視システム。 The monitoring system according to claim 1,
A monitoring system using a plurality of cameras, wherein an alarm is issued when the moving body enters an entry restricted area.
前記カメラ内移動体分離集約手段にて、カメラ内既存移動体の最新情報のカメラ内位置と抽出された特徴量のカメラ内位置との空間距離と、カメラ内既存移動体の特徴量集合と抽出された特徴量とのマハラノビス距離を算出した特徴量空間距離との二つの指標を用いて抽出された特徴量を移動体別に分離集約し、前記カメラ間移動経路算出手段にてカメラで検知した移動体の移動速度・方向情報を用いた経路コストを設定し、前記経路コストを考慮して前記移動体のカメラ間の移動経路を算出し、前記カメラ間移動体整合度算出手段で、移動体の特徴量集合同士の距離の近さを用いて整合度を算出することを特徴とする複数カメラを用いた監視システム。 The monitoring system according to claim 1 or 2,
In the in-camera moving body separating and aggregating means , the spatial distance between the in-camera position of the latest information of the existing moving body in the camera and the extracted in-camera position of the extracted feature amount, and the feature amount set and extraction of the existing moving body in the camera moving the two feature amounts extracted by using an index to separate aggregated by mobile, detected by the camera at the inter-camera movement path calculation means and Mahalanobis distance calculated feature amount space distance between the feature quantity The path cost using the moving speed / direction information of the body is set, the movement path between the cameras of the moving body is calculated in consideration of the path cost, and the inter- camera moving body matching degree calculating means A monitoring system using a plurality of cameras, characterized in that the degree of matching is calculated by using the closeness of distances between feature quantity sets.
表示装置に表示する追跡対象を監視員が個別に指定する手段と、通過人数に対応して自動的に追跡対象を選択する手段を選ぶことができ、また、整合度の判定値を全体あるいは個別カメラ毎に任意設定することができる機能を有することを特徴とする複数カメラを用いた監視システム。 The monitoring system according to any one of claims 1 to 3,
You can select the means for the monitor to individually specify the tracking target to be displayed on the display device, and the means for automatically selecting the tracking target according to the number of people passing through the system. A monitoring system using a plurality of cameras, which has a function that can be arbitrarily set for each camera.
データベースに保存されたカメラ映像と移動体照合追跡情報を、時刻の同期をとって再生表示することを特徴とする複数カメラを用いた監視システム。 The monitoring system according to any one of claims 1 to 4,
A monitoring system using a plurality of cameras, wherein a camera image stored in a database and moving object verification tracking information are reproduced and displayed in synchronization with time.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332587A JP4759988B2 (en) | 2004-11-17 | 2004-11-17 | Surveillance system using multiple cameras |
CNB2005100875894A CN100556130C (en) | 2004-11-17 | 2005-07-28 | Use the surveillance of a plurality of video cameras |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332587A JP4759988B2 (en) | 2004-11-17 | 2004-11-17 | Surveillance system using multiple cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006146378A JP2006146378A (en) | 2006-06-08 |
JP4759988B2 true JP4759988B2 (en) | 2011-08-31 |
Family
ID=36626009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004332587A Expired - Fee Related JP4759988B2 (en) | 2004-11-17 | 2004-11-17 | Surveillance system using multiple cameras |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4759988B2 (en) |
CN (1) | CN100556130C (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181197B2 (en) | 2015-02-20 | 2019-01-15 | Panasonic Intellectual Property Management Co., Ltd. | Tracking assistance device, tracking assistance system, and tracking assistance method |
DE112017003800T5 (en) | 2016-08-24 | 2019-05-09 | Panasonic Intellectual Property Management Co., Ltd. | MONITORING SUPPORT DEVICE, MONITORING SUPPORT SYSTEM AND MONITORING SUPPORT PROCESS |
US11716448B2 (en) | 2019-07-09 | 2023-08-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4363421B2 (en) * | 2006-06-30 | 2009-11-11 | ソニー株式会社 | Monitoring system, monitoring system server and monitoring method |
JP4201025B2 (en) | 2006-06-30 | 2008-12-24 | ソニー株式会社 | Monitoring device, monitoring system, filter setting method, and monitoring program |
JP4827694B2 (en) * | 2006-11-06 | 2011-11-30 | パナソニック株式会社 | Monitoring system |
JP5121258B2 (en) * | 2007-03-06 | 2013-01-16 | 株式会社東芝 | Suspicious behavior detection system and method |
JP4937016B2 (en) * | 2007-07-09 | 2012-05-23 | 三菱電機株式会社 | Monitoring device, monitoring method and program |
WO2009025140A1 (en) * | 2007-08-21 | 2009-02-26 | Nec Corporation | Behavior monitoring system and behavior monitoring method |
KR100883065B1 (en) * | 2007-08-29 | 2009-02-10 | 엘지전자 주식회사 | Apparatus and method for record control by motion detection |
JP2009098774A (en) * | 2007-10-15 | 2009-05-07 | Mitsubishi Electric Corp | Person tracking system, person tracking method and person tracking program |
JP2009134381A (en) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | Passage path information display device |
JP5012589B2 (en) * | 2008-03-10 | 2012-08-29 | 三菱電機株式会社 | Human tracking system using image information |
JP2009268005A (en) * | 2008-04-30 | 2009-11-12 | Meidensha Corp | Intrusion object detecting and tracking device |
JP5198151B2 (en) * | 2008-05-30 | 2013-05-15 | 株式会社日立製作所 | Video search device and video search method |
JP4613230B2 (en) * | 2008-07-23 | 2011-01-12 | 株式会社日立製作所 | Moving object monitoring device |
JP5195156B2 (en) * | 2008-08-25 | 2013-05-08 | ソニー株式会社 | Monitoring device, monitoring system, and filter setting method |
JP4751442B2 (en) * | 2008-12-24 | 2011-08-17 | 株式会社東芝 | Video surveillance system |
JP5627858B2 (en) * | 2009-03-31 | 2014-11-19 | シーシーアイ株式会社 | Biosensor |
CN102388608B (en) * | 2009-04-10 | 2014-07-02 | 欧姆龙株式会社 | Monitoring system, and monitoring terminal |
JP5218655B2 (en) * | 2009-06-11 | 2013-06-26 | 富士通株式会社 | Suspicious person detection device, suspicious person detection method, and suspicious person detection program |
WO2011010490A1 (en) * | 2009-07-22 | 2011-01-27 | オムロン株式会社 | Surveillance camera terminal |
JP2011145839A (en) * | 2010-01-13 | 2011-07-28 | Nippon Steel Corp | Monitoring system, device, method and program |
WO2011151999A1 (en) | 2010-05-31 | 2011-12-08 | 日本電気株式会社 | Flow line detection system, flow line detection method and flow line detection program |
CN101873432B (en) * | 2010-06-21 | 2012-06-27 | 杭州海康威视数字技术股份有限公司 | Small picture playback method and device of digital video recorder |
JP5777310B2 (en) * | 2010-09-21 | 2015-09-09 | 株式会社日立国際電気 | Image security system and authentication method |
CN102034328B (en) * | 2010-12-10 | 2012-06-27 | 山东申普交通科技有限公司 | Intelligent monitoring method |
CN102831615A (en) * | 2011-06-13 | 2012-12-19 | 索尼公司 | Object monitoring method and device as well as monitoring system operating method |
CN102427519B (en) * | 2011-08-01 | 2015-09-02 | 广东威创视讯科技股份有限公司 | A kind of video monitoring display packing based on GIS map and device |
JP2013192154A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Monitoring device, reliability calculation program and reliability calculation method |
JP2012128877A (en) * | 2012-03-19 | 2012-07-05 | Toshiba Corp | Suspicious behavior detection system and method |
CN104737534B (en) | 2012-10-23 | 2018-02-16 | 索尼公司 | Information processor, information processing method, program and information processing system |
JP6195449B2 (en) * | 2013-01-30 | 2017-09-13 | セコム株式会社 | Shooting system |
CN103200364B (en) * | 2013-03-11 | 2016-03-23 | 太仓中科信息技术研究院 | Based on the camera lifting lattice special efficacy image pickup method of marker characteristic |
JP6561830B2 (en) | 2013-04-16 | 2019-08-21 | 日本電気株式会社 | Information processing system, information processing method, and program |
WO2014175356A1 (en) | 2013-04-26 | 2014-10-30 | 日本電気株式会社 | Information processing system, information processing method, and program |
JP5438861B1 (en) * | 2013-07-11 | 2014-03-12 | パナソニック株式会社 | Tracking support device, tracking support system, and tracking support method |
JP5506989B1 (en) * | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | Tracking support device, tracking support system, and tracking support method |
JP5506990B1 (en) * | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | Tracking support device, tracking support system, and tracking support method |
JP2015046028A (en) * | 2013-08-28 | 2015-03-12 | ソニー株式会社 | Information processing apparatus, and information processing method |
CN103795985B (en) * | 2014-02-14 | 2017-09-19 | 浙江宇视科技有限公司 | A kind of linkage collocation method and device based on threedimensional model |
CN104159067A (en) * | 2014-03-18 | 2014-11-19 | 深圳市贝尔信智能系统有限公司 | Intelligent monitoring system and method based on combination of 3DGIS with real scene video |
JP2015216518A (en) * | 2014-05-12 | 2015-12-03 | 富士通株式会社 | Information processing method, program, and information processing apparatus |
KR102282465B1 (en) * | 2014-10-27 | 2021-07-27 | 한화테크윈 주식회사 | Method and Apparatus for loitering visualization |
JP6492746B2 (en) | 2015-02-23 | 2019-04-03 | 富士通株式会社 | Image processing program, image processing apparatus, and image processing method |
JP2016162098A (en) * | 2015-02-27 | 2016-09-05 | 株式会社ワイ・イー・シー | Multi-trace system |
JP6573361B2 (en) * | 2015-03-16 | 2019-09-11 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and computer program |
WO2017099037A1 (en) * | 2015-12-09 | 2017-06-15 | ソニー株式会社 | Information processing device, information processing method, and program |
CN106897590A (en) * | 2015-12-17 | 2017-06-27 | 阿里巴巴集团控股有限公司 | The method of calibration and device of figure information |
JP2017167870A (en) * | 2016-03-17 | 2017-09-21 | セコム株式会社 | Flying object monitoring system, and flying object monitoring apparatus |
CN106056867A (en) * | 2016-06-30 | 2016-10-26 | 北京奇虎科技有限公司 | Monitoring method and apparatus |
JP6740074B2 (en) * | 2016-09-30 | 2020-08-12 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018186438A (en) * | 2017-04-27 | 2018-11-22 | サイレックス・テクノロジー株式会社 | Encoder and coding method |
JP6833617B2 (en) * | 2017-05-29 | 2021-02-24 | 株式会社東芝 | Mobile tracking equipment, mobile tracking methods and programs |
CN109427074A (en) * | 2017-08-31 | 2019-03-05 | 深圳富泰宏精密工业有限公司 | Image analysis system and method |
CN107635188A (en) * | 2017-09-08 | 2018-01-26 | 安徽四创电子股份有限公司 | A kind of video frequency vehicle trace analysis method based on Docker platforms |
KR101989461B1 (en) * | 2017-11-15 | 2019-06-14 | 오토아이티(주) | Safety system and Method for Robot working environment using vision system |
CN107944371A (en) * | 2017-11-17 | 2018-04-20 | 辽宁公安司法管理干部学院 | A kind of public security video monitoring image processing method based on data mining |
JP7009987B2 (en) * | 2017-12-27 | 2022-01-26 | トヨタ自動車株式会社 | Automatic driving system and automatic driving method |
JP2020102135A (en) * | 2018-12-25 | 2020-07-02 | 清水建設株式会社 | Tracking system, tracking processing method, and program |
JP7334512B2 (en) * | 2019-07-08 | 2023-08-29 | 日本電気株式会社 | Verification method, verification device, and program |
DE112019007455T5 (en) * | 2019-07-19 | 2022-03-03 | Mitsubishi Electric Corporation | DISPLAY PROCESSING DEVICE, DISPLAY PROCESSING METHOD AND PROGRAM |
JP6862596B1 (en) * | 2020-07-10 | 2021-04-21 | 株式会社 日立産業制御ソリューションズ | How to select video analysis equipment, wide area surveillance system and camera |
US20230260139A1 (en) * | 2020-08-04 | 2023-08-17 | Mitsubishi Electric Corporation | Moving body tracking system, moving body tracking device, non-transitory computer-readable medium, and moving body tracking method |
CN113971782B (en) * | 2021-12-21 | 2022-04-19 | 云丁网络技术(北京)有限公司 | Comprehensive monitoring information management method and system |
CN114025141B (en) * | 2022-01-05 | 2022-07-05 | 凯新创达(深圳)科技发展有限公司 | Picture adjusting and playing method and picture adjusting and playing device |
CN114758305A (en) * | 2022-06-15 | 2022-07-15 | 成都西物信安智能系统有限公司 | Method for constructing intrusion early warning monitoring database |
CN115131935A (en) * | 2022-08-30 | 2022-09-30 | 山东千颐科技有限公司 | Alarm system for preventing entrance into dangerous area |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273689A (en) * | 1991-02-28 | 1992-09-29 | Hitachi Ltd | Monitoring device |
JPH09330415A (en) * | 1996-06-10 | 1997-12-22 | Hitachi Ltd | Picture monitoring method and system therefor |
JP2003132468A (en) * | 2001-10-24 | 2003-05-09 | Shimizu Corp | Security system in open space |
JP2003196765A (en) * | 2001-12-25 | 2003-07-11 | Victor Co Of Japan Ltd | System for confirming moving object and authentication recording medium |
JP4309145B2 (en) * | 2003-02-07 | 2009-08-05 | パナソニック株式会社 | Apartment house security system |
-
2004
- 2004-11-17 JP JP2004332587A patent/JP4759988B2/en not_active Expired - Fee Related
-
2005
- 2005-07-28 CN CNB2005100875894A patent/CN100556130C/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181197B2 (en) | 2015-02-20 | 2019-01-15 | Panasonic Intellectual Property Management Co., Ltd. | Tracking assistance device, tracking assistance system, and tracking assistance method |
DE112017003800T5 (en) | 2016-08-24 | 2019-05-09 | Panasonic Intellectual Property Management Co., Ltd. | MONITORING SUPPORT DEVICE, MONITORING SUPPORT SYSTEM AND MONITORING SUPPORT PROCESS |
US11716448B2 (en) | 2019-07-09 | 2023-08-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN1777281A (en) | 2006-05-24 |
CN100556130C (en) | 2009-10-28 |
JP2006146378A (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4759988B2 (en) | Surveillance system using multiple cameras | |
US11288495B2 (en) | Object tracking and best shot detection system | |
US7088846B2 (en) | Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones | |
JP4881766B2 (en) | Inter-camera link relation information generation device | |
US20110285851A1 (en) | Intruder situation awareness system | |
US7148912B2 (en) | Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging | |
WO2018180588A1 (en) | Facial image matching system and facial image search system | |
US20050105765A1 (en) | Video surveillance system with object detection and probability scoring based on object class | |
JP2006221355A (en) | Monitoring device and monitoring system | |
JP2008152328A (en) | Suspicious person monitoring system | |
JP4808139B2 (en) | Monitoring system | |
CN102311039A (en) | Monitor unit | |
CN111325954B (en) | Personnel loss early warning method, device, system and server | |
JP4892268B2 (en) | Entrance / exit / location management system | |
US20050105764A1 (en) | Video surveillance system with connection probability computation that is a function of object size | |
US20050104959A1 (en) | Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter | |
CN111814510A (en) | Detection method and device for remnant body | |
JP5712401B2 (en) | Behavior monitoring system, behavior monitoring program, and behavior monitoring method | |
JP6806626B2 (en) | Person group tracking device and person group tracking method | |
JP6558178B2 (en) | Nuisance agent estimation system, control method and control program for nuisance agent estimation system | |
CN109905661B (en) | Monitoring terminal device, monitoring system, and computer-readable non-transitory storage medium storing monitoring display control program | |
KR102663258B1 (en) | Entry and location management system and method using facial and behavior recognition | |
JP6879336B2 (en) | Annoying actor estimation system, control method and control program of annoying actor estimation system | |
CN210109834U (en) | Door discrepancy detection device | |
WO2005050581A2 (en) | Video surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4759988 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |