JP2008016897A - Monitoring apparatus, monitoring system and monitoring method - Google Patents

Monitoring apparatus, monitoring system and monitoring method Download PDF

Info

Publication number
JP2008016897A
JP2008016897A JP2006182823A JP2006182823A JP2008016897A JP 2008016897 A JP2008016897 A JP 2008016897A JP 2006182823 A JP2006182823 A JP 2006182823A JP 2006182823 A JP2006182823 A JP 2006182823A JP 2008016897 A JP2008016897 A JP 2008016897A
Authority
JP
Japan
Prior art keywords
filter
metadata
unit
moving object
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006182823A
Other languages
Japanese (ja)
Other versions
JP4872490B2 (en
Inventor
Hidetaka Miyamaki
秀宇 宮牧
Kazumasa Tsukuda
和真 佃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006182823A priority Critical patent/JP4872490B2/en
Publication of JP2008016897A publication Critical patent/JP2008016897A/en
Application granted granted Critical
Publication of JP4872490B2 publication Critical patent/JP4872490B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To grasp the status of a moving object in detail in accordance with various settings of filters. <P>SOLUTION: When monitoring is executed using a monitoring camera for generating video data of a monitoring video image and meta-data indicating information of a monitoring target and a monitoring apparatus; the video data are acquired from the monitoring camera, and the meta-data indicating the information of the monitoring target are acquired from the monitoring camera. Subsequently, a meta-data filter executes filter processing of the meta data using filter settings accumulated in a filter setting accumulator. Then, coordinates of a detecting area PA of the filter and coordinates of a moving object 1010 on the video data are acquired from the meta-data filter, a filter alarm start distance set in the filter setting accumulator is acquired, alarm information corresponding to the distance is generated between the moving object 1010 and the detecting area PA, and a monitoring result is outputted on the basis of the generated alarm information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視カメラから映像データとその映像データに関するデータ(メタデータ)を取得して、このメタデータのフィルタ処理を行い、フィルタ処理により得られたフィルタ処理結果に基づいて監視結果の出力を行う監視装置、監視システム及び監視方法に関する。   The present invention acquires video data and data (metadata) related to the video data from the surveillance camera, performs a filtering process on the metadata, and outputs a monitoring result based on the filtering process result obtained by the filtering process. The present invention relates to a monitoring device, a monitoring system, and a monitoring method.

従来、監視カメラと制御装置とをネットワークを介して接続した監視システムが用いられている。このような監視システムにおいて、監視カメラは、撮影した映像データを、ネットワークを介して制御装置に送信する。制御装置は、受信した映像データを記録するとともに、映像データを解析することで異常の発生を検出し、アラームを出力する。監視員は、モニタに表示される監視映像及び制御装置が出力したアラームの内容を確認しながら監視を行うことができる。   Conventionally, a monitoring system in which a monitoring camera and a control device are connected via a network has been used. In such a monitoring system, the monitoring camera transmits captured video data to the control device via the network. The control device records the received video data, detects the occurrence of abnormality by analyzing the video data, and outputs an alarm. The monitor can perform monitoring while confirming the monitoring video displayed on the monitor and the content of the alarm output from the control device.

また近年の監視カメラは、制御装置に撮影した映像データを送信するだけでなく、撮影した映像データに関するメタデータ(例えば、アラーム情報や温度情報、カメラの画角情報)を生成して、制御装置にメタデータを送信する機能を有している。このような監視カメラを用いた監視システムにおいて、制御装置は、監視カメラから供給されたメタデータを、アラームを出力する特定の条件を設定したメタデータフィルタに通し、条件に合致した場合にアラームを出力する。メタデータフィルタには、例えばある場所への不審物の侵入や、ある境界線を通過する動体(オブジェクト)などを異常として検出するための条件が設定されている。   Moreover, recent surveillance cameras not only transmit captured video data to a control device, but also generate metadata (eg, alarm information, temperature information, camera angle-of-view information) regarding the captured video data, and control devices Has a function of transmitting metadata. In such a monitoring system using a monitoring camera, the control device passes the metadata supplied from the monitoring camera through a metadata filter in which a specific condition for outputting an alarm is set, and if the condition is met, an alarm is generated. Output. In the metadata filter, for example, conditions for detecting an intrusion of a suspicious object at a certain place or a moving object (object) passing through a certain boundary line as an abnormality are set.

特許文献1には、ネットワークを介して監視端末(監視カメラ)から監視装置に監視映像の映像データを供給し、異常発生時の監視映像の確認等を監視装置で行う技術が記載されている。   Patent Document 1 describes a technique in which video data of a monitoring video is supplied from a monitoring terminal (monitoring camera) to a monitoring device via a network, and the monitoring video is confirmed by the monitoring device when an abnormality occurs.

特開2003−274390号公報JP 2003-274390 A

ところで、メタデータを生成する監視カメラと、メタデータフィルタにより異常を検出し、アラームを発生する制御装置とを組み合わせた従来の監視システムにおいて、検出した動体がアラームかどうかを判別した結果は、アラーム対象の動体のみの認識、もしくはアラーム対象か否かの判別しかできなかったので、複数の動体の中で事前にアラーム対象となりそうな動体を判別することが困難だった。   By the way, in a conventional monitoring system that combines a monitoring camera that generates metadata and a control device that detects an abnormality by a metadata filter and generates an alarm, the result of determining whether the detected moving object is an alarm is an alarm. Since it was only possible to recognize the target moving object or determine whether or not it is an alarm target, it was difficult to determine the moving object that was likely to be an alarm target in advance among a plurality of moving objects.

また、複数のフィルタを組み合わせて一連の連続的なフィルタ動作のみをアラームとしてあげる設定(シーケンシャル設定)がなされている場合に、その連続的なフィルタ動作の過程において段階的アラームを表現する手段がなかった。   In addition, there is no means to express stepwise alarms in the process of continuous filter operation when multiple filters are combined to set up only a series of continuous filter operations as an alarm (sequential setting). It was.

本発明は斯かる点に鑑みてなされたものであり、多様なフィルタ設定に応じて動体の状態をつぶさに把握することができるようにすることを目的とする。   The present invention has been made in view of such a point, and an object thereof is to make it possible to grasp the state of a moving object according to various filter settings.

上記課題を解決するため、本発明の一側面は、監視映像の映像データと監視対象に関する情報を示したメタデータを生成する監視カメラと監視装置を用いて監視を行う際に、監視カメラから映像データを取得するとともに、この監視カメラから監視対象に関する情報を示すメタデータを取得する。次に、フィルタ設定蓄積部に蓄積されているフィルタ設定を用いてメタデータフィルタ部がメタデータのフィルタ処理を行う。そして、メタデータフィルタ部からフィルタの検知エリアの座標と映像データ上の動体の座標を取得するとともに、フィルタ設定蓄積部に設定されているフィルタ警告開始距離を取得し、動体と検知エリアとの距離に応じたアラーム情報を生成し、この生成されたアラーム情報に基づいて監視結果の出力を行うことを特徴とする。   In order to solve the above-described problem, an aspect of the present invention provides a video from a monitoring camera when monitoring is performed using a monitoring camera and a monitoring apparatus that generate video data of the monitoring video and metadata indicating information on the monitoring target. While acquiring data, the metadata which shows the information regarding the monitoring object is acquired from this monitoring camera. Next, the metadata filter unit performs metadata filtering using the filter settings stored in the filter setting storage unit. Then, the coordinates of the detection area of the filter and the coordinates of the moving object on the video data are acquired from the metadata filter unit, the filter warning start distance set in the filter setting storage unit is acquired, and the distance between the moving object and the detection area is acquired. According to this, the alarm information corresponding to is generated, and the monitoring result is output based on the generated alarm information.

上記構成によれば、フィルタの設定に応じて、フィルタに対する動体の現在の状態を表現することができる。これにより、アラームが発生する前に複数の動体の中からアラームと予測される動体を判別できる。   According to the said structure, according to the setting of a filter, the present state of the moving body with respect to a filter can be expressed. Accordingly, it is possible to determine a moving object that is predicted to be an alarm from a plurality of moving objects before an alarm is generated.

また、本発明の他の側面は、上記本発明の一側面において、さらに複数のフィルタ設定の組み合わせ情報を蓄積したフィルタパッケージ設定蓄積部と、上記フィルタ設定蓄積部に蓄積されているフィルタ設定とフィルタパッケージ設定蓄積部に蓄積されている組み合わせ設定を用いてメタデータのフィルタ処理を行うフィルタパッケージ部とを備え、動体アラーム状態判断部は、フィルタパッケージ設定蓄積部に蓄積された組み合わせ情報に基づいて、複数のフィルタ設定毎に動体と検知エリアとの距離に応じたアラーム情報を生成することを特徴とする。   In addition, according to another aspect of the present invention, in the above aspect of the present invention, a filter package setting accumulation unit that further accumulates combination information of a plurality of filter settings, and a filter setting and a filter that are accumulated in the filter setting accumulation unit. A filter package unit that performs metadata filtering using the combination setting stored in the package setting storage unit, and the moving object alarm state determination unit is based on the combination information stored in the filter package setting storage unit, Alarm information corresponding to the distance between the moving object and the detection area is generated for each of a plurality of filter settings.

上記構成によれば、複数のフィルタの設定とこの複数のフィルタ設定の組み合わせ情報に応じて、フィルタに対する動体の現在の状態を表現することができる。これにより、動体が現在フィルタ条件にいくつ合致しているかなど、アラームの状態遷移を容易に視認できる。   According to the above configuration, the current state of the moving object with respect to the filter can be expressed according to the setting information of the plurality of filters and the combination information of the plurality of filter settings. As a result, alarm state transitions such as how many moving objects match the current filter condition can be easily visually confirmed.

本発明によれば、多様なフィルタ設定に応じて動体の状態をつぶさに把握することができるという効果がある。   According to the present invention, there is an effect that the state of a moving object can be grasped in detail according to various filter settings.

以下、本発明を実施するための最良の形態について、添付図面を参照しながら説明する。以下に説明する実施形態は、撮影対象物を撮影した映像データとともにメタデータを生成する監視カメラ(メタデータ生成カメラ)から得られたメタデータを解析して、異常を検出し、アラームを出力する監視システムに適用した例としている。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings. The embodiment described below analyzes metadata obtained from a monitoring camera (metadata generating camera) that generates metadata together with video data obtained by photographing an object to be detected, detects an abnormality, and outputs an alarm. The example is applied to a monitoring system.

図1は、本発明の一実施形態例における監視システムの接続構成を示した図である。図1Aは、管理クライアントがメタデータ生成カメラから出力されたデータをネットワークを介して取得するシステムであり、図1Bは、メタデータ生成カメラから出力されたデータを管理サーバが取得し、閲覧クライアントに供給するシステム(サーバ/クライアントシステム)である。   FIG. 1 is a diagram showing a connection configuration of a monitoring system according to an embodiment of the present invention. FIG. 1A is a system in which the management client acquires data output from the metadata generation camera via a network, and FIG. 1B is a system in which the management server acquires data output from the metadata generation camera and sends it to the browsing client. This is a system to supply (server / client system).

まず図1Aに示した監視システム100について説明する。図1に示すように、監視システム100は、1台、もしくは複数台のメタデータ生成カメラを管理する。この例では2台としている。監視システム100は、監視対象物を撮影し、映像データを生成するとともに映像データからメタデータを生成するメタデータ生成カメラ1a,1bと、取得した映像データとメタデータを解析し、保存するとともに異常を検出するとアラームを出力する管理クライアント3と、メタデータ生成カメラ1a,1bと管理クライアント3とを接続するネットワーク2とで構成される。管理クライアント3が、ネットワーク2を介してメタデータ生成カメラ1a,1bから取得したメタデータは、メタデータフィルタ(以下、「フィルタ」とも称する。)を介して解析される。   First, the monitoring system 100 shown in FIG. 1A will be described. As shown in FIG. 1, the monitoring system 100 manages one or a plurality of metadata generation cameras. In this example, the number is two. The monitoring system 100 shoots an object to be monitored, generates video data, and generates metadata from the video data, and analyzes and stores the acquired video data and metadata. The management client 3 is configured to output an alarm upon detection of an error, and the network 2 that connects the metadata generation cameras 1a and 1b to the management client 3. The metadata acquired by the management client 3 from the metadata generation cameras 1a and 1b via the network 2 is analyzed via a metadata filter (hereinafter also referred to as “filter”).

なお、メタデータ生成カメラ、管理クライアント、管理サーバ及び閲覧クライアントの台数はこの例に限られないことは勿論である。   Of course, the number of metadata generation cameras, management clients, management servers, and browsing clients is not limited to this example.

管理クライアント3は、一つもしくは複数のフィルタを組み合わせて構成されるフィルタパッケージ(以下、「パッケージ」とも称する。)を定義している。この管理クライアント3は、フィルタパッケージにメタデータを通すことで、フィルタパッケージに定義されているフィルタ群の条件を満たす動体数や動体位置などからアラーム情報に変換する。そして、管理クライアント3は、データを解析する解析処理部に変換したアラーム情報を供給して、アラーム情報の解析を行う。アラーム情報の解析結果は、ディスプレイモニタからなる表示部に表示する。そして、管理クライアント3は、メタデータ生成カメラ1a,1bのそれぞれに対して、アラーム情報の解析結果に基づくカメラ動作(ズーム倍率を変える、ブザーを鳴らす等)を自動的に指示する。このように、管理クライアント3は、自動的に、もしくは使用者が手動で設定したとおりに、それぞれのメタデータ生成カメラ1a,1bの最適なカメラ動作を制御する。なお、フィルタパッケージ及び解析処理部については後に詳述する。   The management client 3 defines a filter package (hereinafter also referred to as “package”) configured by combining one or a plurality of filters. The management client 3 converts the alarm information from the number of moving objects and moving object conditions that satisfy the conditions of the filter group defined in the filter package by passing metadata through the filter package. Then, the management client 3 supplies the converted alarm information to an analysis processing unit that analyzes data, and analyzes the alarm information. The analysis result of the alarm information is displayed on a display unit including a display monitor. Then, the management client 3 automatically instructs each of the metadata generation cameras 1a and 1b to perform a camera operation (change zoom magnification, sound a buzzer, etc.) based on the analysis result of the alarm information. As described above, the management client 3 controls the optimum camera operation of the respective metadata generation cameras 1a and 1b automatically or as manually set by the user. The filter package and the analysis processing unit will be described in detail later.

ここで、映像データとメタデータの構成について説明する。映像データとメタデータは、それぞれデータ本体とリンク情報とで構成されている。データ本体は、映像データの場合、メタデータ生成カメラ1a,1bが撮影した監視映像の映像データである。またメタデータの場合、監視対象を示す情報等と、この情報の記述方式を定義した属性情報を記述したものである。一方、リンク情報とは、映像データとメタデータとの関連付けを示す関連付け情報と、この情報の内容の記述方式を定義した属性情報等を記述したものである。   Here, the configuration of video data and metadata will be described. Video data and metadata are each composed of a data body and link information. In the case of video data, the data body is video data of surveillance video captured by the metadata generation cameras 1a and 1b. In the case of metadata, information indicating a monitoring target and attribute information defining a description method of this information are described. On the other hand, the link information describes association information indicating association between video data and metadata, attribute information defining a description method of the content of the information, and the like.

関連付け情報は、例えば映像データを特定するためのタイムスタンプやシーケンス番号を使用する。タイムスタンプは、映像データの生成時刻を与える情報(時刻情報)である。シーケンス番号は、コンテンツデータの生成順序を与える情報(順序情報)である。タイムスタンプの等しい監視映像が複数存在するような場合、タイムスタンプの等しい映像データの生成順序を識別することができる。また、関連付け情報には、映像データを生成する機器を特定するための情報(例えば製造会社名や機種名、製造番号等)を使用するものとしてもよい。   As the association information, for example, a time stamp or a sequence number for specifying video data is used. The time stamp is information (time information) that gives the generation time of the video data. The sequence number is information (order information) that gives the generation order of content data. When there are a plurality of monitoring videos having the same time stamp, the generation order of the video data having the same time stamp can be identified. Further, as the association information, information for specifying a device that generates video data (for example, a manufacturer name, model name, serial number, etc.) may be used.

ここで、リンク情報やメタデータ本体の記述は、ウェブ(WWW:World Wide Web)上で交換される情報を記述するために定義されたマークアップ言語を用いる。マークアップ言語を用いると、ネットワーク2を介した情報の交換を容易に行うことができる。さらに、マークアップ言語として、例えば文書や電子データの交換に利用されているXML(Extensible Markup Language)を用いることで、映像データとメタデータの交換も容易に行うことができる。XMLを用いるものとした場合、情報の記述方式を定義した属性情報は、例えばXMLスキーマを使用する。   Here, the description of the link information and the metadata main body uses a markup language defined for describing information exchanged on the Web (WWW: World Wide Web). If a markup language is used, information can be easily exchanged via the network 2. Furthermore, by using, for example, XML (Extensible Markup Language) used for exchanging documents and electronic data as a markup language, it is possible to easily exchange video data and metadata. When XML is used, the attribute information defining the information description method uses, for example, an XML schema.

メタデータ生成カメラ1a,1bで生成した映像データやメタデータは、1つのストリームとして管理クライアント3に供給するものとしてもよい。また、映像データとメタデータを別のストリームで非同期に管理クライアント3に供給するものとしてもよい。   Video data and metadata generated by the metadata generation cameras 1a and 1b may be supplied to the management client 3 as one stream. The video data and metadata may be supplied to the management client 3 asynchronously in separate streams.

なお、図1Bに示すように、サーバ機能とクライアント機能を分割して管理サーバ11と閲覧用クライアント12で構成された監視システムに適用しても上述した図1Aの例と同様の機能、効果を得ることができる。サーバ機能とクライアント機能を分割することで、処理性能が高い管理サーバ11で大量にデータを処理し、処理性能が低い閲覧クライアント12では専ら処理結果を閲覧するといった使い分けが可能となる。このように機能分散することでより柔軟性に富む監視システム100を構築できるという効果がある。   As shown in FIG. 1B, even if the server function and the client function are divided and applied to a monitoring system constituted by the management server 11 and the browsing client 12, the same functions and effects as those in the example of FIG. Obtainable. By dividing the server function and the client function, a large amount of data can be processed by the management server 11 having high processing performance, and the processing result can be exclusively viewed by the browsing client 12 having low processing performance. By distributing the functions in this way, there is an effect that the monitoring system 100 having more flexibility can be constructed.

次に、図1Aに示した管理クライアント3の詳細な構成を、図2の機能ブロック図を参照して説明する。ただし、管理クライアント3の各機能ブロックは、ハードウェアで構成するものとしてもよく、またソフトウェアで構成するものとしてもよい。   Next, the detailed configuration of the management client 3 shown in FIG. 1A will be described with reference to the functional block diagram of FIG. However, each functional block of the management client 3 may be configured by hardware or may be configured by software.

管理クライアント3は、メタデータと映像データを蓄積し、再生するメタデータレコーディングシステム7と、メタデータを解析処理する解析処理部5とで構成される。まず、メタデータレコーディングシステム7の構成例について説明する。メタデータレコーディングシステム7は、メタデータ生成カメラ1a,1bから映像データを取得する映像バッファ部42と、メタデータ生成カメラ1a,1bからメタデータを取得するメタデータバッファ部41と、フィルタ処理に応じたフィルタ設定を蓄積するフィルタ設定データベース55と、メタデータのフィルタ処理を行うメタデータフィルタ部38と、メタデータ生成カメラ1a,1bに設定変更を通知するルール切替部35と、映像データを蓄積する映像データ蓄積データベース56と、メタデータを蓄積するメタデータ蓄積データベース57と、映像データを再生する映像データ再生部39と、メタデータを再生するメタデータ再生部40と、メタデータと映像データとの再生を同期させる再生同期部36と映像データ等を表示する表示部とを備えている。   The management client 3 includes a metadata recording system 7 that stores and reproduces metadata and video data, and an analysis processing unit 5 that analyzes the metadata. First, a configuration example of the metadata recording system 7 will be described. The metadata recording system 7 includes a video buffer unit 42 that acquires video data from the metadata generation cameras 1a and 1b, a metadata buffer unit 41 that acquires metadata from the metadata generation cameras 1a and 1b, and a filtering process. A filter setting database 55 for storing filter settings, a metadata filter unit 38 for filtering metadata, a rule switching unit 35 for notifying the metadata generation cameras 1a and 1b of setting changes, and storing video data. A video data storage database 56, a metadata storage database 57 for storing metadata, a video data playback unit 39 for playing back video data, a metadata playback unit 40 for playing back metadata, and metadata and video data A playback synchronization unit 36 that synchronizes playback and video data, etc. And a Shimesuru display unit.

映像バッファ部42は、メタデータ生成カメラ1a,1bから映像データを取得し、符号化されている映像データの復号化処理を行う。そして、映像バッファ部42は、得られた映像データを映像バッファ部42に設けられている図示しないバッファに保持する。さらに、映像バッファ部42は、図示しないバッファに保持している映像データを順次、画像を表示する表示部6に供給する処理も行う。このように図示しないバッファに映像データを保持することで、メタデータ生成カメラ1a,1bからの映像データの受信タイミングに依らず、表示部6に対して順次映像データを供給できる。また、映像バッファ部42は、後述するルール切替部35から供給される録画要求信号に基づき、保持している映像データを映像データ蓄積データベース56に蓄積させる。なお、映像データ蓄積データベース56には、符号化されている映像データを蓄積して、後述する映像データ再生部39で復号化を行うものとしてもよい。   The video buffer unit 42 acquires video data from the metadata generation cameras 1a and 1b, and performs a decoding process on the encoded video data. The video buffer unit 42 holds the obtained video data in a buffer (not shown) provided in the video buffer unit 42. Furthermore, the video buffer unit 42 also performs a process of sequentially supplying video data held in a buffer (not shown) to the display unit 6 that displays an image. By holding the video data in a buffer (not shown) as described above, the video data can be sequentially supplied to the display unit 6 regardless of the reception timing of the video data from the metadata generation cameras 1a and 1b. In addition, the video buffer unit 42 stores the stored video data in the video data storage database 56 based on a recording request signal supplied from a rule switching unit 35 described later. The encoded video data may be stored in the video data storage database 56 and decoded by the video data reproduction unit 39 described later.

メタデータバッファ部41は、メタデータバッファ部41に設けられている図示しないバッファに、メタデータ生成カメラ1a,1bから取得したメタデータを保持する。また、メタデータバッファ部41は、保持しているメタデータを表示部6に順次供給する。また、図示しないバッファに保持しているメタデータを後述するメタデータフィルタ部38に供給する処理も行う。このように図示しないバッファにメタデータを保持することで、メタデータ生成カメラ1a,1bからのメタデータの受信タイミングに依らず、表示部6に対して順次メタデータを供給できる。また、映像データと同期させてメタデータを表示部6に供給できる。さらに、メタデータバッファ部41は、メタデータ生成カメラ1a,1bから取得したメタデータをメタデータ蓄積データベース57に蓄積させる。ここで、メタデータをメタデータ蓄積データベース57に蓄積する際に、メタデータと同期する映像データの時刻情報を付加しておく。このようにすることで、メタデータの内容を読み出して時刻を判別しなくとも、付加されている時刻情報を利用して、所望の時刻のメタデータをメタデータ蓄積データベース57から読み出すことが可能となる。   The metadata buffer unit 41 holds metadata acquired from the metadata generation cameras 1a and 1b in a buffer (not shown) provided in the metadata buffer unit 41. Further, the metadata buffer unit 41 sequentially supplies the held metadata to the display unit 6. Further, processing for supplying metadata held in a buffer (not shown) to a metadata filter unit 38 to be described later is also performed. By holding the metadata in a buffer (not shown) as described above, the metadata can be sequentially supplied to the display unit 6 regardless of the reception timing of the metadata from the metadata generation cameras 1a and 1b. Further, the metadata can be supplied to the display unit 6 in synchronization with the video data. Further, the metadata buffer unit 41 stores the metadata acquired from the metadata generation cameras 1 a and 1 b in the metadata storage database 57. Here, when storing metadata in the metadata storage database 57, time information of video data synchronized with the metadata is added. In this way, it is possible to read out metadata at a desired time from the metadata storage database 57 using the added time information without reading the contents of the metadata and determining the time. Become.

フィルタ設定データベース55は、後述するメタデータフィルタ部38で行うフィルタ処理に応じたフィルタ設定を蓄積するとともに、フィルタ設定をメタデータフィルタ部38に供給する。このフィルタ設定とは、アラーム等の出力やメタデータ生成カメラ1a,1bの撮像動作の切替を行う必要があるか否かの判断基準等を、メタデータに含まれている監視対象に関する情報ごとに示す設定である。このフィルタ設定を用いてメタデータのフィルタ処理を行うことで、監視対象に関する情報ごとにフィルタ処理結果で示すことができる。フィルタ処理結果には、アラーム等の出力を行う必要があることや、メタデータ生成カメラ1a,1bの撮像動作の切替が必要であることが示される。   The filter setting database 55 accumulates filter settings corresponding to filter processing performed by the metadata filter unit 38 described later, and supplies the filter settings to the metadata filter unit 38. This filter setting refers to, for each piece of information related to the monitoring target included in the metadata, the criteria for determining whether or not it is necessary to switch the output of the alarm or the like and the imaging operation of the metadata generation cameras 1a and 1b. It is a setting to show. By performing the metadata filtering process using this filter setting, it is possible to indicate the filtering process result for each piece of information related to the monitoring target. The filter processing result indicates that an alarm or the like needs to be output and that the imaging operation of the metadata generation cameras 1a and 1b needs to be switched.

メタデータフィルタ部38は、フィルタ設定データベース55に蓄積されているフィルタ設定を用いてメタデータのフィルタ処理を行い、アラームを発生させるかどうかを判断する。そして、メタデータフィルタ部38は、メタデータバッファ部41で取得したメタデータ、あるいはメタデータ蓄積データベース57から供給されたメタデータのフィルタ処理を行い、フィルタ処理結果をルール切替部35と後述するフィルタパッケージ部33に通知する。   The metadata filter unit 38 performs filtering processing of metadata using the filter settings stored in the filter setting database 55, and determines whether or not to generate an alarm. Then, the metadata filter unit 38 performs a filtering process on the metadata acquired by the metadata buffer unit 41 or the metadata supplied from the metadata accumulation database 57, and the filter processing result is compared with the rule switching unit 35 and a filter described later. The package unit 33 is notified.

ルール切替部35は、メタデータフィルタ部38から通知されたフィルタ処理結果に基づいて、設定変更信号を生成し、メタデータ生成カメラ1a,1bに設定変更を通知する。例えば、メタデータフィルタ部38から得られたフィルタ処理結果に基づき、監視に適した監視映像が得られるようにメタデータ生成カメラ1a,1bの動作を切り替える。また、ルール切替部35は、フィルタ処理結果に基づき、映像データ蓄積データベース56に録画要求信号を供給して、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。また、ルール切替部35は、映像データの蓄積モードを選択可能とする。蓄積モードには、例えば動的検索モードと最小限モードのいずれかを選択可能としている。   The rule switching unit 35 generates a setting change signal based on the filter processing result notified from the metadata filter unit 38, and notifies the metadata generation cameras 1a and 1b of the setting change. For example, on the basis of the filter processing result obtained from the metadata filter unit 38, the operations of the metadata generation cameras 1a and 1b are switched so that a monitoring video suitable for monitoring is obtained. In addition, the rule switching unit 35 supplies a recording request signal to the video data storage database 56 based on the filter processing result, and stores the video data acquired by the video buffer unit 42 in the video data storage database 56. In addition, the rule switching unit 35 can select a video data accumulation mode. As the accumulation mode, for example, either the dynamic search mode or the minimum mode can be selected.

動的検索モードがユーザによって選択されている場合、ルール切替部35は、フィルタ処理結果によって動体が検出されていることが示されたとき、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。動的検索モードが選択されたときは、動体が検出されているときの映像データが蓄積される。このため、後述する映像データ再生部39によって、蓄積されている映像データを再生して、再生された映像データと同期するメタデータに対して所望のフィルタ設定でフィルタ処理を行うものとすれば、このフィルタ設定を満たす映像データを検索できる。   When the dynamic search mode is selected by the user, the rule switching unit 35 displays the video data acquired by the video buffer unit 42 as a video data storage database when the filtering process result indicates that a moving object is detected. 56. When the dynamic search mode is selected, video data when a moving object is detected is accumulated. Therefore, if the stored video data is played back by the video data playback unit 39, which will be described later, and the metadata that is synchronized with the played back video data is filtered with a desired filter setting, Video data satisfying this filter setting can be searched.

最小限モードが選択されている場合、ルール切替部35は、フィルタ処理結果によって注意報やアラームの出力を行うような状態が生じたと判別したとき、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。最小限モードが選択されたときは、注意報やアラームの出力を行うような状態の映像データを容易かつ速やかに再生できる。また、蓄積する映像データのデータ量を少なくできる。   When the minimum mode is selected, the rule switching unit 35 determines the video data acquired by the video buffer unit 42 as video data when it is determined that a state of outputting a warning or an alarm has occurred according to the filter processing result. Accumulate in the accumulation database 56. When the minimum mode is selected, it is possible to easily and quickly reproduce video data in a state in which a warning or alarm is output. In addition, the amount of video data to be stored can be reduced.

映像データ蓄積データベース56は、映像バッファ部42で取得された映像データを蓄積する。メタデータ蓄積データベース57は、メタデータバッファ部41で取得されたメタデータを蓄積する。   The video data storage database 56 stores video data acquired by the video buffer unit 42. The metadata accumulation database 57 accumulates the metadata acquired by the metadata buffer unit 41.

映像データ再生部39は、映像データ蓄積データベース56に蓄積されている映像データの再生処理を行う。すなわち、映像データ再生部39は、ユーザによって指示された再生位置から順次映像データを読み出して、読み出した映像データを表示部6に供給する。また、映像データ再生部39は、再生している映像データの再生位置(再生時刻)を再生同期部36に供給する。   The video data playback unit 39 performs playback processing of video data stored in the video data storage database 56. That is, the video data playback unit 39 sequentially reads video data from the playback position specified by the user, and supplies the read video data to the display unit 6. Further, the video data playback unit 39 supplies the playback position (playback time) of the video data being played back to the playback synchronization unit 36.

メタデータと映像データとの再生を同期させる再生同期部36は、映像データ再生部39から供給された再生位置と、メタデータ再生部40で、メタデータ蓄積データベース57に蓄積されているメタデータを再生するときの再生位置が同期するように、同期制御信号をメタデータ再生部40に供給して、メタデータ再生部40の動作を制御する。   A reproduction synchronization unit 36 that synchronizes reproduction of metadata and video data uses the reproduction position supplied from the video data reproduction unit 39 and the metadata accumulated in the metadata accumulation database 57 by the metadata reproduction unit 40. A synchronization control signal is supplied to the metadata reproduction unit 40 so that the reproduction position at the time of reproduction is synchronized, and the operation of the metadata reproduction unit 40 is controlled.

メタデータ再生部40は、メタデータ蓄積データベース57に蓄積されているメタデータの再生処理を行う。すなわち、メタデータ再生部40は、ユーザによって指示された再生位置から順次メタデータを読み出して、読み出したメタデータをメタデータフィルタ部38と表示部6に供給する。また、映像データとメタデータの双方を再生する場合、メタデータ再生部40は、上述のように再生同期部36から供給された同期制御信号に基づいて再生動作を制御して、映像データに同期したメタデータを出力する。   The metadata playback unit 40 performs playback processing of metadata stored in the metadata storage database 57. That is, the metadata reproduction unit 40 sequentially reads metadata from the reproduction position designated by the user, and supplies the read metadata to the metadata filter unit 38 and the display unit 6. When reproducing both video data and metadata, the metadata reproduction unit 40 controls the reproduction operation based on the synchronization control signal supplied from the reproduction synchronization unit 36 as described above, and synchronizes with the video data. Output the generated metadata.

表示部6は、映像バッファ部42から供給されたライブ(生)の映像データや映像データ再生部39から供給された再生映像データ、メタデータバッファ部41から供給されたライブのメタデータやメタデータ再生部40から供給された再生メタデータを表示する。また、表示部6は、メタデータフィルタ部38からのフィルタ設定に基づき、監視映像やメタデータの映像やフィルタ設定の映像のいずれか、あるいはこれらを合成した映像を用いて、フィルタ処理結果に基づく監視結果を示す映像を表示(出力)する。   The display unit 6 includes live (raw) video data supplied from the video buffer unit 42, reproduced video data supplied from the video data playback unit 39, and live metadata and metadata supplied from the metadata buffer unit 41. The reproduction metadata supplied from the reproduction unit 40 is displayed. The display unit 6 is based on the filter processing result using one of the monitoring video, the video of the metadata, the video of the filter setting, or the synthesized video based on the filter setting from the metadata filter unit 38. Display (output) video showing the monitoring results.

また、表示部(表示モジュール)6は、グラフィカルユーザインタフェース(GUI:Graphical User Interface)としても機能する。使用者は、図示しない操作キーやマウス、リモートコントローラ等を用い表示部6に表示されたフィルタ設定メニュー等を選択することでパッケージやフィルタを定義したり、各処理部(モジュール)の情報のほかに、パッケージやアラーム情報の解析結果等をGUI表示したりすることができる。   The display unit (display module) 6 also functions as a graphical user interface (GUI). The user can define packages and filters by selecting a filter setting menu displayed on the display unit 6 using an operation key, a mouse, a remote controller, etc. (not shown), and information on each processing unit (module). In addition, the analysis result of the package and alarm information can be displayed on the GUI.

表示部6はGUIとして機能する場合、メタデータ情報を用いたフィルタの設定を行うフィルタ設定部と、このフィルタ設定部で設定された複数のフィルタ設定の組み合わせを設定する組み合わせ設定部としての機能を持つ。例えば、パッケージを定義する場合は、ユーザの指示に従い表示部6がGUI機能により新規にフィルタ設定を作成し、又はフィルタ設定データベース55に蓄積されたフィルタ設定を編集し、次に、パッケージ設定すなわちフィルタの組み合わせ態様を設定する。本実施形態例では、個々のフィルタの設定はフィルタ設定データベース55に保存し、パッケージ設定(フィルタの組み合わせ等)はパッケージ設定データベース53に保存する。フィルタ設定データベース55及びパッケージ設定データベース53を一つのデータベースで構成してもよい。   When the display unit 6 functions as a GUI, it functions as a filter setting unit that sets a filter using metadata information and a combination setting unit that sets a combination of a plurality of filter settings set by the filter setting unit. Have. For example, when defining a package, the display unit 6 newly creates a filter setting by the GUI function according to a user's instruction or edits the filter setting stored in the filter setting database 55, and then the package setting, that is, the filter The combination mode is set. In this embodiment, individual filter settings are stored in the filter setting database 55, and package settings (such as filter combinations) are stored in the package setting database 53. The filter setting database 55 and the package setting database 53 may be configured as one database.

そして、本実施の形態例にかかる監視システム100は、解析処理、複数のフィルタを組み合わせてアラームを発生させるかどうかを判断するフィルタパッケージ部33と、フィルタパッケージ内のフィルタ情報及び、フィルタ間の関連付け(論理設定)を保存するパッケージ設定データベース53と、フィルタパッケージ部33から出力されたアラーム情報を、後述する解析ルール設定データベース54の設定値を元に解析するアラーム情報解析部34と、スケジュールを監視し、指定時間帯に指定の解析ルールとパッケージとアクション(外部機器に対する動作指示)の設定を行うスケジュール設定部31と、パッケージとアクションの設定を記録するスケジュール設定データベース51と、各種カメラや周辺機器にアクションを指示するアクション設定部32と、アクションの設定を記録するアクション設定データベース52とを備えることを特徴としている。   The monitoring system 100 according to the present embodiment includes an analysis process, a filter package unit 33 that determines whether an alarm is generated by combining a plurality of filters, filter information in the filter package, and association between the filters. A package setting database 53 for storing (logical settings), an alarm information analysis unit 34 for analyzing alarm information output from the filter package unit 33 based on setting values of an analysis rule setting database 54 described later, and a schedule monitoring A schedule setting unit 31 for setting a specified analysis rule, a package, and an action (operation instruction for an external device) in a specified time zone; a schedule setting database 51 for recording a package and an action; various cameras and peripheral devices Direct action An action setting section 32 is characterized by comprising a action setting database 52 for recording the setting action.

以下では、各部とデータベースの機能例について詳細に説明する。   Hereinafter, functional examples of each unit and database will be described in detail.

フィルタパッケージ部33は、メタデータフィルタ部38から得られたアラーム情報を複数種類組み合わせて、より詳細な状況についてパッケージが出力するアラームの発生を判断する。最適なカメラ動作は、使用者がフィルタ単位またはパッケージ単位で予め設定することができる。例えば、使用者が、あるパッケージに5種類のフィルタ(フィルタA〜フィルタE)を設定したと想定する。設定可能なフィルタの種類としては、例えば以下の7種類があり、このうち、任意のフィルタの種類を選択することができる。
Appearance(存在):物体があるエリア内に存在するか否かを判別するためのフィルタ
Disappearance(消失):物体があるエリア(領域)に現れ、エリアから出たか否かを判別するためのフィルタ
Passing(通過):ある境界線を物体が超えたか否かを判別するためのフィルタ
Capacity(物体数制限):あるエリア内の員数が所定値を超えたか否かを判別するためのフィルタ
Loitering(滞留):所定の時間を超えて、あるエリア内に物体が滞留しているか否かを判別するためのフィルタ
Unattended(置き去り):所定の時間を越えて、あるエリア内に侵入し動かない物体が存在するか否かを判別するためのフィルタ
Removed(持ち去り):あるエリア内に存在した物体が取り除かれたことを検出するためのフィルタ
The filter package unit 33 determines the occurrence of an alarm output by the package for a more detailed situation by combining a plurality of types of alarm information obtained from the metadata filter unit 38. The optimum camera operation can be preset by the user in units of filters or packages. For example, it is assumed that the user has set five types of filters (filter A to filter E) in a certain package. There are, for example, the following seven types of filters that can be set. Of these, any filter type can be selected.
Appearance: A filter for determining whether an object exists in an area.
Disappearance: A filter used to determine whether an object appears in an area and is out of the area.
Passing: A filter to determine whether an object has crossed a certain boundary line
Capacity (object limit): A filter to determine whether the number of objects in a certain area has exceeded a specified value.
Loitering: A filter for determining whether or not an object has stayed in an area over a specified time
Unattended: A filter for determining whether or not there is an object that has entered a certain area and has not moved beyond a predetermined time.
Removed: A filter to detect that an object that existed in an area has been removed.

パッケージの設定は、全てのフィルタの条件を満たした場合にアラーム情報を出力したり、フィルタAかつフィルタBの設定を満たした場合か、フィルタCかつフィルタDの設定を満たした場合のどちらかでアラーム情報を出力したりするなど、フィルタ間の論理を自由に組み合わせて設定できる。例えば、ある場所に人が侵入(ある場所のフィルタA“存在”が真)し、かつ警備員が所定の場所にいない(別の場所のフィルタB“消失”が真)場合のみパッケージアラーム情報を発生させる等が行われる。   Package setting is either when alarm information is output when all filter conditions are met, when filter A and filter B settings are met, or when filter C and filter D settings are met You can set any combination of logic between filters, such as outputting alarm information. For example, the package alarm information is only displayed when a person enters a certain place (filter A “existence” is true in one place) and a guard is not in a predetermined place (filter B “disappearance” in another place is true). And so on.

パッケージ設定データベース53は、フィルタパッケージ部33に定義したパッケージを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.パッケージ番号(またはパッケージ名):フィルタパッケージを一意に識別する。
2.フィルタ番号(またはフィルタ名称):フィルタアラーム情報を一意に識別する。カメラごとにフィルタアラーム番号が振られている場合、カメラ番号も必要になる可能性がある。
3.フィルタ間論理:フィルタをいかにして組み合わせるかの論理である。論理積(AND、またはシーケンシャル)組み合わせ、及び論理和(OR、またはパラレル)組み合わせからなる。
The package setting database 53 is a database that can store a package defined in the filter package unit 33. Examples of information that the database should have are described below.
1. Package number (or package name): Uniquely identifies the filter package.
2. Filter number (or filter name): Uniquely identifies the filter alarm information. If a filter alarm number is assigned for each camera, the camera number may also be required.
3. Inter-filter logic: The logic of how filters are combined. It consists of a logical product (AND or sequential) combination and a logical sum (OR or parallel) combination.

動体アラーム状態判断部8は、フィルタもしくはフィルタパッケージの設定(判定条件)に対するソフトウェアの認識状況をグラフィックス(数字、記号をを含む)でユーザに伝えるためのものである。すなわち、フィルタの設定とフィルタパッケージの設定に応じて、フィルタもしくはフィルタパッケージに対する動体の現在の状態を判断し、その状態に応じて表示部6にアラームの段階的表現を行わせるための情報を出力する。   The moving object alarm state determination unit 8 is used to notify the user of the recognition status of the software with respect to the setting (determination condition) of the filter or the filter package with graphics (including numerals and symbols). That is, the current state of the moving object with respect to the filter or the filter package is determined according to the filter setting and the filter package setting, and information for causing the display unit 6 to perform stepwise expression of the alarm according to the state is output. To do.

アラーム情報解析部34は、フィルタパッケージ部33から得られるアラーム情報を解析し、カメラや周辺機器に最適な動作を行わせ、表示部6に情報を与える。解析種類は“連続時間”(指定した時間だけアラームが連続で来る場合、インパルス波アラームであっても方形波アラームとみなす)、“発生頻度”(指定時間内に指定数以上アラーム情報が得られる)、“占有面積”(指定範囲内に指定比率以上の物体が存在)、等が選べ、使用者が新たに定義することも可能である。解析した結果を元に、パッケージの再選択や各種アクションの実行、スケジュールの変更が行われる。   The alarm information analysis unit 34 analyzes the alarm information obtained from the filter package unit 33, causes the camera or peripheral device to perform an optimal operation, and gives information to the display unit 6. Analysis type is “Continuous time” (If the alarm continues for the specified time, even if it is an impulse wave alarm, it is considered as a square wave alarm), “Frequency” (more than the specified number of alarm information can be obtained within the specified time) ), “Occupied area” (an object having a specified ratio or more exists in the specified range), etc., and the user can newly define it. Based on the analysis result, the package is reselected, various actions are executed, and the schedule is changed.

解析ルール設定データベース54は、アラーム情報解析部34に定義した解析ルールを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.解析ルール番号(または解析ルール名):アラーム解析情報を一意に識別する。
2.パッケージ番号(またはパッケージ名称):アラーム解析に用いるパッケージを一意に特定する。
3.解析種類:“連続時間”、“発生頻度”、“占有面積”などの解析タイプ。
4.解析詳細設定:解析タイプに必要な詳細設定項目(時間や閾値頻度など)、アクションの実行、パッケージの変更、解析ルールの変更など、条件を満たした場合の動作。
The analysis rule setting database 54 is a database that can store analysis rules defined in the alarm information analysis unit 34. Examples of information that the database should have are described below.
1. Analysis rule number (or analysis rule name): Uniquely identifies alarm analysis information.
2. Package number (or package name): A package used for alarm analysis is uniquely identified.
3. Analysis type: Analysis type such as “continuous time”, “occurrence frequency”, “occupied area”.
4). Detailed analysis settings: Operations when conditions are satisfied, such as detailed setting items required for the analysis type (such as time and threshold frequency), action execution, package changes, analysis rule changes, etc.

スケジュール設定部31は、時間帯により解析ルールを変更する。例えば、営業時間内は“発生頻度”ルールで解析して自動ドアの挟み込みといった状況を判別し、閉店後は“侵入”アラームに切り替えて侵入自体でアラーム状況と判断させるなどの使い道が想定できる。   The schedule setting unit 31 changes the analysis rule according to the time zone. For example, it is possible to assume usage such as analyzing the “occurrence frequency” rule during business hours to determine the situation such as an automatic door being pinched, and switching to an “intrusion” alarm after closing the store to determine the alarm status by the intrusion itself.

スケジュール設定データベース51は、スケジュール設定部31に定義したスケジュールを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.スケジュール番号(またはスケジュール名):スケジュール情報を一意に識別する。
2.開始時間:スケジュールを開始する年月日時分秒。
3.終了時間:スケジュールを終了する年月日時分秒。
4.解析ルール番号:スケジュール内に適用する解析ルールを特定するための番号。
The schedule setting database 51 is a database that can store the schedule defined in the schedule setting unit 31. Examples of information that the database should have are described below.
1. Schedule number (or schedule name): The schedule information is uniquely identified.
2. Start time: Year / month / day / hour / minute / second at which the schedule starts.
3. End time: Year, month, day, hour, minute and second when the schedule ends.
4). Analysis rule number: A number for identifying an analysis rule to be applied in the schedule.

アクション設定部32は、アラーム情報解析結果に基づいて、指定したアクションを実行する。“追跡”,“ズーム”,“ライトON”などの動きを指定しておけば、アラーム情報の持つ動体数や位置情報を元に、自動的にズーム倍率やパンチルト角度が指定される。手動で詳細動作を設定することもできる。また、カメラの設定を変更することができる。さらに、カメラの設定を変更する以外にも、動体があったときは必ず映像を録画して後で動的にフィルタを変更してそれに該当する映像を検索できる動的検索モードと、フィルタがかかったときのみ録画をする最小限録画モードと2つの録画モードの切り替えができる。   The action setting unit 32 executes the specified action based on the alarm information analysis result. If movements such as “tracking”, “zoom”, and “light on” are designated, the zoom magnification and pan / tilt angle are automatically designated based on the number of moving objects and position information included in the alarm information. You can also set detailed actions manually. In addition, camera settings can be changed. In addition to changing camera settings, when there is a moving object, the video is recorded and the filter is dynamically changed later to search for the corresponding video, and the filter is applied. It is possible to switch between the minimum recording mode and the two recording modes in which recording is performed only at the time of recording.

アクション設定データベース52は、アクション設定を保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.アクション番号(またはアクション名):アクション設定情報を一意に識別する。
2.アクションタイプ:“パンチルト”,“ズーム”,“ライトON”など。
3.詳細設定:手動設定の場合の詳細情報を設定する。
The action setting database 52 is a database that can store action settings. Examples of information that the database should have are described below.
1. Action number (or action name): Uniquely identifies action setting information.
2. Action type: “Pan / Tilt”, “Zoom”, “Light ON”, etc.
3. Detailed settings: Set the detailed information for manual settings.

<動作の説明>
次に、管理クライアント3の各部の処理例について説明する。
<Description of operation>
Next, a processing example of each unit of the management client 3 will be described.

まず、フィルタパッケージ部33の処理例について、図3を参照して説明する。フィルタパッケージ部33は、複数のフィルタ間を論理で結びつけてパッケージを作成し、通知する処理を行う。始めに、フィルタパッケージ部33は、メタデータバッファ部41から関連するフィルタのアラーム情報を取得する(ステップS1)。次に、フィルタパッケージ部33は、各パッケージが用いるパッケージ設定データベース53により、アラーム情報を処理する(ステップS2)。   First, a processing example of the filter package unit 33 will be described with reference to FIG. The filter package unit 33 creates a package by logically connecting a plurality of filters, and performs a notification process. First, the filter package unit 33 acquires alarm information of a related filter from the metadata buffer unit 41 (step S1). Next, the filter package unit 33 processes the alarm information using the package setting database 53 used by each package (step S2).

フィルタパッケージ部33は、アラーム情報を処理すると、アラーム情報解析部34に通知が必要か否かを判断する(ステップS3)。通知が必要でないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、通知が必要であると判断した場合、フィルタパッケージ部33は、フィルタアラームとパッケージアラームとを組み合わせた通知内容を作成する(ステップS4)。そして、フィルタパッケージ部33は、通知内容をアラーム情報解析部34に通知する(ステップS5)。   When the filter package unit 33 processes the alarm information, the filter package unit 33 determines whether the alarm information analysis unit 34 needs to be notified (step S3). If it is determined that notification is not necessary, the filter package unit 33 returns to the process of step S1. On the other hand, if it is determined that notification is necessary, the filter package unit 33 creates notification contents combining the filter alarm and the package alarm (step S4). The filter package unit 33 notifies the alarm information analysis unit 34 of the notification content (step S5).

次に、フィルタパッケージ部33は、パッケージの設定変更要求があるか否かを判断する(ステップS6)。設定変更要求がないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、設定変更要求があると判断した場合、フィルタパッケージ部33は、パッケージの設定を変更する(ステップS7)。   Next, the filter package unit 33 determines whether or not there is a package setting change request (step S6). If it is determined that there is no setting change request, the filter package unit 33 returns to the process of step S1. On the other hand, when determining that there is a setting change request, the filter package unit 33 changes the setting of the package (step S7).

そして、フィルタパッケージ部33は、終了要求があるか否かを判断する(ステップS8)。終了要求がないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、終了要求があると判断した場合、フィルタパッケージ部33は、処理を終了する。   Then, the filter package unit 33 determines whether there is an end request (step S8). If it is determined that there is no termination request, the filter package unit 33 returns to the process of step S1. On the other hand, if it is determined that there is an end request, the filter package unit 33 ends the process.

次に、アラーム情報解析部34の処理例について、図4を参照して説明する。アラーム情報解析部34は、取得したアラーム情報を解析し、アクションの実行やスケジュールの変更、パッケージの変更を指示する処理を行う。始めに、アラーム情報解析部34は、フィルタパッケージ部33から関連するフィルタのアラーム情報を取得する(ステップS11)。次に、アラーム情報解析部34は、解析ルール設定データベース54を用いてアラーム情報を処理する(ステップS12)。   Next, a processing example of the alarm information analysis unit 34 will be described with reference to FIG. The alarm information analysis unit 34 analyzes the acquired alarm information and performs processing for instructing execution of an action, change of a schedule, and change of a package. First, the alarm information analysis unit 34 acquires alarm information of a related filter from the filter package unit 33 (step S11). Next, the alarm information analysis unit 34 processes the alarm information using the analysis rule setting database 54 (step S12).

アラーム情報解析部34は、アラーム情報を処理すると、アクションの実行が必要か否かを判断する(ステップS13)。アクションの実行が必要でないと判断した場合、アラーム情報解析部34は、ステップS11の処理に戻す。一方、アクションの実行が必要であると判断した場合、アラーム情報解析部34は、実行するアクションを記述した通知内容を作成する(ステップS14)。そして、アラーム情報解析部34は、通知内容をアクション設定部32に通知する(ステップS15)。   When the alarm information analysis unit 34 processes the alarm information, the alarm information analysis unit 34 determines whether an action needs to be executed (step S13). When determining that the execution of the action is not necessary, the alarm information analysis unit 34 returns to the process of step S11. On the other hand, when it is determined that the action needs to be executed, the alarm information analysis unit 34 creates notification contents describing the action to be executed (step S14). And the alarm information analysis part 34 notifies the notification content to the action setting part 32 (step S15).

次に、アラーム情報解析部34は、スケジュールの変更要求があるか否かを判断する(ステップS16)。スケジュールの変更要求がないと判断した場合、ステップS11の処理に戻す。一方、スケジュールの変更要求があると判断した場合、アラーム情報解析部34は、設定するスケジュール内容を記述した通知内容を作成する(ステップS17)。そして、アラーム情報解析部34は、通知内容をスケジュール設定部31に通知する(ステップS18)。   Next, the alarm information analysis unit 34 determines whether or not there is a schedule change request (step S16). If it is determined that there is no schedule change request, the process returns to step S11. On the other hand, when it is determined that there is a schedule change request, the alarm information analysis unit 34 creates notification contents describing the schedule contents to be set (step S17). And the alarm information analysis part 34 notifies the notification content to the schedule setting part 31 (step S18).

次に、アラーム情報解析部34は、パッケージの変更要求があるか否かを判断する(ステップS19)。パッケージの変更要求がないと判断した場合、ステップS11の処理に戻す。一方、パッケージの変更要求があると判断した場合、アラーム情報解析部34は、設定するパッケージ内容を記述した通知内容を作成する(ステップS20)。そして、アラーム情報解析部34は、通知内容をフィルタパッケージ設定部33に通知する(ステップS21)。   Next, the alarm information analysis unit 34 determines whether or not there is a package change request (step S19). If it is determined that there is no package change request, the process returns to step S11. On the other hand, if it is determined that there is a package change request, the alarm information analysis unit 34 creates notification contents describing the package contents to be set (step S20). Then, the alarm information analysis unit 34 notifies the notification content to the filter package setting unit 33 (step S21).

そして、アラーム情報解析部34は、終了要求があるか否かを判断する(ステップS22)。終了要求がないと判断した場合、アラーム情報解析部34は、ステップS11の処理に戻す。一方、終了要求があると判断した場合、アラーム情報解析部34は、処理を終了する。   Then, the alarm information analysis unit 34 determines whether there is an end request (step S22). If it is determined that there is no termination request, the alarm information analysis unit 34 returns to the process of step S11. On the other hand, when determining that there is an end request, the alarm information analysis unit 34 ends the process.

次に、スケジュール設定部31の処理例について、図5を参照して説明する。スケジュール設定部31は、スケジュールを作成し、スケジュールの期間内に指定した解析ルールを実行する処理を行う。始めに、スケジュール設定部31は、各スケジュールを、スケジュール設定データベース51を用いて、スケジュール情報を処理する(ステップS31)。   Next, a processing example of the schedule setting unit 31 will be described with reference to FIG. The schedule setting unit 31 performs a process of creating a schedule and executing an analysis rule specified within the schedule period. First, the schedule setting unit 31 processes the schedule information for each schedule using the schedule setting database 51 (step S31).

スケジュール設定部31は、スケジュール情報を処理すると、スケジュール内であるか否かを判断する(ステップS32)。スケジュール内でないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、スケジュール内であると判断した場合、スケジュール設定部31は、解析ルールを記述した通知内容を作成する(ステップS33)。そして、スケジュール設定部31は、通知内容をアラーム情報解析部34に通知する(ステップS34)。   When the schedule setting unit 31 processes the schedule information, the schedule setting unit 31 determines whether it is within the schedule (step S32). If it is determined that it is not within the schedule, the schedule setting unit 31 returns to the process of step S31. On the other hand, when determining that it is within the schedule, the schedule setting unit 31 creates a notification content describing the analysis rule (step S33). The schedule setting unit 31 notifies the alarm information analysis unit 34 of the notification content (step S34).

そして、スケジュール設定部31は、スケジュールの設定変更要求があるか否かを判断する(ステップS35)。スケジュールの設定変更要求がないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、スケジュールの設定変更要求があると判断した場合、スケジュール設定部31は、スケジュール設定データベース51を用いて、スケジュールの設定を変更する(ステップS36)。   Then, the schedule setting unit 31 determines whether or not there is a schedule setting change request (step S35). When it is determined that there is no schedule setting change request, the schedule setting unit 31 returns to the process of step S31. On the other hand, when it is determined that there is a schedule setting change request, the schedule setting unit 31 changes the schedule setting using the schedule setting database 51 (step S36).

そして、スケジュール設定部31は、終了要求があるか否かを判断する(ステップS37)。終了要求がないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、終了要求があると判断した場合、スケジュール設定部31は、処理を終了する。   Then, the schedule setting unit 31 determines whether or not there is an end request (step S37). When it is determined that there is no termination request, the schedule setting unit 31 returns to the process of step S31. On the other hand, when it is determined that there is an end request, the schedule setting unit 31 ends the process.

次に、アクション設定部32の処理例について、図6を参照して説明する。アクション設定部32は、アクションを作成し、カメラや周辺機器にアクションを実行させる処理を行う。始めに、アクション設定部32は、各アクションを、アクション設定データベース52を用いて、アクション内容を処理する(ステップS41)。   Next, a processing example of the action setting unit 32 will be described with reference to FIG. The action setting unit 32 performs processing for creating an action and causing the camera or peripheral device to execute the action. First, the action setting unit 32 processes each action using the action setting database 52 (step S41).

アクション設定部32は、アクション内容を処理すると、アクションの実行要求があるか否かを判断する(ステップS42)。アクションの実行要求がないと判断した場合、アクション設定部32は、ステップS41の処理に戻す。一方、アクション実行要求があると判断した場合、アクション設定部32は、アクションの設定変更や、パンチルト等のアクションを記述した通知内容を作成する(ステップS43)。そして、アクション設定部32は、通知内容をカメラや周辺機器等に通知する(ステップS44)。   After processing the action content, the action setting unit 32 determines whether or not there is an action execution request (step S42). When determining that there is no action execution request, the action setting unit 32 returns to the process of step S41. On the other hand, if it is determined that there is an action execution request, the action setting unit 32 creates notification contents describing actions such as action setting change and pan / tilt (step S43). Then, the action setting unit 32 notifies the notification contents to the camera, peripheral devices, and the like (step S44).

そして、アクション設定部32は、終了要求があるか否かを判断する(ステップS45)。終了要求がないと判断した場合、アクション設定部32は、ステップS41の処理に戻す。一方、終了要求があると判断した場合、アクション設定部32は、処理を終了する。   Then, the action setting unit 32 determines whether or not there is a termination request (step S45). When determining that there is no termination request, the action setting unit 32 returns to the process of step S41. On the other hand, when determining that there is an end request, the action setting unit 32 ends the process.

次に、各モジュール間における関連処理の例について説明する。   Next, an example of related processing between modules will be described.

まず、複数のメタデータ生成カメラ1a,1bから受信したメタデータに対し、パッケージ(フィルタ群)を適用して、一つの結果を得る処理の例について、図7を参照して説明する。始めに、使用者は、フィルタパッケージ部33により、“存在”や“滞留”等のフィルタを登録し(ステップS51)、フィルタ間論理を設定する(ステップS52)。設定内容は、パッケージ設定データベース53に保存される。   First, an example of processing for obtaining one result by applying a package (filter group) to metadata received from a plurality of metadata generation cameras 1a and 1b will be described with reference to FIG. First, the user registers filters such as “exist” and “stay” by using the filter package unit 33 (step S51), and sets the inter-filter logic (step S52). The setting contents are stored in the package setting database 53.

そして、フィルタパッケージ部33は、アラーム情報をアラーム情報解析部34に送信する(ステップS53)。アラーム情報解析部34は、フィルタパッケージ部33からアラーム情報を受信する(ステップS54)。受け取ったアラーム情報には、各フィルタからのフィルタアラーム以外に、新たにフィルタ間論理に合致したパッケージからのパッケージアラームが含まれる。   And the filter package part 33 transmits alarm information to the alarm information analysis part 34 (step S53). The alarm information analysis unit 34 receives the alarm information from the filter package unit 33 (step S54). The received alarm information includes a package alarm from a package that newly matches the inter-filter logic, in addition to the filter alarm from each filter.

アラーム情報解析部34は、解析ルール設定データベース54を元に、受信したアラーム情報を解析し、解析ルールに沿った動作を行う(ステップS55)。そして、アラーム情報解析部34は、アクション設定部32、フィルタパッケージ部33、スケジュール設定部31に必要な指示を送信する。アクションの実行を行う場合はアクション設定部32にアクション番号を指定する(ステップS56)。アクション設定部32は、指定されたアクション番号に基づくアクションを、アクション設定データベース52から読み出し、アクションを実行する。フィルタやパッケージの再選択を行う場合は、フィルタパッケージ部33に設定変更を指示する(ステップS56)。フィルタパッケージ部33は、パッケージ設定データベース53からフィルタやパッケージを読み出すとともに、再選択したフィルタやパッケージをパッケージ設定データベース53に書き込む。スケジュールの変更を行う場合は、スケジュール設定部31に設定変更を指示する(ステップS58)。スケジュール設定部31は、スケジュール設定データベース51からスケジュールを読み出すとともに、変更したスケジュールをスケジュール設定データベース51に書き込む。   The alarm information analysis unit 34 analyzes the received alarm information based on the analysis rule setting database 54, and performs an operation according to the analysis rule (step S55). Then, the alarm information analysis unit 34 transmits necessary instructions to the action setting unit 32, the filter package unit 33, and the schedule setting unit 31. When executing an action, an action number is designated in the action setting unit 32 (step S56). The action setting unit 32 reads an action based on the specified action number from the action setting database 52 and executes the action. When reselecting the filter or package, the filter package unit 33 is instructed to change the setting (step S56). The filter package unit 33 reads the filter and package from the package setting database 53 and writes the reselected filter and package to the package setting database 53. When changing the schedule, the schedule setting unit 31 is instructed to change the setting (step S58). The schedule setting unit 31 reads the schedule from the schedule setting database 51 and writes the changed schedule into the schedule setting database 51.

図8は、本実施形態における管理クライアント3の表示部6による映像データとメタデータの表示例を示したものである。   FIG. 8 shows a display example of video data and metadata by the display unit 6 of the management client 3 in the present embodiment.

図8に示すように、メタデータ生成カメラ1a,1bで撮像された映像データ1001及びメタデータ1002がネットワーク2を介して管理クライアント3へ供給される。メタデータ生成カメラ1a,1bで生成されるメタデータの種類としては、時間、映像解析結果の動体情報(例えば、位置、種類、ステータスなど)、現在のカメラの状態などがある。また、メタデータ生成カメラが管理クライアントもしくは管理サーバが持つソフトウェアモジュールを備え、ネットワークを介さないで動作する場合も有効である。   As shown in FIG. 8, video data 1001 and metadata 1002 captured by the metadata generation cameras 1 a and 1 b are supplied to the management client 3 via the network 2. The types of metadata generated by the metadata generation cameras 1a and 1b include time, moving body information (for example, position, type, status, etc.) of the video analysis result, the current camera state, and the like. It is also effective when the metadata generation camera is provided with a software module of a management client or management server and operates without a network.

管理クライアント3は前述のようにメタデータ生成カメラ1a,1bから供給された映像データ1001及びメタデータ1002を取得、解析、保存する。管理クライアント3に入力された映像データ1001及びメタデータ1002は、映像データDB56,メタデータDB57に保存される。管理クライアント3は、フィルタ設定機能を有しており、表示部6に表示されるフィルタ設定画面(フィルタ設定メニュー)で各種フィルタの設定を行い、フィルタの情報をフィルタ設定データベース55に保存する。図8に示すフィルタ設定表示画面1003ではフィルタの設定により生成された境界線LN及びエリアPAが表示されている。矢印PBは境界線LNに対して検出すべきPassing(横切り)方向を示している。このように設定されたフィルタ情報を用い、映像内のオブジェクト(動体)MB1〜MB3をメタデータフィルタ部38が検知し、表示部6によって映像データ1001と同期した監視映像1004として表示する。あるフィルタによってオブジェクトが検知されると、監視システム100はアラームを発生させる。例えば、検出したオブジェクトMB1〜MB3の周囲にそれぞれ動体枠H1〜H3を表示する。   As described above, the management client 3 acquires, analyzes, and stores the video data 1001 and the metadata 1002 supplied from the metadata generation cameras 1a and 1b. Video data 1001 and metadata 1002 input to the management client 3 are stored in the video data DB 56 and the metadata DB 57. The management client 3 has a filter setting function, sets various filters on a filter setting screen (filter setting menu) displayed on the display unit 6, and stores filter information in the filter setting database 55. In the filter setting display screen 1003 shown in FIG. 8, the boundary line LN and the area PA generated by the filter setting are displayed. An arrow PB indicates a Passing (crossing) direction to be detected with respect to the boundary line LN. Using the filter information set in this way, the objects (moving objects) MB1 to MB3 in the video are detected by the metadata filter unit 38 and displayed as the monitoring video 1004 synchronized with the video data 1001 by the display unit 6. When an object is detected by a certain filter, the monitoring system 100 generates an alarm. For example, moving object frames H1 to H3 are displayed around the detected objects MB1 to MB3, respectively.

図9は、一つもしくは複数のフィルタを組み合わせて構成されるフィルタパッケージの概念を示したものである。図9に示すように、メタデータに対する複数のフィルタがパッケージング(ひとまとめ)される。この例では、1つのパッケージは最大3つのフィルタのコンビネーション(組み合わせ)と、最大6つの非検知エリアによって構成される。   FIG. 9 shows the concept of a filter package configured by combining one or a plurality of filters. As shown in FIG. 9, a plurality of filters for metadata are packaged. In this example, one package is composed of a combination of a maximum of three filters and a maximum of six non-detection areas.

コンビネーションの種類にはシーケンシャルモード(連続モード)とパラレルモード(並列モード)がある。パラレルモードでは、各々のフィルタがオブジェクトを検知するごとにパッケージとしてのアラームが発生する。一方、シーケンシャルモードでは、設定された順番通りに所定のコンビネーション間隔の範囲内でフィルタがオブジェクトを検知したときにパッケージとして1つのアラームが発生する。パッケージはそれぞれのメタデータ生成カメラに対して個別に設定されるものである。   There are two types of combinations: sequential mode (continuous mode) and parallel mode (parallel mode). In the parallel mode, an alarm as a package is generated each time each filter detects an object. On the other hand, in the sequential mode, one alarm is generated as a package when the filter detects an object within a predetermined combination interval within a set order. The package is set individually for each metadata generation camera.

次に、管理クライアント3におけるアラームの段階的表現の動作について説明する。上述したように、管理クライアント3の動体アラーム状態判断部8(図2参照)は、フィルタの設定とフィルタパッケージの設定に応じて、フィルタもしくはフィルタパッケージに対する動体の現在の状態を判断し、その状態に応じて表示部6にアラームの段階的表現を行わせるための情報を出力する。表示部6は動体アラーム状態判断部8から供給された情報に基づいてグラフィックス(数字、記号を含む)による認識状況の表示を行う。   Next, the operation of the stepwise expression of alarms in the management client 3 will be described. As described above, the moving object alarm state determination unit 8 (see FIG. 2) of the management client 3 determines the current state of the moving object with respect to the filter or the filter package according to the filter setting and the filter package setting, and the state. In response to this, information for causing the display unit 6 to perform stepwise expression of the alarm is output. The display unit 6 displays the recognition status by graphics (including numbers and symbols) based on the information supplied from the moving object alarm state determination unit 8.

上記認識状況の表示形態の例として、例えば、(1)動体に対して「ある状態である」と認識した場合にその認識状況を伝える。(2)またはその動体が「ある状態である」と認識してからの時間経過やその状態量の変化に合わせてグラフィックスを変化させる。(3)あるいはその物体が「ある判定条件に接近しつつある」ことを示す。(4)条件が複数存在する場合に、その判定ステップを示す。従来は動体を囲む枠(動体枠もしくは検知枠という)の色でアラーム対象にあるのを検知したことを示すというものであるが、本発明は、経過・変化状況などの付加的な情報や、「検知」以外の状態を示すことが可能である。   As an example of the display state of the recognition status, for example, (1) when the moving object is recognized as “a certain state”, the recognition status is transmitted. (2) Or the graphics is changed in accordance with the passage of time after the moving object is recognized as “a certain state” or the change in the state quantity. (3) or indicates that the object is “approaching a certain determination condition”. (4) When there are a plurality of conditions, the determination step is shown. Conventionally, it indicates that the alarm target is detected by the color of a frame surrounding the moving object (called a moving object frame or a detection frame), but the present invention provides additional information such as progress / change status, It is possible to indicate a state other than “detection”.

以下、図10を参照してフィルタに動体が近づいた場合におけるアラームの段階的表現の動作について説明する。図10は、フィルタ(Appearance)で設定した検知エリアに動体が近づいた場合のアラーム状態表示例を示す図である。   Hereinafter, the operation of the stepwise expression of the alarm when the moving object approaches the filter will be described with reference to FIG. FIG. 10 is a diagram illustrating an alarm state display example when a moving object approaches the detection area set by the filter (Appearance).

図10において、まず管理クライアント3の動体アラーム状態判断部8が起動する。次に、動体アラーム状態判断部8がメタデータフィルタ部38からフィルタに設定されている検知エリアPAと動体1010の座標を取得する。続いて動体アラーム状態判断部8は予め設定されているフィルタ警告開始距離をメタデータフィルタ設定データベース55から取得する。そして、動体アラーム状態判断部8が、警告開始距離に動体1010があるかどうか判断する。   In FIG. 10, first, the moving body alarm state determination unit 8 of the management client 3 is activated. Next, the moving object alarm state determination unit 8 acquires the coordinates of the detection area PA and the moving object 1010 set in the filter from the metadata filter unit 38. Subsequently, the moving object alarm state determination unit 8 acquires a preset filter warning start distance from the metadata filter setting database 55. Then, the moving object alarm state determination unit 8 determines whether there is a moving object 1010 at the warning start distance.

ここで、動体アラーム状態判断部8は、動体1010がフィルタの検知エリアPAに対して警告開始距離より近づき始めたら、その距離に応じて表示部6で表示するその動体1010の表示色情報R(赤),G(緑),B(青)を、例えばRGB:0,255,0(8ビット情報により256階調表示の場合)からRの情報量を増やしつつ、Gの情報量を減らしていき、動体1010の動体枠のアラーム表示色を作成する。そして、表示部6は動体アラーム状態判断部8からその動体1010の表示色を取得して、映像に動体枠を表示する。この例では、動体1010が検知エリアPAに対して警告開始距離より遠いときは緑色で動体枠HGを表示し、警告開始距離に近づいたら動体枠HYを黄色で表示し、動体1010が検知エリアPA内に浸入したら動体枠HRを赤色で表示してユーザに警告する。   Here, when the moving object 1010 starts to approach the detection area PA of the filter from the warning start distance, the moving object alarm state determination unit 8 displays the display color information R (of the moving object 1010 displayed on the display unit 6 according to the distance. Red (red), G (green), B (blue), for example, from RGB: 0, 255, 0 (in the case of 256 gradation display with 8-bit information), while increasing the amount of R information, decrease the amount of G information The alarm display color of the moving object frame of the moving object 1010 is created. And the display part 6 acquires the display color of the moving body 1010 from the moving body alarm state judgment part 8, and displays a moving body frame on an image | video. In this example, when the moving body 1010 is far from the warning start distance with respect to the detection area PA, the moving body frame HG is displayed in green. When the moving body 1010 approaches the warning start distance, the moving body frame HY is displayed in yellow, and the moving body 1010 is displayed in the detection area PA. If it enters the inside, the moving body frame HR is displayed in red to warn the user.

また、図11を参照してシーケンシャルなフィルタ設定でフィルタパッケージ(一例として3つのフィルタから形成)が構成されている場合について説明する。図11は、境界線を越えて(Passing)、検知エリアに入って(Appearance)、検知エリアから外に出た(Disappearance)場合で、そのシーケンシャルなフィルタ設定の各々に動体がかかった場合のアラーム状態表示例を示す図である。   A case where a filter package (formed from three filters as an example) is configured with sequential filter setting will be described with reference to FIG. Fig. 11 shows an alarm when a moving object is applied to each of the sequential filter settings when passing the boundary line (Passing), entering the detection area (Appearance), and exiting the detection area (Disappearance). It is a figure which shows the example of a state display.

図11において、まず管理クライアント3の動体アラーム状態判断部8が起動する。次に、動体アラーム状態判断部8がメタデータフィルタ部38及びフィルタパッケージ部33からフィルタに設定されている所定の座標とシーケンシャル情報(組み合わせ情報、組み合わせ間隔など)、動体1010の座標、動体1010のフィルタに対する状態を取得する。続いて、動体アラーム状態判断部8が、動体1010のフィルタの境界線LNや検知エリアPA等に対する状態に応じて、動体1010に付属で表示するための遷移識別番号を判断する。表示部6は、動体アラーム状態判断部8からその動体1010の遷移識別番号と個々のフィルタの種類を取得して、動体枠内(もしくは外)にその番号とフィルタの種類を表示する。   In FIG. 11, first, the moving body alarm state determination unit 8 of the management client 3 is activated. Next, the moving object alarm state determination unit 8 sets predetermined coordinates and sequential information (combination information, combination interval, etc.) set to the filter from the metadata filter unit 38 and the filter package unit 33, the coordinates of the moving object 1010, the moving object 1010 Get the status for the filter. Subsequently, the moving object alarm state determination unit 8 determines a transition identification number to be displayed attached to the moving object 1010 according to the state of the moving object 1010 with respect to the filter boundary line LN, the detection area PA, and the like. The display unit 6 acquires the transition identification number of the moving object 1010 and the type of each filter from the moving object alarm state determination unit 8, and displays the number and the type of filter in (or outside) the moving object frame.

この例では、動体1010が境界線LNを横切ったとき遷移識別番号「1」とともにフィルタの種類「Passing」を表示する。ここでは動体枠HGは緑色である。そして、検知エリアPAに動体1010が浸入したこと検知すると、遷移識別番号「2」とともにフィルタの種類「Appearance」を表示する。動体枠HGは緑色で表示される。その後、動体1010が検知エリアPAから外に出たことを検知した場合には、遷移識別番号「3」とともにフィルタの種類「Disappearance」を表示する。このときの動体枠HRは赤色で表示する。すなわち設定された順番どおりに各フィルタが動体1010を検知したので、最後にパッケージとして1つのアラームを発生している。図11の例では、シーケンシャルな3つのフィルタにカウントされたことを表示している。   In this example, when the moving object 1010 crosses the boundary line LN, the filter type “Passing” is displayed together with the transition identification number “1”. Here, the moving body frame HG is green. When it is detected that the moving body 1010 has entered the detection area PA, the filter type “Appearance” is displayed together with the transition identification number “2”. The moving body frame HG is displayed in green. Thereafter, when it is detected that the moving body 1010 has left the detection area PA, the filter type “Disappearance” is displayed together with the transition identification number “3”. The moving body frame HR at this time is displayed in red. That is, since each filter detected the moving body 1010 in the set order, one alarm is finally generated as a package. In the example of FIG. 11, it is displayed that it has been counted by three sequential filters.

さらに、図12を参照して検知エリア内で複数の動体が存在する場合に、うろうろ検知(Loiteringイベント)を実施した場合のアラーム状態表示例を説明する。この例では、検知期間の閾値を例えば60秒に設定した例としている。   Furthermore, with reference to FIG. 12, an example of alarm state display in the case where the waving detection (Loitering event) is performed when a plurality of moving objects exist in the detection area will be described. In this example, the detection period threshold is set to 60 seconds, for example.

図12において、まず管理クライアント3の動体アラーム状態判断部8が起動する。次に、動体アラーム状態判断部8がメタデータフィルタ部38からフィルタに設定されている検知エリアPAと各動体1011〜1014の座標、並びにうろうろ検知の検知期間の閾値を取得する。続いて、動体アラーム状態判断部8が、検知エリアPAに動体1010があるか、あればその動体の滞留時間は何秒であるか判定する。表示部6は、動体アラーム状態判断部8からその動体1010の動体枠内(もしくは外)にその滞留時間を表示する。   In FIG. 12, first, the moving object alarm state determination unit 8 of the management client 3 is activated. Next, the moving object alarm state determination unit 8 acquires from the metadata filter unit 38 the detection area PA set in the filter, the coordinates of each of the moving objects 1011 to 1014, and the threshold value for the detection period of the scale detection. Subsequently, the moving body alarm state determination unit 8 determines whether there is a moving body 1010 in the detection area PA, and if so, how long the staying time of the moving body is. The display unit 6 displays the dwell time from the moving object alarm state determination unit 8 within (or outside) the moving object frame of the moving object 1010.

この例では、動体1011〜1013は滞留時間がそれぞれ10秒,25秒,30秒であり、検知期間の閾値60秒まで時間があるので緑色の動体枠HGで表示する。そして、50秒滞留している動体1014は、滞留期間の閾値60秒に近づいてきたので黄色の動体枠HYで表示する。さらに滞留時間が65秒となり閾値60秒を超えてしまった動体10105についてはその動体枠HRを赤色で表示してユーザに警告する。   In this example, the moving bodies 1011 to 1013 have a residence time of 10 seconds, 25 seconds, and 30 seconds, respectively, and have a detection period threshold value of 60 seconds, so they are displayed in a green moving body frame HG. The moving body 1014 staying for 50 seconds has approached the staying period threshold value of 60 seconds and is displayed in a yellow moving body frame HY. Further, for a moving body 10105 whose residence time is 65 seconds and exceeds the threshold value of 60 seconds, the moving body frame HR is displayed in red to warn the user.

そしてさらに、図13を参照して動体のアラーム状態表示例(履歴表示)について説明する。図13において、検知エリアPAに動体1010が浸入して状態を表しているが、このとき通算の浸入回数、例えば3回であれば「3」を動体枠HRの所定部位に記載する。このようにすることで、ユーザは過去に遡って動体1010の状態を知ることができる。   Further, an alarm state display example (history display) of a moving object will be described with reference to FIG. In FIG. 13, the moving body 1010 enters the detection area PA and shows the state. At this time, the total number of intrusions, for example, “3” is described in a predetermined part of the moving body frame HR. By doing in this way, the user can know the state of the moving object 1010 retroactively.

なお、表示部6で表示される表示パターンとしては、上述した例の他に下記のようなものが考えられる。例えば、
・動体の近傍にアイコンを表示する
・動体の近傍にアニメーションアイコンを表示する
・動体体の線種を変更する
・動体枠を破線にし、線に動きをつけてアニメーション表示する
・動体枠を点滅させる
・動体枠の線の太さを変更する
・動体枠とその内部を点滅させる
などが考えられる。
In addition to the examples described above, the following can be considered as display patterns displayed on the display unit 6. For example,
-Display an icon near the moving object-Display an animated icon near the moving object-Change the line type of the moving object-Change the moving object frame to a broken line and add animation to the moving line-Flash the moving object frame・ Change the line thickness of the moving object frame. ・ The moving object frame and its inside may blink.

以上のように構成された本発明により、フィルタの設定とフィルタコンビネーション(シーケンシャル、パラレル)の設定に応じて、フィルタに対する動体の現在の状態を表現することができるようになる。それにより、アラームが発生する事前に複数の動体の中からアラームとなると予測される動体を判別することができるようになる。また、フィルタコンビネーションでシーケンシャルに複数のフィルタを設定した場合に、動体が現在フィルタ条件をいくつオーバーしているかなど、アラームの状態遷移を一目で判断することができるようになるので、監視システムの利用者がその動体に対して警告音を発するなど先手を打ってアラームの予防をすることができるようになる。   According to the present invention configured as described above, the current state of the moving object with respect to the filter can be expressed in accordance with the setting of the filter and the setting of the filter combination (sequential or parallel). Accordingly, it is possible to determine a moving object that is predicted to be an alarm from a plurality of moving objects before an alarm is generated. In addition, when multiple filters are set sequentially with a filter combination, it is possible to determine at a glance the alarm state transitions such as how many moving objects currently exceed the filter conditions. It is possible to prevent an alarm by making a first move, such as a warning sound for the moving object.

また、数字、文字のみによらないアラームとすることで、アラームを読んで理解する必要がなく迅速にアラーム内容を視認することができる。   In addition, by using alarms that do not depend only on numbers and letters, it is not necessary to read and understand the alarms, and the contents of the alarms can be quickly viewed.

上述した実施形態例における一連の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。   The series of processes in the above-described exemplary embodiment can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing programs that make up the software into a computer built into dedicated hardware, or by installing various programs. For example, a general-purpose personal computer or the like installs and executes a program constituting desired software.

また、上述した実施形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPU等の制御装置)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   In addition, a recording medium recording software program codes for realizing the functions of the above-described exemplary embodiments is supplied to a system or apparatus, and a computer (or a control device such as a CPU) of the system or apparatus is stored in the recording medium. Needless to say, this can also be achieved by reading and executing the program code.

この場合のプログラムコードを供給するための記録媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a recording medium for supplying the program code in this case, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do.

また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施形態例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上述した実施形態例の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described exemplary embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs actual processing. In some cases, the functions of the above-described exemplary embodiments are realized by performing part or all of the above.

また、本明細書において、ソフトウェアを構成するプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in this specification, the step of describing the program constituting the software is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

さらに、本発明は上述した実施形態例に限られるものではなく、本発明の要旨を逸脱することなくその他種々の構成を取り得ることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various other configurations can be taken without departing from the gist of the present invention.

本発明の一実施形態に係る監視システムの構成例を示す図である。It is a figure which shows the structural example of the monitoring system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る管理クライアントの内部構成例を示す図である。It is a figure which shows the example of an internal structure of the management client which concerns on one Embodiment of this invention. 本発明の一実施形態に係るフィルタパッケージ部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the filter package part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るアラーム情報解析部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the alarm information analysis part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るスケジュール設定部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the schedule setting part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るアクション設定部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the action setting part which concerns on one Embodiment of this invention. 本発明の一実施形態に係る、メタデータにパッケージフィルタを適用した場合の処理例を示すフローチャートチャートである。It is a flowchart chart which shows the process example at the time of applying a package filter to metadata based on one Embodiment of this invention. 本発明の一実施形態に係る映像データとメタデータの表示例である。4 is a display example of video data and metadata according to an embodiment of the present invention. 本発明の一実施形態に係るフィルタパッケージの概念を説明する図である。It is a figure explaining the concept of the filter package which concerns on one Embodiment of this invention. 検知エリアに動体が近づいた場合のアラーム状態表示例を示す図である。It is a figure which shows the example of an alarm state display when a moving body approaches the detection area. シーケンシャルに設定された複数のフィルタの各々に動体がかかった場合のアラーム状態表示例を示す図である。It is a figure which shows the example of an alarm state display when a moving body has applied to each of the several filter set sequentially. 検知エリア内で複数の動体がいる場合のアラーム状態表示例を示す図である。It is a figure which shows the example of an alarm state display in case a some moving body exists in a detection area. 動体のアラーム状態表示例(履歴表示)を示す図である。It is a figure which shows the alarm state display example (history display) of a moving body.

符号の説明Explanation of symbols

1a,1b…メタデータ生成カメラ、2…ネットワーク、3…管理クライアント、11…管理サーバ、12…閲覧クライアント、5…解析処理部、6…表示部、7…メタデータレコーディングシステム、8…動体アラーム状態判断部、33…フィルタパッケージ部、38…メタデータフィルタ部、39…映像データ再生部、40…メタデータ再生部、53…パッケージ設定データベース、54…解析ルール設定データベース、55…フィルタ設定データベース、100…監視システム、1001…映像データ、1002…メタデータ、1003…フィルタ設定表示画面、1004…監視映像、H1,H2,H3…動体枠、LN…境界線、MB1,MB2,MB3…動体、PA…検知領域   DESCRIPTION OF SYMBOLS 1a, 1b ... Metadata production | generation camera, 2 ... Network, 3 ... Management client, 11 ... Management server, 12 ... Viewing client, 5 ... Analysis processing part, 6 ... Display part, 7 ... Metadata recording system, 8 ... Moving body alarm State determination unit 33... Filter package unit 38 38 Metadata filter unit 39 Video data reproduction unit 40 Metadata reproduction unit 53 Package setting database 54 Analysis rule setting database 55 Filter setting database DESCRIPTION OF SYMBOLS 100 ... Surveillance system, 1001 ... Video data, 1002 ... Metadata, 1003 ... Filter setting display screen, 1004 ... Surveillance video, H1, H2, H3 ... Moving body frame, LN ... Borderline, MB1, MB2, MB3 ... Moving body, PA ... Detection area

Claims (6)

監視カメラから映像データを取得する映像データ取得部と、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得部と、
フィルタ設定を蓄積したフィルタ設定蓄積部と、
前記フィルタ設定蓄積部に蓄積されているフィルタ設定を用いて前記メタデータのフィルタ処理を行うメタデータフィルタ部と、
前記メタデータフィルタ部から前記フィルタの検知エリアの座標と前記映像データ上の動体の座標を取得するとともに、前記フィルタ設定蓄積部に設定されているフィルタ警告開始距離を取得し、前記動体と前記検知エリアとの距離に応じたアラーム情報を生成する動体アラーム状態判断部と、
前記動体アラーム状態判断部のアラーム情報に基づいて監視結果の出力を行う出力部と
を有することを特徴とする監視装置。
A video data acquisition unit for acquiring video data from the surveillance camera;
A metadata acquisition unit for acquiring metadata indicating information related to a monitoring target from the monitoring camera;
A filter setting storage unit that stores the filter settings;
A metadata filter unit that performs filtering of the metadata using the filter settings stored in the filter setting storage unit;
The coordinates of the detection area of the filter and the coordinates of the moving object on the video data are acquired from the metadata filter unit, the filter warning start distance set in the filter setting storage unit is acquired, and the moving object and the detection are acquired. A moving object alarm state determination unit that generates alarm information according to the distance to the area;
An output unit that outputs a monitoring result based on alarm information of the moving object alarm state determination unit.
前記アラーム情報は、前記動体と前記検知エリアとの距離に応じた前記動体に係る表示パターンの変化を示す情報である
ことを特徴とする請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, wherein the alarm information is information indicating a change in a display pattern related to the moving object according to a distance between the moving object and the detection area.
前記アラーム情報は、前記動体が前記検知エリア内に滞留している時間に応じた前記動体に係る表示パターンの変化を示す情報である
ことを特徴とする請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, wherein the alarm information is information indicating a change in a display pattern related to the moving object according to a time during which the moving object stays in the detection area.
複数のフィルタ設定の組み合わせ情報を蓄積したフィルタパッケージ設定蓄積部と、
前記フィルタ設定蓄積部に蓄積されているフィルタ設定と前記フィルタパッケージ設定蓄積部に蓄積されている組み合わせ設定を用いて前記メタデータのフィルタ処理を行うフィルタパッケージ部とを備え、
前記動体アラーム状態判断部は、前記フィルタパッケージ設定蓄積部に蓄積された組み合わせ情報に基づいて、前記複数のフィルタ設定毎に前記動体と前記検知エリアとの距離に応じたアラーム情報を生成する
ことを特徴とする請求項1に記載の監視装置。
A filter package setting storage unit that stores combination information of a plurality of filter settings;
A filter package unit that performs filter processing of the metadata using a filter setting stored in the filter setting storage unit and a combination setting stored in the filter package setting storage unit;
The moving object alarm state determination unit generates alarm information according to the distance between the moving object and the detection area for each of the plurality of filter settings based on the combination information stored in the filter package setting storage unit. The monitoring device according to claim 1, characterized in that:
監視映像の映像データと監視対象に関する情報を示したメタデータを生成する監視カメラと監視装置を用いて構成される監視システムにおいて、
前記監視装置は、
監視カメラから映像データを取得する映像データ取得部と、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得部と、
フィルタ設定を蓄積したフィルタ設定蓄積部と、
前記フィルタ設定蓄積部に蓄積されているフィルタ設定を用いて前記メタデータのフィルタ処理を行うメタデータフィルタ部と、
前記メタデータフィルタ設定蓄積部から前記フィルタの検知エリアの座標と前記映像データ上の動体の座標を取得するとともに、前記フィルタ設定蓄積部に設定されているフィルタ警告開始距離を取得し、前記動体と前記検知エリアとの距離に応じたアラーム情報を生成する動体アラーム状態判断部と、
前記動体アラーム状態判断部のアラーム情報に基づいて監視結果の出力を行う出力部と
を有することを特徴とする監視システム。
In a monitoring system configured using a monitoring camera and a monitoring device that generate video data of monitoring video and metadata indicating information on a monitoring target,
The monitoring device
A video data acquisition unit for acquiring video data from the surveillance camera;
A metadata acquisition unit for acquiring metadata indicating information related to a monitoring target from the monitoring camera;
A filter setting storage unit that stores the filter settings;
A metadata filter unit that performs filtering of the metadata using the filter settings stored in the filter setting storage unit;
The coordinates of the detection area of the filter and the coordinates of the moving object on the video data are acquired from the metadata filter setting storage unit, the filter warning start distance set in the filter setting storage unit is acquired, and the moving object A moving object alarm state determination unit that generates alarm information according to the distance from the detection area;
An output unit that outputs a monitoring result based on alarm information of the moving object alarm state determination unit.
監視カメラから映像データを取得するステップと、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するステップと、
フィルタ設定蓄積部に蓄積されているフィルタ設定を用いてメタデータフィルタ部が前記メタデータのフィルタ処理を行うステップと、
前記メタデータフィルタ部から前記フィルタの検知エリアの座標と前記映像データ上の動体の座標を取得するとともに、前記フィルタ設定蓄積部に設定されているフィルタ警告開始距離を取得するステップと、
前記動体と前記検知エリアとの距離に応じたアラーム情報を生成するステップと、
前記生成されたアラーム情報に基づいて監視結果の出力を行うステップと
を有することを特徴とする監視方法。
Obtaining video data from a surveillance camera;
Obtaining metadata indicating information related to a monitoring target from the monitoring camera;
The metadata filter unit using the filter settings stored in the filter setting storage unit to filter the metadata;
Obtaining the coordinates of the detection area of the filter and the coordinates of the moving object on the video data from the metadata filter unit, and obtaining the filter warning start distance set in the filter setting storage unit;
Generating alarm information according to the distance between the moving object and the detection area;
And a step of outputting a monitoring result based on the generated alarm information.
JP2006182823A 2006-06-30 2006-06-30 Monitoring device, monitoring system, and monitoring method Expired - Fee Related JP4872490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006182823A JP4872490B2 (en) 2006-06-30 2006-06-30 Monitoring device, monitoring system, and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006182823A JP4872490B2 (en) 2006-06-30 2006-06-30 Monitoring device, monitoring system, and monitoring method

Publications (2)

Publication Number Publication Date
JP2008016897A true JP2008016897A (en) 2008-01-24
JP4872490B2 JP4872490B2 (en) 2012-02-08

Family

ID=39073549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006182823A Expired - Fee Related JP4872490B2 (en) 2006-06-30 2006-06-30 Monitoring device, monitoring system, and monitoring method

Country Status (1)

Country Link
JP (1) JP4872490B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521831A (en) * 2007-02-16 2010-06-24 パナソニック株式会社 Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy protection and power lens data mining
JP2011176736A (en) * 2010-02-25 2011-09-08 Toshiba Corp Monitoring apparatus
JP2016163075A (en) * 2015-02-26 2016-09-05 キヤノン株式会社 Video processing device, video processing method, and program
JP2017152805A (en) * 2016-02-22 2017-08-31 株式会社キーエンス Safety scanner
JP2018067837A (en) * 2016-10-20 2018-04-26 株式会社日立国際電気 Image monitoring system
JP2018085597A (en) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 Person behavior monitoring device and person behavior monitoring system
JP2020074506A (en) * 2019-09-19 2020-05-14 パナソニックIpマネジメント株式会社 Person behavior monitoring apparatus and person behavior monitoring system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330415A (en) * 1996-06-10 1997-12-22 Hitachi Ltd Picture monitoring method and system therefor
JPH11187384A (en) * 1997-12-22 1999-07-09 Amenitekkusu:Kk Locus sensor
JP2003134435A (en) * 2001-10-30 2003-05-09 Matsushita Electric Ind Co Ltd Transmitting method and receiving method for video data and video monitor system
JP2003162776A (en) * 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology Device for marking space
JP2004247844A (en) * 2003-02-12 2004-09-02 Mitsubishi Electric Corp Metadata selection processing method, metadata selection/integration processing method, metadata selection/integration processing program, image reproduction method, contents purchasing processing method and server, as well as contents distribution server

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330415A (en) * 1996-06-10 1997-12-22 Hitachi Ltd Picture monitoring method and system therefor
JPH11187384A (en) * 1997-12-22 1999-07-09 Amenitekkusu:Kk Locus sensor
JP2003134435A (en) * 2001-10-30 2003-05-09 Matsushita Electric Ind Co Ltd Transmitting method and receiving method for video data and video monitor system
JP2003162776A (en) * 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology Device for marking space
JP2004247844A (en) * 2003-02-12 2004-09-02 Mitsubishi Electric Corp Metadata selection processing method, metadata selection/integration processing method, metadata selection/integration processing program, image reproduction method, contents purchasing processing method and server, as well as contents distribution server

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521831A (en) * 2007-02-16 2010-06-24 パナソニック株式会社 Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy protection and power lens data mining
JP2011176736A (en) * 2010-02-25 2011-09-08 Toshiba Corp Monitoring apparatus
JP2016163075A (en) * 2015-02-26 2016-09-05 キヤノン株式会社 Video processing device, video processing method, and program
US10474918B2 (en) 2015-02-26 2019-11-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2017152805A (en) * 2016-02-22 2017-08-31 株式会社キーエンス Safety scanner
JP2018067837A (en) * 2016-10-20 2018-04-26 株式会社日立国際電気 Image monitoring system
JP2018085597A (en) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 Person behavior monitoring device and person behavior monitoring system
WO2018096787A1 (en) * 2016-11-22 2018-05-31 パナソニックIpマネジメント株式会社 Person's behavior monitoring device and person's behavior monitoring system
US10949657B2 (en) 2016-11-22 2021-03-16 Panasonic Intellectual Property Management Co., Ltd. Person's behavior monitoring device and person's behavior monitoring system
JP2020074506A (en) * 2019-09-19 2020-05-14 パナソニックIpマネジメント株式会社 Person behavior monitoring apparatus and person behavior monitoring system

Also Published As

Publication number Publication date
JP4872490B2 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
JP4201025B2 (en) Monitoring device, monitoring system, filter setting method, and monitoring program
JP4872490B2 (en) Monitoring device, monitoring system, and monitoring method
JP4099973B2 (en) Video data transmission method, video data reception method, and video surveillance system
JP4618166B2 (en) Image processing apparatus, image processing method, and program
US9406342B2 (en) Imaging apparatus and method of providing imaging information
JP2007243699A (en) Method and apparatus for video recording and playback
JP5195156B2 (en) Monitoring device, monitoring system, and filter setting method
JP5228290B2 (en) Monitoring system, monitoring apparatus and monitoring method
JP2011090476A (en) System and method for retrieving similar image
EP3599607A1 (en) System and method allowing simultaneous viewing of live and recorded video content
JP4678043B2 (en) Image storage device, monitoring system, storage medium
JP5008484B2 (en) Video processing method
JP2008016899A (en) Monitoring system, monitoring apparatus, search method and search program
JP2013058063A (en) Image processing apparatus, method and program, and monitoring system
JP6980379B2 (en) Information processing equipment, information processing methods and programs
JP2002344897A (en) Video display device
JP6559759B2 (en) Monitoring device and monitoring system
JP2006129519A (en) Image storing device, monitoring system and storage medium
JP2022112917A (en) Monitoring camera and learning model setting support system
JP2004236211A (en) Image processing system
KR100472546B1 (en) Recording system and controlling method for security
KR20220003779A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP6738213B2 (en) Information processing apparatus and information processing method
JP2020198037A (en) Control device
JP2010093323A (en) Monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees