JP2008283726A - Monitoring apparatus, monitoring system and filter setting method - Google Patents

Monitoring apparatus, monitoring system and filter setting method Download PDF

Info

Publication number
JP2008283726A
JP2008283726A JP2008215767A JP2008215767A JP2008283726A JP 2008283726 A JP2008283726 A JP 2008283726A JP 2008215767 A JP2008215767 A JP 2008215767A JP 2008215767 A JP2008215767 A JP 2008215767A JP 2008283726 A JP2008283726 A JP 2008283726A
Authority
JP
Japan
Prior art keywords
setting
filter
unit
metadata
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008215767A
Other languages
Japanese (ja)
Other versions
JP2008283726A5 (en
JP5195156B2 (en
Inventor
Masafumi Suzuki
雅史 鈴木
Kazumasa Tsukuda
和真 佃
Shin Yanai
紳 柳井
Isao Ohara
功 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008215767A priority Critical patent/JP5195156B2/en
Publication of JP2008283726A publication Critical patent/JP2008283726A/en
Publication of JP2008283726A5 publication Critical patent/JP2008283726A5/ja
Application granted granted Critical
Publication of JP5195156B2 publication Critical patent/JP5195156B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To easily and correctly perform a broad range of setups. <P>SOLUTION: The monitoring apparatus is provided with: a video data acquiring section for acquiring video data from a monitoring camera; a meta-data acquiring section for acquiring meta-data indicating information on a monitoring target from the monitoring camera; a display unit for displaying a setup screen on which a plurality of filters can be set; filter setting sections C3-1 to C3-3 for configuring filters using meta-data information; and a combination setting section C1 for setting combinations of the filters. In this apparatus, the filter setting sections C3-1 to C3-3 and the combination setting section C1 are provided on the same setup screen. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、監視カメラから映像データとその映像データに関するデータ(メタデータ)を取得して、このメタデータのフィルタ処理を行い、フィルタ処理により得られたフィルタ処理結果に基づいて監視結果の出力を行う監視装置、監視システム及びその監視装置におけるフィルタ設定方法に関する。   The present invention acquires video data and data (metadata) related to the video data from the surveillance camera, performs a filtering process on the metadata, and outputs a monitoring result based on the filtering process result obtained by the filtering process. The present invention relates to a monitoring apparatus, a monitoring system, and a filter setting method in the monitoring apparatus.

従来、監視カメラと制御装置とをネットワークを介して接続した監視システムが用いられている。このような監視システムにおいて、監視カメラは、撮影した映像データを、ネットワークを介して制御装置に送信する。制御装置は、受信した映像データを記録するとともに、映像データを解析することで異常の発生を検出し、アラームを出力する。監視員は、モニタに表示される監視映像及び制御装置が出力したアラームの内容を確認しながら監視を行うことができる。   Conventionally, a monitoring system in which a monitoring camera and a control device are connected via a network has been used. In such a monitoring system, the monitoring camera transmits captured video data to the control device via the network. The control device records the received video data, detects the occurrence of abnormality by analyzing the video data, and outputs an alarm. The monitor can perform monitoring while confirming the monitoring video displayed on the monitor and the content of the alarm output from the control device.

また近年の監視カメラは、制御装置に撮影した映像データを送信するだけでなく、撮影した映像データに関するメタデータ(例えば、アラーム情報や温度情報、カメラの画角情報)を生成して、制御装置にメタデータを送信する機能を有している。このような監視カメラを用いた監視システムにおいて、制御装置は、監視カメラから供給されたメタデータを、アラームを出力する特定の条件を設定したメタデータフィルタに通し、条件に合致した場合にアラームを出力する。メタデータフィルタには、例えばある場所への不審物の侵入や、ある境界線を通過する動体(オブジェクト)などを異常として検出するための条件が設定されている。   Moreover, recent surveillance cameras not only transmit captured video data to a control device, but also generate metadata (eg, alarm information, temperature information, camera angle-of-view information) regarding the captured video data, and control devices Has a function of transmitting metadata. In such a monitoring system using a monitoring camera, the control device passes the metadata supplied from the monitoring camera through a metadata filter in which a specific condition for outputting an alarm is set, and if the condition is met, an alarm is generated. Output. In the metadata filter, for example, conditions for detecting an intrusion of a suspicious object at a certain place or a moving object (object) passing through a certain boundary line as an abnormality are set.

特許文献1には、ネットワークを介して監視端末(監視カメラ)から監視装置に監視映像の映像データを供給し、異常発生時の監視映像の確認等を監視装置で行う技術が記載されている。   Patent Document 1 describes a technique in which video data of a monitoring video is supplied from a monitoring terminal (monitoring camera) to a monitoring device via a network, and the monitoring video is confirmed by the monitoring device when an abnormality occurs.

特開2003−274390号公報JP 2003-274390 A

ところで、メタデータを生成する監視カメラと、メタデータフィルタにより異常を検出し、アラームを発生する制御装置とを組み合わせた監視システムにおいて、メタデータの情報を用いて複数のメタデータフィルタが連続して評価されるように組み合わせて設定する場合に、1つ1つのメタデータフィルタを別々に作成した後、別の画面でそれらを組み合わせた設定を作成する必要があった。   By the way, in a monitoring system that combines a monitoring camera that generates metadata and a control device that detects an abnormality by generating a metadata filter and generates an alarm, a plurality of metadata filters are successively used using metadata information. When combining and setting so as to be evaluated, it is necessary to create a setting for combining each metadata filter on a separate screen after creating each metadata filter separately.

またメタデータフィルタの効果を確認したり、メタデータフィルタの設定を修正したりするのに手間は時間が掛かっていた。   In addition, it takes time to confirm the effect of the metadata filter and to correct the setting of the metadata filter.

さらに、メタデータフィルタの詳細設定を数値入力する必要があった。オブジェクトのサイズや移動速度を適切に指定することが難しかった。   In addition, it was necessary to enter numerical values for the detailed settings of the metadata filter. It was difficult to properly specify the size and moving speed of the object.

本発明は斯かる点に鑑みてなされたものであり、多様な設定を容易にかつ正確に行うことができるようにすることを目的とする。   The present invention has been made in view of such a point, and an object thereof is to allow various settings to be easily and accurately performed.

上記課題を解決するため、本発明は、監視カメラから映像データを取得する映像データ取得部と、監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得部と、複数のフィルタの設定を行える設定画面を表示する表示部と、メタデータ情報を用いたフィルタの設定を行うフィルタ設定部と、複数のフィルタの組み合わせを設定する組み合わせ設定部とを備えた監視装置において、同一の設定画面にフィルタ設定部と組み合わせ設定部を設けて構成したことを特徴とする。 In order to solve the above problems, the present invention provides a video data acquisition unit that acquires video data from a monitoring camera, a metadata acquisition unit that acquires metadata indicating information related to a monitoring target from the monitoring camera, and a plurality of filter settings. The same setting screen in a monitoring apparatus including a display unit that displays a setting screen that can be used, a filter setting unit that sets a filter using metadata information, and a combination setting unit that sets a combination of a plurality of filters It is characterized in that a filter setting unit and a combination setting unit are provided.

上述の構成によれば、1つの設定画面内にフィルタ設定部と組み合わせ設定部を設けたので、フィルタ設定処理と組み合わせ設定処理を1つの画面内で同時に行うことができ、設定作業の操作性及び作業効率が向上する。   According to the above configuration, since the filter setting unit and the combination setting unit are provided in one setting screen, the filter setting process and the combination setting process can be performed simultaneously in one screen, and the operability of the setting work and Work efficiency is improved.

また、本発明の一側面は、上記組み合わせ設定部は、表示部に表示された設定画面内に設けられた複数のフィルタの組み合わせ種類を切り替えるための切り替え部であることを特徴とする。
このとき切り替えられる複数のフィルタの組み合わせ種類の一例は、各々のフィルタの条件と監視カメラから取得したメタデータが合致するごとにアラームを出力するためのパラレルモードと、設定された順番どおりにフィルタの条件と監視カメラから取得したメタデータが合致するときに1つのアラームを出力するためのシーケンシャルモードである。
One aspect of the present invention is characterized in that the combination setting unit is a switching unit for switching a combination type of a plurality of filters provided in a setting screen displayed on the display unit.
An example of a combination of a plurality of filters that can be switched at this time is a parallel mode for outputting an alarm every time the conditions of each filter and the metadata acquired from the monitoring camera match, and the filters in the set order. This is a sequential mode for outputting one alarm when the condition matches the metadata acquired from the monitoring camera.

上記構成によれば、組み合わせ設定部を操作することにより1度の操作で組み合わせ種類、例えばパラレルモードとシーケンシャルモードを切り替えられる。   According to the above configuration, the combination type, for example, the parallel mode and the sequential mode can be switched by a single operation by operating the combination setting unit.

また、本発明の一側面は、上記フィルタ設定部は、設定画面の一部に設けられ、監視カメラから取得した映像データを表示した画面上に図形描画することでフィルタの設定を行うことを特徴とする。   According to another aspect of the present invention, the filter setting unit is provided in a part of a setting screen, and sets a filter by drawing a graphic on a screen displaying video data acquired from a surveillance camera. And

上記構成によれば、フィルタの詳細設定を数値の入力ではなく、実際に監視対象となる映像を確認しながらGUI(設定画面)上でオブジェクト(動体)等と比較しながら図形の描画を行うので、視覚的に設定が行える。   According to the above configuration, the detailed setting of the filter is not input of numerical values, but the graphic is drawn while comparing with the object (moving object) etc. on the GUI (setting screen) while actually checking the video to be monitored. , Can be set visually.

本発明によれば、多様な設定を容易にかつ正確に行うことができるという効果がある。   According to the present invention, there is an effect that various settings can be easily and accurately performed.

以下、本発明を実施するための最良の形態について、添付図面を参照しながら説明する。以下に説明する実施形態は、撮影対象物を撮影した映像データとともにメタデータを生成する監視カメラ(メタデータ生成カメラ)から得られたメタデータを解析して、異常を検出し、アラームを出力する監視システムに適用した例としている。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings. The embodiment described below analyzes metadata obtained from a monitoring camera (metadata generating camera) that generates metadata together with video data obtained by photographing an object to be detected, detects an abnormality, and outputs an alarm. The example is applied to a monitoring system.

図1は、本発明の一実施形態例における監視システムの接続構成を示した図である。図1Aは、管理クライアントがメタデータ生成カメラから出力されたデータをネットワークを介して取得するシステムであり、図1Bは、メタデータ生成カメラから出力されたデータを管理サーバが取得し、閲覧クライアントに供給するシステム(サーバ/クライアントシステム)である。   FIG. 1 is a diagram showing a connection configuration of a monitoring system according to an embodiment of the present invention. FIG. 1A is a system in which the management client acquires data output from the metadata generation camera via a network, and FIG. 1B is a system in which the management server acquires data output from the metadata generation camera and sends it to the browsing client. This is a system to supply (server / client system).

まず図1Aに示した監視システム100について説明する。図1に示すように、監視システム100は、1台、もしくは複数台のメタデータ生成カメラを管理する。この例では2台としている。監視システム100は、監視対象物を撮影し、映像データを生成するとともに映像データからメタデータを生成するメタデータ生成カメラ1a,1bと、取得した映像データとメタデータを解析し、保存するとともに異常を検出するとアラームを出力する管理クライアント3と、メタデータ生成カメラ1a,1bと管理クライアント3とを接続するネットワーク2とで構成される。管理クライアント3が、ネットワーク2を介してメタデータ生成カメラ1a,1bから取得したメタデータは、メタデータフィルタ(以下、「フィルタ」とも称する。)を介して解析される。   First, the monitoring system 100 shown in FIG. 1A will be described. As shown in FIG. 1, the monitoring system 100 manages one or a plurality of metadata generation cameras. In this example, the number is two. The monitoring system 100 shoots an object to be monitored, generates video data, and generates metadata from the video data, and analyzes and stores the acquired video data and metadata. The management client 3 is configured to output an alarm upon detection of an error, and the network 2 that connects the metadata generation cameras 1a and 1b to the management client 3. The metadata acquired by the management client 3 from the metadata generation cameras 1a and 1b via the network 2 is analyzed via a metadata filter (hereinafter also referred to as “filter”).

なお、メタデータ生成カメラ、管理クライアント、管理サーバ及び閲覧クライアントの台数はこの例に限られないことは勿論である。   Of course, the number of metadata generation cameras, management clients, management servers, and browsing clients is not limited to this example.

管理クライアント3は、一つもしくは複数のフィルタを組み合わせて構成されるフィルタパッケージ(以下、「パッケージ」とも称する。)を定義している。この管理クライアント3は、フィルタパッケージにメタデータを通すことで、フィルタパッケージに定義されているフィルタ群の条件を満たす動体数や動体位置などからアラーム情報に変換する。そして、管理クライアント3は、データを解析する解析処理部に変換したアラーム情報を供給して、アラーム情報の解析を行う。アラーム情報の解析結果は、ディスプレイモニタからなる表示部に表示する。そして、管理クライアント3は、メタデータ生成カメラ1a,1bのそれぞれに対して、アラーム情報の解析結果に基づくカメラ動作(ズーム倍率を変える、ブザーを鳴らす等)を自動的に指示する。このように、管理クライアント3は、自動的に、もしくは使用者が手動で設定したとおりに、それぞれのメタデータ生成カメラ1a,1bの最適なカメラ動作を制御する。なお、フィルタパッケージ及び解析処理部については後に詳述する。   The management client 3 defines a filter package (hereinafter also referred to as “package”) configured by combining one or a plurality of filters. The management client 3 converts the alarm information from the number of moving objects and moving object conditions that satisfy the conditions of the filter group defined in the filter package by passing metadata through the filter package. Then, the management client 3 supplies the converted alarm information to an analysis processing unit that analyzes data, and analyzes the alarm information. The analysis result of the alarm information is displayed on a display unit including a display monitor. Then, the management client 3 automatically instructs each of the metadata generation cameras 1a and 1b to perform a camera operation (change zoom magnification, sound a buzzer, etc.) based on the analysis result of the alarm information. As described above, the management client 3 controls the optimum camera operation of the respective metadata generation cameras 1a and 1b automatically or as manually set by the user. The filter package and the analysis processing unit will be described in detail later.

ここで、映像データとメタデータの構成について説明する。映像データとメタデータは、それぞれデータ本体とリンク情報とで構成されている。データ本体は、映像データの場合、メタデータ生成カメラ1a,1bが撮影した監視映像の映像データである。またメタデータの場合、監視対象を示す情報等と、この情報の記述方式を定義した属性情報を記述したものである。一方、リンク情報とは、映像データとメタデータとの関連付けを示す関連付け情報と、この情報の内容の記述方式を定義した属性情報等を記述したものである。   Here, the configuration of video data and metadata will be described. Video data and metadata are each composed of a data body and link information. In the case of video data, the data body is video data of surveillance video captured by the metadata generation cameras 1a and 1b. In the case of metadata, information indicating a monitoring target and attribute information defining a description method of this information are described. On the other hand, the link information describes association information indicating association between video data and metadata, attribute information defining a description method of the content of the information, and the like.

関連付け情報は、例えば映像データを特定するためのタイムスタンプやシーケンス番号を使用する。タイムスタンプは、映像データの生成時刻を与える情報(時刻情報)である。シーケンス番号は、コンテンツデータの生成順序を与える情報(順序情報)である。タイムスタンプの等しい監視映像が複数存在するような場合、タイムスタンプの等しい映像データの生成順序を識別することができる。また、関連付け情報には、映像データを生成する機器を特定するための情報(例えば製造会社名や機種名、製造番号等)を使用するものとしてもよい。   As the association information, for example, a time stamp or a sequence number for specifying video data is used. The time stamp is information (time information) that gives the generation time of the video data. The sequence number is information (order information) that gives the generation order of content data. When there are a plurality of monitoring videos having the same time stamp, the generation order of the video data having the same time stamp can be identified. Further, as the association information, information for specifying a device that generates video data (for example, a manufacturer name, model name, serial number, etc.) may be used.

ここで、リンク情報やメタデータ本体の記述は、ウェブ(WWW:World Wide Web)上で交換される情報を記述するために定義されたマークアップ言語を用いる。マークアップ言語を用いると、ネットワーク2を介した情報の交換を容易に行うことができる。さらに、マークアップ言語として、例えば文書や電子データの交換に利用されているXML(Extensible Markup Language)を用いることで、映像データとメタデータの交換も容易に行うことができる。XMLを用いるものとした場合、情報の記述方式を定義した属性情報は、例えばXMLスキーマを使用する。   Here, the description of the link information and the metadata main body uses a markup language defined for describing information exchanged on the Web (WWW: World Wide Web). If a markup language is used, information can be easily exchanged via the network 2. Furthermore, by using, for example, XML (Extensible Markup Language) used for exchanging documents and electronic data as a markup language, it is possible to easily exchange video data and metadata. When XML is used, the attribute information defining the information description method uses, for example, an XML schema.

メタデータ生成カメラ1a,1bで生成した映像データやメタデータは、1つのストリームとして管理クライアント3に供給するものとしてもよい。また、映像データとメタデータを別のストリームで非同期に管理クライアント3に供給するものとしてもよい。   Video data and metadata generated by the metadata generation cameras 1a and 1b may be supplied to the management client 3 as one stream. The video data and metadata may be supplied to the management client 3 asynchronously in separate streams.

なお、図1Bに示すように、サーバ機能とクライアント機能を分割して管理サーバ11と閲覧用クライアント12で構成された監視システムに適用しても上述した図1Aの例と同様の機能、効果を得ることができる。サーバ機能とクライアント機能を分割することで、処理性能が高い管理サーバ11で大量にデータを処理し、処理性能が低い閲覧クライアント12では専ら処理結果を閲覧するといった使い分けが可能となる。このように機能分散することでより柔軟性に富む監視システム100を構築できるという効果がある。   As shown in FIG. 1B, even if the server function and the client function are divided and applied to a monitoring system constituted by the management server 11 and the browsing client 12, the same functions and effects as those in the example of FIG. Obtainable. By dividing the server function and the client function, a large amount of data can be processed by the management server 11 having high processing performance, and the processing result can be exclusively viewed by the browsing client 12 having low processing performance. By distributing the functions in this way, there is an effect that the monitoring system 100 having more flexibility can be constructed.

次に、図1Aに示した管理クライアント3の詳細な構成を、図2の機能ブロック図を参照して説明する。ただし、管理クライアント3の各機能ブロックは、ハードウェアで構成するものとしてもよく、またソフトウェアで構成するものとしてもよい。   Next, the detailed configuration of the management client 3 shown in FIG. 1A will be described with reference to the functional block diagram of FIG. However, each functional block of the management client 3 may be configured by hardware or may be configured by software.

管理クライアント3は、メタデータと映像データを蓄積し、再生するメタデータレコーディングシステム7と、メタデータを解析処理する解析処理部5とで構成される。まず、メタデータレコーディングシステム7の構成例について説明する。メタデータレコーディングシステム7は、メタデータ生成カメラ1a,1bから映像データを取得する映像バッファ部42と、メタデータ生成カメラ1a,1bからメタデータを取得するメタデータバッファ部41と、フィルタ処理に応じたフィルタ設定を蓄積するフィルタ設定データベース55と、メタデータのフィルタ処理を行うメタデータフィルタ部38と、メタデータ生成カメラ1a,1bに設定変更を通知するルール切替部35と、映像データを蓄積する映像データ蓄積データベース56と、メタデータを蓄積するメタデータ蓄積データベース57と、映像データを再生する映像データ再生部39と、メタデータを再生するメタデータ再生部40と、メタデータと映像データとの再生を同期させる再生同期部36と映像データ等を表示する表示部とを備えている。   The management client 3 includes a metadata recording system 7 that stores and reproduces metadata and video data, and an analysis processing unit 5 that analyzes the metadata. First, a configuration example of the metadata recording system 7 will be described. The metadata recording system 7 includes a video buffer unit 42 that acquires video data from the metadata generation cameras 1a and 1b, a metadata buffer unit 41 that acquires metadata from the metadata generation cameras 1a and 1b, and a filtering process. A filter setting database 55 for storing filter settings, a metadata filter unit 38 for filtering metadata, a rule switching unit 35 for notifying the metadata generation cameras 1a and 1b of setting changes, and storing video data. A video data storage database 56, a metadata storage database 57 for storing metadata, a video data playback unit 39 for playing back video data, a metadata playback unit 40 for playing back metadata, and metadata and video data A playback synchronization unit 36 that synchronizes playback and video data, etc. And a Shimesuru display unit.

映像バッファ部42は、メタデータ生成カメラ1a,1bから映像データを取得し、符号化されている映像データの復号化処理を行う。そして、映像バッファ部42は、得られた映像データを映像バッファ部42に設けられている図示しないバッファに保持する。さらに、映像バッファ部42は、図示しないバッファに保持している映像データを順次、画像を表示する表示部6に供給する処理も行う。このように図示しないバッファに映像データを保持することで、メタデータ生成カメラ1a,1bからの映像データの受信タイミングに依らず、表示部6に対して順次映像データを供給できる。また、映像バッファ部42は、後述するルール切替部35から供給される録画要求信号に基づき、保持している映像データを映像データ蓄積データベース56に蓄積させる。なお、映像データ蓄積データベース56には、符号化されている映像データを蓄積して、後述する映像データ再生部39で復号化を行うものとしてもよい。   The video buffer unit 42 acquires video data from the metadata generation cameras 1a and 1b, and performs a decoding process on the encoded video data. The video buffer unit 42 holds the obtained video data in a buffer (not shown) provided in the video buffer unit 42. Furthermore, the video buffer unit 42 also performs a process of sequentially supplying video data held in a buffer (not shown) to the display unit 6 that displays an image. By holding the video data in a buffer (not shown) as described above, the video data can be sequentially supplied to the display unit 6 regardless of the reception timing of the video data from the metadata generation cameras 1a and 1b. In addition, the video buffer unit 42 stores the stored video data in the video data storage database 56 based on a recording request signal supplied from a rule switching unit 35 described later. The encoded video data may be stored in the video data storage database 56 and decoded by the video data reproduction unit 39 described later.

メタデータバッファ部41は、メタデータバッファ部41に設けられている図示しないバッファに、メタデータ生成カメラ1a,1bから取得したメタデータを保持する。また、メタデータバッファ部41は、保持しているメタデータを表示部6に順次供給する。また、図示しないバッファに保持しているメタデータを後述するメタデータフィルタ部38に供給する処理も行う。このように図示しないバッファにメタデータを保持することで、メタデータ生成カメラ1a,1bからのメタデータの受信タイミングに依らず、表示部6に対して順次メタデータを供給できる。また、映像データと同期させてメタデータを表示部6に供給できる。さらに、メタデータバッファ部41は、メタデータ生成カメラ1a,1bから取得したメタデータをメタデータ蓄積データベース57に蓄積させる。ここで、メタデータをメタデータ蓄積データベース57に蓄積する際に、メタデータと同期する映像データの時刻情報を付加しておく。このようにすることで、メタデータの内容を読み出して時刻を判別しなくとも、付加されている時刻情報を利用して、所望の時刻のメタデータをメタデータ蓄積データベース57から読み出すことが可能となる。   The metadata buffer unit 41 holds metadata acquired from the metadata generation cameras 1a and 1b in a buffer (not shown) provided in the metadata buffer unit 41. Further, the metadata buffer unit 41 sequentially supplies the held metadata to the display unit 6. Further, processing for supplying metadata held in a buffer (not shown) to a metadata filter unit 38 to be described later is also performed. By holding the metadata in a buffer (not shown) as described above, the metadata can be sequentially supplied to the display unit 6 regardless of the reception timing of the metadata from the metadata generation cameras 1a and 1b. Further, the metadata can be supplied to the display unit 6 in synchronization with the video data. Further, the metadata buffer unit 41 stores the metadata acquired from the metadata generation cameras 1 a and 1 b in the metadata storage database 57. Here, when storing metadata in the metadata storage database 57, time information of video data synchronized with the metadata is added. In this way, it is possible to read out metadata at a desired time from the metadata storage database 57 using the added time information without reading the contents of the metadata and determining the time. Become.

フィルタ設定データベース55は、後述するメタデータフィルタ部38で行うフィルタ処理に応じたフィルタ設定を蓄積するとともに、フィルタ設定をメタデータフィルタ部38に供給する。このフィルタ設定とは、アラーム等の出力やメタデータ生成カメラ1a,1bの撮像動作の切替を行う必要があるか否かの判断基準等を、メタデータに含まれている監視対象に関する情報ごとに示す設定である。このフィルタ設定を用いてメタデータのフィルタ処理を行うことで、監視対象に関する情報ごとにフィルタ処理結果で示すことができる。フィルタ処理結果には、アラーム等の出力を行う必要があることや、メタデータ生成カメラ1a,1bの撮像動作の切替が必要であることが示される。   The filter setting database 55 accumulates filter settings corresponding to filter processing performed by the metadata filter unit 38 described later, and supplies the filter settings to the metadata filter unit 38. This filter setting refers to, for each piece of information related to the monitoring target included in the metadata, the criteria for determining whether or not it is necessary to switch the output of the alarm or the like and the imaging operation of the metadata generation cameras 1a and 1b. It is a setting to show. By performing the metadata filtering process using this filter setting, it is possible to indicate the filtering process result for each piece of information related to the monitoring target. The filter processing result indicates that an alarm or the like needs to be output and that the imaging operation of the metadata generation cameras 1a and 1b needs to be switched.

メタデータフィルタ部38は、フィルタ設定データベース55に蓄積されているフィルタ設定を用いてメタデータのフィルタ処理を行い、アラームを発生させるかどうかを判断する。そして、メタデータフィルタ部38は、メタデータバッファ部41で取得したメタデータ、あるいはメタデータ蓄積データベース57から供給されたメタデータのフィルタ処理を行い、フィルタ処理結果をルール切替部35と後述するフィルタパッケージ部33に通知する。   The metadata filter unit 38 performs filtering processing of metadata using the filter settings stored in the filter setting database 55, and determines whether or not to generate an alarm. Then, the metadata filter unit 38 performs a filtering process on the metadata acquired by the metadata buffer unit 41 or the metadata supplied from the metadata accumulation database 57, and the filter processing result is compared with the rule switching unit 35 and a filter described later. The package unit 33 is notified.

ルール切替部35は、メタデータフィルタ部38から通知されたフィルタ処理結果に基づいて、設定変更信号を生成し、メタデータ生成カメラ1a,1bに設定変更を通知する。例えば、メタデータフィルタ部38から得られたフィルタ処理結果に基づき、監視に適した監視映像が得られるようにメタデータ生成カメラ1a,1bの動作を切り替える。また、ルール切替部35は、フィルタ処理結果に基づき、映像データ蓄積データベース56に録画要求信号を供給して、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。また、ルール切替部35は、映像データの蓄積モードを選択可能とする。蓄積モードには、例えば動的検索モードと最小限モードのいずれかを選択可能としている。   The rule switching unit 35 generates a setting change signal based on the filter processing result notified from the metadata filter unit 38, and notifies the metadata generation cameras 1a and 1b of the setting change. For example, on the basis of the filter processing result obtained from the metadata filter unit 38, the operations of the metadata generation cameras 1a and 1b are switched so that a monitoring video suitable for monitoring is obtained. In addition, the rule switching unit 35 supplies a recording request signal to the video data storage database 56 based on the filter processing result, and stores the video data acquired by the video buffer unit 42 in the video data storage database 56. In addition, the rule switching unit 35 can select a video data accumulation mode. As the accumulation mode, for example, either the dynamic search mode or the minimum mode can be selected.

動的検索モードがユーザによって選択されている場合、ルール切替部35は、フィルタ処理結果によって動体が検出されていることが示されたとき、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。動的検索モードが選択されたときは、動体が検出されているときの映像データが蓄積される。このため、後述する映像データ再生部39によって、蓄積されている映像データを再生して、再生された映像データと同期するメタデータに対して所望のフィルタ設定でフィルタ処理を行うものとすれば、このフィルタ設定を満たす映像データを検索できる。   When the dynamic search mode is selected by the user, the rule switching unit 35 displays the video data acquired by the video buffer unit 42 as a video data storage database when the filtering process result indicates that a moving object is detected. 56. When the dynamic search mode is selected, video data when a moving object is detected is accumulated. Therefore, if the stored video data is played back by the video data playback unit 39, which will be described later, and the metadata that is synchronized with the played back video data is filtered with a desired filter setting, Video data satisfying this filter setting can be searched.

最小限モードが選択されている場合、ルール切替部35は、フィルタ処理結果によって注意報やアラームの出力を行うような状態が生じたと判別したとき、映像バッファ部42で取得した映像データを映像データ蓄積データベース56に蓄積させる。最小限モードが選択されたときは、注意報やアラームの出力を行うような状態の映像データを容易かつ速やかに再生できる。また、蓄積する映像データのデータ量を少なくできる。   When the minimum mode is selected, the rule switching unit 35 determines the video data acquired by the video buffer unit 42 as video data when it is determined that a state of outputting a warning or an alarm has occurred according to the filter processing result. Accumulate in the accumulation database 56. When the minimum mode is selected, it is possible to easily and quickly reproduce video data in a state in which a warning or alarm is output. In addition, the amount of video data to be stored can be reduced.

映像データ蓄積データベース56は、映像バッファ部42で取得された映像データを蓄積する。メタデータ蓄積データベース57は、メタデータバッファ部41で取得されたメタデータを蓄積する。   The video data storage database 56 stores video data acquired by the video buffer unit 42. The metadata accumulation database 57 accumulates the metadata acquired by the metadata buffer unit 41.

映像データ再生部39は、映像データ蓄積データベース56に蓄積されている映像データの再生処理を行う。すなわち、映像データ再生部39は、ユーザによって指示された再生位置から順次映像データを読み出して、読み出した映像データを表示部6に供給する。また、映像データ再生部39は、再生している映像データの再生位置(再生時刻)を再生同期部36に供給する。   The video data playback unit 39 performs playback processing of video data stored in the video data storage database 56. That is, the video data playback unit 39 sequentially reads video data from the playback position specified by the user, and supplies the read video data to the display unit 6. Further, the video data playback unit 39 supplies the playback position (playback time) of the video data being played back to the playback synchronization unit 36.

メタデータと映像データとの再生を同期させる再生同期部36は、映像データ再生部39から供給された再生位置と、メタデータ再生部40で、メタデータ蓄積データベース57に蓄積されているメタデータを再生するときの再生位置が同期するように、同期制御信号をメタデータ再生部40に供給して、メタデータ再生部40の動作を制御する。   A reproduction synchronization unit 36 that synchronizes reproduction of metadata and video data uses the reproduction position supplied from the video data reproduction unit 39 and the metadata accumulated in the metadata accumulation database 57 by the metadata reproduction unit 40. A synchronization control signal is supplied to the metadata reproduction unit 40 so that the reproduction position at the time of reproduction is synchronized, and the operation of the metadata reproduction unit 40 is controlled.

メタデータ再生部40は、メタデータ蓄積データベース57に蓄積されているメタデータの再生処理を行う。すなわち、メタデータ再生部40は、ユーザによって指示された再生位置から順次メタデータを読み出して、読み出したメタデータをメタデータフィルタ部38と表示部6に供給する。また、映像データとメタデータの双方を再生する場合、メタデータ再生部40は、上述のように再生同期部36から供給された同期制御信号に基づいて再生動作を制御して、映像データに同期したメタデータを出力する。   The metadata playback unit 40 performs playback processing of metadata stored in the metadata storage database 57. That is, the metadata reproduction unit 40 sequentially reads metadata from the reproduction position designated by the user, and supplies the read metadata to the metadata filter unit 38 and the display unit 6. When reproducing both video data and metadata, the metadata reproduction unit 40 controls the reproduction operation based on the synchronization control signal supplied from the reproduction synchronization unit 36 as described above, and synchronizes with the video data. Output the generated metadata.

表示部6は、映像バッファ部42から供給されたライブ(生)の映像データや映像データ再生部39から供給された再生映像データ、メタデータバッファ部41から供給されたライブのメタデータやメタデータ再生部40から供給された再生メタデータを表示する。また、表示部6は、メタデータフィルタ部38からのフィルタ設定に基づき、監視映像やメタデータの映像やフィルタ設定の映像のいずれか、あるいはこれらを合成した映像を用いて、フィルタ処理結果に基づく監視結果を示す映像を表示する。   The display unit 6 includes live (raw) video data supplied from the video buffer unit 42, reproduced video data supplied from the video data playback unit 39, and live metadata and metadata supplied from the metadata buffer unit 41. The reproduction metadata supplied from the reproduction unit 40 is displayed. The display unit 6 is based on the filter processing result using one of the monitoring video, the video of the metadata, the video of the filter setting, or the synthesized video based on the filter setting from the metadata filter unit 38. A video showing the monitoring result is displayed.

また、表示部(表示モジュール)6は、グラフィカルユーザインタフェース(GUI:Graphical User Interface)としても機能する。使用者は、図示しない操作キーやマウス、リモートコントローラ等を用い表示部6に表示されたフィルタ設定メニュー等を選択することでパッケージやフィルタを定義したり、各処理部(モジュール)の情報のほかに、パッケージやアラーム情報の解析結果等をGUI表示したりすることができる。   The display unit (display module) 6 also functions as a graphical user interface (GUI). The user can define packages and filters by selecting a filter setting menu displayed on the display unit 6 using an operation key, a mouse, a remote controller, etc. (not shown), and information on each processing unit (module). In addition, the analysis result of the package and alarm information can be displayed on the GUI.

表示部6はGUIとして機能する場合、メタデータ情報を用いたフィルタの設定を行うフィルタ設定部と、このフィルタ設定部で設定された複数のフィルタ設定の組み合わせを設定する組み合わせ設定部としての機能を持つ。例えば、パッケージを定義する場合は、ユーザの指示に従い表示部6がGUI機能により新規にフィルタ設定を作成し、又はフィルタ設定データベース55に蓄積されたフィルタ設定を編集し、次に、パッケージ設定すなわちフィルタの組み合わせ態様を設定する。本実施形態例では、個々のフィルタの設定はフィルタ設定データベース55に保存し、パッケージ設定(フィルタの組み合わせ等)はパッケージ設定データベース53に保存する。フィルタ設定データベース55及びパッケージ設定データベース53を一つのデータベースで構成してもよい。   When the display unit 6 functions as a GUI, it functions as a filter setting unit that sets a filter using metadata information and a combination setting unit that sets a combination of a plurality of filter settings set by the filter setting unit. Have. For example, when defining a package, the display unit 6 newly creates a filter setting by the GUI function according to a user's instruction or edits the filter setting stored in the filter setting database 55, and then the package setting, that is, the filter The combination mode is set. In this embodiment, individual filter settings are stored in the filter setting database 55, and package settings (such as filter combinations) are stored in the package setting database 53. The filter setting database 55 and the package setting database 53 may be configured as one database.

そして、本実施の形態例にかかる監視システム100は、解析処理、複数のフィルタを組み合わせてアラームを発生させるかどうかを判断するフィルタパッケージ部33と、フィルタパッケージ内のフィルタ情報及び、フィルタ間の関連付け(論理設定)を保存するパッケージ設定データベース53と、フィルタパッケージ部33から出力されたアラーム情報を、後述する解析ルール設定データベース54の設定値を元に解析するアラーム情報解析部34と、スケジュールを監視し、指定時間帯に指定の解析ルールとパッケージとアクション(外部機器に対する動作指示)の設定を行うスケジュール設定部31と、パッケージとアクションの設定を記録するスケジュール設定データベース51と、各種カメラや周辺機器にアクションを指示するアクション設定部32と、アクションの設定を記録するアクション設定データベース52とを備えることを特徴としている。   The monitoring system 100 according to the present embodiment includes an analysis process, a filter package unit 33 that determines whether an alarm is generated by combining a plurality of filters, filter information in the filter package, and association between the filters. A package setting database 53 for storing (logical settings), an alarm information analysis unit 34 for analyzing alarm information output from the filter package unit 33 based on setting values of an analysis rule setting database 54 described later, and a schedule monitoring A schedule setting unit 31 for setting a specified analysis rule, a package, and an action (operation instruction for an external device) in a specified time zone; a schedule setting database 51 for recording a package and an action; various cameras and peripheral devices Direct action An action setting section 32 is characterized by comprising a action setting database 52 for recording the setting action.

以下では、各部とデータベースの機能例について詳細に説明する。   Hereinafter, functional examples of each unit and database will be described in detail.

フィルタパッケージ部33は、メタデータフィルタ部38から得られたアラーム情報を複数種類組み合わせて、より詳細な状況についてパッケージが出力するアラームの発生を判断する。最適なカメラ動作は、使用者がフィルタ単位またはパッケージ単位で予め設定することができる。例えば、使用者が、あるパッケージに5種類のフィルタ(フィルタA〜フィルタE)を設定したと想定する。設定可能なフィルタの種類としては、例えば以下の7種類があり、このうち、任意のフィルタの種類を選択することができる。
Appearance(存在):物体があるエリア内に存在するか否かを判別するためのフィルタ
Disappearance(消失):物体があるエリア(領域)に現れ、エリアから出たか否かを判別するためのフィルタ
Passing(通過):ある境界線を物体が超えたか否かを判別するためのフィルタ
Capacity(物体数制限):あるエリア内の員数が所定値を超えたか否かを判別するためのフィルタ
Loitering(滞留):所定の時間を超えて、あるエリア内に物体が滞留しているか否かを判別するためのフィルタ
Unattended(置き去り):所定の時間を越えて、あるエリア内に侵入し動かない物体が存在するか否かを判別するためのフィルタ
Removed(持ち去り):あるエリア内に存在した物体が取り除かれたことを検出するためのフィルタ
The filter package unit 33 determines the occurrence of an alarm output by the package for a more detailed situation by combining a plurality of types of alarm information obtained from the metadata filter unit 38. The optimum camera operation can be preset by the user in units of filters or packages. For example, it is assumed that the user has set five types of filters (filter A to filter E) in a certain package. There are, for example, the following seven types of filters that can be set. Of these, any filter type can be selected.
Appearance: A filter for determining whether an object exists in an area.
Disappearance: A filter used to determine whether an object appears in an area and is out of the area.
Passing: A filter to determine whether an object has crossed a certain boundary line
Capacity (object limit): A filter to determine whether the number of objects in a certain area has exceeded a specified value.
Loitering: A filter for determining whether or not an object has stayed in an area over a specified time
Unattended: A filter for determining whether or not there is an object that has entered a certain area and has not moved beyond a predetermined time.
Removed: A filter to detect that an object that existed in an area has been removed.

パッケージの設定は、全てのフィルタの条件を満たした場合にアラーム情報を出力したり、フィルタAかつフィルタBの設定を満たした場合か、フィルタCかつフィルタDの設定を満たした場合のどちらかでアラーム情報を出力したりするなど、フィルタ間の論理を自由に組み合わせて設定できる。例えば、ある場所に人が侵入(ある場所のフィルタA“存在”が真)し、かつ警備員が所定の場所にいない(別の場所のフィルタB“消失”が真)場合のみパッケージアラーム情報を発生させる等が行われる。   Package setting is either when alarm information is output when all filter conditions are met, when filter A and filter B settings are met, or when filter C and filter D settings are met You can set any combination of logic between filters, such as outputting alarm information. For example, the package alarm information is only displayed when a person enters a certain place (filter A “existence” is true in one place) and a guard is not in a predetermined place (filter B “disappearance” in another place is true). And so on.

パッケージ設定データベース53は、フィルタパッケージ部33に定義したパッケージを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.パッケージ番号(またはパッケージ名):フィルタパッケージを一意に識別する。
2.フィルタ番号(またはフィルタ名称):フィルタアラーム情報を一意に識別する。カメラごとにフィルタアラーム番号が振られている場合、カメラ番号も必要になる可能性がある。
3.フィルタ間論理:フィルタをいかにして組み合わせるかの論理である。論理積(AND、またはシーケンシャル)組み合わせ、及び論理和(OR、またはパラレル)組み合わせからなる。
The package setting database 53 is a database that can store a package defined in the filter package unit 33. Examples of information that the database should have are described below.
1. Package number (or package name): Uniquely identifies the filter package.
2. Filter number (or filter name): Uniquely identifies the filter alarm information. If a filter alarm number is assigned for each camera, the camera number may also be required.
3. Inter-filter logic: The logic of how filters are combined. It consists of a logical product (AND or sequential) combination and a logical sum (OR or parallel) combination.

アラーム情報解析部34は、フィルタパッケージ部33から得られるアラーム情報を解析し、カメラや周辺機器に最適な動作を行わせ、表示部6に情報を与える。解析種類は“連続時間”(指定した時間だけアラームが連続で来る場合、インパルス波アラームであっても方形波アラームとみなす)、“発生頻度”(指定時間内に指定数以上アラーム情報が得られる)、“占有面積”(指定範囲内に指定比率以上の物体が存在)、等が選べ、使用者が新たに定義することも可能である。解析した結果を元に、パッケージの再選択や各種アクションの実行、スケジュールの変更が行われる。   The alarm information analysis unit 34 analyzes the alarm information obtained from the filter package unit 33, causes the camera or peripheral device to perform an optimal operation, and gives information to the display unit 6. Analysis type is “Continuous time” (If the alarm continues for the specified time, even if it is an impulse wave alarm, it is considered as a square wave alarm), “Frequency” (more than the specified number of alarm information can be obtained within the specified time) ), “Occupied area” (an object having a specified ratio or more exists in the specified range), etc., and the user can newly define it. Based on the analysis result, the package is reselected, various actions are executed, and the schedule is changed.

解析ルール設定データベース54は、アラーム情報解析部34に定義した解析ルールを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.解析ルール番号(または解析ルール名):アラーム解析情報を一意に識別する。
2.パッケージ番号(またはパッケージ名称):アラーム解析に用いるパッケージを一意に特定する。
3.解析種類:“連続時間”、“発生頻度”、“占有面積”などの解析タイプ。
4.解析詳細設定:解析タイプに必要な詳細設定項目(時間や閾値頻度など)、アクションの実行、パッケージの変更、解析ルールの変更など、条件を満たした場合の動作。
The analysis rule setting database 54 is a database that can store analysis rules defined in the alarm information analysis unit 34. Examples of information that the database should have are described below.
1. Analysis rule number (or analysis rule name): Uniquely identifies alarm analysis information.
2. Package number (or package name): A package used for alarm analysis is uniquely identified.
3. Analysis type: Analysis type such as “continuous time”, “occurrence frequency”, “occupied area”.
4). Detailed analysis settings: Operations when conditions are satisfied, such as detailed setting items required for the analysis type (such as time and threshold frequency), action execution, package changes, analysis rule changes, etc.

スケジュール設定部31は、時間帯により解析ルールを変更する。例えば、営業時間内は“発生頻度”ルールで解析して自動ドアの挟み込みといった状況を判別し、閉店後は“侵入”アラームに切り替えて侵入自体でアラーム状況と判断させるなどの使い道が想定できる。   The schedule setting unit 31 changes the analysis rule according to the time zone. For example, it is possible to assume usage such as analyzing the “occurrence frequency” rule during business hours to determine the situation such as an automatic door being pinched, and switching to an “intrusion” alarm after closing the store to determine the alarm status by the intrusion itself.

スケジュール設定データベース51は、スケジュール設定部31に定義したスケジュールを保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.スケジュール番号(またはスケジュール名):スケジュール情報を一意に識別する。
2.開始時間:スケジュールを開始する年月日時分秒。
3.終了時間:スケジュールを終了する年月日時分秒。
4.解析ルール番号:スケジュール内に適用する解析ルールを特定するための番号。
The schedule setting database 51 is a database that can store the schedule defined in the schedule setting unit 31. Examples of information that the database should have are described below.
1. Schedule number (or schedule name): The schedule information is uniquely identified.
2. Start time: Year / month / day / hour / minute / second at which the schedule starts.
3. End time: Year, month, day, hour, minute and second when the schedule ends.
4). Analysis rule number: A number for identifying an analysis rule to be applied in the schedule.

アクション設定部32は、アラーム情報解析結果に基づいて、指定したアクションを実行する。“追跡”,“ズーム”,“ライトON”などの動きを指定しておけば、アラーム情報の持つ動体数や位置情報を元に、自動的にズーム倍率やパンチルト角度が指定される。手動で詳細動作を設定することもできる。また、カメラの設定を変更することができる。さらに、カメラの設定を変更する以外にも、動体があったときは必ず映像を録画して後で動的にフィルタを変更してそれに該当する映像を検索できる動的検索モードと、フィルタがかかったときのみ録画をする最小限録画モードと2つの録画モードの切り替えができる。   The action setting unit 32 executes the specified action based on the alarm information analysis result. If movements such as “tracking”, “zoom”, and “light on” are designated, the zoom magnification and pan / tilt angle are automatically designated based on the number of moving objects and position information included in the alarm information. You can also set detailed actions manually. In addition, camera settings can be changed. In addition to changing camera settings, when there is a moving object, the video is recorded and the filter is dynamically changed later to search for the corresponding video, and the filter is applied. It is possible to switch between the minimum recording mode and the two recording modes in which recording is performed only at the time of recording.

アクション設定データベース52は、アクション設定を保存することができるデータベースである。データベースが持つべき情報例について以下に記載する。
1.アクション番号(またはアクション名):アクション設定情報を一意に識別する。
2.アクションタイプ:“パンチルト”,“ズーム”,“ライトON”など。
3.詳細設定:手動設定の場合の詳細情報を設定する。
The action setting database 52 is a database that can store action settings. Examples of information that the database should have are described below.
1. Action number (or action name): Uniquely identifies action setting information.
2. Action type: “Pan / Tilt”, “Zoom”, “Light ON”, etc.
3. Detailed settings: Set the detailed information for manual settings.

<動作の説明>
次に、管理クライアント3の各部の処理例について説明する。
<Description of operation>
Next, a processing example of each unit of the management client 3 will be described.

まず、フィルタパッケージ部33の処理例について、図3を参照して説明する。フィルタパッケージ部33は、複数のフィルタ間を論理で結びつけてパッケージを作成し、通知する処理を行う。始めに、フィルタパッケージ部33は、メタデータバッファ部41から関連するフィルタのアラーム情報を取得する(ステップS1)。次に、フィルタパッケージ部33は、各パッケージが用いるパッケージ設定データベース53により、アラーム情報を処理する(ステップS2)。   First, a processing example of the filter package unit 33 will be described with reference to FIG. The filter package unit 33 creates a package by logically connecting a plurality of filters, and performs a notification process. First, the filter package unit 33 acquires alarm information of a related filter from the metadata buffer unit 41 (step S1). Next, the filter package unit 33 processes the alarm information using the package setting database 53 used by each package (step S2).

フィルタパッケージ部33は、アラーム情報を処理すると、アラーム情報解析部34に通知が必要か否かを判断する(ステップS3)。通知が必要でないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、通知が必要であると判断した場合、フィルタパッケージ部33は、フィルタアラームとパッケージアラームとを組み合わせた通知内容を作成する(ステップS4)。そして、フィルタパッケージ部33は、通知内容をアラーム情報解析部34に通知する(ステップS5)。   When the filter package unit 33 processes the alarm information, the filter package unit 33 determines whether the alarm information analysis unit 34 needs to be notified (step S3). If it is determined that notification is not necessary, the filter package unit 33 returns to the process of step S1. On the other hand, if it is determined that notification is necessary, the filter package unit 33 creates notification contents combining the filter alarm and the package alarm (step S4). The filter package unit 33 notifies the alarm information analysis unit 34 of the notification content (step S5).

次に、フィルタパッケージ部33は、パッケージの設定変更要求があるか否かを判断する(ステップS6)。設定変更要求がないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、設定変更要求があると判断した場合、フィルタパッケージ部33は、パッケージの設定を変更する(ステップS7)。   Next, the filter package unit 33 determines whether or not there is a package setting change request (step S6). If it is determined that there is no setting change request, the filter package unit 33 returns to the process of step S1. On the other hand, when determining that there is a setting change request, the filter package unit 33 changes the setting of the package (step S7).

そして、フィルタパッケージ部33は、終了要求があるか否かを判断する(ステップS8)。終了要求がないと判断した場合、フィルタパッケージ部33は、ステップS1の処理に戻す。一方、終了要求があると判断した場合、フィルタパッケージ部33は、処理を終了する。   Then, the filter package unit 33 determines whether there is an end request (step S8). If it is determined that there is no termination request, the filter package unit 33 returns to the process of step S1. On the other hand, if it is determined that there is an end request, the filter package unit 33 ends the process.

次に、アラーム情報解析部34の処理例について、図4を参照して説明する。アラーム情報解析部34は、取得したアラーム情報を解析し、アクションの実行やスケジュールの変更、パッケージの変更を指示する処理を行う。始めに、アラーム情報解析部34は、フィルタパッケージ部33から関連するフィルタのアラーム情報を取得する(ステップS11)。次に、アラーム情報解析部34は、解析ルール設定データベース54を用いてアラーム情報を処理する(ステップS12)。   Next, a processing example of the alarm information analysis unit 34 will be described with reference to FIG. The alarm information analysis unit 34 analyzes the acquired alarm information and performs processing for instructing execution of an action, change of a schedule, and change of a package. First, the alarm information analysis unit 34 acquires alarm information of a related filter from the filter package unit 33 (step S11). Next, the alarm information analysis unit 34 processes the alarm information using the analysis rule setting database 54 (step S12).

アラーム情報解析部34は、アラーム情報を処理すると、アクションの実行が必要か否かを判断する(ステップS13)。アクションの実行が必要でないと判断した場合、アラーム情報解析部34は、ステップS11の処理に戻す。一方、アクションの実行が必要であると判断した場合、アラーム情報解析部34は、実行するアクションを記述した通知内容を作成する(ステップS14)。そして、アラーム情報解析部34は、通知内容をアクション設定部32に通知する(ステップS15)。   When the alarm information analysis unit 34 processes the alarm information, the alarm information analysis unit 34 determines whether an action needs to be executed (step S13). When determining that the execution of the action is not necessary, the alarm information analysis unit 34 returns to the process of step S11. On the other hand, when it is determined that the action needs to be executed, the alarm information analysis unit 34 creates notification contents describing the action to be executed (step S14). And the alarm information analysis part 34 notifies the notification content to the action setting part 32 (step S15).

次に、アラーム情報解析部34は、スケジュールの変更要求があるか否かを判断する(ステップS16)。スケジュールの変更要求がないと判断した場合、ステップS11の処理に戻す。一方、スケジュールの変更要求があると判断した場合、アラーム情報解析部34は、設定するスケジュール内容を記述した通知内容を作成する(ステップS17)。そして、アラーム情報解析部34は、通知内容をスケジュール設定部31に通知する(ステップS18)。   Next, the alarm information analysis unit 34 determines whether or not there is a schedule change request (step S16). If it is determined that there is no schedule change request, the process returns to step S11. On the other hand, when it is determined that there is a schedule change request, the alarm information analysis unit 34 creates notification contents describing the schedule contents to be set (step S17). And the alarm information analysis part 34 notifies the notification content to the schedule setting part 31 (step S18).

次に、アラーム情報解析部34は、パッケージの変更要求があるか否かを判断する(ステップS19)。パッケージの変更要求がないと判断した場合、ステップS11の処理に戻す。一方、パッケージの変更要求があると判断した場合、アラーム情報解析部34は、設定するパッケージ内容を記述した通知内容を作成する(ステップS20)。そして、アラーム情報解析部34は、通知内容をフィルタパッケージ設定部33に通知する(ステップS21)。   Next, the alarm information analysis unit 34 determines whether or not there is a package change request (step S19). If it is determined that there is no package change request, the process returns to step S11. On the other hand, if it is determined that there is a package change request, the alarm information analysis unit 34 creates notification contents describing the package contents to be set (step S20). Then, the alarm information analysis unit 34 notifies the notification content to the filter package setting unit 33 (step S21).

そして、アラーム情報解析部34は、終了要求があるか否かを判断する(ステップS22)。終了要求がないと判断した場合、アラーム情報解析部34は、ステップS11の処理に戻す。一方、終了要求があると判断した場合、アラーム情報解析部34は、処理を終了する。   Then, the alarm information analysis unit 34 determines whether there is an end request (step S22). If it is determined that there is no termination request, the alarm information analysis unit 34 returns to the process of step S11. On the other hand, when determining that there is an end request, the alarm information analysis unit 34 ends the process.

次に、スケジュール設定部31の処理例について、図5を参照して説明する。スケジュール設定部31は、スケジュールを作成し、スケジュールの期間内に指定した解析ルールを実行する処理を行う。始めに、スケジュール設定部31は、各スケジュールを、スケジュール設定データベース51を用いて、スケジュール情報を処理する(ステップS31)。   Next, a processing example of the schedule setting unit 31 will be described with reference to FIG. The schedule setting unit 31 performs a process of creating a schedule and executing an analysis rule specified within the schedule period. First, the schedule setting unit 31 processes the schedule information for each schedule using the schedule setting database 51 (step S31).

スケジュール設定部31は、スケジュール情報を処理すると、スケジュール内であるか否かを判断する(ステップS32)。スケジュール内でないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、スケジュール内であると判断した場合、スケジュール設定部31は、解析ルールを記述した通知内容を作成する(ステップS33)。そして、スケジュール設定部31は、通知内容をアラーム情報解析部34に通知する(ステップS34)。   When the schedule setting unit 31 processes the schedule information, the schedule setting unit 31 determines whether it is within the schedule (step S32). If it is determined that it is not within the schedule, the schedule setting unit 31 returns to the process of step S31. On the other hand, when determining that it is within the schedule, the schedule setting unit 31 creates a notification content describing the analysis rule (step S33). The schedule setting unit 31 notifies the alarm information analysis unit 34 of the notification content (step S34).

そして、スケジュール設定部31は、スケジュールの設定変更要求があるか否かを判断する(ステップS35)。スケジュールの設定変更要求がないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、スケジュールの設定変更要求があると判断した場合、スケジュール設定部31は、スケジュール設定データベース51を用いて、スケジュールの設定を変更する(ステップS36)。   Then, the schedule setting unit 31 determines whether or not there is a schedule setting change request (step S35). When it is determined that there is no schedule setting change request, the schedule setting unit 31 returns to the process of step S31. On the other hand, when it is determined that there is a schedule setting change request, the schedule setting unit 31 changes the schedule setting using the schedule setting database 51 (step S36).

そして、スケジュール設定部31は、終了要求があるか否かを判断する(ステップS37)。終了要求がないと判断した場合、スケジュール設定部31は、ステップS31の処理に戻す。一方、終了要求があると判断した場合、スケジュール設定部31は、処理を終了する。   Then, the schedule setting unit 31 determines whether or not there is an end request (step S37). When it is determined that there is no termination request, the schedule setting unit 31 returns to the process of step S31. On the other hand, when it is determined that there is an end request, the schedule setting unit 31 ends the process.

次に、アクション設定部32の処理例について、図6を参照して説明する。アクション設定部32は、アクションを作成し、カメラや周辺機器にアクションを実行させる処理を行う。始めに、アクション設定部32は、各アクションを、アクション設定データベース52を用いて、アクション内容を処理する(ステップS41)。   Next, a processing example of the action setting unit 32 will be described with reference to FIG. The action setting unit 32 performs processing for creating an action and causing the camera or peripheral device to execute the action. First, the action setting unit 32 processes each action using the action setting database 52 (step S41).

アクション設定部32は、アクション内容を処理すると、アクションの実行要求があるか否かを判断する(ステップS42)。アクションの実行要求がないと判断した場合、アクション設定部32は、ステップS41の処理に戻す。一方、アクション実行要求があると判断した場合、アクション設定部32は、アクションの設定変更や、パンチルト等のアクションを記述した通知内容を作成する(ステップS43)。そして、アクション設定部32は、通知内容をカメラや周辺機器等に通知する(ステップS44)。   After processing the action content, the action setting unit 32 determines whether or not there is an action execution request (step S42). When determining that there is no action execution request, the action setting unit 32 returns to the process of step S41. On the other hand, if it is determined that there is an action execution request, the action setting unit 32 creates notification contents describing actions such as action setting change and pan / tilt (step S43). Then, the action setting unit 32 notifies the notification contents to the camera, peripheral devices, and the like (step S44).

そして、アクション設定部32は、終了要求があるか否かを判断する(ステップS45)。終了要求がないと判断した場合、アクション設定部32は、ステップS41の処理に戻す。一方、終了要求があると判断した場合、アクション設定部32は、処理を終了する。   Then, the action setting unit 32 determines whether or not there is a termination request (step S45). When determining that there is no termination request, the action setting unit 32 returns to the process of step S41. On the other hand, when determining that there is an end request, the action setting unit 32 ends the process.

次に、各モジュール間における関連処理の例について説明する。   Next, an example of related processing between modules will be described.

まず、複数のメタデータ生成カメラ1a,1bから受信したメタデータに対し、パッケージ(フィルタ群)を適用して、一つの結果を得る処理の例について、図7を参照して説明する。始めに、使用者は、フィルタパッケージ部33により、“存在”や“滞留”等のフィルタを登録し(ステップS51)、フィルタ間論理を設定する(ステップS52)。設定内容は、パッケージ設定データベース53に保存される。   First, an example of processing for obtaining one result by applying a package (filter group) to metadata received from a plurality of metadata generation cameras 1a and 1b will be described with reference to FIG. First, the user registers filters such as “exist” and “stay” by using the filter package unit 33 (step S51), and sets the inter-filter logic (step S52). The setting contents are stored in the package setting database 53.

そして、フィルタパッケージ部33は、アラーム情報をアラーム情報解析部34に送信する(ステップS53)。アラーム情報解析部34は、フィルタパッケージ部33からアラーム情報を受信する(ステップS54)。受け取ったアラーム情報には、各フィルタからのフィルタアラーム以外に、新たにフィルタ間論理に合致したパッケージからのパッケージアラームが含まれる。   And the filter package part 33 transmits alarm information to the alarm information analysis part 34 (step S53). The alarm information analysis unit 34 receives the alarm information from the filter package unit 33 (step S54). The received alarm information includes a package alarm from a package that newly matches the inter-filter logic, in addition to the filter alarm from each filter.

アラーム情報解析部34は、解析ルール設定データベース54を元に、受信したアラーム情報を解析し、解析ルールに沿った動作を行う(ステップS55)。そして、アラーム情報解析部34は、アクション設定部32、フィルタパッケージ部33、スケジュール設定部31に必要な指示を送信する。アクションの実行を行う場合はアクション設定部32にアクション番号を指定する(ステップS56)。アクション設定部32は、指定されたアクション番号に基づくアクションを、アクション設定データベース52から読み出し、アクションを実行する。フィルタやパッケージの再選択を行う場合は、フィルタパッケージ部33に設定変更を指示する(ステップS56)。フィルタパッケージ部33は、パッケージ設定データベース53からフィルタやパッケージを読み出すとともに、再選択したフィルタやパッケージをパッケージ設定データベース53に書き込む。スケジュールの変更を行う場合は、スケジュール設定部31に設定変更を指示する(ステップS58)。スケジュール設定部31は、スケジュール設定データベース51からスケジュールを読み出すとともに、変更したスケジュールをスケジュール設定データベース51に書き込む。   The alarm information analysis unit 34 analyzes the received alarm information based on the analysis rule setting database 54, and performs an operation according to the analysis rule (step S55). Then, the alarm information analysis unit 34 transmits necessary instructions to the action setting unit 32, the filter package unit 33, and the schedule setting unit 31. When executing an action, an action number is designated in the action setting unit 32 (step S56). The action setting unit 32 reads an action based on the specified action number from the action setting database 52 and executes the action. When reselecting the filter or package, the filter package unit 33 is instructed to change the setting (step S56). The filter package unit 33 reads the filter and package from the package setting database 53 and writes the reselected filter and package to the package setting database 53. When changing the schedule, the schedule setting unit 31 is instructed to change the setting (step S58). The schedule setting unit 31 reads the schedule from the schedule setting database 51 and writes the changed schedule into the schedule setting database 51.

次に、管理クライアント3におけるフィルタパッケージの設定方法について説明する。図8は、本実施形態における管理クライアント3の表示部6による映像データとメタデータの表示例を示したものである。   Next, a filter package setting method in the management client 3 will be described. FIG. 8 shows a display example of video data and metadata by the display unit 6 of the management client 3 in the present embodiment.

図8に示すように、メタデータ生成カメラ1a,1bで撮像された映像データ1001及びメタデータ1002がネットワーク2を介して管理クライアント3へ供給される。メタデータ生成カメラ1a,1bで生成されるメタデータの種類としては、時間、映像解析結果の動体情報(例えば、位置、種類、ステータスなど)、現在のカメラの状態などがある。また、メタデータ生成カメラが管理クライアントもしくは管理サーバが持つソフトウェアモジュールを備え、ネットワークを介さないで動作する場合も有効である。   As shown in FIG. 8, video data 1001 and metadata 1002 captured by the metadata generation cameras 1 a and 1 b are supplied to the management client 3 via the network 2. The types of metadata generated by the metadata generation cameras 1a and 1b include time, moving body information (for example, position, type, status, etc.) of the video analysis result, the current camera state, and the like. It is also effective when the metadata generation camera is provided with a software module of a management client or management server and operates without a network.

管理クライアント3は前述のようにメタデータ生成カメラ1a,1bから供給された映像データ1001及びメタデータ1002を取得、解析、保存する。管理クライアント3に入力された映像データ1001及びメタデータ1002は、映像データDB56,メタデータDB57に保存される。管理クライアント3は、フィルタ設定機能を有しており、表示部6に表示されるフィルタ設定画面(フィルタ設定メニュー)で各種フィルタの設定を行い、フィルタの情報をフィルタ設定データベース55に保存する。図8に示すフィルタ設定表示画面1003ではフィルタの設定により生成された境界線LN及びエリアPAが表示されている。矢印PBは境界線LNに対して検出すべきPassing(横切り)方向を示している。このように設定されたフィルタ情報を用い、映像内のオブジェクト(動体)MB1〜MB3をメタデータフィルタ部38が検知し、表示部6によって映像データ1001と同期した監視映像1004として表示する。あるフィルタによってオブジェクトが検知されると、監視システム100はアラームを発生させる。例えば、検出したオブジェクトMB1〜MB3の周囲にそれぞれ動体枠H1〜H3を表示する。   As described above, the management client 3 acquires, analyzes, and stores the video data 1001 and the metadata 1002 supplied from the metadata generation cameras 1a and 1b. Video data 1001 and metadata 1002 input to the management client 3 are stored in the video data DB 56 and the metadata DB 57. The management client 3 has a filter setting function, sets various filters on a filter setting screen (filter setting menu) displayed on the display unit 6, and stores filter information in the filter setting database 55. In the filter setting display screen 1003 shown in FIG. 8, the boundary line LN and the area PA generated by the filter setting are displayed. An arrow PB indicates a Passing (crossing) direction to be detected with respect to the boundary line LN. Using the filter information set in this way, the objects (moving objects) MB1 to MB3 in the video are detected by the metadata filter unit 38 and displayed as the monitoring video 1004 synchronized with the video data 1001 by the display unit 6. When an object is detected by a certain filter, the monitoring system 100 generates an alarm. For example, moving object frames H1 to H3 are displayed around the detected objects MB1 to MB3, respectively.

図9は、一つもしくは複数のフィルタを組み合わせて構成されるフィルタパッケージの概念を示したものである。図9に示すように、メタデータに対する複数のフィルタがパッケージング(ひとまとめ)される。この例では、1つのパッケージは最大3つのフィルタのコンビネーション(組み合わせ)と、最大6つの非検知エリアによって構成される。   FIG. 9 shows the concept of a filter package configured by combining one or a plurality of filters. As shown in FIG. 9, a plurality of filters for metadata are packaged. In this example, one package is composed of a combination of a maximum of three filters and a maximum of six non-detection areas.

コンビネーションの種類にはシーケンシャルモード(連続モード)とパラレルモード(並列モード)がある。パラレルモードでは、各々のフィルタがオブジェクトを検知するごとにパッケージとしてのアラームが発生する。一方、シーケンシャルモードでは、設定された順番通りに所定のコンビネーション間隔の範囲内でフィルタがオブジェクトを検知したときにパッケージとして1つのアラームが発生する。パッケージはそれぞれのメタデータ生成カメラに対して個別に設定されるものである。   There are two types of combinations: sequential mode (continuous mode) and parallel mode (parallel mode). In the parallel mode, an alarm as a package is generated each time each filter detects an object. On the other hand, in the sequential mode, one alarm is generated as a package when the filter detects an object within a predetermined combination interval within a set order. The package is set individually for each metadata generation camera.

<設定操作の説明>
図10に、パッケージ設定画面の概要を示す。このパッケージ設定画面では1回の設定操作で1つのパッケージの設定を行うことが可能である。
<Description of setting operation>
FIG. 10 shows an outline of the package setting screen. On this package setting screen, one package can be set by one setting operation.

<フィルタ概要設定>
1.フィルタ名
エリアC2では3つのフィルタの各々に名前を付けることができる。デフォルトのフィルタ名C2-1〜C2-3はそれぞれFilter1〜Filter3である。
2.フィルタタイプ選択
フィルタタイプリストC3-1〜C3-3から3つのフィルタに対する各々のフィルタタイプ(Filter Type)を選択することができる。本例で選択可能なフィルタのタイプは例えば以下の7種類である。
Appearance/Disappearance/Loitering/Capacity/Passing/Unattended/Removed
3.有効/無効(enable/disable)
有効/無効ボタンC4-1〜C4-3では各々のフィルタを使用するかしないかを設定することができる。フィルタの詳細設定を行っても無効(disable)状態にしておけばフィルタ処理に使用されることはない。無効の状態であっても設定は保存されているので、簡単に使用できる状態に戻すことができる。この例では、有効に設定されている場合には「A」と表示している。
<Filter overview settings>
1. Filter name In area C2, each of the three filters can be given a name. The default filter names C2-1 to C2-3 are Filter1 to Filter3, respectively.
2. Filter Type Selection Each filter type (Filter Type) for three filters can be selected from the filter type lists C3-1 to C3-3. The filter types that can be selected in this example are, for example, the following seven types.
Appearance / Disappearance / Loitering / Capacity / Passing / Unattended / Removed
3. Enable / disable
With the enable / disable buttons C4-1 to C4-3, it is possible to set whether or not to use each filter. Even if the detailed setting of the filter is performed, it is not used for the filtering process if it is set to the disabled state. Even in the invalid state, the setting is saved, so that it can be easily returned to a usable state. In this example, “A” is displayed when the setting is valid.

図10の例では、Filter1〜Filter3の各々の有効/無効ボタンC4-1〜C4-3が「A」と表示されているので3フィルタともに有効である。仮にFilter2の有効/無効ボタンC4-2が「無効」になっている場合のパッケージは、Filter1及びFilter2から構成される。このとき、図9に示すフィルタパッケージは、1番目にフィルタID0のフィルタ1が設定され、2番目にフィルタID2のフィルタ3が設定されて構成される。   In the example of FIG. 10, since the valid / invalid buttons C4-1 to C4-3 of Filter1 to Filter3 are displayed as “A”, all three filters are valid. If the Filter2 valid / invalid button C4-2 is “invalid”, the package includes Filter1 and Filter2. At this time, the filter package shown in FIG. 9 is configured such that the filter 1 with the filter ID 0 is set first, and the filter 3 with the filter ID 2 is set second.

<コンビネーションの設定>
1.シーケンシャル/パラレル(sequential/parallel)
ラジオボタンによりコンビネーション設定C1、すなわちシーケンシャルモードかパラレルモードかを選択することができる。パラレルモードを選択した場合、Filter1からFilter3までのどれかのフィルタにおいてオブジェクトが検知されると、このパッケージとしてアラームがあがる設定となる。一方、シーケンシャルモードを選択した場合、Filter1からFilter3まで設定された順番にオブジェクトが検知された場合にのみパッケージとしてアラームがあがることとなる。シーケンシャルモードの場合、Filter1より先にFilter2のオブジェクトが検知されてもアラームは発生しない。シーケンシャルモードが選択されているときは矢印のシーケンシャルモード表示C7-1,C7-2が表示され、フィルタ間に連続した関係があることが見て取れる。パラレルモードが選択されているときは矢印を表示されないことで、フィルタの設定が並列に行われることが見て取れる。
<Combination settings>
1. Sequential / parallel
The radio button can be used to select the combination setting C1, that is, the sequential mode or the parallel mode. When the parallel mode is selected, if an object is detected in any of the filters from Filter1 to Filter3, the alarm is set for this package. On the other hand, when the sequential mode is selected, an alarm is raised as a package only when objects are detected in the order set from Filter1 to Filter3. In sequential mode, no alarm is generated even if an object of Filter2 is detected before Filter1. When the sequential mode is selected, the sequential mode displays C7-1 and C7-2 with arrows are displayed, and it can be seen that there is a continuous relationship between the filters. When the parallel mode is selected, the arrow is not displayed, so that it can be seen that the filters are set in parallel.

2.フィルタ順序の入れ替え
フィルタ入れ替えボタンC6-1,C6−2により、フィルタの評価順序を変更することができる。フィルタ入れ替えボタンC6-1によりFilter1とFilter2の順序を入れ替えることができ、フィルタ入れ替えボタンC6-2によりFilter2とFilter3の順序を入れ替えることができる。入れ替えのためにフィルタの再設定をする必要がない。
2. Filter order change The filter evaluation order can be changed by the filter change buttons C6-1 and C6-2. The order of Filter1 and Filter2 can be changed by the filter change button C6-1, and the order of Filter2 and Filter3 can be changed by the filter change button C6-2. There is no need to reset the filter for replacement.

3.フィルタ評価間隔
フィルタ評価間隔入力欄C8-1,C8-2に数値を入力することにより、フィルタ間のオブジェクト検知間隔の扱いを変更することができる。最初にFilter1、次にFilter2、のように連続してオブジェクトが検知されたとしても検知された時刻の間隔が予め設定された制限時間を超えていた場合にはパッケージとしてアラームが発生しない。
3. Filter Evaluation Interval By entering a numerical value in the filter evaluation interval input fields C8-1 and C8-2, the handling of the object detection interval between filters can be changed. Even if an object is continuously detected, such as Filter 1 first and then Filter 2, if the detected time interval exceeds a preset time limit, no alarm is generated as a package.

<非検知エリア設定>
非検知エリアリストC5においてオブジェクトをフィルタリングする際に、検知を行わないエリア(非検知エリア)を設定することができる。1つのパッケージに最大6つまで設定することができる。非検知エリアの大きさは変更することができる。
<Non-detection area setting>
When filtering an object in the non-detection area list C5, an area (non-detection area) where detection is not performed can be set. Up to six can be set for one package. The size of the non-detection area can be changed.

<フィルタ検知エリア設定及び効果確認>
フィルタ設定編集C9-1〜C9-3ボタンを押すことでフィルタの効果を設定画面の一角に設けられた画面C16で確認することができる。このボタン群(C9-1〜C9-3)は常に1つしか押すことできない。C9-1〜C9-3ボタンを押すとボタンが凹んだ状態となり、現在どのフィルタを設定/確認しているかすぐに分かるようになっている。またこれらのボタンは有効/無効ボタンC4-1〜C4-3の状態には依存せず、無効(disable)状態となっているフィルタの設定も確認することができる。フィルタ検知エリアの設定は数値ではなく、図形の描画によって行う。フィルタタイプによって設定方法(図形の描画方式)が異なる。
<Filter detection area setting and effect confirmation>
By pressing the filter setting edit C9-1 to C9-3 buttons, the effect of the filter can be confirmed on a screen C16 provided at one corner of the setting screen. Only one button group (C9-1 to C9-3) can be pressed at any time. When the C9-1 to C9-3 buttons are pressed, the buttons are recessed so that you can immediately see which filter is currently set / checked. Further, these buttons do not depend on the states of the valid / invalid buttons C4-1 to C4-3, and it is possible to check the setting of a filter in a disabled state. The filter detection area is set not by numerical values but by drawing graphics. The setting method (graphic drawing method) differs depending on the filter type.

1.多角形描画方式:Existence/Disappearance/Loitering/Capacity/Unattended/Removed
画面C16上でマウス(ポインティングデバイスの一例)を左クリックし多角形の頂点を指定することにより領域を設定する。本例において設定できるのは最大8角形の凸型多角形とする。始点を決定した後に、画面上の任意のポイントを左クリックすることにより多角形の次の頂点を決定する。次の頂点と前の頂点はその都度直線で結ばれる。頂点の打点は時計回り又は半時計回りの一方向でしか行えない。8番目の頂点が打点されると自動的に多角形1010が作成される(図11)。8個未満の点で多角形1011を作成する場合、次の打点ポイントとして、閉じたい点のポイントを選択するか、次の打点ポイントでダブルクリックを行う。これにより多角形1011の内部がフィルタリングエリアとして設定される(図11)。右クリックにより直前の点の決定をキャンセル(取り消し)することができる。多角形を作成しない場合は、例えば画像サイズに合わせた最大の4角形が検知エリアとして自動的に設定される。
1. Polygon drawing method: Existence / Disappearance / Loitering / Capacity / Unattended / Removed
A region is set by left-clicking the mouse (an example of a pointing device) on screen C16 and specifying the vertex of the polygon. In this example, a maximum of octagonal convex polygons can be set. After determining the start point, the next vertex of the polygon is determined by left-clicking on any point on the screen. The next vertex and the previous vertex are connected by a straight line each time. The vertex can only be hit in one direction, clockwise or counterclockwise. When the eighth vertex is hit, a polygon 1010 is automatically created (FIG. 11). When creating the polygon 1011 with less than 8 points, the point of the point to be closed is selected as the next dot point or double-clicked at the next dot point. Thereby, the inside of the polygon 1011 is set as a filtering area (FIG. 11). The determination of the previous point can be canceled (cancelled) by right-clicking. When a polygon is not created, for example, the largest quadrangle that matches the image size is automatically set as the detection area.

2.矢印付きライン描画方式:Passing
画面C16上の2点をマウスで左クリックし、図12に示すような線分1012を作成する。この線分1012の中点には線分1012と垂直に矢印1013が描画される。この矢印の向きによりPassingフィルタがどちらの向きに対して線分を通過したかどうかを判断しアラームが発生する。矢印の方向は、例えば線分の中点付近を左クリックすることにより変更される。デフォルト(初期設定)は双方向であり、クリックの度に双方向→(画面C16もしくは線分1012に対して)右向き(矢印1014)→左向き(矢印1015)→双方向と切り替えることができる。
2. Line drawing method with arrows: Passing
Two points on the screen C16 are left-clicked with the mouse to create a line segment 1012 as shown in FIG. An arrow 1013 is drawn at the midpoint of the line segment 1012 perpendicular to the line segment 1012. The direction of the arrow determines whether the Passing filter has passed through the line, and an alarm is generated. The direction of the arrow is changed, for example, by left-clicking near the midpoint of the line segment. The default (initial setting) is bi-directional, and each time it is clicked, it can be switched from bi-directional (to the screen C16 or line segment 1012) rightward (arrow 1014) → leftward (arrow 1015) → bidirectional.

非検知エリア設定確認ボタンC9-4による非検知エリア設定の確認については、リストから選んだ1つの非検知エリアに対してFilter1からFilter3までの設定も有効となり、設定の確認ができる。   Regarding the confirmation of the non-detection area setting by the non-detection area setting confirmation button C9-4, the settings from Filter 1 to Filter 3 are also valid for one non-detection area selected from the list, and the setting can be confirmed.

画面C16にはLIVE/PLAYBACK(ライブ/再生)の映像が常に表示されており、映像に合わせながらリアルタイムで設定をすることができ、また設定の結果を確認することができる。   On the screen C16, the LIVE / PLAYBACK (live / playback) video is always displayed, so you can make settings in real time according to the video and check the setting results.

<フィルタパッケージ効果確認>
フィルタパッケージ動作確認ボタンC10によりフィルタパッケージの動作確認ができる。このときの動作はコンビネーション設定C1及び有効/無効ボタンC4-1〜C4-3の選択状態に依存する。
<Confirmation of filter package effect>
The filter package operation confirmation button C10 can be used to confirm the operation of the filter package. The operation at this time depends on the combination setting C1 and the selection state of the valid / invalid buttons C4-1 to C4-3.

<フィルタ詳細設定>
フィルタの詳細設定ができる。フィルタタイプ設定C3-1〜C3-3においてフィルタタイプを選択すると、それぞれのフィルタにおいて設定可能なオプションのみがC11/C12/C13において自動的に編集可能となる。設定は画面C16上で、マウスにより矩形、多角形や線分を描画することにより行う。
<Detailed filter settings>
Detailed filter settings can be made. When the filter type is selected in the filter type settings C3-1 to C3-3, only options that can be set in each filter can be automatically edited in C11 / C12 / C13. The setting is performed by drawing a rectangle, a polygon or a line segment with the mouse on the screen C16.

1.最大/最小サイズ(max/min size)設定
最大/最小サイズ設定ボタンC11-1,C11-2でフィルタリングするオブジェクトの最大サイズと最小サイズを設定することができる。ここで設定した最大サイズよりも大きいオブジェクト及び最小サイズよりも小さいオブジェクトは検知されない。
1. Maximum / minimum size (max / min size) setting Maximum / minimum size of objects to be filtered can be set with the maximum / minimum size setting buttons C11-1 and C11-2. An object larger than the maximum size set here and an object smaller than the minimum size are not detected.

この最大/最小サイズ設定は矩形描画方式を用いる。図13に示すように画面C16上の任意の点1020をマウスでドラッグし、矩形の幅を指定することにより領域を設定する。マウスの左ボタンを押下したまま、ドラッグを開始することで、左ボタン押下ポイント1020を原点とする矩形の作成を開始する。ドラッグ後任意のポイント1021でマウスの左ボタンを離すことで矩形1022を決定する。矩形1022を決定後は、矩形の上辺、底辺、左辺、右辺の4頂点のいずれかにマウスカーソルを合わせて、マウスの左ボタンを押下したまま、ドラッグを開始することで矩形の大きさ変更が可能である。また、矩形内部にマウスカーソルを合わせてマウスの左ボタンを押下したまま、ドラッグすると、矩形を移動することができる。最大サイズ設定ボタンC11-1か最小サイズ設定ボタンC11-2をクリックすることにより編集モードとなり、ボタンが凹んだ状態に表示されるため現在どちらの編集モードになっているかすぐに分かるようになっている。最大(最小)サイズ設定が最小(最大)サイズ設定より小さく(大きく)ならないように、矩形が小さく(大きく)描画された場合には自動的に最小(最大)サイズ設定を小さく(大きく)する。描画の位置は設定に関係なく、矩形の横幅と縦幅が有効である。   This maximum / minimum size setting uses a rectangular drawing method. As shown in FIG. 13, an area is set by dragging an arbitrary point 1020 on the screen C16 with the mouse and specifying the width of the rectangle. By starting dragging with the left button of the mouse pressed, creation of a rectangle with the left button pressing point 1020 as the origin is started. The rectangle 1022 is determined by releasing the left mouse button at an arbitrary point 1021 after dragging. After the rectangle 1022 is determined, the size of the rectangle can be changed by placing the mouse cursor on one of the four vertices of the top, bottom, left, and right sides of the rectangle, and holding down the left mouse button and starting dragging. Is possible. The rectangle can be moved by moving the mouse cursor inside the rectangle and dragging it while holding down the left mouse button. By clicking the maximum size setting button C11-1 or the minimum size setting button C11-2, you can enter the editing mode, and the button is displayed in a recessed state, so you can immediately see which editing mode you are in. Yes. When the rectangle is drawn small (large) so that the maximum (minimum) size setting does not become smaller (larger) than the minimum (maximum) size setting, the minimum (maximum) size setting is automatically made smaller (larger). Regardless of the setting of the drawing position, the horizontal and vertical widths of the rectangle are valid.

2.最大/最小スピード(max/min speed)設定
最大/最小スピード設定ボタンC12-1,C13-1でフィルタリングするオブジェクトの最大速度と最小速度を設定することができる。画面C16上を最大スピードより速く移動するオブジェクトや最小スピードより遅く移動するオブジェクトは検知されない。
2. Maximum / minimum speed (max / min speed) setting Maximum / minimum speed of objects to be filtered can be set with the maximum / minimum speed setting buttons C12-1 and C13-1. Objects that move faster than the maximum speed or objects that move slower than the minimum speed on the screen C16 are not detected.

この最大/最小スピード設定は線分描画方式を用いる。図14に示すように画面C16上の2点をマウスでクリックし線分の長さを決める。自動でその長さ(例えば100ピクセル等)が計測され、ピクセル表示欄C12-2,C13-2に反映される。このピクセル表示欄C12-2,C13-2は表示だけでありユーザは設定値を変更することはできない。ユーザは秒数設定欄C12-3,C13-3に数値を入力することによりオブジェクトMBの速度を指定する。指定方式は、画面C16上に描いた線分の距離をオブジェクトMBが何秒で移動するか、である。ある線分に対して最大スピード設定において秒数を3秒と指定した場合、画面C16内でその線分と同じ距離を3秒以内で通過したオブジェクトは検知されない。逆に最小スピード設定において秒数を3秒に設定した場合には、同じ距離を3秒以上かけて通過したオブジェクトは検知されない。この最大/最小スピード設定が可能なフィルタはAppearance/Disappearance/Passingのみである。描画の位置や向きは設定に関係なく、線分の長さが有効である。   This maximum / minimum speed setting uses a line segment drawing method. As shown in FIG. 14, two points on the screen C16 are clicked with the mouse to determine the length of the line segment. The length (for example, 100 pixels) is automatically measured and reflected in the pixel display columns C12-2 and C13-2. The pixel display fields C12-2 and C13-2 are only for display, and the user cannot change the set values. The user designates the speed of the object MB by inputting a numerical value in the second setting column C12-3 and C13-3. The designation method is how many seconds the object MB moves the distance of the line segment drawn on the screen C16. When the maximum speed setting for a line segment is specified as 3 seconds, an object that has passed the same distance as that line segment within 3 seconds in the screen C16 is not detected. Conversely, when the number of seconds is set to 3 seconds in the minimum speed setting, an object that has passed the same distance over 3 seconds is not detected. Only Appearance / Disappearance / Passing can be set for the maximum / minimum speed. Regardless of the setting and position of the drawing, the length of the line segment is effective.

3.非検知エリア設定
非検知エリアの設定は多角形描画方式を用いる。多角形の内部が非検知エリアとなる。非検知エリアリストC5から1つずつ選択する。
3. Non-detection area setting The polygon detection method is used to set the non-detection area. The inside of the polygon is the non-detection area. Select one from the non-detection area list C5.

4.オプション設定
オプション設定エリアC15はフィルタタイプによって設定可能なオプションが表示される。図15(a)〜(c)にオプション設定画面の例を示す。
・オブジェクト数(Capacity)
オブジェクト数設定欄C15-1はCapacityフィルタにおいて何個以上のオブジェクトが検知されたらアラームを発生させるかを設定する。
・衝突判定(Collision)
衝突判定設定欄C15-2はPassingフィルタにおいてオブジェクトMBの動体枠1023のどの角が完全にラインを超えた場合にアラームを発生させるかを設定する(図16参照)。
・期間(Duration)
期間設定欄C15-3はLoiteringフィルタにおいてオブジェクトが何秒間滞在したらアラームとするかを設定する。また、Unattended/Removedフィルタにおいてオブジェクトが不動体である/除去された、と認識されるまでの時間を設定する。
4). Option setting The option setting area C15 displays options that can be set according to the filter type. 15A to 15C show examples of option setting screens.
-Number of objects (Capacity)
The number-of-objects setting column C15-1 sets how many objects or more are detected in the Capacity filter and an alarm is generated.
・ Collision
The collision determination setting column C15-2 sets which corner of the moving object frame 1023 of the object MB is to generate an alarm when it completely exceeds the line in the Passing filter (see FIG. 16).
・ Duration
The period setting field C15-3 sets how many seconds an object stays in the Loitering filter to generate an alarm. In addition, the time until the object is recognized as an unmoving object / removed in the Unattended / Removed filter is set.

5.設定削除
キャンセルボタンC14によって、画面C16上で編集中の描画図形を削除することができる。
5. Deletion of setting The drawing figure being edited on the screen C16 can be deleted by a cancel button C14.

<ライブ/再生(live/playback)切り替え>
ライブモード選択ボタンC17-1及び再生モード選択ボタンC17-2により、画面C16に表示されるカメラ映像を再生(LIVE)モードか再生(PLAYBACK)モードかに切り替えることができる。それによりエリアC18に表示されるソフトコントローラが切り替えられる。図17(a),(b)にソフトコントローラの例を示す。
<Switching live / playback>
With the live mode selection button C17-1 and the playback mode selection button C17-2, the camera image displayed on the screen C16 can be switched between the playback (LIVE) mode and the playback (PLAYBACK) mode. Thereby, the software controller displayed in area C18 is switched. FIGS. 17A and 17B show examples of soft controllers.

1.ライブ(LIVE)モード
ライブモードのときは図17(a)に示すように、パンチルトボタンC18-1、ズームボタンC18-2及びプリセットボタンC18-3が表示される。プリセットボタンは、メタデータ生成カメラの初期位置を予め登録するためのボタンであり、ホームポジション操作によって瞬時に登録した初期位置に戻すことができる。その他、拡大/縮小ボタン等を表示するようにしてもよい。
2.再生(PLAYBACK)モード
再生モードのときは図17(b)に示すように、各種再生系ボタンC18-4、検索ボタンC18-5、撮影時刻C18-6が表示される。検索は例えば日時を基にして実行する。その他、基準とする再生時刻からの経過時間を示すタイムライン等を表示するようにしてもよい。
1. Live (LIVE) Mode In the live mode, as shown in FIG. 17A, a pan / tilt button C18-1, a zoom button C18-2, and a preset button C18-3 are displayed. The preset button is a button for registering the initial position of the metadata generation camera in advance, and can be returned to the initial position registered instantaneously by a home position operation. In addition, an enlargement / reduction button or the like may be displayed.
2. Playback (PLAYBACK) Mode In the playback mode, as shown in FIG. 17B, various playback system buttons C18-4, a search button C18-5, and a shooting time C18-6 are displayed. The search is executed based on the date and time, for example. In addition, a timeline indicating the elapsed time from the reference reproduction time may be displayed.

以上のように構成された本発明により、フィルタの設定とフィルタコンビネーション(シーケンシャル、パラレル)の設定を1つの画面内で同時に行うことができるようになる。
フィルタの設定時には最初から所定数例えば3つのフィルタ設定欄が順番に並んでいるため、ユーザはシーケンシャルなフィルタの設定を行う際にパッケージングを意識しながらフィルタの設定を行うことができる。また、フィルタ設定編集ボタンC9-1〜C9-3により1つ1つのフィルタに対して設定した動作を確認できるので、シーケンシャルなフィルタを設定する場合に順を追って有効な設定がなされているかを確認することができる。フィルタ同士の順番入れ替えもフィルタ入れ替えボタン(C6-1,C6-2)を1クリックするだけで可能であり、さらに設定済みのフィルタに対して有効/無効ボタン(C4-1〜C4-3)で設定を保存したままフィルタ機能を無効(disable)にすることができる。フィルタコンビネーションの切り替えも1クリックで可能であり、コンビネーション設定C1の表示によって現在どちらの設定になっているか容易に把握することができる。
According to the present invention configured as described above, it is possible to simultaneously set a filter and a filter combination (sequential or parallel) within one screen.
Since a predetermined number, for example, three filter setting fields are arranged in order from the beginning when the filter is set, the user can set the filter while paying attention to packaging when setting the sequential filter. In addition, since the operation set for each filter can be confirmed by the filter setting edit buttons C9-1 to C9-3, it is confirmed whether the effective setting is made step by step when setting the sequential filter. can do. The order of filters can be changed with a single click of the filter replacement buttons (C6-1, C6-2), and the valid / invalid buttons (C4-1 to C4-3) for filters that have already been set. The filter function can be disabled while the settings are saved. The filter combination can be switched with a single click, and the combination setting C1 can be easily grasped by displaying the combination setting C1.

また、フィルタの詳細設定を数値ではなく、実際にモニタリングの対象となる映像を見ながらGUI(画面C16)上でのオブジェクト情報(大きさ、移動速度など)と比較しながら画面C16上で図形の描画を行うことによって指定することができるようになる。数値だけの設定方法ではオブジェクトの実際の大きさや速さをユーザが数値化することが難しく、適切にフィルタを設定することが難しい。しかし、任意のライブ映像や再生映像を見ながら図形描画でフィルタ設定することにより、実際にフィルタリングしたい対象と同じサイズ、同じスピード、そして任意のエリアを視覚的に設定することができ、簡単に誤検知の少ないフィルタを設定することが可能となる。   In addition, the detailed setting of the filter is not a numerical value, but is compared with the object information (size, moving speed, etc.) on the GUI (screen C16) while actually watching the image to be monitored, and the figure is displayed on the screen C16. It can be specified by drawing. In the setting method using only numerical values, it is difficult for the user to digitize the actual size and speed of the object, and it is difficult to set the filter appropriately. However, you can visually set the same size, the same speed, and an arbitrary area as the target you want to actually filter by setting the filter by drawing while watching any live video or playback video. A filter with less detection can be set.

また、フィルタの設定方法として、映像内(画面C16上)のオブジェクトを選択することによってフィルタを設定することも可能である。このようにした場合例えば最大/最小サイズの設定であれば、任意の瞬間のオブジェクトを映像内でクリックすることにより、同サイズのオブジェクトを描画したのと同じ効果を得られる。また移動速度を設定する場合には、映像内で移動しているオブジェクトを追随して2回クリックすることにより、初めと次のクリックの位置と時間差から映像内での移動速度を割り出すことが可能である。フィルタ設定情報をカメラ間でコピーすることにより、似たような設定をする場合にコピー先のカメラ用に微調整するだけで簡単に設定内容を編集することができる。   As a filter setting method, it is also possible to set a filter by selecting an object in the video (on the screen C16). In this case, for example, if the maximum / minimum size is set, the same effect as that of drawing an object of the same size can be obtained by clicking an object at an arbitrary moment in the video. Also, when setting the moving speed, you can follow the moving object in the video and click twice to calculate the moving speed in the video from the position and time difference between the first and next clicks. It is. By copying the filter setting information between the cameras, the setting contents can be easily edited by making fine adjustments for the copy destination camera when similar settings are made.

なお、フィルタの詳細設定(フィルタ検知エリアの図形)は、メタデータ生成カメラのパンチルト動作やズームイン/ズームアウト動作に応じてその位置及びサイズが動的に変更されるように設定することも可能である。   It should be noted that the detailed filter settings (filter detection area graphic) can be set so that the position and size of the metadata generation camera are dynamically changed according to the pan / tilt operation or zoom-in / zoom-out operation of the metadata generation camera. is there.

上述した実施形態例における一連の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。   The series of processes in the above-described exemplary embodiment can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing programs that make up the software into a computer built into dedicated hardware, or by installing various programs. For example, a general-purpose personal computer or the like installs and executes a program constituting desired software.

また、上述した実施形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPU等の制御装置)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   In addition, a recording medium recording software program codes for realizing the functions of the above-described exemplary embodiments is supplied to a system or apparatus, and a computer (or a control device such as a CPU) of the system or apparatus is stored in the recording medium. Needless to say, this can also be achieved by reading and executing the program code.

この場合のプログラムコードを供給するための記録媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a recording medium for supplying the program code in this case, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do.

また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施形態例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上述した実施形態例の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described exemplary embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs actual processing. In some cases, the functions of the above-described exemplary embodiments are realized by performing part or all of the above.

また、本明細書において、ソフトウェアを構成するプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in this specification, the step of describing the program constituting the software is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

さらに、本発明は上述した実施形態例に限られるものではなく、本発明の要旨を逸脱することなくその他種々の構成を取り得ることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various other configurations can be taken without departing from the gist of the present invention.

本発明の一実施形態に係る監視システムの構成例を示す図である。It is a figure which shows the structural example of the monitoring system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る管理クライアントの内部構成例を示す図である。It is a figure which shows the example of an internal structure of the management client which concerns on one Embodiment of this invention. 本発明の一実施形態に係るフィルタパッケージ部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the filter package part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るアラーム情報解析部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the alarm information analysis part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るスケジュール設定部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the schedule setting part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るアクション設定部の処理例を示すフローチャートである。It is a flowchart which shows the process example of the action setting part which concerns on one Embodiment of this invention. 本発明の一実施形態に係る、メタデータにパッケージフィルタを適用した場合の処理例を示すフローチャートチャートである。It is a flowchart chart which shows the process example at the time of applying a package filter to metadata based on one Embodiment of this invention. 本発明の一実施形態に係る映像データとメタデータの表示例である。4 is a display example of video data and metadata according to an embodiment of the present invention. 本発明の一実施形態に係るフィルタパッケージの概念を説明する図である。It is a figure explaining the concept of the filter package which concerns on one Embodiment of this invention. 本発明の一実施形態に係るパッケージ設定画面の一例を示す図である。It is a figure which shows an example of the package setting screen which concerns on one Embodiment of this invention. 本発明の一実施形態に係る多角形描画方式の説明に供する図である。It is a figure where it uses for description of the polygon drawing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るライン描画方式の説明に供する図である。It is a figure where it uses for description of the line drawing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る最大/最小サイズ設定の説明に供する図である。It is a figure where it uses for description of the maximum / minimum size setting which concerns on one Embodiment of this invention. 本発明の一実施形態に係る最大/最小スピード設定の説明に供する図である。It is a figure where it uses for description of the maximum / minimum speed setting which concerns on one Embodiment of this invention. 本発明の一実施形態に係る設定画面(フィルタ設定オプション)の説明に供する図である。It is a figure where it uses for description of the setting screen (filter setting option) which concerns on one Embodiment of this invention. 本発明の一実施形態に係る衝突判定の説明に供する図である。It is a figure where it uses for description of the collision determination which concerns on one Embodiment of this invention. 本発明の一実施形態に係る設定画面(ライブ/再生モード切替)の説明に供する図である。It is a figure with which it uses for description of the setting screen (live / reproduction | regeneration mode switching) which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

1a,1b…メタデータ生成カメラ、2…ネットワーク、3…管理クライアント、11…管理サーバ、12…閲覧クライアント、5…解析処理部、6…表示部、7…メタデータレコーディングシステム、33…フィルタパッケージ部、38…メタデータフィルタ部、39…映像データ再生部、40…メタデータ再生部、53…パッケージ設定データベース、54…解析ルール設定データベース、55…フィルタ設定データベース、1001…映像データ、1002…メタデータ、1003…フィルタ設定表示画面、1004…監視映像、H1,H2,H3…動体枠、LN…境界線、MBI,MB2,MB3…動体、PA…領域、C1…コンビネーション設定、C2-1〜C2-3…フィルタ名、C3-1〜C3-3…フィルタタイプリスト、C4-1〜C4-3…有効/無効ボタン、C5…非検知エリアリスト、C6-1〜C6-2…フィルタ入れ替えボタン、C7-1〜C7-2…シーケンシャルモード表示、C8-1〜C8-2…フィルタ評価間隔、C9-1〜C9-3…フィルタ設定編集ボタン、C9-4…非検知エリア設定確認ボタン、C10…フィルタパッケージ動作確認ボタン、C11-1〜C11-2…最大/最小サイズ設定ボタン、C12-1,C13-1…最大/最小スピード設定ボタン、C12-2,C13-2…ピクセル表示欄、c12-3,c13-3…秒数設定欄、C15…オプション設定エリア、C15-1…オブジェクト数設定欄、C15-2…衝突判定設定欄、C15-3…期間設定欄、C16…画面、C17-1…再生モード選択ボタン、C17-2…再生モード選択ボタン   DESCRIPTION OF SYMBOLS 1a, 1b ... Metadata production | generation camera, 2 ... Network, 3 ... Management client, 11 ... Management server, 12 ... Viewing client, 5 ... Analysis processing part, 6 ... Display part, 7 ... Metadata recording system, 33 ... Filter package 38, metadata filter unit, 39 ... video data reproduction unit, 40 ... metadata reproduction unit, 53 ... package setting database, 54 ... analysis rule setting database, 55 ... filter setting database, 1001 ... video data, 1002 ... meta Data, 1003 ... Filter setting display screen, 1004 ... Monitoring video, H1, H2, H3 ... Moving object frame, LN ... Border line, MBI, MB2, MB3 ... Moving object, PA ... Area, C1 ... Combination setting, C2-1 to C2 -3 ... Filter name, C3-1 to C3-3 ... Filter type list, C4-1 to C4-3 ... Enable / Disable button, C5 ... Non-detection area list , C6-1 to C6-2 ... Filter replacement button, C7-1 to C7-2 ... Sequential mode display, C8-1 to C8-2 ... Filter evaluation interval, C9-1 to C9-3 ... Filter setting edit button, C9-4 ... Non-detection area setting confirmation button, C10 ... Filter package operation confirmation button, C11-1 to C11-2 ... Maximum / minimum size setting button, C12-1, C13-1 ... Maximum / minimum speed setting button, C12 -2, C13-2 ... Pixel display field, c12-3, c13-3 ... Seconds setting field, C15 ... Option setting area, C15-1 ... Object number setting field, C15-2 ... Collision judgment setting field, C15- 3 ... Period setting field, C16 ... Screen, C17-1 ... Playback mode selection button, C17-2 ... Playback mode selection button

Claims (7)

監視カメラから映像データを取得する映像データ取得部と、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得部と、
複数のフィルタの設定を行える設定画面を表示する表示部と、
メタデータ情報を用いたフィルタの設定を行うフィルタ設定部と、
前記複数のフィルタの組み合わせを設定する組み合わせ設定部とを備え、
同一の設定画面上に前記フィルタ設定部と前記組み合わせ設定部が設けられている
監視装置。
A video data acquisition unit for acquiring video data from the surveillance camera;
A metadata acquisition unit for acquiring metadata indicating information related to a monitoring target from the monitoring camera;
A display unit for displaying a setting screen for setting a plurality of filters;
A filter setting unit for setting a filter using the metadata information;
A combination setting unit for setting a combination of the plurality of filters,
The monitoring apparatus, wherein the filter setting unit and the combination setting unit are provided on the same setting screen.
前記組み合わせ設定部は、前記表示部に表示された設定画面内に設けられた前記複数のフィルタの組み合わせ種類を切り替えるための切り替え部である
請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, wherein the combination setting unit is a switching unit for switching a combination type of the plurality of filters provided in a setting screen displayed on the display unit.
前記複数のフィルタの組み合わせ種類は、各々のフィルタの条件と前記監視カメラから取得したメタデータが合致するごとにアラームを出力するためのパラレルモードと、
設定された順番どおりにフィルタの条件と前記監視カメラから取得したメタデータが合致するときに1つのアラームを出力するためのシーケンシャルモードである
請求項2に記載の監視装置。
The combination type of the plurality of filters is a parallel mode for outputting an alarm every time the condition of each filter matches the metadata acquired from the monitoring camera,
The monitoring device according to claim 2, wherein the monitoring device is a sequential mode for outputting one alarm when a filter condition matches metadata acquired from the monitoring camera in a set order.
前記フィルタ設定部は、前記表示部に表示された設定画面内に設けられた前記複数のフィルタを使用するか否かを設定するための有効/無効設定部である
請求項1に記載の監視装置。
The monitoring device according to claim 1, wherein the filter setting unit is a valid / invalid setting unit for setting whether or not to use the plurality of filters provided in a setting screen displayed on the display unit. .
前記フィルタ設定部は、前記設定画面の一部に設けられ、前記監視カメラから取得した映像データを表示した画面上に図形描画することでフィルタの設定を行う
請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, wherein the filter setting unit is provided in a part of the setting screen and sets a filter by drawing a graphic on a screen on which video data acquired from the monitoring camera is displayed.
監視映像の映像データと監視対象に関する情報を示したメタデータを生成する監視カメラと監視装置を用いて構成される監視システムにおいて、
前記監視装置は、
前記監視カメラから映像データを取得する映像データ取得部と、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得部と、
複数のフィルタの設定を行える設定画面を表示する表示部と、
メタデータ情報を用いたフィルタの設定を行うフィルタ設定部と、
前記複数のフィルタの組み合わせを設定する組み合わせ設定部とを備え、
同一の設定画面上に前記フィルタ設定部と前記組み合わせ設定部が設けられている
監視システム。
In a monitoring system configured using a monitoring camera and a monitoring device that generate video data of monitoring video and metadata indicating information on a monitoring target,
The monitoring device
A video data acquisition unit for acquiring video data from the surveillance camera;
A metadata acquisition unit for acquiring metadata indicating information related to a monitoring target from the monitoring camera;
A display unit for displaying a setting screen for setting a plurality of filters;
A filter setting unit for setting a filter using the metadata information;
A combination setting unit for setting a combination of the plurality of filters,
The monitoring system, wherein the filter setting unit and the combination setting unit are provided on the same setting screen.
監視カメラから映像データを取得する映像データ取得ステップと、
前記監視カメラから監視対象に関する情報を示すメタデータを取得するメタデータ取得ステップと、
複数のフィルタを設定する機能と複数のフィルタの組み合わせを設定する機能を備える設定画面を表示部に表示するステップと、
前記設定画面上でメタデータ情報を用いたフィルタの設定を行うステップと、
前記設定画面上で複数のフィルタの組み合わせを設定するステップとを有する
フィルタ設定方法。
A video data acquisition step of acquiring video data from the surveillance camera;
A metadata acquisition step of acquiring metadata indicating information related to a monitoring target from the monitoring camera;
Displaying a setting screen having a function of setting a plurality of filters and a function of setting a combination of a plurality of filters on a display unit;
Setting a filter using metadata information on the setting screen;
Setting a combination of a plurality of filters on the setting screen.
JP2008215767A 2008-08-25 2008-08-25 Monitoring device, monitoring system, and filter setting method Expired - Fee Related JP5195156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008215767A JP5195156B2 (en) 2008-08-25 2008-08-25 Monitoring device, monitoring system, and filter setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008215767A JP5195156B2 (en) 2008-08-25 2008-08-25 Monitoring device, monitoring system, and filter setting method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006182824A Division JP4201025B2 (en) 2006-06-30 2006-06-30 Monitoring device, monitoring system, filter setting method, and monitoring program

Publications (3)

Publication Number Publication Date
JP2008283726A true JP2008283726A (en) 2008-11-20
JP2008283726A5 JP2008283726A5 (en) 2009-08-13
JP5195156B2 JP5195156B2 (en) 2013-05-08

Family

ID=40144099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008215767A Expired - Fee Related JP5195156B2 (en) 2008-08-25 2008-08-25 Monitoring device, monitoring system, and filter setting method

Country Status (1)

Country Link
JP (1) JP5195156B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011584A (en) * 2012-06-28 2014-01-20 Canon Inc Information processor and control method for the same
JP2016149654A (en) * 2015-02-12 2016-08-18 キヤノン株式会社 Display control apparatus and display control method
KR20170020864A (en) * 2014-06-30 2017-02-24 후아웨이 테크놀러지 컴퍼니 리미티드 Image processing method and video camera
JP2017108402A (en) * 2016-12-01 2017-06-15 キヤノン株式会社 Information processing device and control method for the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3034641B1 (en) 2013-08-14 2019-10-09 Posco Ultrahigh-strength steel sheet and manufacturing method thereof
JP7306624B2 (en) 2019-06-19 2023-07-11 日本製鉄株式会社 steel plate

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177973A (en) * 1997-12-12 1999-07-02 Hitachi Denshi Ltd Image processing system for detecting moving object
JP2001167095A (en) * 1999-09-27 2001-06-22 Mitsubishi Electric Corp System and method for retrieving image
JP2002262282A (en) * 2000-10-05 2002-09-13 Hitachi Denshi Technosystem Kk Image supervisory method and image supervisory device
JP2004355453A (en) * 2003-05-30 2004-12-16 Matsushita Electric Ind Co Ltd Marketing information acquisition system
JP2006139382A (en) * 2004-11-10 2006-06-01 Canon Inc Information processor, its control method, and program
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177973A (en) * 1997-12-12 1999-07-02 Hitachi Denshi Ltd Image processing system for detecting moving object
JP2001167095A (en) * 1999-09-27 2001-06-22 Mitsubishi Electric Corp System and method for retrieving image
JP2002262282A (en) * 2000-10-05 2002-09-13 Hitachi Denshi Technosystem Kk Image supervisory method and image supervisory device
JP2004355453A (en) * 2003-05-30 2004-12-16 Matsushita Electric Ind Co Ltd Marketing information acquisition system
JP2006139382A (en) * 2004-11-10 2006-06-01 Canon Inc Information processor, its control method, and program
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011584A (en) * 2012-06-28 2014-01-20 Canon Inc Information processor and control method for the same
US9536164B2 (en) 2012-06-28 2017-01-03 Canon Kabushiki Kaisha Setting apparatus and setting method
US10410063B2 (en) 2012-06-28 2019-09-10 Canon Kabushiki Kaisha Setting apparatus and setting method
KR20170020864A (en) * 2014-06-30 2017-02-24 후아웨이 테크놀러지 컴퍼니 리미티드 Image processing method and video camera
KR101932670B1 (en) * 2014-06-30 2018-12-26 후아웨이 테크놀러지 컴퍼니 리미티드 Image processing method and camera
US10425608B2 (en) 2014-06-30 2019-09-24 Huawei Technologies Co., Ltd. Image processing method and camera
JP2016149654A (en) * 2015-02-12 2016-08-18 キヤノン株式会社 Display control apparatus and display control method
JP2017108402A (en) * 2016-12-01 2017-06-15 キヤノン株式会社 Information processing device and control method for the same

Also Published As

Publication number Publication date
JP5195156B2 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP4201025B2 (en) Monitoring device, monitoring system, filter setting method, and monitoring program
US8437508B2 (en) Information processing apparatus and information processing method
JP5195156B2 (en) Monitoring device, monitoring system, and filter setting method
EP2795620B1 (en) Video editor software with dual timeline: proportional-thumbnails and gaps-removed.
US20130021433A1 (en) Overview configuration and control method for ptz cameras
JP5506324B2 (en) Similar image search system and similar image search method
JP2016154306A (en) Chase support device, case support system and chase support method
WO2018037631A1 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US20060119703A1 (en) Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images
KR101484844B1 (en) Apparatus and method for privacy masking tool that provides real-time video
JP2010009134A (en) Image processing system, image processing method, and program
TWI552591B (en) Method for tagging an object in video, device and computer-readable medium
KR20060095515A (en) Information processing system, information processing apparatus and information processing method, program, and recording medium
JP4872490B2 (en) Monitoring device, monitoring system, and monitoring method
JP4453684B2 (en) MONITORING SYSTEM, MONITORING DEVICE, SEARCH METHOD, AND SEARCH PROGRAM
JP2008015566A (en) Monitoring system, monitoring device, and monitoring method
JP2010233185A (en) Apparatus, system and program for processing image
JP2017118319A (en) Video retrieval system
JP2002344897A (en) Video display device
KR20210108691A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP4175622B2 (en) Image display system
KR20220003779A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP2004236211A (en) Image processing system
JP2020198037A (en) Control device
JP6099026B1 (en) MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5195156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees