JP2008016896A - Monitoring apparatus and monitoring method - Google Patents

Monitoring apparatus and monitoring method Download PDF

Info

Publication number
JP2008016896A
JP2008016896A JP2006182822A JP2006182822A JP2008016896A JP 2008016896 A JP2008016896 A JP 2008016896A JP 2006182822 A JP2006182822 A JP 2006182822A JP 2006182822 A JP2006182822 A JP 2006182822A JP 2008016896 A JP2008016896 A JP 2008016896A
Authority
JP
Japan
Prior art keywords
metadata
monitoring
information
filter
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006182822A
Other languages
Japanese (ja)
Inventor
Asako Tamura
朝子 田村
Hidetaka Miyamaki
秀宇 宮牧
Kazumasa Tsukuda
和真 佃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006182822A priority Critical patent/JP2008016896A/en
Publication of JP2008016896A publication Critical patent/JP2008016896A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently search information about monitoring video images. <P>SOLUTION: Monitoring video data imaged and outputted by an imaging apparatus, and meta-data indicating information of a video image to be monitored, are acquired to execute monitoring. In this case, the meta-data are stored, meta-data coinciding with a specific filter condition are searched from stored files of the stored meta-data, and attribute information is given to the accumulated meta-data on the basis of a result of search and the attribute information is stored. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置を使用して監視を行う監視装置及び監視方法に関し、特に撮像装置として、映像データに関する情報を示すメタデータを生成させることが可能なものを使用したシステムに関する。   The present invention relates to a monitoring apparatus and a monitoring method for monitoring using an imaging apparatus, and more particularly to a system using an imaging apparatus capable of generating metadata indicating information related to video data.

従来の監視システムでは、撮像装置(ビデオカメラ)と、その撮像装置が出力する映像データを表示可能な監視装置とをネットワークで接続して、監視装置で映像を記録することで、異常発生時の監視映像の確認ができるようにしてある(例えば特許文献1参照)。
特開2003−274390号公報
In a conventional monitoring system, an imaging device (video camera) and a monitoring device capable of displaying video data output by the imaging device are connected via a network, and a video is recorded by the monitoring device, so that an error can be detected. The monitoring video can be confirmed (see, for example, Patent Document 1).
JP 2003-274390 A

ところで、この種の監視システムで監視を行う場合、予め設定した1つの情報に基づいて異常発生の有無を判別するものとしたとき、多様な監視動作を行うことができない。このため、監視用の撮像装置として、監視用映像から動体の有無などを示す情報(メタデータ)を生成して、その情報を監視装置に送り、監視装置側で監視映像とメタデータを使用して、異常判別などを行えるようにしたものが提案され、開発されている。このメタデータを映像データと共に生成させて、監視装置で記録させる構成とした場合、監視装置(記録装置)では、記録させるデータ量が増え、後日、記録されたデータから必要とする状態の監視映像を検索するような場合に、必要なデータの検索に手間と時間がかかる問題があった。   By the way, when monitoring is performed with this type of monitoring system, various monitoring operations cannot be performed when it is determined whether or not an abnormality has occurred based on one preset information. For this reason, as a monitoring imaging device, information (metadata) indicating the presence or absence of moving objects is generated from the monitoring video, the information is sent to the monitoring device, and the monitoring video and metadata are used on the monitoring device side. Therefore, a device that can perform abnormality determination has been proposed and developed. When this metadata is generated together with video data and recorded by the monitoring device, the amount of data to be recorded increases in the monitoring device (recording device), and a monitoring video in a state required from the recorded data at a later date. When searching, there is a problem that it takes time and effort to search for necessary data.

従来の監視システムでは、例えば、メタデータを保存する際に、日時分の時の部分が変わった場合か、或いは、ファイル内の映像のフレーム数が規定の最大数を超えた場合に、データを保存するファイルを切り替えていた。メタデータの保存開始時間と保存終了時間を、検索のためのインデックス情報として、ファイルを検索するようにしてあった。この検索方式は、時刻をキーにして検索し見つかったポイントから順再生を始めるのには適しているが、ある特定のフィルタに合致したメタデータを抽出するような使い方には適さない問題があった。   In the conventional monitoring system, for example, when saving the metadata, if the time portion changes, or if the number of video frames in the file exceeds the specified maximum number, the data is stored. The file to be saved was switched. A file is searched using the storage start time and storage end time of metadata as index information for search. This search method is suitable for starting playback from the points found by searching using the time as a key, but there is a problem that is not suitable for usage that extracts metadata that matches a specific filter. It was.

本発明はかかる点に鑑みてなされたものであり、監視映像に関する情報の検索が効率良くできるようにすることを目的とする。   The present invention has been made in view of such a point, and an object of the present invention is to make it possible to efficiently search for information related to a monitoring video.

本発明は、撮像装置が撮像して出力する監視用映像データと、監視対象の映像に関する情報を示したメタデータとを取得して、監視を行う場合において、メタデータを保存し、その保存されたメタデータの保存ファイルの中から、特定のフィルタ条件に合致するメタデータを検索し、検索された結果に基づいて、蓄積されたメタデータに属性情報を持たせて、その属性情報を保存するようにしたものである。   In the present invention, when monitoring video data captured and output by an imaging device and metadata indicating information related to a video to be monitored are acquired and monitored, the metadata is stored and stored. Search for metadata that matches a specific filter condition from the saved metadata file, and store the attribute information in the accumulated metadata based on the search result. It is what I did.

このようにしたことで、属性情報を使用してメタデータの効率の良い検索が可能となる。   By doing in this way, efficient search of metadata becomes possible using attribute information.

本発明によると、属性情報を使用してメタデータの効率の良い検索が可能になる。即ち、メタデータの保存時にフィルタ処理の結果に応じて前処理を施しておくことにより、そのフィルタに合致するメタデータを検索する際に検索対象をあらかじめ絞り込むことができるようになり、高速に検索結果が得られるようになる。   According to the present invention, it is possible to efficiently search metadata using attribute information. In other words, by performing pre-processing according to the filter processing result when saving metadata, the search target can be narrowed down in advance when searching for metadata that matches the filter, and search is performed at high speed. Results will be obtained.

以下、本発明の一実施の形態を、添付図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は、本実施の形態のシステム構成例を示した図である。ここでは、複数台のネットワークカメラ11,12,13,‥‥,19を用意し、それぞれのカメラ11〜19を、ネットワークを介してサーバ21,22,23に接続してある。図1の例では、3台のカメラの出力を、1台のサーバに供給する構成としてあるが、一例を示したものであり、これに限定されない。サーバ21〜23は、ネットワークを介して接続されたクライアント端末31,32にデータを送ることができる。なお、ネットワークとしては、監視システム用の専用のネットワークを使用してもよく、インターネットを使用してもよい。   FIG. 1 is a diagram showing a system configuration example of the present embodiment. Here, a plurality of network cameras 11, 12, 13,..., 19 are prepared, and the respective cameras 11-19 are connected to the servers 21, 22, 23 via the network. In the example of FIG. 1, the output of the three cameras is configured to be supplied to one server, but this is an example, and the present invention is not limited to this. The servers 21 to 23 can send data to the client terminals 31 and 32 connected via the network. As a network, a dedicated network for the monitoring system may be used, or the Internet may be used.

各ネットワークカメラ11〜19は、監視映像を撮像する撮像部を備えて、その撮像部が撮像した映像データをネットワークに出力する撮像装置である。また、本例の各ネットワークカメラ11〜19は、撮像された監視映像に関する情報であるメタデータを生成させるメタデータ生成部を備えて、そのメタデータ生成部で生成されたメタデータを出力する構成としてある。メタデータは、監視映像中の動きがある範囲の座標位置を示す情報や、その動きの状態などの、監視映像の状態を検出して得た情報である。ここでは、メタデータとして、座標位置や状態などを示すテキストデータとして生成させるようにしてある。なお、用意されたネットワークカメラ11〜19が全てメタデータを生成させる構成としてもよいが、一部のカメラだけがメタデータ生成部を備える構成としてもよい。   Each of the network cameras 11 to 19 is an imaging device that includes an imaging unit that captures a monitoring video and outputs video data captured by the imaging unit to a network. In addition, each network camera 11 to 19 of this example includes a metadata generation unit that generates metadata that is information about the captured surveillance video, and outputs the metadata generated by the metadata generation unit. It is as. The metadata is information obtained by detecting the status of the monitoring video, such as information indicating the coordinate position of a range where there is a motion in the monitoring video and the status of the motion. Here, the metadata is generated as text data indicating the coordinate position and state. Note that all of the prepared network cameras 11 to 19 may generate metadata, but only some cameras may include a metadata generation unit.

ここで、ネットワークカメラ内で生成されるメタデータについて説明すると、メタデータは、映像データと音声データの補足情報となるデータである。メタデータには例えば以下のような情報が入る。
・オブジェクト情報(ネットワークカメラ内で動体検知を行った結果の情報。動体と認識されたものをオブジェクトとし、オブジェクトのID、X座標、Y座標、サイズなどが入る)
・映像の時刻データ
・カメラのパン・ティルト情報(向き情報)
・カメラの位置情報
・映像の認証用署名情報
Here, the metadata generated in the network camera will be described. The metadata is data serving as supplementary information for video data and audio data. The metadata includes, for example, the following information.
Object information (information on the result of moving object detection in the network camera. The object recognized as a moving object is an object, and the object ID, X coordinate, Y coordinate, size, etc. are entered)
・ Video time data ・ Camera pan / tilt information (orientation information)
・ Camera position information ・ Video signature information

以下の説明では、特に、オブジェクト情報と時刻データを使用した例を記載している。
オブジェクト情報は、メタデータ内のオブジェクト情報はバイナリデータとして記載され、データサイズは最小限となっている。このメタデータからオブジェクト情報を構造体など意味のあるデータ構造に展開した情報を本書では「オブジェクト情報」と記載している。
アラーム情報は、メタデータから展開したオブジェクト情報を元に、フィルタ処理をかけた後の情報である。アラーム情報は、複数フレームのメタデータを解析し、動体位置の変化から速度を割り出したり、動体がある線を越えたかどうかのチェック、またはそれらを複合的に解析することで得られる。
アラーム情報には、映像内の員数(人数)や、それらの統計も含まれ、レポート機能としても使用できる。
In the following description, an example using object information and time data is described.
In the object information, the object information in the metadata is described as binary data, and the data size is minimized. Information obtained by developing object information from this metadata into a meaningful data structure such as a structure is referred to as “object information” in this document.
The alarm information is information after filtering processing based on the object information developed from the metadata. The alarm information can be obtained by analyzing metadata of a plurality of frames, determining the speed from the change of the moving object position, checking whether the moving object exceeds a certain line, or analyzing them in combination.
The alarm information includes the number of people in the video and their statistics, and can also be used as a report function.

アラーム情報に含まれるデータ例を以下に示す。
・累積オブジェクト数
累積オブジェクト数を使用するフィルタを設定した場合、アラーム情報にフィルタに該当したオブジェクト数が記録される。
・オブジェクト
そのフレーム内においてフィルタに該当したオブジェクト数。
・フィルタに該当したオブジェクト情報
フィルタに該当したオブジェクトのオブジェクト情報。オブジェクトのID、X座標、Y座標、サイズなどが入る。
An example of data included in the alarm information is shown below.
-Cumulative number of objects When a filter that uses the cumulative number of objects is set, the number of objects corresponding to the filter is recorded in the alarm information.
・ Object The number of objects corresponding to the filter in the frame.
-Object information corresponding to the filter Object information of the object corresponding to the filter. Contains the ID, X coordinate, Y coordinate, size, etc. of the object.

図2は、サーバの構成例を示した図である。図2では、サーバ21の構成を示してあるが、他のサーバも同様の構成である。サーバ21は、ネットワーク接続部91を備え、ネットワークカメラやクライアント端末とデータ伝送が行える。ネットワーク接続部91がネットワークカメラから受信した映像データは、映像データバッファ部92に送り、映像データベース94に蓄積させる。ネットワーク接続部91がネットワークカメラから受信したメタデータは、メタデータバッファ部93に送り、メタデータデータベース95に蓄積させる。各データベース94,95は、例えばハードディスクドライブなどの大容量記憶手段が使用される。メタデータデータベース95に蓄積されたメタデータは、メタデータフィルタ部96でフィルタ処理され、メタデータの内容が解析される。そのフィルタ処理する内容(即ち解析する内容)は、フィルタ設定部97により設定される。フィルタ処理例については後述する。メタデータフィルタ部96での解析の結果、カメラで撮影する条件などを切替える必要がある場合には、ルール切替部98で撮影ルールなどを切替える指令を生成させて、該当する指令をネットワーク接続部91からカメラ11などに送る。メタデータを解析した結果のデータ(アラーム情報など)についても、メタデータデータベース95に記憶される。   FIG. 2 is a diagram illustrating a configuration example of a server. Although FIG. 2 shows the configuration of the server 21, other servers have the same configuration. The server 21 includes a network connection unit 91 and can perform data transmission with a network camera or a client terminal. The video data received from the network camera by the network connection unit 91 is sent to the video data buffer unit 92 and stored in the video database 94. The metadata received from the network camera by the network connection unit 91 is sent to the metadata buffer unit 93 and stored in the metadata database 95. Each of the databases 94 and 95 uses a large capacity storage means such as a hard disk drive. The metadata accumulated in the metadata database 95 is filtered by the metadata filter unit 96, and the content of the metadata is analyzed. The contents to be filtered (that is, the contents to be analyzed) are set by the filter setting unit 97. An example of filter processing will be described later. As a result of the analysis by the metadata filter unit 96, when it is necessary to switch the conditions for shooting with the camera, the rule switching unit 98 generates a command for switching the shooting rule and the like, and sends the corresponding command to the network connection unit 91. To the camera 11 or the like. Data (such as alarm information) obtained as a result of analyzing the metadata is also stored in the metadata database 95.

なお、図2のサーバでは、映像データ及びメタデータの蓄積と、蓄積されたメタデータの解析を行う構成としたが、映像データの表示や、解析結果の表示などが行える構成としてもよい。また、クライアント端末側で全ての解析を行う場合には、フィルタ部96などを備えない構成として、解析処理そのものはクライアント端末側で行うようにしてもよい。   2 is configured to store video data and metadata and to analyze the stored metadata, it may be configured to display video data, display analysis results, and the like. Further, when all analysis is performed on the client terminal side, the analysis process itself may be performed on the client terminal side as a configuration without the filter unit 96 or the like.

図3は、クライアント端末の構成例を示した図である。図3では、クライアント端末31の構成を示してあるが、他のクライアント端末もほぼ同様の構成である。監視を行う端末装置であるクライアント端末は、ネットワーク接続部101を備え、サーバやネットワークカメラやクライアント端末とデータ伝送が行える。ネットワーク接続部101がサーバから受信した映像データは、映像データバッファ部102に送り、映像データベース104に蓄積させる。ネットワーク接続部101がネットワークカメラから受信したメタデータは、メタデータバッファ部103に送り、メタデータデータベース105に蓄積させる。各データベース104,105は、例えばハードディスクドライブなどの大容量記憶手段が使用される。メタデータデータベース105に蓄積されたメタデータは、メタデータフィルタ部106でフィルタ処理され、メタデータの内容が解析される。そのフィルタ処理する内容(即ち解析する内容)は、フィルタ設定部107により設定される。メタデータフィルタ部106での解析の結果、カメラで撮影する条件などを切替える必要がある場合には、ルール切替部108で撮影ルールなどを切替える指令を生成させて、該当する指令をネットワーク接続部101からサーバを経由してカメラに(或いはサーバを経由せずに直接カメラに)送る。解析されたメタデータについても、メタデータデータベース105に蓄積される。   FIG. 3 is a diagram illustrating a configuration example of a client terminal. In FIG. 3, the configuration of the client terminal 31 is shown, but the other client terminals have almost the same configuration. A client terminal, which is a terminal device that performs monitoring, includes a network connection unit 101 and can perform data transmission with a server, a network camera, or a client terminal. The video data received from the server by the network connection unit 101 is sent to the video data buffer unit 102 and stored in the video database 104. The metadata received from the network camera by the network connection unit 101 is sent to the metadata buffer unit 103 and stored in the metadata database 105. Each database 104, 105 uses a large capacity storage means such as a hard disk drive. The metadata accumulated in the metadata database 105 is filtered by the metadata filter unit 106, and the content of the metadata is analyzed. The content to be filtered (that is, the content to be analyzed) is set by the filter setting unit 107. As a result of the analysis by the metadata filter unit 106, when it is necessary to switch the conditions for shooting with the camera, the rule switching unit 108 generates a command for switching the shooting rule and the like, and the corresponding command is sent to the network connection unit 101. To the camera via the server (or directly to the camera without going through the server). The analyzed metadata is also stored in the metadata database 105.

また、クライアント端末は、監視映像などを表示させる表示部111を備える。この表示部111で表示を行うために、映像データ処理部109と、メタデータ処理部110を備え、映像データ処理部109で表示させる映像データを映像データベース104から取得し、メタデータ処理部110で表示させる映像に同期したメタデータをメタデータデータベース105から取得する。映像データ処理部109とメタデータ処理部110とで、扱うデータの時間的な同期をとるために、再生同期部112で同期処理が行われる。サーバ又はカメラから直接供給されるライブ映像を表示させる際には、映像バッファ部102及びメタデータバッファ部103から表示部111にデータを送り、表示させる。   In addition, the client terminal includes a display unit 111 that displays a monitoring video or the like. In order to perform display on the display unit 111, the video data processing unit 109 and the metadata processing unit 110 are provided. Video data to be displayed by the video data processing unit 109 is acquired from the video database 104, and the metadata processing unit 110 Metadata synchronized with the video to be displayed is acquired from the metadata database 105. In order for the video data processing unit 109 and the metadata processing unit 110 to temporally synchronize the data to be handled, the reproduction synchronization unit 112 performs synchronization processing. When displaying live video directly supplied from a server or camera, data is sent from the video buffer unit 102 and the metadata buffer unit 103 to the display unit 111 for display.

ここで、サーバやクライアント端末内のメタデータフィルタ部96,106でのフィルタ処理の例について説明する。
ここで、フィルタ処理情報としては、オブジェクト情報からアラーム情報を生成する際のルールが記載された情報である。複数フレームのメタデータをフィルタ処理で解析することでレポートの作成や、映像に員数を表示するなどの出力が可能となる。フィルタタイプとしては、例えば以下の4つを用意する。
Appearance(存在):物体があるエリア内に存在するとき、アラームとなる。
Disappearance(消失):物体があるエリアに現れ、エリアから出た時にアラームと考える。
Passing(通過):ある線を書き、それを物体が超えた時にアラームとみなす。
Capacity(物体数制限):あるエリア内の員数をカウントし、それがある数を超えたらアラームと考える。
このようにメタデータを使用した解析、及びその解析結果の表示は、監視を行う目的に応じて様々な形態が適用可能である。
Here, an example of filter processing in the metadata filter units 96 and 106 in the server or client terminal will be described.
Here, the filter processing information is information describing rules for generating alarm information from object information. By analyzing the metadata of multiple frames using filter processing, it is possible to create reports and output such as displaying the number of videos. For example, the following four filter types are prepared.
Appearance: An alarm occurs when an object is in a certain area.
Disappearance: An object appears in an area and is considered an alarm when it leaves the area.
Passing: Write a line and consider it as an alarm when the object exceeds it.
Capacity (number limit of objects): Count the number of people in an area, and if it exceeds a certain number, consider it an alarm.
As described above, various forms can be applied to the analysis using the metadata and the display of the analysis result depending on the purpose of monitoring.

次に、サーバ又はクライアント端末でメタデータをデータベース95又は105に蓄積させて保存させる際の、保存処理と、その保存されたデータの検索処理について、図4以降のフローチャートを参照して説明する。メタデータの保存は、ファイル形式で保存するようにしてある。   Next, a storage process and a search process for the stored data when the server or client terminal stores and stores the metadata in the database 95 or 105 will be described with reference to the flowcharts in FIG. The metadata is saved in a file format.

本実施の形態においては、保存されたメタデータの保存ファイルの中から、特定のフィルタ条件に合致するメタデータを検索し、検索された結果に基づいて、蓄積されたメタデータに属性情報を持たせて、その属性情報を保存することを特徴とするものである。具体的な属性情報を保存する処理として、ここでは、フィルタ処理結果によって保存先を切り替える方式と、フィルタ合致情報をファイルに持たせる方式と、フィルタ合致情報のインデックスを作成する方式との3つの例を示してある。   In the present embodiment, metadata that matches a specific filter condition is searched from the stored metadata storage file, and attribute information is stored in the stored metadata based on the search result. The attribute information is saved. As specific processing for storing attribute information, here are three examples: a method of switching the storage destination according to the filter processing result, a method of having filter match information in a file, and a method of creating an index of filter match information Is shown.

まず、図4のフローチャートを参照して、フィルタ処理結果によって保存先を切り替える処理について説明する。
この場合には、あらかじめ、メタデータの保存形式として、フィルタごとに保存先を指定しておく。そして、メタデータをフィルタ処理し(ステップS11)、そのフィルタ処理で合致するフィルタ(フィルタ条件)が存在するか否か判断する(ステップS12)。この判断で、合致するフィルタが存在する場合には、合致したフィルタに対応する保存先に、該当するメタデータの保存先を変更する(ステップS13)。そして、設定された保存先にメタデータを保存し(ステップS14)、メタデータをフィルタにかけた結果を元にそれぞれの保存先へデータを追加してゆく。ステップS14での保存処理後には、未処理のデータが存在するか否か判断し(ステップS15)、未処理のデータが存在する場合には、ステップS11に戻り、未処理のデータがない場合には、処理を終了する。
First, with reference to the flowchart of FIG. 4, processing for switching the storage destination according to the filter processing result will be described.
In this case, a storage destination is designated for each filter in advance as a metadata storage format. Then, the metadata is filtered (step S11), and it is determined whether there is a filter (filter condition) that matches the filtering (step S12). If it is determined that there is a matching filter, the storage destination of the corresponding metadata is changed to the storage destination corresponding to the matched filter (step S13). Then, the metadata is stored in the set storage destination (step S14), and data is added to each storage destination based on the result of filtering the metadata. After the storing process in step S14, it is determined whether or not unprocessed data exists (step S15). If there is unprocessed data, the process returns to step S11, and there is no unprocessed data. Ends the process.

図5は、図4に示すように保存されたメタデータを検索する場合の処理例である。まず、検索条件とするフィルタを指定し(ステップS21)、そのフィルタに対応する保存先のファイルが存在するか否か判断する(ステップS22)。存在する場合には、そのフィルタに対応する保存先のファイルに検索対象を切り替え(ステップS23)、そのファイルに保存されたデータを読み出す。保存先の切り替えは、ディレクトリを切り替える、ファイル名に識別子を加えるなどの処理が考えられる。そして、その検索対象となるメタデータファイルを取得して、そのファイル内のメタデータについて検索を行う(ステップS24)。ステップS22で対応する保存先がない場合には、例えば時間などの条件に合致する全てのファイルを検索するようにしてもよい。   FIG. 5 shows an example of processing when searching for stored metadata as shown in FIG. First, a filter as a search condition is designated (step S21), and it is determined whether or not a storage destination file corresponding to the filter exists (step S22). If it exists, the search target is switched to the storage destination file corresponding to the filter (step S23), and the data stored in the file is read. The storage destination can be switched by processing such as switching directories or adding identifiers to file names. Then, the metadata file to be searched is acquired, and the metadata in the file is searched (step S24). If there is no corresponding storage destination in step S22, for example, all files that match conditions such as time may be searched.

次に、図6のフローチャートを参照して、フィルタ合致情報をファイルのヘッダなどに持たせる例について説明する。
この場合には、ファイルヘッダにフィルタごとの合致情報を記録できる領域を設けておく。そして、メタデータを保存ファイルに追加する前にフィルタ処理を行い(ステップS31)、合致したフィルタがあるか否か判断し(ステップS32)、合致したフィルタがある場合には、対応するファイルの合致データ数を加算して(ステップS33)、メタデータを保存する(ステップS34)。そして、ファイル内のデータ数が上限になったか否か判断し(ステップS35)、上限に達した場合には、合致データ数をクリアして、新データファイルを作成する(ステップS36)。
Next, an example in which filter matching information is provided in a file header or the like will be described with reference to the flowchart of FIG.
In this case, an area in which match information for each filter can be recorded is provided in the file header. Then, filter processing is performed before adding metadata to the storage file (step S31), and it is determined whether there is a matched filter (step S32). If there is a matched filter, the matching of the corresponding file is performed. The number of data is added (step S33), and the metadata is saved (step S34). Then, it is determined whether or not the number of data in the file has reached the upper limit (step S35). If the upper limit is reached, the number of matching data is cleared and a new data file is created (step S36).

ステップS35で上限に達していない場合と、ステップS36で新ファイルを作成した後には、未処理のデータが存在するか否か判断し(ステップS37)、未処理のデータが存在する場合には、ステップS31に戻り、未処理のデータがない場合には、処理を終了する。   If the upper limit has not been reached in step S35, and after creating a new file in step S36, it is determined whether or not unprocessed data exists (step S37). If unprocessed data exists, Returning to step S31, if there is no unprocessed data, the process ends.

図7は、図6に示すように保存されたメタデータを検索する場合の処理例である。まず、検索条件とするフィルタを指定し(ステップS41)、ファイル内のフィルタ合致情報を検査する(ステップS42)。その検査で、検索対象のフィルタに合致するデータを含んでいるか否か判断し(ステップS43)、含んでいる場合には、該当するファイル内のデータを検索し(ステップS44)、含んでいないファイルは検索対象から外して次ファイルに移る(ステップS45)。合致情報の記憶場所はファイルヘッダに限らず、外部のデータベースなどであってもよい。また保存時に行うだけでなく、事後に新たにフィルタを設定し、そのフィルタに対する合致情報を書き込むようにしてもよい。   FIG. 7 shows an example of processing when searching for stored metadata as shown in FIG. First, a filter as a search condition is designated (step S41), and filter matching information in the file is inspected (step S42). In the inspection, it is determined whether or not data matching the search target filter is included (step S43). If included, the data in the corresponding file is searched (step S44), and the file does not include Is removed from the search target and moves to the next file (step S45). The storage location of the match information is not limited to the file header but may be an external database. Further, not only at the time of saving, a new filter may be set after the fact and the matching information for the filter may be written.

次に、図8のフローチャートを参照して、フィルタ合致情報のインデックスを作成する処理例について説明する。まず、保存時、メタデータをフィルタに掛けるフィルタ処理を行い(ステップS51)、合致するフィルタがあるか否か判断し(ステップS52)、該当するフィルタがあれば、そのメタデータの時刻情報(タイムスタンプ)と保存先ファイル名、ファイル内オフセット位置を、フィルタIDとともにインデックス情報として、メタデータデータベースに追加する(ステップS53)。この処理を、未処理のデータがある限り繰り返す(ステップS54)。   Next, a processing example for creating an index of filter match information will be described with reference to the flowchart of FIG. First, at the time of saving, a filtering process for filtering metadata is performed (step S51), it is determined whether there is a matching filter (step S52), and if there is a corresponding filter, time information (time) of the metadata is found. (Stamp), the save destination file name, and the offset position in the file are added to the metadata database as index information together with the filter ID (step S53). This process is repeated as long as there is unprocessed data (step S54).

図9は、図8に示すように保存されたメタデータを検索する場合の処理例である。検索時には、検索条件とするフィルタを指定し(ステップS61)、フィルタのIDをキーとしてインデックスから検索する(ステップS62)。この検索で合致するレコードがあるか否か判断し(ステップS63)、合致するレコードがある場合には、該当するメタデータの時刻情報、保存先情報を取得して、全てのレコードについて取得して(ステップS64)、リストアップし、得られた保存先情報を用いて実データ(メタデータ)へのアクセスを行う。   FIG. 9 is an example of processing when searching for stored metadata as shown in FIG. At the time of search, a filter as a search condition is designated (step S61), and search is performed from the index using the filter ID as a key (step S62). In this search, it is determined whether or not there is a matching record (step S63). If there is a matching record, the time information and storage destination information of the corresponding metadata are acquired, and all the records are acquired. (Step S64), listing and accessing the actual data (metadata) using the obtained storage destination information.

このようにして、メタデータの保存時にフィルタ処理の結果に応じて前処理を施しておくことにより、そのフィルタに合致するメタデータを検索する際に検索対象をあらかじめ絞り込むことができるようになり、高速にメタデータの検索結果が得られるようになる。
また、フィルタごとに合致したオブジェクト数を記録してゆくことにより、ファイル全体を走査しなくともフィルタに合致したデータの累積数を取得することができる。
従って、本実施の形態に示した如き監視システムにおいて、メタデータを使用した監視状態などの検索を高速かつ効率良く行うことができる。
In this way, by performing preprocessing according to the filter processing result when saving metadata, it becomes possible to narrow down the search target in advance when searching for metadata that matches the filter, Metadata search results can be obtained at high speed.
Further, by recording the number of objects that match each filter, the cumulative number of data that matches the filter can be acquired without scanning the entire file.
Therefore, in the monitoring system as shown in the present embodiment, it is possible to search for the monitoring status using metadata at high speed and efficiently.

本発明の一実施の形態によるシステム構成例を示す構成図である。It is a block diagram which shows the system configuration example by one embodiment of this invention. 本発明の一実施の形態によるサーバの例を示す構成図である。It is a block diagram which shows the example of the server by one embodiment of this invention. 本発明の一実施の形態による端末の例を示す構成図である。It is a block diagram which shows the example of the terminal by one embodiment of this invention. 本発明の一実施の形態による保存先切り替え処理例を示すフローチャートである。It is a flowchart which shows the example of a preservation | save destination switching process by one embodiment of this invention. 本発明の一実施の形態によるフィルタ条件による検索例を示すフローチャートである。It is a flowchart which shows the example of a search by the filter conditions by one embodiment of this invention. 本発明の一実施の形態によるフィルタ合致情報の保存例を示すフローチャートである。It is a flowchart which shows the preservation | save example of the filter matching information by one embodiment of this invention. 本発明の一実施の形態によるフィルタ合致情報を利用した検索例を示したフローチャートである。5 is a flowchart illustrating an example of a search using filter matching information according to an embodiment of the present invention. 本発明の一実施の形態によるフィルタ合致情報のインデックス作成例を示したフローチャートである。It is the flowchart which showed the example of index creation of filter matching information by one embodiment of this invention. 本発明の一実施の形態によるインデックスを利用した検索例を示したフローチャートである。5 is a flowchart illustrating an example of a search using an index according to an embodiment of the present invention.

符号の説明Explanation of symbols

11〜19…ネットワークカメラ、21〜23…サーバ、31,32…クライアント端末、91…ネットワーク接続部、92…映像データバッファ部、93…メタデータバッファ部、94…映像データベース、95…メタデータデータベース、96…メタデータフィルタ部、97…フィルタ設定部、98…ルール切替部、101…ネットワーク接続部、102…映像データバッファ部、103…メタデータバッファ部、104…映像データベース、105…メタデータデータベース、106…メタデータフィルタ部、107…フィルタ設定部、108…ルール切替部、109…映像データ処理部、110…メタデータ処理部、111…表示部、112…再生同期部   DESCRIPTION OF SYMBOLS 11-19 ... Network camera, 21-23 ... Server, 31, 32 ... Client terminal, 91 ... Network connection part, 92 ... Video data buffer part, 93 ... Metadata buffer part, 94 ... Video database, 95 ... Metadata database 96 ... Metadata filter unit, 97 ... Filter setting unit, 98 ... Rule switching unit, 101 ... Network connection unit, 102 ... Video data buffer unit, 103 ... Metadata buffer unit, 104 ... Video database, 105 ... Metadata database 106: Metadata filter unit, 107 ... Filter setting unit, 108 ... Rule switching unit, 109 ... Video data processing unit, 110 ... Metadata processing unit, 111 ... Display unit, 112 ... Playback synchronization unit

Claims (5)

監視用撮像装置が撮像して出力する映像データと、監視対象に関する情報を示したメタデータとを使用して監視を行う監視装置において、
前記メタデータを蓄積するメタデータ蓄積部と、
前記メタデータ蓄積部に蓄積されたメタデータの保存ファイルの中から、特定のフィルタ条件に合致するメタデータを検索するフィルタ処理部と、
前記フィルタ処理部で検索された結果に基づいて、前記メタデータ蓄積部に蓄積されたメタデータに属性情報を持たせて保存する制御部とを備えたことを特徴とする
監視装置。
In a monitoring device that performs monitoring using video data captured and output by a monitoring imaging device and metadata indicating information related to a monitoring target,
A metadata storage unit for storing the metadata;
A filter processing unit for searching for metadata that matches a specific filter condition from a metadata storage file stored in the metadata storage unit;
A monitoring apparatus comprising: a control unit that stores metadata stored in the metadata storage unit with attribute information based on a result searched by the filter processing unit.
請求項1記載の監視装置において、
前記属性情報による処理として、メタデータが合致したフィルタ条件ごとに、前記メタデータ蓄積部での保存先を切替えることを特徴とする
監視装置。
The monitoring device according to claim 1,
The monitoring apparatus characterized in that, as the processing based on the attribute information, the storage destination in the metadata storage unit is switched for each filter condition that matches the metadata.
請求項1記載の監視装置において、
前記属性情報による処理として、フィルタ条件ごとに合致したメタデータが存在するか否かをフラグ化し、前記メタデータのファイル情報として保存することを特徴とする
監視装置。
The monitoring device according to claim 1,
A monitoring device characterized in that, as the processing based on the attribute information, whether or not there is metadata that matches each filter condition is flagged and stored as file information of the metadata.
請求項1記載の監視装置において、
前記属性情報による処理として、検索されたオブジェクトの時間情報と、保存ファイル名と、ファイル内オフセット位置と、合致したフィルタ条件を、前記メタデータ蓄積部に保存することを特徴とする
監視装置。
The monitoring device according to claim 1,
As the processing based on the attribute information, the time information of the searched object, the storage file name, the in-file offset position, and the matched filter condition are stored in the metadata storage unit.
撮像装置が撮像して出力する監視用映像データと、監視対象の映像に関する情報を示したメタデータとを取得して、監視を行う監視方法において、
前記メタデータを保存し、
保存されたメタデータの保存ファイルの中から、特定のフィルタ条件に合致するメタデータを検索し、
検索された結果に基づいて、蓄積されたメタデータに属性情報を持たせて、その属性情報を保存することを特徴とする
監視方法。
In a monitoring method in which monitoring video data captured and output by an imaging device and metadata indicating information related to a video to be monitored are acquired and monitored.
Storing the metadata;
Search the saved metadata storage file for metadata that matches a specific filter condition,
A monitoring method characterized by storing attribute information in the accumulated metadata based on the retrieved result and storing the attribute information.
JP2006182822A 2006-06-30 2006-06-30 Monitoring apparatus and monitoring method Pending JP2008016896A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006182822A JP2008016896A (en) 2006-06-30 2006-06-30 Monitoring apparatus and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006182822A JP2008016896A (en) 2006-06-30 2006-06-30 Monitoring apparatus and monitoring method

Publications (1)

Publication Number Publication Date
JP2008016896A true JP2008016896A (en) 2008-01-24

Family

ID=39073548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006182822A Pending JP2008016896A (en) 2006-06-30 2006-06-30 Monitoring apparatus and monitoring method

Country Status (1)

Country Link
JP (1) JP2008016896A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244338A (en) * 2010-05-20 2011-12-01 Hitachi Kokusai Electric Inc Image recording apparatus
JP2014030070A (en) * 2012-07-31 2014-02-13 Hitachi Ltd Monitoring camera controller
JP2016092693A (en) * 2014-11-07 2016-05-23 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and program
JP2017504850A (en) * 2013-10-30 2017-02-09 マイクロソフト テクノロジー ライセンシング,エルエルシー Data management of connected devices
JP2017041864A (en) * 2015-08-20 2017-02-23 東芝Itコントロールシステム株式会社 Image accumulation device
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method
CN111602034A (en) * 2018-02-13 2020-08-28 欧姆龙株式会社 Output management device, output management method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244338A (en) * 2010-05-20 2011-12-01 Hitachi Kokusai Electric Inc Image recording apparatus
JP2014030070A (en) * 2012-07-31 2014-02-13 Hitachi Ltd Monitoring camera controller
JP2017504850A (en) * 2013-10-30 2017-02-09 マイクロソフト テクノロジー ライセンシング,エルエルシー Data management of connected devices
JP2016092693A (en) * 2014-11-07 2016-05-23 キヤノン株式会社 Imaging apparatus, imaging apparatus control method, and program
JP2017041864A (en) * 2015-08-20 2017-02-23 東芝Itコントロールシステム株式会社 Image accumulation device
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method
CN111602034A (en) * 2018-02-13 2020-08-28 欧姆龙株式会社 Output management device, output management method, and program

Similar Documents

Publication Publication Date Title
US10331951B2 (en) Image monitoring system and image monitoring program
JP6116168B2 (en) Information processing apparatus and method
US10462443B2 (en) Systems, methods, and software for improved video data recovery effectiveness
JP2008016896A (en) Monitoring apparatus and monitoring method
EP2717564B1 (en) Method, device and system for realizing video retrieval
US20060182357A1 (en) Intelligent, dynamic, long-term digital surveilance media storage system
US20220239967A1 (en) Management of video data storage across multiple storage locations
Sharma et al. Video interframe forgery detection: Classification, technique & new dataset
JP2006338620A (en) Image data retrieval device, method and program
JP5032583B2 (en) Video recording apparatus, video recording method, video recording program, and integrated circuit
JP4773998B2 (en) Surveillance camera system, moving image search device, face image database update device, and operation control method thereof
Ariffin et al. Data recovery from proprietary formatted CCTV hard disks
JP2009239855A (en) Metadata management device
JP2020198037A (en) Control device
JP5499752B2 (en) Camera state monitoring apparatus, camera state monitoring program, and camera state monitoring method
JP5554214B2 (en) Minutes system and program
KR100350219B1 (en) System for writing image and method for writing image using communication network
JP2004336808A (en) Method and apparatus for searching video image
JP2005080172A (en) Moving image storage management method and storage management apparatus
JP2010093323A (en) Monitoring system
JP5906806B2 (en) Movie processing system and terminal device
WO2017134738A1 (en) Recorder device and video monitoring system
CN112492376A (en) Video storage and lookup system
CN116264610A (en) Cloud-edge collaborative video monitoring method, device and system
CN117750054A (en) Video cloud storage method and device, storage medium and electronic equipment