JP2006197485A - Moving picture data management method and device, and moving picture display device - Google Patents

Moving picture data management method and device, and moving picture display device Download PDF

Info

Publication number
JP2006197485A
JP2006197485A JP2005009245A JP2005009245A JP2006197485A JP 2006197485 A JP2006197485 A JP 2006197485A JP 2005009245 A JP2005009245 A JP 2005009245A JP 2005009245 A JP2005009245 A JP 2005009245A JP 2006197485 A JP2006197485 A JP 2006197485A
Authority
JP
Japan
Prior art keywords
image data
video
data
file
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005009245A
Other languages
Japanese (ja)
Inventor
Yu Nishio
祐 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005009245A priority Critical patent/JP2006197485A/en
Publication of JP2006197485A publication Critical patent/JP2006197485A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving picture data management method capable of processing additional information as editable additional information while guaranteeing the synchronization of image data with the additional information. <P>SOLUTION: In the moving picture data management method used in display processing by the moving picture display device through the moving picture data management device for managing image data corresponding to video photographed by an image pickup device and vector data obtained by performing moving body extraction processing of the video, in a connection step to be executed, the vector data representing a figure indicating the position and size of the moving object obtained corresponding to the image data is connected to the end of image data of each frame to be transmitted to the moving picture display device. In the moving picture display device, each time the image data of each frame is received from the moving picture data management device, display processing based on the image data of the frame is performed. Next, in a overwriting step, line drawing representing a figure generated on the basis of the vector data is overwritten on an image reproduced on the basis the image data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、監視カメラ(ITV/CCTV等)によって撮影された画像データから構成される動画データに基づいて、施設の監視を行う監視システムにおける動画データ管理方法および動画データ管理装置並びに動画表示装置に関する。
空港や港湾あるいは大規模プラントなどの監視システムのように、監視範囲が非常に広範囲である監視システムにおいては、広い範囲を撮影する監視カメラによって撮影された画像データから構成される動画データが侵入者の監視などに用いられている。
The present invention relates to a moving image data management method, a moving image data management device, and a moving image display device in a monitoring system for monitoring facilities based on moving image data composed of image data taken by a monitoring camera (ITV / CCTV or the like). .
In surveillance systems that have a very wide surveillance area, such as airports, harbors, or large-scale plant surveillance systems, video data composed of image data taken by a surveillance camera that captures a wide area is intruders. It is used for monitoring.

図8に、従来の一般的な監視システムの構成例を示す。
図8に示した監視カメラ4011〜401Nによって撮影された画像データは、映像切替・分配装置(マトリクスビデオスイッチャ、図8において符号VSWを付して示す)を介してそれぞれに対応してモニタールームなどに備えられたディスプレイ装置4021〜402Nに転送されて表示され、監視員による監視作業に供されるとともに、ビデオテープレコーダ4031〜403Nなどによってそれぞれ記録され、一定期間にわたって保存される。
FIG. 8 shows a configuration example of a conventional general monitoring system.
Image data photographed by the monitoring cameras 401 1 to 401 N shown in FIG. 8 are monitored in correspondence with each other via a video switching / distribution device (matrix video switcher, indicated by reference numeral VSW in FIG. 8). It is transferred to and displayed on display devices 402 1 to 402 N provided in a room, etc., and is used for monitoring work by a supervisor, and is recorded by video tape recorders 403 1 to 403 N and stored for a certain period of time. The

このような従来の動画像を用いた監視システムでは、動画像を監視員が監視することにより、侵入者や不審物の発見などの作業が行われている。
その一方、高速道路における交通量監視などの分野では、道路を走行している車両などの検出に、動体抽出技術が利用されている。
この技術は、同一の地点などを連続して撮影した複数の画像を互いに比較し、変化している部分を抽出することにより、撮像手段の視野内において移動している物体を抽出する技術である。一般的な動体抽出技術では、移動体を検出した画像の領域などは、画像における位置を示す座標データや範囲を示すベクトルデータによって示される。
In such a conventional monitoring system using a moving image, a monitoring person monitors the moving image to perform operations such as finding an intruder or a suspicious object.
On the other hand, in the field of traffic monitoring on highways, moving object extraction technology is used to detect vehicles traveling on the road.
This technology extracts a moving object within the field of view of an image pickup means by comparing a plurality of images obtained by continuously shooting the same spot and extracting a changing portion. . In a general moving object extraction technique, an area of an image in which a moving object is detected is indicated by coordinate data indicating a position in the image and vector data indicating a range.

このような動体抽出技術を上述した動画像を用いた監視システムに適用すれば、監視範囲内への侵入者などの検出を自動化することが可能となる。
また、特許文献1あるいは特許文献2に開示された技法を利用して、検出結果を動画像に重ねて表示すれば、監視カメラで撮影された動画像とともにベクトルデータで表された検出結果を監視員に同時に提供することができ、監視員の作業負担を大幅に軽減することができると考えられる。
If such a moving body extraction technique is applied to the above-described monitoring system using a moving image, it becomes possible to automate the detection of an intruder or the like in the monitoring range.
Moreover, if the detection result is superimposed on the moving image using the technique disclosed in Patent Document 1 or Patent Document 2, the detection result represented by the vector data is monitored together with the moving image captured by the monitoring camera. It can be provided to the staff at the same time, and the work burden on the surveillance staff can be greatly reduced.

なお、特許文献1には、監視カメラによって撮影された映像を記録すると同時に撮影日時などの付加情報を映像の一部に重ねて記録することにより、付加情報が重畳された映像を再生可能とする技術が開示されている。また、特許文献2において開示された技法においては、付加情報を表すビットマップデータを作成し、これを画像データと同様にして符号化し、符号化された画像データと符号化された上述したビットマップデータとを合成することで、付加情報を含んだ画像データの改竄を防止したいという要求とともに、再生時に付加情報を除去して表示させたいという要求との双方が満たされている。
特開平9−46635号公報 特開2001−111959号公報
In Patent Document 1, a video captured by a surveillance camera is recorded, and at the same time, additional information such as a shooting date and time is recorded on a part of the video so that the video with the additional information superimposed can be reproduced. Technology is disclosed. In the technique disclosed in Patent Document 2, bitmap data representing additional information is created and encoded in the same manner as image data, and the encoded image data and the above-described bitmap are encoded. Both a request to prevent falsification of image data including additional information by combining the data and a request to remove and display additional information at the time of reproduction are satisfied.
Japanese Patent Laid-Open No. 9-46635 JP 2001-111959 A

ところで、上述した各特許文献において想定されている付加情報は、撮影日時や撮影場所といった情報であり、この付加情報の内容がそのまま証拠の一部として扱われる。このため、これらの特許文献にかかわる技術分野においては、付加情報が映像情報と確実に結びついていること、また、その内容が映像情報および付加情報を一旦記録した後に変更されないことが重要視されている。   Incidentally, the additional information assumed in each of the above-mentioned patent documents is information such as the shooting date and time and the shooting location, and the content of this additional information is treated as part of the evidence as it is. For this reason, in the technical fields related to these patent documents, it is emphasized that the additional information is reliably combined with the video information, and that the contents are not changed after the video information and the additional information are once recorded. Yes.

しかしながら、動体抽出技術を適用して得られたベクトルデータ自体は、監視員に提供する判断材料であって、それ自体に証拠能力があるわけではない。したがって、このようなベクトルデータは、変更が許されない情報ではなく、むしろ、監視作業を支援する上では積極的に編集作業を施すべき場合すら考えられる情報である。
例えば、港湾などの大規模な施設への侵入者などを監視する監視システムでは、状況によっては、検知すべき対象のサイズが大幅に変化する場合がある。このような場合に、動体抽出処理によって得られたベクトルデータに基づいて、検知された移動体をサイズごとに分類し、必要なサイズの移動体に対応するベクトルデータのみを表示する編集を施すことが必要である。
However, the vector data itself obtained by applying the moving object extraction technique is a judgment material to be provided to the observer, and does not have an evidence capability in itself. Therefore, such vector data is not information that cannot be changed, but rather information that can be considered even when editing work should be actively performed to support the monitoring work.
For example, in a monitoring system that monitors an intruder into a large-scale facility such as a harbor, the size of an object to be detected may change significantly depending on the situation. In such a case, based on the vector data obtained by the moving object extraction process, the detected moving objects are classified by size, and editing is performed to display only the vector data corresponding to the moving objects of the required size. is required.

これに対して、例えば、特許文献2に開示された技法を用いて映像データとベクトルデータとを合成した後に、この合成データに含まれるベクトルデータによって表された情報に対して上述したような編集を加えることは原理的に不可能である。
したがって、上述した各特許文献に開示された技法は、後に編集することを前提としたベクトルデータを付加情報として動画データによって表示される画像に重畳する用途には不向きである。
On the other hand, for example, after the video data and the vector data are synthesized using the technique disclosed in Patent Document 2, the editing described above is performed on the information represented by the vector data included in the synthesized data. It is impossible in principle to add.
Therefore, the technique disclosed in each of the above-described patent documents is not suitable for use in superimposing vector data premised on editing later on an image displayed as moving image data as additional information.

その一方、ベクトルデータを動画データとは完全に独立したものとして扱ったのでは、ベクトルデータと対応する画像データのフレームとの同期を保証することが難しくなってしまう。
本発明は、動画データを構成する画像データのフレームとこれに重畳すべきベクトルデータとの同期を保証しつつ、ベクトルデータを編集可能な付加情報として扱うことが可能な動画データ管理方法および動画データ管理装置並びに動画表示装置を提供することを目的とする。
On the other hand, if the vector data is handled as being completely independent of the moving image data, it becomes difficult to guarantee the synchronization between the vector data and the corresponding frame of image data.
The present invention relates to a moving image data management method and moving image data capable of handling vector data as editable additional information while ensuring synchronization between the frame of image data constituting the moving image data and vector data to be superimposed on the frame An object is to provide a management device and a moving image display device.

本発明にかかわる第1の動画データ管理方法は、動画データ管理装置において実行される結合ステップと、動画表示装置で実行される画像表示ステップと、上書きステップとから構成される。
本発明にかかわる第1の動画データ管理方法の原理は、以下の通りである。
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理する動画データ管理装置を介して動画表示装置による表示処理に供する動画データ管理方法において、動画データ管理装置において実行される結合ステップは、各フレームの画像データの末尾にこの画像データに対応する動体抽出処理を行って得られた移動体の位置およびサイズを示す図形を表すベクトルデータを結合して動画表示装置に送信する。動画表示装置において実行される画像表示ステップは、動画データ管理装置から各フレームの画像データを受け取るごとに、そのフレームの画像データに基づく表示処理を行う。次いで、上書きステップは、画像データに基づいて再生された画像に、ベクトルデータに基づいて生成される図形を表す線画を上書きする。
The first moving image data management method according to the present invention includes a combining step executed in the moving image data management device, an image display step executed in the moving image display device, and an overwriting step.
The principle of the first moving image data management method according to the present invention is as follows.
Display by a moving image display device via a moving image data management device that manages image data corresponding to a video imaged by an imaging device and vector data obtained by performing a moving object extraction processing by a moving object detection processing device corresponding to this video image In the moving image data management method provided for the processing, the combining step executed in the moving image data management apparatus is the position and size of the moving object obtained by performing the moving object extraction process corresponding to this image data at the end of the image data of each frame. Are combined and transmitted to the moving image display device. The image display step executed in the moving image display device performs display processing based on the image data of each frame every time image data of each frame is received from the moving image data management device. Next, in the overwriting step, the line drawing representing the graphic generated based on the vector data is overwritten on the image reproduced based on the image data.

このように構成された第1の動画データ管理方法の動作は、下記の通りである。
動画データ管理装置によって実行される結合ステップにおいて、撮像装置によって撮影された映像に対応する画像データの各フレームの末尾に、対応するベクトルデータが結合され、動画表示装置による表示処理に供される。これにより、画像データとベクトルデータとの独立性を保ちつつ、両者の同期を保証することができる。
The operation of the first moving image data management method configured as described above is as follows.
In the combining step executed by the moving image data management device, the corresponding vector data is combined at the end of each frame of the image data corresponding to the video imaged by the imaging device, and used for display processing by the moving image display device. As a result, it is possible to guarantee synchronization between the image data and the vector data while maintaining independence between the image data and the vector data.

また、動画表示装置において実行される画像表示ステップにおいて、動画データ管理装置から受け取った各フレームの画像データで表される画像が表示された後に、上書きステップが実行され、その画像データの末尾に結合されたベクトルデータに基づいて線画が生成され、この線画が、上述した画像に上書される。この処理を各フレームについて繰り返し、動画データを構成する各フレームの画像データで表される画像にベクトルデータで表される図形が重畳されたイメージを表示することにより、画像データによって表される自然画像の連続で表される動画とベクトルデータで表される図形の連続で表される動画とを重畳して利用者に提供することができる。   Also, in the image display step executed in the moving image display device, after the image represented by the image data of each frame received from the moving image data management device is displayed, the overwriting step is executed and combined with the end of the image data A line drawing is generated based on the vector data, and this line drawing is overwritten on the above-described image. This process is repeated for each frame, and a natural image represented by image data is displayed by displaying an image in which a figure represented by vector data is superimposed on an image represented by image data of each frame constituting moving image data. Can be provided to the user by superimposing a moving image represented by a continuous sequence of images and a moving image represented by a sequence of figures represented by vector data.

本発明にかかわる第2の動画データ管理方法は、動画データ管理装置において実行される映像ファイル形成ステップ、付加情報ファイル形成ステップ、蓄積ステップ、検索ステップ、返送ステップおよび転送ステップとから構成される。
本発明にかかわる第2の動画データ管理方法の原理は、以下の通りである。
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理する動画データ管理装置を介して動画表示装置による表示処理に供する動画データ管理方法において、動画データ管理装置において実行される映像ファイル形成ステップは、撮像装置から1フレームの映像を受信する間隔の整数倍である所定の時間ごとに、撮像装置によって撮影された映像に対応する画像データをまとめて1つの映像ファイルを形成する。付加情報ファイル形成ステップは、映像ファイル形成ステップにおいて、一つの映像ファイルとしてまとめられた複数フレームの画像データに対応して動体検知処置装置からそれぞれ得られるベクトルデータをまとめて記述した付加情報ファイルを形成する。蓄積ステップは、付加情報ファイルと映像ファイルとを関連付けてデータベースに蓄積する。検索ステップは、動画表示装置からの動画データに関する要求に応じて、要求で指定された時刻に対応する付加情報ファイルおよび映像ファイルをデータベースから検索する。返送ステップは、検索された付加情報ファイルの内容とともに、付加情報ファイルに対応する映像ファイルとの連携を記述するリンクを含む適切な形式のファイルを形成して動画表示装置に返送する。転送ステップは、リンクに基づく映像ファイルの転送要求に応じて、該当する映像ファイルを動画表示装置に転送する。
The second moving image data management method according to the present invention comprises a video file forming step, an additional information file forming step, an accumulation step, a search step, a return step and a transfer step which are executed in the moving image data management apparatus.
The principle of the second moving image data management method according to the present invention is as follows.
Display by a moving image display device via a moving image data management device that manages image data corresponding to a video imaged by an imaging device and vector data obtained by performing a moving object extraction processing by a moving object detection processing device corresponding to this video image In the moving image data management method used for the processing, the video file forming step executed in the moving image data management device is photographed by the imaging device every predetermined time that is an integral multiple of an interval of receiving one frame of video from the imaging device. The image data corresponding to the recorded video is collected to form one video file. The additional information file forming step forms an additional information file in which the vector data respectively obtained from the motion detection treatment apparatus is collectively described corresponding to the image data of a plurality of frames collected as one video file in the video file forming step. To do. In the accumulation step, the additional information file and the video file are associated with each other and accumulated in the database. The search step searches the database for additional information files and video files corresponding to the time specified in the request in response to a request for moving image data from the moving image display device. The returning step forms a file of an appropriate format including a link describing the linkage with the video file corresponding to the additional information file together with the contents of the searched additional information file, and returns the file to the moving image display device. The transfer step transfers the corresponding video file to the moving image display device in response to the video file transfer request based on the link.

このように構成された第2の動画データ管理方法の動作は、下記の通りである。
撮像装置によって撮影された映像に対応する画像データは、映像ファイル形成ステップにおいて、所定の時間ごとに適切な形式(例えば、Motion JPEG(以下、M−JPEGと略称する)形式)の映像ファイルにまとめられ、これとともに、付加情報ファイル形成ステップにおいて、上述した所定の時間に撮像装置によって撮影された映像に対応して移動体検知処理装置から得られたベクトルデータも一つの付加情報ファイルにまとめられる。例えば、毎秒30フレームの画像を撮影する撮像装置からの映像情報を1分ごとにファイル化する場合には、1800フレーム分の画像データをまとめた一つのM−JPEGファイルと、これらのフレームに対応して得られたベクトルデータをまとめた一つの付加情報ファイルとが形成され、蓄積ステップにおいて、互いに関連付けられた上で、データベースに蓄積される。
The operation of the second moving image data management method configured as described above is as follows.
The image data corresponding to the video imaged by the imaging device is collected into a video file in an appropriate format (for example, Motion JPEG (hereinafter abbreviated as M-JPEG) format) every predetermined time in the video file forming step. At the same time, in the additional information file forming step, vector data obtained from the moving object detection processing device corresponding to the video imaged by the imaging device at the predetermined time is also combined into one additional information file. For example, when video information from an imaging device that captures an image of 30 frames per second is filed every minute, one M-JPEG file that summarizes 1800 frames of image data and these frames are supported. One additional information file in which the vector data obtained in this way is collected is formed, and is associated with each other and accumulated in the database in the accumulation step.

このようにしてデータベースに蓄積された映像ファイルおよび付加情報ファイルは、検索ステップにおいて、動画表示装置からの要求に応じて検索され、この検索結果に基づいて、返送ステップにおいて、例えば、付加情報ファイルにまとめられているベクトルデータとこの付加情報ファイルに対応する映像ファイルへのリンクとを記述したXML形式のファイルが形成される。そして、このXML形式のファイルを要求元の動画表示装置に返すことにより、まず、付加情報ファイルの内容が動画表示装置に渡される。その後、転送ステップにおいて、上述したリンクに基づく転送要求に応じて、該当する映像ファイルが動画表示装置に渡される。   The video file and the additional information file stored in the database in this manner are searched in response to a request from the moving image display device in the search step. Based on the search result, in the return step, for example, an additional information file is stored. An XML format file describing the collected vector data and a link to the video file corresponding to the additional information file is formed. Then, by returning the XML format file to the requesting moving image display device, the contents of the additional information file are first passed to the moving image display device. Thereafter, in the transfer step, the corresponding video file is delivered to the moving image display device in response to the transfer request based on the above-described link.

本発明にかかわる第1の動画データ管理装置は、挿入手段と、送信手段とから構成される。
本発明にかかわる第1の動画データ管理装置の原理は、以下の通りである。
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理するとともに、動画表示装置による表示処理に供する動画データ管理装置において、挿入手段は、撮像装置から受け取った各フレームの画像データの末尾と次のフレームの画像データの先頭との間に各画像データに対応して動体検知処理装置から動体検知処理結果として得られる移動体の位置およびサイズを示す図形を表すベクトルデータを挿入する。送信手段は、挿入手段によって得られる画像データとベクトルデータとから構成されるストリームデータを動画表示装置に送信する。
A first moving image data management apparatus according to the present invention includes an insertion unit and a transmission unit.
The principle of the first moving image data management apparatus according to the present invention is as follows.
Image data corresponding to video captured by the imaging device and vector data obtained by performing moving object extraction processing by the motion detection processing device corresponding to this video, and moving image data for display processing by the moving image display device In the management device, the inserting means receives the motion detection processing result from the motion detection processing device corresponding to each image data between the end of the image data of each frame received from the imaging device and the start of the image data of the next frame. Vector data representing a figure indicating the position and size of the obtained moving object is inserted. The transmission means transmits stream data composed of image data and vector data obtained by the insertion means to the moving image display device.

このように構成された第1の動画データ管理装置の動作は、下記の通りである。
撮像装置によって得られた映像に対応する画像データの各フレームの間に、挿入手段により、各フレームに対応して動体検知処理装置によって得られたベクトルデータが挿入され、送信手段によって動画表示装置に送信される。
このようにして、撮像装置から得られる画像データから構成される動画データと動体検知処理装置から得られるベクトルデータとをフレームごとに結合し、これによって生成されたストリームデータを動画表示装置に渡すことにより、動画データとベクトルデータとの同期を保証しつつ、ほぼリアルタイムで動画表示装置による表示処理に供することができる。
The operation of the first moving image data management apparatus configured as described above is as follows.
Between each frame of image data corresponding to the video obtained by the imaging device, vector data obtained by the moving object detection processing device corresponding to each frame is inserted by the inserting means, and transmitted to the moving image display device by the transmitting means. Sent.
In this way, the moving image data composed of the image data obtained from the imaging device and the vector data obtained from the motion detection processing device are combined for each frame, and the stream data generated thereby is passed to the moving image display device. Thus, it is possible to provide display processing by the moving image display device in almost real time while ensuring synchronization between the moving image data and the vector data.

本発明にかかわる第2の動画データ管理装置は、映像ファイル形成手段と、付加情報ファイル形成手段と、データベースと、検索手段と、連携ファイル形成手段と、返送手段と、転送手段とから構成される。
本発明にかかわる第2の動画データ管理装置の原理は、以下の通りである。
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理するとともに、動画表示装置による表示処理に供する動画データ管理装置において、映像ファイル形成手段は、撮像装置から1フレームの映像を受信する間隔の整数倍である所定の時間ごとに、撮像装置によって撮影された映像に対応する画像データをまとめて1つの映像ファイルを形成する。付加情報ファイル形成手段は、映像ファイル形成手段によって一つの映像ファイルとしてまとめられた複数フレームの画像データに対応して動体検知処置装置からそれぞれ得られるベクトルデータをまとめて記述した付加情報ファイルを形成する。データベースと、付加情報ファイルと映像ファイルとを関連付けて蓄積する。検索手段は、動画表示装置からの動画データに関する要求に応じて、要求で指定された時刻に対応する付加情報ファイルおよび映像ファイルをデータベースから検索する。連携ファイル形成手段は、検索された付加情報ファイルの内容とともに、付加情報ファイルに対応する映像ファイルとの連携を記述するリンクを含む適切な形式の連携ファイルを形成する。返送手段は、連携ファイルを動画表示装置に返送する。転送手段は、リンクに基づく映像ファイルの転送要求に応じて、該当する映像ファイルを動画表示装置に転送する。
A second moving image data management apparatus according to the present invention comprises a video file forming means, an additional information file forming means, a database, a searching means, a linked file forming means, a returning means, and a transferring means. .
The principle of the second moving image data management apparatus according to the present invention is as follows.
Image data corresponding to video captured by the imaging device and vector data obtained by performing moving object extraction processing by the motion detection processing device corresponding to this video, and moving image data for display processing by the moving image display device In the management device, the video file forming unit collects the image data corresponding to the video shot by the imaging device at a predetermined time that is an integral multiple of the interval at which one frame of video is received from the imaging device. Form a file. The additional information file forming means forms an additional information file in which vector data respectively obtained from the motion detection apparatus is collectively described corresponding to the image data of a plurality of frames collected as one video file by the video file forming means. . The database, the additional information file, and the video file are stored in association with each other. In response to a request for moving image data from the moving image display device, the search means searches the database for an additional information file and a video file corresponding to the time specified in the request. The linkage file forming means forms a linkage file of an appropriate format including a link describing the linkage with the video file corresponding to the additional information file together with the contents of the searched additional information file. The return means returns the cooperation file to the moving image display device. The transfer means transfers the corresponding video file to the moving image display device in response to the video file transfer request based on the link.

このように構成された第2の動画データ管理装置の動作は、下記の通りである。
撮像装置によって撮影された映像に対応する画像データは、映像ファイル形成手段により、所定の時間ごとに適切な形式(例えば、Motion JPEG(以下、M−JPEGと略称する)形式)の映像ファイルにまとめられ、これとともに、付加情報ファイル形成手段により、上述した所定の時間に撮像装置によって撮影された映像に対応して移動体検知処理装置から得られたベクトルデータも一つの付加情報ファイルにまとめられる。例えば、毎秒30フレームの画像を撮影する撮像装置からの映像情報を1分ごとにファイル化する場合には、映像ファイル形成手段および付加情報ファイル形成手段により、1800フレーム分の画像データをまとめた一つのM−JPEGファイルと、これらのフレームに対応して得られたベクトルデータをまとめた一つの付加情報ファイルとが形成され、互いに関連付けられた上で、データベースに蓄積される。
The operation of the second moving image data management apparatus configured as described above is as follows.
Image data corresponding to the video imaged by the imaging device is collected into video files in an appropriate format (for example, Motion JPEG (hereinafter abbreviated as M-JPEG) format) every predetermined time by the video file forming means. At the same time, the additional information file forming means also collects vector data obtained from the moving object detection processing device corresponding to the video imaged by the imaging device at the predetermined time described above into one additional information file. For example, when video information from an imaging device that captures an image of 30 frames per second is filed every minute, a video file forming unit and an additional information file forming unit collect image data for 1800 frames. One M-JPEG file and one additional information file in which vector data obtained corresponding to these frames are collected are formed, associated with each other, and stored in a database.

このようにしてデータベースに蓄積された映像ファイルおよび付加情報ファイルは、動画表示装置からの要求に応じて検索手段により検索され、この検索結果に基づいて、連携ファイル形成手段により、例えば、付加情報ファイルにまとめられているベクトルデータとこの付加情報ファイルに対応する映像ファイルへのリンクとを記述したXML形式の連携ファイルが形成される。そして、返送手段により、このXML形式の連携ファイルを要求元の動画表示装置に返すことにより、まず、付加情報ファイルの内容が動画表示装置に渡される。その後、上述したリンクに基づく転送要求に応じて、転送手段により、該当する映像ファイルが動画表示装置に渡される。   The video file and the additional information file stored in the database in this manner are searched by the search unit in response to a request from the moving image display device, and based on the search result, for example, the additional information file In this way, a linked file in the XML format is formed in which the vector data summarized in (1) and the link to the video file corresponding to the additional information file are described. Then, by returning the linked file in XML format to the requesting moving image display device by the return means, first, the contents of the additional information file are passed to the moving image display device. Thereafter, in response to the transfer request based on the above-described link, the corresponding video file is transferred to the moving image display device by the transfer means.

このようにして、適切な期間(例えば、上述した例では1分)ごとに動画データを構成する画像データおよびこれに重畳されるべきベクトルデータをまとめたファイルを形成し、これらを関連付けてデータベースに蓄積していくことにより、動画データとベクトルデータとの同期を保証しつつ、膨大な動画データおよびベクトルデータを扱いやすい数のファイルとして管理することができ、例えば、指定された時間に対応する動画データの検索などにも迅速に対応することができる。   In this way, a file in which the image data constituting the moving image data and the vector data to be superimposed on it are formed for each appropriate period (for example, 1 minute in the above example), and these are associated with each other in the database. By accumulating, it is possible to manage enormous amounts of moving image data and vector data as a manageable number of files while ensuring synchronization between moving image data and vector data. For example, moving images corresponding to a specified time It can respond quickly to data searches.

また、データベースから検索された付加情報ファイルの内容に対応する映像ファイルへのリンクを加えて形成した連携ファイルを要求元の動画表示装置に返送することにより、付加情報ファイルと映像ファイルとの対応関係を確実に動画表示装置に渡し、このリンクに基づく転送要求に応じて、適切な映像ファイルを動画表示装置に渡して、動画表示処理に供することができる。   Also, by returning a link file formed by adding a link to the video file corresponding to the content of the additional information file retrieved from the database to the requesting video display device, the correspondence between the additional information file and the video file Can be surely transferred to the moving image display device, and an appropriate video file can be transferred to the moving image display device in response to a transfer request based on this link, and can be used for moving image display processing.

本発明にかかわる動画表示装置は、画像表示手段と、線画生成手段と、上書き手段と、振り分け手段と、ベクトルデータ保持手段と、映像ファイル保持手段と、表示制御手段とから構成される。
本発明にかかわる動画表示装置の原理は、以下の通りである。
画像表示手段は、動画データを構成する各フレームの画像データの入力に応じて、各フレームの画像データに基づく画像表示処理を行う。線画生成手段は、画像における位置および範囲を含むベクトルデータの入力に応じて、ベクトルデータで示される位置および範囲を示す図形を表す線画を生成する。上書き手段と、線画生成手段によって線画が生成されるごとに、生成された線画を画像表示手段によって再生された画像に上書きする。振り分け手段は、動画データを構成する各フレームの画像データとこれらの画像データの間に挿入されたベクトルデータとからなるストリームデータを受け取り、ストリームデータに含まれる各フレームの画像データとベクトルデータとをそれぞれ抽出し、抽出するごとに、画像表示手段と線画生成手段とにそれぞれ振り分けてそれぞれ入力する。ベクトルデータ保持手段は、複数フレームの画像それぞれに対応して画像における位置および範囲をそれぞれ示すベクトルデータの集合とベクトルデータの集合に対応する画像データからなる映像ファイルへの連携を記述したリンクとを含む連携ファイルを受け取り、ベクトルデータの集合を保持する。映像ファイル保持手段は、連携ファイルに含まれるリンクに基づく転送要求に応じて得られる映像ファイルを保持する。表示制御手段は、映像ファイル保持手段から各フレームの画像データを読み出して画像表示手段に送出するごとに、対応するベクトルデータをベクトルデータ保持手段から読み出して線画生成手段に送出する。
The moving image display apparatus according to the present invention includes an image display means, a line drawing generation means, an overwrite means, a sorting means, a vector data holding means, a video file holding means, and a display control means.
The principle of the moving image display apparatus according to the present invention is as follows.
The image display means performs image display processing based on the image data of each frame in response to the input of the image data of each frame constituting the moving image data. The line drawing generation unit generates a line drawing representing a figure indicating the position and range indicated by the vector data in response to the input of vector data including the position and range in the image. Each time a line drawing is generated by the overwriting unit and the line drawing generation unit, the generated line drawing is overwritten on the image reproduced by the image display unit. The distribution unit receives stream data including image data of each frame constituting the moving image data and vector data inserted between the image data, and the image data and vector data of each frame included in the stream data are received. Each is extracted, and each time it is extracted, it is sorted and input to the image display means and the line drawing generation means. The vector data holding means includes a set of vector data indicating the position and range in the image corresponding to each of the images of a plurality of frames, and a link describing linkage to a video file made up of image data corresponding to the set of vector data. Receives a linked file containing and holds a set of vector data. The video file holding unit holds a video file obtained in response to a transfer request based on a link included in the cooperation file. Each time the display control means reads the image data of each frame from the video file holding means and sends it to the image display means, the display control means reads the corresponding vector data from the vector data holding means and sends it to the line drawing generation means.

このように構成された動画表示装置の動作は、下記の通りである。
例えば、上述した動画データ管理装置によって形成されたストリームデータは、動画表示装置に備えられた振り分け手段により、各フレームの画像データとこれらのフレームに対応するベクトルデータとに分けられ、それぞれ画像表示手段と線画表示手段とに渡される。ここで、上述したストリームデータでは、各フレームの画像データの末尾に続いてこのフレームに対応するベクトルデータが挿入されているので、振り分け手段にベクトルデータが入力されるときには、既に、対応する画像データは画像表示手段による表示処理に供されている。したがって、振り分け手段から受け取ったベクトルデータに基づいて、線画生成手段によって生成された線画を上書き手段の処理に供することにより、対応するフレームの画像データに基づいて表示された自然画像に、ベクトルデータに基づく図形を表す線画を重畳して表示することができる。この処理を各フレームについて繰り返し、動画データを構成する各フレームの画像データで表される画像にベクトルデータで表される図形が重畳されたイメージを表示することにより、画像データによって表される自然画像の連続で表される動画とベクトルデータで表される図形の連続で表される動画とを重畳して利用者に提供することができる。
The operation of the moving image display apparatus configured as described above is as follows.
For example, the stream data formed by the above-described moving image data management device is divided into image data of each frame and vector data corresponding to these frames by the distributing means provided in the moving image display device, and each of the image display means And the line drawing display means. Here, in the above-described stream data, vector data corresponding to this frame is inserted after the end of the image data of each frame. Therefore, when vector data is input to the distribution means, the corresponding image data is already present. Is provided for display processing by the image display means. Therefore, by using the line drawing generated by the line drawing generation unit based on the vector data received from the sorting unit for the processing of the overwriting unit, the natural image displayed based on the image data of the corresponding frame is converted into the vector data. It is possible to display a line drawing representing a figure based thereon in a superimposed manner. This process is repeated for each frame, and a natural image represented by image data is displayed by displaying an image in which a figure represented by vector data is superimposed on an image represented by image data of each frame constituting moving image data. Can be provided to the user by superimposing a moving image represented by a continuous sequence of images and a moving image represented by a sequence of figures represented by vector data.

また、動画データ管理装置から受け取った連携ファイルに含まれるベクトルデータは、ベクトルデータ保持手段に保持され、また、連携ファイルに記述されたリンクに基づく要求に応じて転送された映像ファイルは、映像ファイル保持手段に保持される。このようにしてベクトルデータ保持手段および映像データ保持手段に保持されたベクトルデータおよび画像データは、表示制御手段を介して、画像表示手段および線画生成手段による処理にそれぞれ供される。このようにして、連携ファイルによって関連付けが示された映像ファイルに含まれる各フレームの画像データとベクトルデータとに基づいて、画像データによって表される自然画像の連続で表される動画とベクトルデータで表される図形の連続で表される動画とを重畳した動画として利用者に提供される。   The vector data included in the cooperation file received from the video data management device is held in the vector data holding means, and the video file transferred in response to the request based on the link described in the cooperation file is the video file. It is held by the holding means. The vector data and the image data held in the vector data holding means and the video data holding means in this way are provided to processing by the image display means and the line drawing generation means via the display control means, respectively. In this way, based on the image data and vector data of each frame included in the video file whose association is indicated by the cooperation file, the moving image and vector data represented by a continuous natural image represented by the image data are used. It is provided to the user as a moving image superimposed with a moving image represented by a series of represented figures.

上述した第1の動画データ管理方法あるいは第1の動画データ管理装置および動画表示装置によれば、撮像装置から得られる映像に対応する画像データの各フレームと動体検知処理装置から得られるベクトルデータとについて、画像データとベクトルデータとの独立性を保ちながら、これらのフレームごとの同期を保証することができる。したがって、撮像装置で捉えられた映像と動体検知処理装置によって得られた検知結果とを同時に利用者にリアルタイムで提供することを実現するとともに、ベクトルデータに関する編集可能性を確保することができる。   According to the first moving image data management method or the first moving image data management device and the moving image display device described above, each frame of image data corresponding to the video obtained from the imaging device, vector data obtained from the moving object detection processing device, and Therefore, the synchronization for each frame can be ensured while maintaining the independence of the image data and the vector data. Therefore, it is possible to simultaneously provide the user with the video captured by the imaging device and the detection result obtained by the moving object detection processing device in real time, and to ensure editability regarding vector data.

また、第2の動画データ管理方法あるいは第1の動画データ管理装置および動画表示装置によれば、データベースに蓄積された画像データとベクトルデータとの関連付けを連携ファイルに記述されたリンクによって動画表示装置に渡すことにより、画像データとベクトルデータとの独立性を保ちながら、これらのフレームごとの同期を保証することができる。したがって、データベースに蓄積された画像データおよびベクトルデータから、所望の時間範囲に対応するものを切り出して動画表示装置に渡し、この動画表示装置を介して、画像データによって表される自然画像の連続で表される動画とベクトルデータで表される図形の連続で表される動画とを重ね合わせて利用者に提供するとともに、ベクトルデータに関する編集可能性を確保することができる。   Further, according to the second moving image data management method or the first moving image data management device and the moving image display device, the moving image display device associates the association between the image data and the vector data stored in the database with the link described in the cooperation file. By passing to, synchronization of each frame can be ensured while maintaining independence between the image data and the vector data. Therefore, from the image data and vector data stored in the database, the one corresponding to the desired time range is cut out and passed to the moving image display device, and the natural image represented by the image data is continuously transmitted through the moving image display device. The moving image represented and the moving image represented by the continuation of the graphic represented by the vector data are provided to the user while being superimposed, and the editability of the vector data can be ensured.

これにより、撮像装置で捉えられた映像をリアルタイムで表示する場合についても、データベースに蓄積された映像を表示する場合についても、表示中の画像データに対応する動体検知結果を示すベクトルデータに対応して生成された線画あるいは必要に応じて選択された線画を重ね合わせて表示して利用者に提供する監視システムを実現することができる。   As a result, both the case where the image captured by the imaging device is displayed in real time and the case where the image stored in the database is displayed correspond to the vector data indicating the moving object detection result corresponding to the image data being displayed. Thus, it is possible to realize a monitoring system in which a line drawing generated in this manner or a line drawing selected as necessary is displayed in a superimposed manner and provided to the user.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。
図1に、本発明にかかわる動画データ管理装置および動画表示装置の実施形態を示す。
図1に示した監視システムにおいて、監視カメラ201と、動体検知処理装置202、サーバ装置210および少なくとも一つの端末装置220(図1においては、2つの端末装置220a,220bを示した)とは、十分な伝送帯域を持つネットワークを介して接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows an embodiment of a moving image data management apparatus and a moving image display apparatus according to the present invention.
In the monitoring system shown in FIG. 1, the monitoring camera 201, the motion detection processing device 202, the server device 210, and at least one terminal device 220 (in FIG. 1, two terminal devices 220a and 220b are shown) Connected via a network with sufficient transmission bandwidth.

図1において、監視カメラ201による撮影によって得られた映像信号は、動体検知処理装置202に渡され、この動体検知処理装置202による画像解析処理の過程において、フレーム単位の画像データに変換され、この画像データについて動体検知処理装置202によって行われる動体検知処理によって得られたベクトルデータとともにサーバ装置210に渡される。   In FIG. 1, a video signal obtained by photographing by the monitoring camera 201 is transferred to the moving object detection processing device 202, and is converted into image data in frame units in the course of image analysis processing by the moving object detection processing device 202. The image data is transferred to the server device 210 together with the vector data obtained by the motion detection processing performed by the motion detection processing device 202.

図1に示したサーバ装置210において、伝送路インタフェース211を介して動体検知処理装置202から受け取った画像データおよびベクトルデータは、それぞれ画像データ保持部212およびベクトルデータ保持部213に保持された後、蓄積処理部214によって後述する映像ファイルおよび付加情報ファイルとしてデータベース215に蓄積されるとともに、リアルタイム送出部216によるリアルタイム送出処理(後述する)に供される。また、データベース215に蓄積された映像ファイルおよび付加情報ファイルは、切り出し処理部217による切り出し処理(後述する)に供される。   In the server device 210 shown in FIG. 1, image data and vector data received from the moving object detection processing device 202 via the transmission path interface 211 are held in the image data holding unit 212 and the vector data holding unit 213, respectively. The accumulation processing unit 214 accumulates video files and additional information files described later in the database 215 and provides them to real-time transmission processing (described later) by the real-time transmission unit 216. Further, the video file and the additional information file stored in the database 215 are subjected to a clipping process (described later) by the clipping processor 217.

図1に示した蓄積処理部214は、画像データ保持部212に保持された画像データおよびベクトルデータ保持部213に保持されたベクトルデータを、監視カメラ201によって1フレームの画像データが得られる時間の整数倍にあたる所定の時間間隔でそれぞれまとめて映像ファイルおよび付加情報ファイルを形成し、形成した映像ファイルと付加情報ファイルとを関連付けてデータベース215に、これらのファイルを形成した時刻を示すファイル形成時刻に対応して蓄積する。例えば、監視カメラ201によって2秒あたり1フレームの画像データが得られる場合(つまり、撮影周期が2秒)に、蓄積処理部214によって画像データおよびベクトルデータをまとまる時間間隔を1分とすれば、30フレーム分の画像データが、例えば、1つのM−JPEG形式の映像ファイルとしてまとめられ、これらの画像データに対応するベクトルデータが上述した映像ファイルに対応する付加情報ファイルとして形成される。   The accumulation processing unit 214 shown in FIG. 1 uses the image data held in the image data holding unit 212 and the vector data held in the vector data holding unit 213 for a period of time when one frame of image data is obtained by the monitoring camera 201. A video file and an additional information file are collectively formed at a predetermined time interval corresponding to an integral multiple, and the formed video file and the additional information file are associated with each other in the database 215 at a file formation time indicating the time when these files are formed. Accumulate accordingly. For example, when image data of 1 frame per 2 seconds is obtained by the monitoring camera 201 (that is, the shooting cycle is 2 seconds), if the time interval for collecting the image data and vector data by the accumulation processing unit 214 is 1 minute, For example, 30 frames of image data are collected as one M-JPEG format video file, and vector data corresponding to these image data is formed as an additional information file corresponding to the above-described video file.

なお、この蓄積処理部214において形成する映像ファイルの形式は、複数フレーム分の自然画像をディジタルデータとして扱うことが可能な形式であればよく、例えば、MPEG形式などを採用することもできる。
また、図1に示したリアルタイム送出部216は、画像データ保持部212に各フレームの画像データが保持されるごとに、このフレームの画像データに対応する動体検知処理結果としてベクトルデータ保持部213に保持されるベクトルデータを、図2(a)に示すように上述したフレームの画像データに結合することにより、画像データとベクトルデータとからなるストリームデータを形成し、伝送路インタフェース211を介してこのストリームデータをネットワークに送出する。
The format of the video file formed in the accumulation processing unit 214 may be any format that can handle natural images of a plurality of frames as digital data. For example, the MPEG format may be adopted.
Further, the real-time sending unit 216 shown in FIG. 1 stores the image data holding unit 212 in the vector data holding unit 213 as the moving object detection processing result corresponding to the image data of each frame each time the image data holding unit 212 holds the image data of each frame. By combining the held vector data with the image data of the frame described above as shown in FIG. 2A, stream data composed of the image data and vector data is formed, and this data is transmitted via the transmission path interface 211. Send stream data to the network.

ネットワークを介して端末装置220aあるいは端末装置220bの伝送路インタフェース221に到達したストリームデータは、リアルタイム表示制御部222を介して重畳表示処理部223に渡され、後述する重畳表示処理に供される。また、図1に示した端末装置220a,220bにおいて、重畳表示処理部223によって得られたイメージデータは、表示部224によって表示され利用者に提供される。また、図1に示した端末装置220a,220bは、ユーザインタフェース部225を備えており、このユーザインタフェース部225を介して受け付けられた利用者からの指示は、重畳表示処理部223および切り出し表示制御部226の処理に供される。   The stream data that has reached the transmission path interface 221 of the terminal device 220a or the terminal device 220b via the network is transferred to the superimposed display processing unit 223 via the real-time display control unit 222, and used for the superimposed display processing described later. In the terminal devices 220a and 220b illustrated in FIG. 1, the image data obtained by the superimposed display processing unit 223 is displayed by the display unit 224 and provided to the user. Further, the terminal devices 220a and 220b shown in FIG. 1 include a user interface unit 225. An instruction received from the user via the user interface unit 225 is received by the superimposed display processing unit 223 and the cut-out display control. Part 226 is used for processing.

なお、図1においては、端末装置220aについて詳細構成を示し、端末装置220bの詳細構成は図示を省略している。
図1に示した切り出し表示制御部226は、ユーザインタフェース部225を介して受け取った利用者からの指示に応じて、上述したサーバ装置210においてデータベース215に蓄積されている映像情報の一部の切り出しを要求する切り出し要求を作成し、伝送路インタフェース221を介してサーバ装置210宛てに送出する。
In FIG. 1, the detailed configuration of the terminal device 220a is shown, and the detailed configuration of the terminal device 220b is not shown.
The cutout display control unit 226 shown in FIG. 1 cuts out part of the video information stored in the database 215 in the server device 210 in response to an instruction from the user received via the user interface unit 225. Is generated and sent to the server apparatus 210 via the transmission path interface 221.

一方、サーバ装置210に備えられた切り出し処理部217は、伝送路インタフェース211を介して受け取った切り出し要求に応じて、指定された時刻に対応する映像ファイルおよび付加情報ファイルをデータベース215から検索し、後述する手順に従って、検索された映像ファイルおよび付加情報ファイルを伝送路インタフェース211を介して要求元の端末装置220(例えば、端末装置220a)に返送する。   On the other hand, the cutout processing unit 217 provided in the server device 210 searches the database 215 for the video file and the additional information file corresponding to the specified time in response to the cutout request received via the transmission path interface 211. The searched video file and additional information file are returned to the requesting terminal device 220 (for example, the terminal device 220a) via the transmission path interface 211 in accordance with a procedure described later.

次に、図1に示した監視システムにおいて、監視カメラ201によって得られる画像データと動体検知処理装置によって得られるベクトルデータとをリアルタイムで表示する動作について説明する。
図3に、リアルタイム表示のためのストリームデータの転送を説明するシーケンス図を示す。
Next, an operation for displaying the image data obtained by the surveillance camera 201 and the vector data obtained by the moving object detection processing device in the monitoring system shown in FIG. 1 in real time will be described.
FIG. 3 is a sequence diagram for explaining transfer of stream data for real-time display.

図1に示した監視カメラ201(図3において監視カメラとして示した)によって捉えられた画像を表す映像信号は、図3に網掛けを付して示すように、まず、動体検知処理装置202(図3において、動体検知処理装置として示した)に渡される。そして、この動体検知処理装置220における画像解析処理の過程において、例えば、JPEG形式の画像データに変換され、更に、ネットワーク伝送に適したデータ形式(例えば、IPパケットなど)に変換されて、サーバ装置210(図3において、サーバ装置として示した)に送られ、図1に示した伝送路インタフェース211を介して画像データ保持部212に保持される。また、このとき、サーバ装置210に備えられたリアルタイム送出部216により、上述したようにして画像データ保持部212に保持される各フレームの画像データが、図3に符号(1)を付して示すように端末装置220a(図3において端末装置として示した)宛てに送出される。   A video signal representing an image captured by the monitoring camera 201 shown in FIG. 1 (shown as a monitoring camera in FIG. 3) is firstly shown in FIG. 3 as shaded in FIG. 3) (shown as a moving object detection processing device). Then, in the course of the image analysis processing in the moving object detection processing device 220, for example, it is converted into image data in JPEG format, and further converted into a data format suitable for network transmission (for example, IP packet), and the server device 210 (shown as a server device in FIG. 3) and held in the image data holding unit 212 via the transmission path interface 211 shown in FIG. At this time, the image data of each frame held in the image data holding unit 212 as described above by the real-time sending unit 216 provided in the server device 210 is denoted by reference numeral (1) in FIG. As shown, it is sent to the terminal device 220a (shown as a terminal device in FIG. 3).

また、動体検知処理装置202は、監視カメラ201から1フレーム分の映像信号を受け取るごとに、この映像信号に対応する1フレーム分の画像データと直前のフレームの画像データとに基づいて動体検知処理を行い、この動体検知処理により、それぞれのフレームの画像データに対応して移動体を検出されて、検出した移動体の位置および範囲を示すベクトルデータを生成する。   Further, each time the moving body detection processing device 202 receives a video signal for one frame from the monitoring camera 201, the moving body detection processing device 202 performs a moving body detection process based on the image data for one frame corresponding to the video signal and the image data of the immediately preceding frame. In this moving object detection process, the moving object is detected corresponding to the image data of each frame, and vector data indicating the position and range of the detected moving object is generated.

このようにして得られたベクトルデータは、図3に太い矢印で示したように、サーバ装置210に渡され、このサーバ装置210に備えられたベクトルデータ保持部212に保持されるとともに、リアルタイム送出部216によって端末装置220a宛てに送出される。
図3に示したように、サーバ装置210から端末装置220aへの画像データの転送が完了するころには、動体検知処理装置202からのベクトルデータがサーバ装置210のベクトルデータ保持部213に保持されていると期待できる。したがって、リアルタイム送出部216により、1フレーム分の画像データに関する転送処理の完了後に、続けて、ベクトルデータ保持部213から読み出したベクトルデータを端末装置220aに転送する動作を、監視カメラ201による撮影周期ごとに繰り返すことにより、図2(a)に示したような構成のストリームデータとして端末装置220aに転送することができる。
The vector data obtained in this way is transferred to the server device 210 as indicated by a thick arrow in FIG. 3, held in the vector data holding unit 212 provided in the server device 210, and sent in real time. The data is sent to the terminal device 220a by the unit 216.
As shown in FIG. 3, when the transfer of the image data from the server device 210 to the terminal device 220a is completed, the vector data from the motion detection processing device 202 is held in the vector data holding unit 213 of the server device 210. Can be expected. Therefore, after the transfer processing related to the image data for one frame is completed by the real-time transmission unit 216, the operation of transferring the vector data read from the vector data holding unit 213 to the terminal device 220a is continuously performed by the imaging cycle of the monitoring camera 201. By repeating each time, it is possible to transfer the stream data having the configuration as shown in FIG. 2A to the terminal device 220a.

このような構成のストリームデータでは、各フレームの画像データとこれに対応するベクトルデータとをそれぞれの独立性が保たれており、また、互いを確実に対応付けられているので、画像データとベクトルデータとの同期を保証することができる。
なお、動体検知処理装置からサーバ装置に渡される画像データの形式およびサーバ装置において扱われる画像データの形式は、自然画像をディジタルデータとして扱うことができるデータ形式であればよく、例えば、MPEGなどの形式を採用することも可能である。
In the stream data having such a configuration, the image data of each frame and the vector data corresponding to each frame are maintained independently of each other, and the image data and the vector are reliably associated with each other. Synchronization with data can be guaranteed.
The format of the image data passed from the moving object detection processing device to the server device and the format of the image data handled by the server device may be any data format that can handle natural images as digital data, such as MPEG. It is also possible to adopt a format.

次に、このようなストリームデータに基づいて、画像データで表される自然画像とベクトルデータによって表される線画とを重畳して表示する方法について説明する。
図4に、重畳表示処理部の詳細構成を示す。
図4に示した重畳表示処理部223において、イメージ復元部231は、リアルタイム表示制御部222を介して上述したストリームデータに含まれる画像データを受け取り、この画像データに基づいて1フレーム分のイメージデータを復元し、フレームメモリ232を介して表示部224による表示処理に供する。例えば、監視カメラ201によってJPEG方式で圧縮された画像データが得られる場合は、このイメージ復元部231において、対応する復元処理を行い、元の自然画像を表すイメージデータを再生してフレームメモリ232に格納する。
Next, a method for superimposing and displaying a natural image represented by image data and a line drawing represented by vector data based on such stream data will be described.
FIG. 4 shows a detailed configuration of the superimposed display processing unit.
In the superimposed display processing unit 223 illustrated in FIG. 4, the image restoration unit 231 receives the image data included in the above-described stream data via the real-time display control unit 222, and image data for one frame based on the image data. And is subjected to display processing by the display unit 224 via the frame memory 232. For example, when image data compressed by the JPEG method is obtained by the monitoring camera 201, the image restoration unit 231 performs corresponding restoration processing, reproduces image data representing the original natural image, and stores it in the frame memory 232. Store.

一方、ストリームデータに含まれるベクトルデータは、リアルタイム表示制御部222を介して描画処理部233に渡される。この描画処理部233は、設定情報格納部234に格納された描画処理に関する設定情報と、リアルタイム表示制御部222を介して受け取ったベクトルデータとに基づいて、移動体の位置および大きさを示す図形を表す線画を表示するための描画データを生成し、フレームメモリ232にこの描画データを上書きする。また、利用者は、図1に示したユーザインタフェース部225を介して所望の設定情報を入力し、設定情報格納部234に格納することにより、例えば、ベクトルデータに基づいて描画させる図形の形および描線の太さや色などを変更し、描画処理に反映させるができる。   On the other hand, vector data included in the stream data is passed to the drawing processing unit 233 via the real-time display control unit 222. The drawing processing unit 233 is a graphic indicating the position and size of the moving object based on the setting information related to the drawing processing stored in the setting information storage unit 234 and the vector data received via the real-time display control unit 222. Is generated, and the frame memory 232 is overwritten with the drawing data. In addition, the user inputs desired setting information via the user interface unit 225 shown in FIG. 1 and stores the setting information in the setting information storage unit 234. You can change the thickness and color of the strokes and reflect them in the drawing process.

これにより、図5(a)に示すように、画像データに基づいて再生された自然画像に、ベクトルデータに基づいて描画された線画を付加情報として重畳したイメージをフレームメモリ232上に作成し、監視カメラ201による撮影とのリアルタイム性を保持しながら、表示部224を介して利用者に提供することができる。
ここで、上述したストリームデータでは、画像データとベクトルデータとが互いに対応付けられながらも独立性を保っているので、端末装置220における重畳表示処理において、ベクトルデータに所望の編集処理を加えた上で、表示部224による表示に供することができる。
As a result, as shown in FIG. 5A, an image in which a line drawing drawn based on vector data is superimposed on the natural image reproduced based on the image data as additional information is created on the frame memory 232, It can be provided to the user via the display unit 224 while maintaining the real-time property with the photographing by the monitoring camera 201.
Here, in the above-described stream data, the image data and the vector data are associated with each other but are independent, so that in the superimposed display processing in the terminal device 220, a desired editing process is added to the vector data. Thus, it can be used for display by the display unit 224.

例えば、ユーザインタフェース部225を介して設定情報格納部234内の設定情報を変更することにより、フレームメモリ232に描画される図形の形や色を変更したり、所定値以上のサイズを持つ図形のみを描画させたり(図5(b)参照)、ベクトルデータ表示される図形の軌跡(図5(c)参照)を表示させたりするための編集処理を行い、表示部224において表示されるイメージに反映することができる。   For example, by changing the setting information in the setting information storage unit 234 via the user interface unit 225, the shape or color of the graphic drawn in the frame memory 232 is changed, or only a graphic having a size greater than or equal to a predetermined value. Is rendered (see FIG. 5B), or an editing process is performed to display the locus of a figure displayed as vector data (see FIG. 5C), and the image displayed on the display unit 224 is displayed. Can be reflected.

次に、データベースに蓄積された画像データおよびベクトルデータを所望の時間範囲について切り出して端末装置における表示処理に供する方法について説明する。
図6に、端末装置の切り出し表示制御部およびサーバ装置の切り出し処理部の詳細構成を示す。また、図7に、切り出し表示処理を説明するシーケンス図を示す。
図6に示した切り出し表示制御部226において、手順制御部235は、ユーザインタフェース部225を介して入力された利用者からの指示に基づいて、この指示で指定された時間範囲に含まれるファイル形成時刻ごとに切り出し要求を作成し、伝送路インタフェース221を介してサーバ装置210宛てに送出する(図7参照)。
Next, a method for cutting out image data and vector data stored in the database for a desired time range and using them for display processing in the terminal device will be described.
FIG. 6 shows detailed configurations of the cutout display control unit of the terminal device and the cutout processing unit of the server device. FIG. 7 shows a sequence diagram for explaining the cut-out display process.
In the cutout display control unit 226 shown in FIG. 6, the procedure control unit 235 generates a file included in the time range specified by this instruction based on the instruction from the user input via the user interface unit 225. A cut-out request is created for each time and sent to the server apparatus 210 via the transmission path interface 221 (see FIG. 7).

図6に示した切り出し処理部217において、要求受付部241は、伝送路インタフェース部211を介して受け取った切り出し要求からファイル形成時刻を抽出し、このファイル形成時刻をファイル検索部242に指定して、該当する映像ファイルおよび付加情報ファイルの検索を実行させる。このファイル検索部242によって得られた検索結果に基づいて、図6に示した連携ファイル形成部243は、上述したファイル形成時刻に対応してデータベース215に蓄積された付加情報ファイルを読み出し、図2(b)に示すように、この付加情報ファイルの内容とこの付加情報ファイルに対応付けられた映像ファイルへの連携を例えばHTTP形式で記述したリンク情報を含むXML形式の連携ファイルを形成する。また、このようにして形成された連携ファイルは、伝送路インタフェース部211を介して要求元の端末装置220宛てに送出される(図7参照)。   In the cutout processing unit 217 illustrated in FIG. 6, the request reception unit 241 extracts the file formation time from the cutout request received via the transmission path interface unit 211, and designates this file formation time in the file search unit 242. Then, the corresponding video file and additional information file are searched. Based on the search result obtained by the file search unit 242, the cooperative file forming unit 243 shown in FIG. 6 reads the additional information file stored in the database 215 corresponding to the file formation time described above, and FIG. As shown in (b), an XML format linkage file including link information in which the content of the additional information file and the linkage to the video file associated with the additional information file are described in, for example, the HTTP format is formed. Further, the link file formed in this way is sent to the requesting terminal device 220 via the transmission path interface unit 211 (see FIG. 7).

このようにして端末装置220に到達した連携ファイルは、図6に示した伝送路インタフェース221を介して、切り出し表示制御部226の手順制御部235に渡され、付加情報ファイルの内容であるベクトルデータとリンク情報とが分離される。このとき、手順制御部235は、連携ファイルから分離したベクトルデータをベクトルデータ保持部236に保持してデータ転送処理部238の処理に供するとともに、リンク情報に基づいて、HTTP形式の映像ファイル転送要求を実行する(図7参照)。   The link file that has arrived at the terminal device 220 in this way is transferred to the procedure control unit 235 of the cutout display control unit 226 via the transmission path interface 221 shown in FIG. 6, and vector data that is the content of the additional information file. And link information are separated. At this time, the procedure control unit 235 holds the vector data separated from the linkage file in the vector data holding unit 236 for use by the data transfer processing unit 238, and based on the link information, the HTTP format video file transfer request (See FIG. 7).

この映像ファイル転送要求は、図6に示した切り出し処理部217の要求受付部241を介して映像ファイル転送部244に渡され、この映像ファイル転送部244により、指定された映像ファイルをデータベース215から読み出して、伝送路インタフェース211を介して端末装置220宛てに送出する処理が行われる(図7参照)。
上述したように、付加情報ファイルと映像ファイルとを対応付けた連携ファイルを形成し、これを端末装置に渡して、端末装置側から映像ファイルの転送要求を実行させることにより、サーバ装置210側の処理を単純化することができる。
This video file transfer request is passed to the video file transfer unit 244 via the request receiving unit 241 of the cutout processing unit 217 shown in FIG. 6, and the specified video file is transferred from the database 215 by the video file transfer unit 244. A process of reading and sending to the terminal device 220 via the transmission path interface 211 is performed (see FIG. 7).
As described above, a linkage file in which the additional information file and the video file are associated with each other is formed, passed to the terminal device, and a transfer request for the video file is executed from the terminal device side. Processing can be simplified.

このようにして転送される映像ファイルの内容は、図6に示した伝送路インタフェース221を介して受信バッファ237に蓄積され、データ転送処理部238の処理に供される。図6に示したデータ転送処理部238は、受信バッファ237に適切な数のフレーム分の画像データが蓄積された段階で、重畳表示処理のためのデータ転送動作を開始する。つまり、このデータ転送処理部238は、受信バッファ237から各フレームの画像データを読み出して重畳表示処理部223に転送するごとに、転送したフレームの画像データに対応するベクトルデータをベクトルデータ保持部236から読み出して重畳表示処理部223に転送する。   The contents of the video file transferred in this way are accumulated in the reception buffer 237 via the transmission path interface 221 shown in FIG. 6, and are used for the processing of the data transfer processing unit 238. The data transfer processing unit 238 illustrated in FIG. 6 starts the data transfer operation for the superimposed display process when the image data for an appropriate number of frames is accumulated in the reception buffer 237. That is, each time the data transfer processing unit 238 reads the image data of each frame from the reception buffer 237 and transfers the image data to the superimposed display processing unit 223, the data transfer processing unit 238 receives vector data corresponding to the image data of the transferred frame. And transferred to the superimposed display processing unit 223.

これにより、データ転送処理部238から重畳表示処理部223に渡されるデータは、図2(a)に示した構成となるので、データベース215に蓄積された情報を切り出して表示する際にも、画像データとベクトルデータとの同期を確実に実現し、各フレームの画像データにこれに同期したベクトルデータを重畳して表示し、利用者に提供することができる。   As a result, the data passed from the data transfer processing unit 238 to the superimposed display processing unit 223 has the configuration shown in FIG. 2A. Therefore, even when the information stored in the database 215 is cut out and displayed, the image is displayed. Data and vector data can be reliably synchronized, and the vector data synchronized with the image data of each frame can be superimposed and displayed and provided to the user.

もちろん、ユーザインタフェース部225からの指示に応じて、上述したようにして、重畳表示処理においてベクトルデータの編集処理を行うことにより、利用者が施設などの監視を行う上で有効な指標を選択的に表示して、利用者に提供することができる。
また、このようなベクトルデータの編集処理に用いられた設定情報をベクトルデータおよび画像データからなるストリームデータとともに保存しておき、これを別の端末装置220に転送すれば、複数の端末装置間で同一の付加情報が重畳された映像を共有することも可能である。
Of course, in accordance with an instruction from the user interface unit 225, as described above, the vector data is edited in the superimposed display process, so that the user can selectively select an index that is effective for monitoring the facility. Can be displayed and provided to the user.
Also, if the setting information used for such vector data editing processing is stored together with stream data composed of vector data and image data, and transferred to another terminal device 220, the setting information used between the plurality of terminal devices It is also possible to share a video on which the same additional information is superimposed.

上述したように、本発明によれば、自然画像を表す各フレームの画像データとこの画像データに対応して得られた動体抽出処理結果を示すベクトルデータによって表される線画とを、この線画に所望の編集処理を施しつつリアルタイムで重畳して表示し、利用者による監視作業に供することができる。
これにより、監視カメラなどで撮影した画像に基づいて監視を行う監視システムなどにおいて、動体抽出技術を利用して侵入者などを自動的に検出して、利用者による監視作業を支援することができる。
As described above, according to the present invention, the image data of each frame representing a natural image and the line drawing represented by the vector data indicating the moving object extraction processing result obtained corresponding to the image data are included in this line drawing. It is possible to superimpose and display in real time while performing a desired editing process and to be used for monitoring work by the user.
As a result, in a monitoring system that performs monitoring based on an image captured by a monitoring camera or the like, it is possible to automatically detect an intruder or the like by using a moving object extraction technique, and to support a monitoring operation by the user. .

特に、港湾や空港のように広大な敷地を持つ施設の監視システムでは、一つの監視カメラによって捉えられる視野が大きく、また、監視カメラも多数備えられることから、動体抽出技術を適用した監視システムを導入するメリットは非常に大きいと考えられる。
また、本発明によれば、監視カメラによって得られた各フレームの画像データからなる映像データとこれに対応する動体抽出処理結果であるベクトルデータからなる付加情報とを所望の時間範囲について切り出し、端末装置において画像データと付加情報との重畳表示を行って、利用者による監視作業に供することができる。
In particular, surveillance systems for facilities with vast sites such as harbors and airports have a large field of view captured by a single surveillance camera, and many surveillance cameras are provided. The merit to introduce is thought to be very large.
Further, according to the present invention, video data composed of image data of each frame obtained by the monitoring camera and additional information composed of vector data corresponding to the moving object extraction processing result are cut out for a desired time range, and the terminal By superimposing the image data and the additional information on the apparatus, it can be used for monitoring work by the user.

これにより、データベースに蓄積された情報を、侵入者の進入経路の解析やベクトルデータの編集処理において適用する設定情報の最適化などに活用することができるので、自動監視システムの有効性を高める上で、非常に有用である。   As a result, the information accumulated in the database can be used for analysis of intruder entry routes and optimization of setting information applied in vector data editing processing, etc., thus improving the effectiveness of the automatic monitoring system. And very useful.

本発明にかかわる動画データ管理装置および動画表示装置の実施形態を示す図である。It is a figure which shows embodiment of the moving image data management apparatus and moving image display apparatus concerning this invention. データフォーマットの説明図である。It is explanatory drawing of a data format. リアルタイム表示動作を説明する図である。It is a figure explaining real-time display operation. 重畳表示処理部の詳細構成を示す図である。It is a figure which shows the detailed structure of a superimposition display process part. 付加情報が重畳されたイメージの例を示す図である。It is a figure which shows the example of the image on which the additional information was superimposed. 端末装置の切り出し表示制御部およびサーバ装置の切り出し処理部の詳細構成を示す図である。It is a figure which shows the detailed structure of the cut-out display control part of a terminal device, and the cut-out process part of a server apparatus. 切り出し表示処理を説明するシーケンス図である。It is a sequence diagram explaining cut-out display processing. 従来の一般的な監視システムの構成例を示す図である。It is a figure which shows the structural example of the conventional general monitoring system.

符号の説明Explanation of symbols

201、401 監視カメラ
202 動体検知処理装置
210 サーバ装置
220 端末装置
211、221 伝送路インタフェース
212 画像データ保持部
213 ベクトルデータ保持部
214 蓄積処理部
215 データベース
216 リアルタイム送出部
217 切り出し処理部
222 リアルタイム表示制御部
223 重畳表示処理部
224 表示部
225 ユーザインタフェース部
226 切り出し表示制御部
231 イメージ復元部
232 フレームメモリ
233 描画処理部
234 設定情報格納部
235 手順制御部
236 ベクトルデータ保持部
237 受信バッファ
238 データ転送処理部
241 要求受付部
242 ファイル検索部
243 連携ファイル形成部
244 映像ファイル転送部
402 ディスプレイ装置
403 ビデオテープレコーダ

201, 401 Monitoring camera 202 Moving object detection processing device 210 Server device 220 Terminal device 211, 221 Transmission path interface 212 Image data holding unit 213 Vector data holding unit 214 Storage processing unit 215 Database 216 Real time sending unit 217 Cutout processing unit 222 Real time display control Unit 223 superimposed display processing unit 224 display unit 225 user interface unit 226 cutout display control unit 231 image restoration unit 232 frame memory 233 drawing processing unit 234 setting information storage unit 235 procedure control unit 236 vector data holding unit 237 reception buffer 238 data transfer processing Unit 241 request reception unit 242 file search unit 243 cooperative file formation unit 244 video file transfer unit 402 display device 403 video tape recorder

Claims (5)

撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理する動画データ管理装置を介して動画表示装置による表示処理に供する動画データ管理方法において、
前記動画データ管理装置では、
各フレームの画像データの末尾にこの画像データに対応する動体抽出処理を行って得られた移動体の位置およびサイズを示す図形を表すベクトルデータを結合して前記動画表示装置に送信する結合ステップを実行し、
前記動画表示装置では、
前記動画データ管理装置から各フレームの画像データを受け取るごとに、そのフレームの画像データに基づく表示処理を行う画像表示ステップと、
次いで、前記画像データに基づいて再生された画像に、ベクトルデータに基づいて生成される図形を表す線画を上書きする上書きステップとを実行する
ことを特徴とする映像データ管理方法。
Display by a moving image display device via a moving image data management device that manages image data corresponding to a video imaged by an imaging device and vector data obtained by performing a moving object extraction processing by a moving object detection processing device corresponding to this video image In the video data management method used for processing,
In the video data management device,
A combining step of combining vector data representing a figure indicating the position and size of the moving object obtained by performing the moving object extraction process corresponding to the image data at the end of the image data of each frame and transmitting the combined data to the moving image display device; Run,
In the video display device,
Each time image data of each frame is received from the moving image data management device, an image display step for performing display processing based on the image data of the frame;
Next, an overwriting step of overwriting a line drawing representing a graphic generated based on vector data on an image reproduced based on the image data is performed.
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理する動画データ管理装置を介して動画表示装置による表示処理に供する動画データ管理方法において、
前記動画データ管理装置は、
前記撮像装置から1フレームの映像を受信する間隔の整数倍である所定の時間ごとに、前記撮像装置によって撮影された映像に対応する画像データをまとめて1つの映像ファイルを形成する映像ファイル形成ステップと、
前記映像ファイル形成ステップにおいて、一つの映像ファイルとしてまとめられた複数フレームの画像データに対応して前記動体検知処置装置からそれぞれ得られるベクトルデータをまとめて記述した付加情報ファイルを形成する付加情報ファイル形成ステップと、
前記付加情報ファイルと前記映像ファイルとを関連付けてデータベースに蓄積する蓄積ステップとを実行し、
前記動画表示装置からの動画データに関する要求に応じて、前記要求で指定された時刻に対応する付加情報ファイルおよび映像ファイルを前記データベースから検索する検索ステップと、
前記検索された付加情報ファイルの内容とともに、前記付加情報ファイルに対応する映像ファイルとの連携を記述するリンクを含む適切な形式のファイルを形成して前記動画表示装置に返送する返送ステップとを実行し、
前記リンクに基づく映像ファイルの転送要求に応じて、該当する映像ファイルを前記動画表示装置に転送する転送ステップとを実行する
ことを特徴とする動画データ管理方法。
Display by a moving image display device via a moving image data management device that manages image data corresponding to a video imaged by an imaging device and vector data obtained by performing a moving object extraction processing by a moving object detection processing device corresponding to this video image In the video data management method used for processing,
The moving image data management device includes:
A video file forming step of forming a single video file by grouping together image data corresponding to videos shot by the imaging device at a predetermined time that is an integral multiple of an interval of receiving one frame of video from the imaging device. When,
In the video file forming step, an additional information file forming for forming an additional information file in which vector data respectively obtained from the moving object detection treatment apparatus is collectively described corresponding to a plurality of frames of image data collected as one video file Steps,
Performing an accumulation step of associating the additional information file and the video file in a database,
In response to a request for moving image data from the moving image display device, a search step of searching the database for additional information files and video files corresponding to the time specified in the request;
A return step of forming a file of an appropriate format including a link describing the linkage with the video file corresponding to the additional information file together with the content of the searched additional information file and returning the file to the moving image display device And
And a transfer step of transferring the corresponding video file to the video display device in response to a video file transfer request based on the link.
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理するとともに、動画表示装置による表示処理に供する動画データ管理装置において、
前記撮像装置から受け取った各フレームの画像データの末尾と次のフレームの画像データの先頭との間に前記各画像データに対応して前記動体検知処理装置から動体検知処理結果として得られる移動体の位置およびサイズを示す図形を表すベクトルデータを挿入する挿入手段と、
前記挿入手段によって得られる画像データとベクトルデータとから構成されるストリームデータを前記動画表示装置に送信する送信手段と
を備えたことを特徴とする動画データ管理装置。
Image data corresponding to video captured by the imaging device and vector data obtained by performing moving object extraction processing by the motion detection processing device corresponding to this video, and moving image data for display processing by the moving image display device In the management device,
A moving object obtained as a result of the moving object detection processing from the moving object detection processing device corresponding to each image data between the end of the image data of each frame received from the imaging device and the start of the image data of the next frame. Insertion means for inserting vector data representing a figure indicating a position and size;
A moving image data management apparatus comprising: transmission means for transmitting stream data composed of image data and vector data obtained by the insertion means to the moving image display apparatus.
撮像装置によって撮影された映像に対応する画像データおよびこの映像に対応して動体検知処理装置による動体抽出処理を行って得られたベクトルデータを管理するとともに、動画表示装置による表示処理に供する動画データ管理装置において、
前記撮像装置から1フレームの映像を受信する間隔の整数倍である所定の時間ごとに、前記撮像装置によって撮影された映像に対応する画像データをまとめて1つの映像ファイルを形成する映像ファイル形成手段と、
前記映像ファイル形成手段によって一つの映像ファイルとしてまとめられた複数フレームの画像データに対応して前記動体検知処置装置からそれぞれ得られるベクトルデータをまとめて記述した付加情報ファイルを形成する付加情報ファイル形成手段と、
前記付加情報ファイルと前記映像ファイルとを関連付けて蓄積するデータベースと、
前記動画表示装置からの動画データに関する要求に応じて、前記要求で指定された時刻に対応する付加情報ファイルおよび映像ファイルを前記データベースから検索する検索手段と、
前記検索された付加情報ファイルの内容とともに、前記付加情報ファイルに対応する映像ファイルとの連携を記述するリンクを含む適切な形式の連携ファイルを形成する連携ファイル形成手段と、
前記連携ファイルを前記動画表示装置に返送する返送手段と、
前記リンクに基づく映像ファイルの転送要求に応じて、該当する映像ファイルを前記動画表示装置に転送する転送手段と
を備えたことを特徴とする動画データ管理装置。
Image data corresponding to video captured by the imaging device and vector data obtained by performing moving object extraction processing by the motion detection processing device corresponding to this video, and moving image data for display processing by the moving image display device In the management device,
Video file forming means for collectively forming image data corresponding to video captured by the imaging device at a predetermined time that is an integral multiple of an interval of receiving one frame of video from the imaging device. When,
Additional information file forming means for forming an additional information file that collectively describes vector data respectively obtained from the moving object detection treatment apparatus corresponding to a plurality of frames of image data collected as one video file by the video file forming means. When,
A database for storing the additional information file and the video file in association with each other;
In response to a request for moving image data from the moving image display device, search means for searching the database for additional information files and video files corresponding to the time specified in the request;
Linked file forming means for forming a link file of an appropriate format including a link describing the link with the video file corresponding to the additional information file together with the content of the searched additional information file;
Return means for returning the cooperation file to the video display device;
A moving picture data management apparatus comprising: a transfer means for transferring a corresponding video file to the moving picture display apparatus in response to a video file transfer request based on the link.
動画データを構成する各フレームの画像データの入力に応じて、前記各フレームの画像データに基づく画像表示処理を行う画像表示手段と、
前記画像における位置および範囲を含むベクトルデータの入力に応じて、前記ベクトルデータで示される位置および範囲を示す図形を表す線画を生成する線画生成手段と、
前記線画生成手段によって線画が生成されるごとに、生成された線画を前記画像表示手段によって再生された画像に上書きする上書き手段と、
動画データを構成する各フレームの画像データとこれらの画像データの間に挿入されたベクトルデータとからなるストリームデータを受け取り、前記ストリームデータに含まれる各フレームの画像データとベクトルデータとをそれぞれ抽出し、抽出するごとに、前記画像表示手段と前記線画生成手段とにそれぞれ振り分けてそれぞれ入力する振り分け手段と、
複数フレームの画像それぞれに対応して前記画像における位置および範囲をそれぞれ示すベクトルデータの集合と前記ベクトルデータの集合に対応する画像データからなる映像ファイルへの連携を記述したリンクとを含む連携ファイルを受け取り、前記ベクトルデータの集合を保持するベクトルデータ保持手段と、
前記連携ファイルに含まれるリンクに基づく転送要求に応じて得られる映像ファイルを保持する映像ファイル保持手段と、
映像ファイル保持手段から各フレームの画像データを読み出して前記画像表示手段に送出するごとに、対応するベクトルデータを前記ベクトルデータ保持手段から読み出して前記線画生成手段に送出する表示制御手段と
を備えたことを特徴とする動画表示装置。

Image display means for performing image display processing based on the image data of each frame in response to input of image data of each frame constituting the moving image data;
Line drawing generating means for generating a line drawing representing a figure indicating the position and range indicated by the vector data in response to the input of vector data including the position and range in the image;
Overwriting means for overwriting the generated line drawing on the image reproduced by the image display means each time a line drawing is generated by the line drawing generating means;
Receives stream data consisting of image data of each frame constituting video data and vector data inserted between the image data, and extracts image data and vector data of each frame included in the stream data, respectively. A sorting unit that sorts and inputs the image display unit and the line drawing generation unit, respectively, for each extraction;
A linkage file including a set of vector data respectively indicating a position and a range in the image corresponding to each image of a plurality of frames and a link describing linkage to a video file composed of image data corresponding to the set of vector data Vector data holding means for receiving and holding the set of vector data;
Video file holding means for holding a video file obtained in response to a transfer request based on a link included in the linkage file;
Each time image data of each frame is read from the video file holding means and sent to the image display means, the display control means reads out the corresponding vector data from the vector data holding means and sends it to the line drawing generation means. A moving image display device characterized by that.

JP2005009245A 2005-01-17 2005-01-17 Moving picture data management method and device, and moving picture display device Pending JP2006197485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005009245A JP2006197485A (en) 2005-01-17 2005-01-17 Moving picture data management method and device, and moving picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005009245A JP2006197485A (en) 2005-01-17 2005-01-17 Moving picture data management method and device, and moving picture display device

Publications (1)

Publication Number Publication Date
JP2006197485A true JP2006197485A (en) 2006-07-27

Family

ID=36803161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005009245A Pending JP2006197485A (en) 2005-01-17 2005-01-17 Moving picture data management method and device, and moving picture display device

Country Status (1)

Country Link
JP (1) JP2006197485A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041629A1 (en) * 2006-09-29 2008-04-10 Sony Corporation Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JP2011071920A (en) * 2009-09-28 2011-04-07 Hitachi Kokusai Electric Inc Remote video monitoring system
US9905268B2 (en) 2016-03-24 2018-02-27 Fujitsu Limited Drawing processing device and method
CN109120983A (en) * 2018-09-28 2019-01-01 腾讯音乐娱乐科技(深圳)有限公司 A kind of audio-frequency processing method and device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041629A1 (en) * 2006-09-29 2008-04-10 Sony Corporation Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JPWO2008041629A1 (en) * 2006-09-29 2010-02-04 ソニー株式会社 REPRODUCTION DEVICE AND METHOD, INFORMATION GENERATION DEVICE AND METHOD, DATA STORAGE MEDIUM, DATA STRUCTURE, PROGRAM STORAGE MEDIUM, AND PROGRAM
JP2011071920A (en) * 2009-09-28 2011-04-07 Hitachi Kokusai Electric Inc Remote video monitoring system
US9905268B2 (en) 2016-03-24 2018-02-27 Fujitsu Limited Drawing processing device and method
CN109120983A (en) * 2018-09-28 2019-01-01 腾讯音乐娱乐科技(深圳)有限公司 A kind of audio-frequency processing method and device

Similar Documents

Publication Publication Date Title
US8587655B2 (en) Directed attention digital video recordation
US8174571B2 (en) Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images
JP4363421B2 (en) Monitoring system, monitoring system server and monitoring method
CN101764998A (en) Alarm interlocking method in network video monitoring system and network video monitoring system
JP4877852B2 (en) Image encoding apparatus and image transmitting apparatus
US20230093631A1 (en) Video search device and network surveillance camera system including same
JP2006197485A (en) Moving picture data management method and device, and moving picture display device
JP2008092279A (en) Monitoring system and monitoring method
EP3975133A1 (en) Processing of images captured by vehicle mounted cameras
JP6396682B2 (en) Surveillance camera system
JP2006093955A (en) Video processing apparatus
JP2003244683A (en) Remote monitor system and program
JP3655832B2 (en) Moving image transmission method, moving image transmission processing program, and computer-readable recording medium recording the program
JP2007300456A (en) Video monitoring system and its index generation method
WO2017169149A1 (en) Surveillance camera system and surveillance method
JP2007158496A (en) Map interconnection video monitoring method and apparatus thereof
CN108200390A (en) Video structure analyzing method and device
KR20210108691A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP4346998B2 (en) Moving image storage management method and storage management device
CN102187663A (en) Image pickup apparatus, image pick-up method and integrated circuit
JP3558813B2 (en) Video surveillance system
CN114286059A (en) Wireless video monitoring system for kindergarten
JP2004064438A (en) Monitoring system and method for monitoring
KR20220003779A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP3834641B2 (en) Camera video data management system, camera video data management method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407