JP2006129519A - Image storing device, monitoring system and storage medium - Google Patents

Image storing device, monitoring system and storage medium Download PDF

Info

Publication number
JP2006129519A
JP2006129519A JP2005354311A JP2005354311A JP2006129519A JP 2006129519 A JP2006129519 A JP 2006129519A JP 2005354311 A JP2005354311 A JP 2005354311A JP 2005354311 A JP2005354311 A JP 2005354311A JP 2006129519 A JP2006129519 A JP 2006129519A
Authority
JP
Japan
Prior art keywords
image
monitoring event
monitoring
storage device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005354311A
Other languages
Japanese (ja)
Other versions
JP4162003B2 (en
Inventor
Shigeki Nagaya
茂喜 長屋
Takafumi Miyatake
孝文 宮武
Takehiro Fujita
武洋 藤田
Akio Nagasaka
晃朗 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005354311A priority Critical patent/JP4162003B2/en
Publication of JP2006129519A publication Critical patent/JP2006129519A/en
Application granted granted Critical
Publication of JP4162003B2 publication Critical patent/JP4162003B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image storing device that detects various monitor events that occur in a place to be monitored, classifies and assembles videos, according to the types of events and store them, and has an interface by which the time required for browsing and searching by a user is significantly reduced. <P>SOLUTION: The device comprises input image means for displaying an image that is currently being inputted, monitor event detection means for detecting the monitor events with respect to the inputted image, video recording deciding means for deciding whether the inputted image should be stored based on the detected monitor events, image storage means for storing an image that is decided as being "to record" by the video recording determining means, monitor event storage means for recording the storage place of the stored images and detected monitor event information, image sort allocation means that retrieves the monitor event information that satisfies user's browsing request for sorting images for browsing, and lays them out with the monitor event information, and monitor information display means for displaying one or more laid out images or monitor event information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、監視映像分野で使われる映像記録装置に関わり、長時間記録した監視映像を録画時間の数十分の一で閲覧・検索が可能な画像記憶装置の提供にある。   The present invention relates to a video recording device used in the field of surveillance video, and is to provide an image storage device capable of browsing and searching a surveillance video recorded for a long time with a few tenths of the recording time.

スーパーマーケットやコンビニエンスストア、エレベータなど、頻繁に人の出入りがありながら、そこを管理・維持する側のスタッフの目が届きにくい箇所には、防犯・検挙を目的とした監視カメラが設置されている。こうした監視システムには、集められた映像を人間に見張らせる形態(オンライン監視と呼ぶことにする)と、映像を蓄積しておいて事後必要な場合(犯罪発生等)に閲覧検索をする形態(蓄積型監視と呼ぶことにする)の大きく2つが在る。蓄積型監視の形態は、オンライン監視に比べて人件費がほとんどかからないため、広く利用されている。この蓄積型監視では、取得された映像の蓄積に、主としてタイムラプスビデオレコーダが使われる。
タイムラプスビデオレコーダとは、通常のビデオカムコーダを基に、数百時間分の映像を蓄積できるよう、通常秒当たり30回行うフレーム画像録画の間隔を1秒間に数フレーム程度からに広げて、散発的に映像を記録できるように改変したものである。一般的なビデオカムコーダベースのタイムラプスビデオレコーダでは、120分録画可能なテープメディアを使って1フレーム/秒で録画することにより約180時間(約8日間分)の記録が可能である。フレーム録画の間隔を広げればさらに長時間の記録が可能であるが、監視対象が記録映像から欠落してしまう危険があるために実際の運用上は1秒以上間隔を広げることはほとんどない。また、120分以上の記録時間を持つテープメディアを使うことも可能であるが、テープメディアの耐久性(破断)の問題があるため120分テープが使われる。こうした状況から、ビデオカムコーダベースのタイムラプスビデオレコーダの最長録画時間はほぼ180時間となっている。映像記録はテープの先頭から終わりに向かって順に行われる。テープの終わりまで記録すると、自動的に巻き戻しを行い、テープの先頭から上書きを行って行く。このようにして、常に最大180時間前までの映像を蓄えるようになっている。映像の閲覧方法は、通常のビデオカムコーダとほぼ同じである。ただ、そのまま普通に録画されたビデオテープと同じように再生すると30倍速になってしまうので、秒数枚の割合でも再生できるようになっている。
また、一部のタイムラプスビデオレコーダでは、記録方式をデジタル化しハードディスク上に記録するものもある。これは、VHSビデオカムコーダベースのタイムラプスビデオレコーダでは、機械的に記録・停止を繰り返してテープヘッドが故障したり、再生時にテープメディアが劣化したりといった問題点を解決するものである。こうしたデジタル記録方式を採用したものは、従来のテープメディアに記録する方式のものと区別してデジタル・タイムラプス・ビデオレコーダと呼ばれる。
このようにタイムラプスビデオレコーダでは長時間の蓄積が可能であるが、蓄積した映像の再生・閲覧には大きな問題があった。まず、第一に、180時間分すべてを確認するのに記録メディアの持つ録画時間(テープでは120分)の数倍の時間がかかってしまうという点である。第二に、監視映像として意味のあるものと無いものが同時かつ交互に、記録・再生されており、探すべき箇所の整理がされない状態で検索・閲覧を行うため、非常に効率が悪いという点である。現状では、テープ先頭から単純に再生を行い、漠然とした閲覧を行わざるを得ないため、目的とする映像を見落としやすい状況になっている。
以上のように、タイムラプスビデオレコーダでの蓄積映像の閲覧では、長時間に渡って映像の判別に集中することが求められ、ユーザの苦痛となっていた。
これに対し、赤外線センサのような人感センサと組み合わせるアプローチが既にあり、解決が可能であるように思われるが、(1) VHSビデオカムコーダベースのタイムラプスビデオレコーダでは、録画・停止操作を行う機械部分が頻繁なオンオフによって故障率が激増する、(2) 人感センサの有効距離やセンサの感度の点で信頼性が乏しい、(3)新たな設置コストがかかる、などの問題点から、実際のタイムラプスビデオレコーダの運用ではほとんど使われておらず、問題の解決には至っていなかった。
従来のタイムラプスビデオレコーダにおける根源的な問題点は、入力される映像を何ら分類すること無く、単に時間順で蓄積することにある。もし、人間が直接監視を行なってメモをとるのであれば、監視場所に生ずる変化(例:人の出入り、備品配置の変化など)に合わせて分類・整理を行なうなどして後で探しやすくするであろう。また、閲覧の場合にも、探したい内容(例:侵入者の顔映像、備品の破壊・盗難の有無)に合わせて、要求に合いそうな部分だけを大まかに取り出しておいて、そこからじっくり探すといった工夫を施す。監視を行なう時間が長くなればこうした工夫はいっそう重要である。
タイムラプスビデオレコーダでも、先に述べたような人間が行なっている整理・分類・絞込みを行なうことができれば、これまで検索にかかっていた時間を大幅に減らすともに、ユーザにかかる精神的な負担を著しく低減することが可能になる。
Surveillance cameras for crime prevention / clearance are installed in places such as supermarkets, convenience stores, and elevators where people frequently come and go, but where the staff on the side managing and maintaining them are difficult to reach. In such a monitoring system, a form in which the collected video is watched by humans (referred to as online monitoring) and a form in which the video is accumulated and browsed and searched when necessary after the fact (crime occurrence etc.) ( There are two main types (according to accumulation type monitoring). Accumulated monitoring is widely used because it costs less labor than online monitoring. In this accumulation type monitoring, a time-lapse video recorder is mainly used for accumulating the acquired video.
A time-lapse video recorder is based on a normal video camcorder, and it is sporadic by expanding the frame image recording interval, which is normally performed 30 times per second, from several frames per second to accumulate several hundred hours of video. The video is modified so that it can be recorded. A general video camcorder-based time-lapse video recorder can record about 180 hours (about 8 days) by recording at 1 frame / second using a tape medium capable of recording for 120 minutes. If the frame recording interval is increased, recording can be performed for a longer time. However, since there is a risk that the monitoring target is lost from the recorded video, the interval is hardly increased for more than 1 second in actual operation. It is also possible to use a tape medium having a recording time of 120 minutes or more, but a 120-minute tape is used because of the problem of durability (breaking) of the tape medium. Under these circumstances, the longest recording time of a time lapse video recorder based on a video camcorder is almost 180 hours. Video recording is performed in order from the beginning to the end of the tape. When the end of the tape is recorded, it is automatically rewound and overwritten from the beginning of the tape. In this way, videos up to 180 hours in advance are always stored. The video browsing method is almost the same as a normal video camcorder. However, if it is played in the same way as a normally recorded video tape, it will be 30 times faster, so it can be played even at a rate of several seconds.
Some time-lapse video recorders also digitize the recording method and record on a hard disk. This solves the problem that a time-lapse video recorder based on a VHS video camcorder is mechanically repeatedly recorded and stopped to cause a tape head failure or a tape medium to deteriorate during playback. Those adopting such a digital recording system are called a digital time lapse video recorder as distinguished from the conventional system for recording on a tape medium.
As described above, the time lapse video recorder can be stored for a long time, but there is a big problem in reproducing and browsing the stored video. First of all, it takes several times as long as the recording time (120 minutes for a tape) of a recording medium to check all 180 hours. Secondly, what is meaningful and what is not meaningful as surveillance video is recorded and played back simultaneously and alternately, and search and browsing is performed without sorting out the part to be searched for, so it is very inefficient. It is. At present, it is easy to overlook the target video because it has to be simply played from the beginning of the tape and vaguely browsed.
As described above, when browsing stored video with a time-lapse video recorder, it has been required to concentrate on video discrimination for a long time, which has been a pain for the user.
On the other hand, there seems to be an approach that can be combined with a human sensor such as an infrared sensor, and it seems that this can be solved. (1) In a VHS video camcorder-based time-lapse video recorder, a recording / stopping machine is used. The failure rate increases dramatically due to frequent ON / OFF of the part, (2) the reliability is poor in terms of the effective distance of the human sensor and the sensitivity of the sensor, and (3) a new installation cost is incurred. It was hardly used in the operation of the time-lapse video recorder, and the problem was not solved.
A fundamental problem in the conventional time-lapse video recorder is that the input video is simply stored in time order without any classification. If humans directly monitor and take notes, it is easier to find them later by sorting and organizing them according to changes that occur in the monitoring location (eg, people going in and out, changes in equipment placement, etc.). Will. Also, when browsing, take out only the parts that are likely to meet your requirements according to the content you want to find (eg, intruder's face image, equipment destruction / theft), and then carefully Make a search. These ideas are even more important if the monitoring time becomes longer.
If a time-lapse video recorder can organize, classify, and narrow down as described above, it will greatly reduce the time it takes to search and will significantly reduce the mental burden on the user. It becomes possible to reduce.

以上のように、従来の画像記憶装置(タイムラプスビデオレコーダ)は、映像を分類・整理して蓄積する方式と、目的とする映像を探すための閲覧方式に関して問題があった。
本発明が解決しようとする課題は、監視対象となる場所に生ずるさまざまな監視イベント(人の出入り、顔が映っているかどうか、環境の物理的変化など)を検出し、そのイベントの種類に応じて映像を分類・整理して蓄積し、ユーザが閲覧・検索する際に要する時間を大幅に短縮するインターフェイスを備えた、画像記憶装置、監視システム、監視方法が記録されたコンピュータ読みとり可能な記録媒体の提供にある。
As described above, the conventional image storage device (time-lapse video recorder) has a problem with respect to a method for classifying and organizing and storing videos and a browsing method for searching for a target video.
The problem to be solved by the present invention is to detect various monitoring events (such as people coming and going, whether a face is reflected, physical changes in the environment, etc.) that occur at a location to be monitored, and depending on the type of the event A computer-readable recording medium having an image storage device, a monitoring system, and a monitoring method recorded with an interface that categorizes, organizes, and accumulates images, and greatly reduces the time required for the user to browse and search Is in the provision of.

上記の課題を解決するため、時系列に画像を入力してディジタル化する手段と現在入力中の画像を表示する入力画像手段と入力画像に対して監視イベントを検出する監視イベント検出手段と検出した監視イベントに基づいて入力画像を記憶するか判定する録画判定手段と録画判定手段で「録画する」と判定された画像を記憶する画像記憶手段と記憶した画像の格納場所と、検出された監視イベント情報を記録する監視イベント記憶手段とユーザの閲覧要求を満たす監視イベント情報を検索し閲覧する画像を選別し、監視イベント情報とともにレイアウトする画像選別配置手段とレイアウトされた画像または監視イベント情報をひとつまたは複数表示する監視情報表示手段とを具備する。   In order to solve the above problems, a means for inputting and digitizing images in time series, an input image means for displaying an image currently being input, and a monitoring event detecting means for detecting a monitoring event for the input image are detected. Recording determination unit for determining whether to store an input image based on a monitoring event, image storage unit for storing an image determined to be “recorded” by the recording determination unit, a storage location of the stored image, and a detected monitoring event The monitoring event storage means for recording information and the monitoring event information satisfying the browsing request of the user are searched, the image to be browsed is selected, and the image selection / placement means for laying out together with the monitoring event information and the laid out image or monitoring event information And a plurality of monitoring information display means for displaying.

上記の画像記憶手段ならびに監視イベント記憶手段の媒体には、ハードディスク、DVD-RAM、フラッシュメモリのランダムアクセスメモリを用いる。   A random access memory such as a hard disk, a DVD-RAM, or a flash memory is used as the medium for the image storage means and the monitoring event storage means.

上記の監視イベント検出手段は、特開平8−221577「移動物体検出・抽出装置」に公開されている手法により、サンプリング時刻時の入力画像と過去に録画した画像間の相異度から、背景構造変化の有無、照明変化の有無、移動物体の有無などをそれぞれ監視イベントとして検出する。また、肌色領域を検出することにより、移動物体が存在するシーン中に顔の候補領域が存在するかどうかを判定することにより、「顔がカメラ側に最も向いた時点」という監視イベントを検出する。   The above monitoring event detection means uses the method disclosed in Japanese Patent Application Laid-Open No. 8-221777 “Moving Object Detection / Extraction Device” to determine the background structure based on the difference between the input image at the sampling time and the previously recorded image. The presence / absence of a change, the presence / absence of illumination change, the presence / absence of a moving object, and the like are detected as monitoring events. In addition, by detecting whether the face candidate area exists in the scene where the moving object exists by detecting the skin color area, the monitoring event “when the face is most suitable for the camera side” is detected. .

上記の録画判定手段手段は、最新の監視イベントと、既に検出されている監視イベントの種類・履歴と、直前に記憶した画像の録画時刻との現在時刻との差、各種記憶手段に用いられている媒体の残り容量、ユーザが指定した最小記憶時間長などから、画像を「録画する」かどうかを判定する。   The above recording determination means means is used for various storage means, the difference between the latest monitoring event, the type / history of the monitoring event that has already been detected, and the current time of the recording time of the image stored immediately before. Whether or not to “record” the image is determined from the remaining capacity of the existing medium and the minimum storage time length specified by the user.

上記の監視イベント記憶手段は、これら監視イベントについて録画すると判定された場合に、装置内の画像が格納される場所、発生・終了した日時・フレーム映像中での位置・カメラID(場所ID)と、監視イベントを表す特徴量を所定の場所に記憶する。   The monitoring event storage means, when it is determined to record about these monitoring events, the location where the image in the device is stored, the date / time when it was generated / finished, the position in the frame video, the camera ID (location ID) The feature quantity representing the monitoring event is stored in a predetermined location.

上記の画像選択配置手段は、例えば、「検知された顔画像の一覧」、「ある1時間内に発生した監視イベントの一覧」、「在る監視イベントで録画された画像のアニメーション表示」、「監視場所の設置物の変化時のみの一覧」、「一日の監視イベントの分布」、などのユーザの閲覧要求ごとに、監視イベント情報を検索し、対応する画像を選択・配置して、ユーザが見やすいようなビューを作成する。なお、各ビュー毎の画像選択・配置に必要な、検索対象やレイアウトに関するルール・アルゴリズムはあらかじめ装置のファームウエアとして内蔵する。   The image selection / arrangement means includes, for example, “a list of detected face images”, “a list of monitoring events that occurred within a certain hour”, “animation display of images recorded at a certain monitoring event”, “ For each viewing request of the user, such as “List only when the installation at the monitoring location changes”, “Distribution of monitoring events of the day”, etc., search the monitoring event information, select and place the corresponding image, and Create a view that is easy to see. It should be noted that the rules and algorithms relating to the search target and layout necessary for image selection / arrangement for each view are built in as firmware of the apparatus in advance.

さらに別の解決手段では、上記装置に、複数表示された画像または監視イベント情報をユーザの閲覧操作に従って同期させる手段を追加することにより、複数のビューが連携して表示されるインターフェイスを実現し、ユーザに、監視イベント情報と画像を多角的・効率的に提示する装置を実現する。   In yet another solving means, by adding a means for synchronizing the plurality of displayed images or monitoring event information in accordance with the user's browsing operation, an interface for displaying a plurality of views in cooperation with each other is realized. An apparatus for presenting monitoring event information and images to users in a multifaceted and efficient manner is realized.

本発明によれば、録画データをランダムアクセス可能なメモリに記憶するので、記録と同時に閲覧を行なうことができる。 また、画像がディジタル化されるているので、録画を何回繰り返しても画質劣化が生じない。さらに、ユーザの指定した監視イベント(人の出入り、顔が映っているかどうか、環境の物理的変化など)についてのみ、適切な間隔で画像の記録を行なうので、録画に必要なメモリ量を低減し、長時間録画が可能となる。監視映像を記憶する際に、さまざまな監視イベントによって映像の分類・整理して蓄積するので、閲覧時に目的とする監視イベントに絞込んで映像を探す事ができる。さらに、監視イベントの時間的な分布を平面的に提示することにより、ユーザが閲覧・検索する際に要する時間を大幅に短縮し、目的とするデータへの移動をハイパージャンプで行なうことができるインターフェイスを提供できるという効果がある。   According to the present invention, since the recorded data is stored in a randomly accessible memory, browsing can be performed simultaneously with recording. Further, since the image is digitized, the image quality does not deteriorate no matter how many times the recording is repeated. In addition, images are recorded at appropriate intervals only for monitoring events specified by the user (such as people coming and going, whether a face is reflected, physical changes in the environment, etc.), reducing the amount of memory required for recording. Long time recording is possible. When storing the monitoring video, the video is classified and organized according to various monitoring events, so that the video can be searched by narrowing down to the target monitoring event when browsing. In addition, by presenting the temporal distribution of monitoring events in a plane, the time required for the user to browse and search is greatly reduced, and the interface can be moved to the target data by hyper jump. There is an effect that can be provided.

以下、本発明の1実施例を詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail.

図1は、本発明の画像記憶装置を利用した監視システムの一例である。監視カメラ200からの映像信号は、画像記憶装置100のビデオ入力端子110から入力され、ディジタル画像として記録される。記録されたディジタル画像はビデオ出力端子110からアナログ画像としてデイスプレィ210に表示される。また記録されたディジタル画像はLAN端子140からWANを通して監視センタのパソコン220へ送られる。その際、電話回線なども利用可能である。画像記憶装置100は、タッチパネル130とポインティングデバイス190を介した指示によって制御される。   FIG. 1 is an example of a monitoring system using the image storage device of the present invention. The video signal from the monitoring camera 200 is input from the video input terminal 110 of the image storage device 100 and recorded as a digital image. The recorded digital image is displayed on the display 210 as an analog image from the video output terminal 110. The recorded digital image is sent from the LAN terminal 140 to the personal computer 220 of the monitoring center through the WAN. At that time, a telephone line or the like can also be used. The image storage device 100 is controlled by an instruction via the touch panel 130 and the pointing device 1990.

以上のように本発明の画像記憶装置100に接続される監視機器は、従来のアナログの監視カメラやディスプレイがそのまま接続可能である。さらに、ネットワークを介して遠方に監視映像を伝送できる点は、従来のタイムラプスビデオレコーダになかった機能である。   As described above, a conventional analog monitoring camera or display can be directly connected to the monitoring device connected to the image storage device 100 of the present invention. Furthermore, the ability to transmit surveillance video over a network over a network is a function that was not available in conventional time-lapse video recorders.

図2は、本発明である画像記憶装置のシステム構成の一例である。基本的には、現在汎用的に用いられているデジタルコンピュータのシステム構成と同じである。   FIG. 2 shows an example of the system configuration of the image storage apparatus according to the present invention. Basically, it is the same as the system configuration of a digital computer currently used for general purposes.

まず111は監視カメラからの映像信号をディジタル画像に変換するA/D変換器である。変換されたディジタル画像はインタフェース112を介してメモリ170に取り込むと同時にビデオメモリ118に取り込まれる。   Reference numeral 111 denotes an A / D converter that converts a video signal from the surveillance camera into a digital image. The converted digital image is taken into the memory 170 via the interface 112 and simultaneously taken into the video memory 118.

ビデオメモリ118はディスプレイ210に表示される画像をディジタルデータとして格納する。119は、一般にRAMDACとも呼ばれている種類のD/A変換器であり、ビデオメモリ118に書かれたデータを走査線スピードに合わせて逐次読みとり、ディスプレイ210に描画する。したがって、ビデオメモリ118のデータを更新すると、その更新内容がディスプレイ210の表示内容に直ちに反映される。ディスプレイ210は、画像を表示するためのデバイスであり、例えば、小型のCRTやプラズマディスプレイであっても良いし、液晶タイプの表示デバイスであっても構わない。   The video memory 118 stores an image displayed on the display 210 as digital data. 119 is a D / A converter of a kind generally called RAMDAC, which sequentially reads data written in the video memory 118 in accordance with the scanning line speed and draws it on the display 210. Therefore, when the data in the video memory 118 is updated, the updated content is immediately reflected in the display content on the display 210. The display 210 is a device for displaying an image, and may be, for example, a small CRT or a plasma display, or a liquid crystal type display device.

こうした画像の取り込みを、秒30回程度の頻度で繰り返すことで、ディスプレイ上で連続的な動画の表示が行える。   By repeating such image capturing at a frequency of about 30 times per second, a continuous moving image can be displayed on the display.

補助記憶装置160は、ハードディスク等の大容量記録装置であり、ディジタルデータを半永久的に記録するための装置である。これは、PCMCIAタイプのハードディスクカードのように記憶装置ごと本体から着脱できるものであったり、あるいは、DVD-RAM、フラッシュメモリ等のように、記録媒体のみを着脱できるタイプの記録装置であっても構わない。   The auxiliary storage device 160 is a large-capacity recording device such as a hard disk, and is a device for semi-permanently recording digital data. This can be a detachable recording device such as a PCMCIA type hard disk card, or a recording device that can detach only a recording medium such as a DVD-RAM or flash memory. I do not care.

CPU150は、監視イベントの検出、録画制御、表示画像の選択・配置など、本発明で説明する機能を実現するためのソフトウエアプログラムを実行する。プログラムは、メモリ170に常駐し、プログラムの実行に必要となるデータもここに必要に応じて格納される。   The CPU 150 executes a software program for realizing the functions described in the present invention, such as monitoring event detection, recording control, and display image selection / arrangement. The program resides in the memory 170, and data necessary for the execution of the program is also stored here as necessary.

NIC(Network Interface Card)139は録画した画像や監視イベント情報をネットワークを通じて伝送する。赤外線受光部130はリモコンからの情報入力デバイスである。   A NIC (Network Interface Card) 139 transmits recorded images and monitoring event information through the network. The infrared light receiving unit 130 is an information input device from a remote controller.

ユーザからの指示は、タッチパネル130からインタフェース131を介して、CPU150に伝えられ、適宜処理される。   An instruction from the user is transmitted from the touch panel 130 to the CPU 150 via the interface 131 and is appropriately processed.

180は、以上述べた各デバイス間を相互につなぐデータバスである。   Reference numeral 180 denotes a data bus that interconnects the devices described above.

以上の画像記憶装置のシステム構成において、まず、監視映像を記録する際の動作について説明する。   In the system configuration of the image storage device described above, first, an operation when recording a monitoring video will be described.

記録動作は、メモリ170内に格納された制御プログラム171によって制御される。最初に、ビデオ入力端子110から映像を取り込んで個々のフレーム画像の列とし、メモリ170に格納する。同時に、逐次ビデオメモリ118に転送し、ディスプレイ210に入力画像を表示する。次に、メモリ170に格納されたフレーム画像列から監視イベントを検出し、これをメモリ170に格納する。この監視イベント情報と制御データ172から、録画すべき画像だけを判定・選択する。最後に、監視イベント情報と選択された画像を補助記憶装置160に格納する。   The recording operation is controlled by a control program 171 stored in the memory 170. First, the video is taken from the video input terminal 110 to form a sequence of individual frame images and stored in the memory 170. At the same time, the data is sequentially transferred to the video memory 118 and the input image is displayed on the display 210. Next, a monitoring event is detected from the frame image sequence stored in the memory 170 and stored in the memory 170. Only the image to be recorded is determined and selected from the monitoring event information and the control data 172. Finally, the monitoring event information and the selected image are stored in the auxiliary storage device 160.

次に、監視映像がユーザによって閲覧される際の動作について説明する。閲覧時の動作は記録時と同様、メモリ170内に格納された制御プログラム171によって制御される。まず、タッチパネル130を介して入力されたユーザの閲覧要求に従って、補助記憶装置170に格納されている監視イベント情報をメモリ170上に転送する。この際、監視イベント情報の内部レコードを読んで、要求に一致しないものをメモリから削除する。次に、選別された監視イベント情報の内部レコードを読んで、監視イベントに対応する画像のパス名を取得し、該当する画像を補助記憶装置160からメモリ170に転送する。次に、メモリ170上の監視イベント情報と画像をユーザに見やすい形態にレイアウトし、ビデオメモリ118に転送する。ビデオメモリ118に転送された監視イベント情報と画像データは監視結果としてそのままディスプレイ210に表示される。以上の動作を、ユーザからの入力指示に応じて何度も繰り返す。   Next, an operation when the monitoring video is browsed by the user will be described. The operation at the time of browsing is controlled by the control program 171 stored in the memory 170 as in the case of recording. First, the monitoring event information stored in the auxiliary storage device 170 is transferred onto the memory 170 in accordance with a user browsing request input via the touch panel 130. At this time, the internal record of the monitoring event information is read, and those that do not match the request are deleted from the memory. Next, the internal record of the selected monitoring event information is read, the path name of the image corresponding to the monitoring event is acquired, and the corresponding image is transferred from the auxiliary storage device 160 to the memory 170. Next, the monitoring event information and images on the memory 170 are laid out in a form that is easy for the user to view, and transferred to the video memory 118. The monitoring event information and the image data transferred to the video memory 118 are displayed on the display 210 as they are as a monitoring result. The above operation is repeated many times in response to an input instruction from the user.

一般にタイムラプスビデオレコーダでは、映像を録画する際のサンプリング間隔は自由に設定できるようになっており、間隔を大きくする事でより長時間の録画ができるようになっている。しかし、単純にサンプリング間隔を拡げすぎると、カメラのフレーム映像中を通過する物体が速い場合に録画漏れが生じ、監視の目的が達成できなくなってしまう。そこで、録画漏れを生じさせること無く、長時間録画が可能な方式を以下に説明する。   In general, in a time-lapse video recorder, a sampling interval when recording a video can be freely set, and recording can be performed for a longer time by increasing the interval. However, if the sampling interval is simply increased too much, a recording omission occurs when an object passing through the frame image of the camera is fast, and the purpose of monitoring cannot be achieved. Therefore, a method capable of recording for a long time without causing recording omission will be described below.

図3、4、5は本発明で検出した監視イベントに従って映像を記録する方式を示す図である。   3, 4 and 5 are diagrams showing a system for recording video according to the monitoring event detected in the present invention.

図3は、従来の単純なタイムラプス録画に監視イベントによるフィルタリングを組み合わせた記録方式を説明する図である。   FIG. 3 is a diagram for explaining a recording method in which filtering based on a monitoring event is combined with conventional simple time-lapse recording.

300はビデオ信号の生成周期を示すタイミングチャートである。NTSC規格では1秒間に30フレームが生成される。これに対して、指定したサンプリング間隔で画像を取り込むことで時間的にフレームを間引く。   300 is a timing chart showing the generation cycle of the video signal. In the NTSC standard, 30 frames are generated per second. On the other hand, frames are thinned out temporally by capturing images at designated sampling intervals.

310はサンプリングのタイミングチャートを示す。この例では時間的にフレームを30分の1に間引き、1秒に1フレームだけ取り込むようにしている。   Reference numeral 310 denotes a sampling timing chart. In this example, the frame is temporally reduced to 1/30 so that only one frame is captured per second.

320はサンプリング時の画像内容を表している。監視カメラが固定してあり、侵入物や背景の変化がない場合(320‐2)、すなわち監視イベントが生じていない場合、入力画像列はほとんど同一となる。そこで、「監視イベントが生じていない=前回録画した画像と現在録画しようとする画像が同じである」と判定された場合は録画を省略することで録画のためのメモリ消費を省く。   320 represents the image content at the time of sampling. When the surveillance camera is fixed and there is no intruder or background change (320-2), that is, when no surveillance event occurs, the input image sequence is almost the same. Therefore, when it is determined that “a monitoring event has not occurred = the image recorded last time and the image to be recorded are the same”, recording is omitted to save memory consumption for recording.

330は選択されたフレームを示す。このように監視イベントによるフィルタリングを行うと、画像の変化の多い時間帯は一定のメモリ消費になるが、夜間など変化が少なくなると、冗長な録画によるメモリ消費が少なくなり、長時間の録画が可能になる。録画が省略された時間の画像はその一つ前に録画された画像と同じであるので、録画が省略された時刻の画像検索要求があっても、代理の画像で結果を表示することが可能となる。   330 indicates the selected frame. If filtering by monitoring events is performed in this way, memory consumption will be constant during times when images change frequently, but if changes such as nighttime are reduced, memory consumption due to redundant recording will be reduced and recording will be possible for a long time. become. Since the image at the time when recording was omitted is the same as the image recorded immediately before it, even if there is an image search request at the time when recording was omitted, the result can be displayed as a substitute image It becomes.

録画データ161とそれが取得された時刻情報を含む監視イベント情報162から構成されているので、図3の例では、「時刻1の画像を表示せよ」との検索要求があった場合、時刻0の画像を代理で表示することができる。   Since it is composed of recorded data 161 and monitoring event information 162 including the time information when it was acquired, in the example of FIG. 3, when there is a search request “display image at time 1”, time 0 Can be displayed as a proxy.

図4は、図3とは別の方式による映像記録方式について説明するものである。   FIG. 4 explains a video recording system based on a system different from FIG.

340はサンプリングのタイミングチャートを示す。図3はサンプリング間引きを行なった後に監視イベントを判定するものであるが、図4では、サンプリング間引きをせずに直接入力されたビデオ映像の全フレームから監視イベントの検出を行ない、イベント区間を決定した後に、例えば、3秒に1回等の、あらかじめ指定されたサンプリング間隔で記録を行なう。サンプリングの間隔を入力と同じ1/30秒とすれば、イベント発生時の入力映像を記録することができる。   Reference numeral 340 denotes a sampling timing chart. In Fig. 3, the monitoring event is judged after sampling thinning. In Fig. 4, the monitoring event is detected from all the frames of the video image directly input without sampling thinning, and the event interval is determined. After that, recording is performed at a sampling interval specified in advance, for example, once every 3 seconds. If the sampling interval is set to 1/30 second, which is the same as the input, the input video at the time of event occurrence can be recorded.

この方式は、監視カメラ中の移動物体の運動方向などを監視イベントとして検出したい場合や、下記(III)に述べる動的な録画間隔の制御を行なう場合に適している。   This method is suitable when it is desired to detect the movement direction of a moving object in the surveillance camera as a surveillance event, or when dynamic recording interval control described in (III) below is performed.

図5は、動的な録画間隔の制御を行なう方式を説明するものである。   FIG. 5 illustrates a method for performing dynamic recording interval control.

350、360はサンプリングのタイミングチャートを示す。   350 and 360 are sampling timing charts.

この記録方式の基本的な大枠は図4と同一であり、サンプリング間引きをせずに入力ビデオ映像の全フレームから監視イベントを検出・記録を行なう。図4と異なる点は、記録の際のサンプリング間隔が固定であったのに対し、図5ではサンプリング間隔を動的に変更する点である。タイミングチャート350では、監視イベント情報とサンプリング間隔をリンクさせて記録を行なう方式を示したものである。   The basic outline of this recording method is the same as that shown in FIG. 4, and monitoring events are detected and recorded from all frames of the input video image without sampling thinning. The difference from FIG. 4 is that the sampling interval at the time of recording is fixed, whereas in FIG. 5, the sampling interval is dynamically changed. The timing chart 350 shows a method of recording by linking the monitoring event information and the sampling interval.

例えば、監視イベントとしてフレーム映像の変化を検知する。最新のフレーム画像と直前のフレーム画像について各画素の差分絶対値をそれぞれ求めて総和を計算する。この値はカメラ映像中で動くものが多い時や動きの激しいときに大きくなり、動きが小さいときにはほぼゼロになるという性質を持っている。   For example, a change in frame video is detected as a monitoring event. The absolute value of each pixel difference is obtained for the latest frame image and the immediately preceding frame image, and the sum is calculated. This value is large when there are many moving images in the camera image or when the movement is intense, and has a property that it becomes almost zero when the movement is small.

この性質を利用して、この値の大小に合わせて、値が小さいときにはサンプリング間隔を例えば、毎秒2から4回程度に広げ、値が大きいときにはサンプリング間隔を例えば、毎秒30回程度に狭めることにする。すると、記録される監視映像は、カメラ映像中で動くものが多い時や動きの激しい時にはほぼ動画に近い形となり、変化の小さい場合にはパラパラとアニメーションのように記録される。   By utilizing this property, the sampling interval is expanded from 2 to 4 times per second, for example, when the value is small, and narrowed to, for example, about 30 times per second, when the value is large. To do. Then, the surveillance video to be recorded has a shape almost similar to a moving image when there are many moving images in the camera video or when the motion is intense, and when the change is small, it is recorded like flipping and animation.

この方式では映像中の変化が一定範囲となるように記録することができ、例えば、人の動作を記録したい場合などには、一定の動き毎に記録を行うことができる。   In this method, it is possible to record so that the change in the video is within a certain range. For example, when it is desired to record a human action, recording can be performed for every certain movement.

また、タイミングチャート360のように、あらかじめ作成したサンプリング間隔の制御ルールを与えることも有効である。例えば、外部から人が入室してくるドアを監視する場合、入室者の顔映像を記録できることが重要になる。この場合、監視イベント(映像変化)を検出し、記録をはじめた直後はサンプリング間隔を密にし、徐々に間隔を広げて行くように設定する、これによって、顔が映ったフレーム画像を確実に録画することが可能になる。   It is also effective to give a control rule for a sampling interval created in advance as in the timing chart 360. For example, when monitoring a door where a person enters the room from the outside, it is important to be able to record the face image of the person entering the room. In this case, a monitoring event (video change) is detected, and immediately after recording starts, the sampling interval is set to be narrow and the interval is gradually increased, so that the frame image showing the face is recorded reliably. It becomes possible to do.

以上のように本発明によれば、監視イベントによって、録画実行の判定と録画間隔の制御を行なっているので、動作や顔といった監視したい対象の録画漏れを生じさせることなく、長時間の録画を可能にする。   As described above, according to the present invention, the execution of recording and the control of the recording interval are performed according to the monitoring event, so that a long-time recording can be performed without causing a recording omission of an object to be monitored such as an action or a face. enable.

図6、7、8は、本発明の監視映像記録装置における映像録画・再生時の画面を説明するものである。これらの出力はタッチパネル130が被せられたディスプレイ210上に表示されるものである。   FIGS. 6, 7 and 8 illustrate screens during video recording / playback in the surveillance video recording apparatus of the present invention. These outputs are displayed on the display 210 on which the touch panel 130 is put.

図6は、映像録画時の画面である。基本的には、現在入力されている映像を表示する領域400が中心となって構成される。入力映像領域400には、場所・日時などの監視イベント情報表示401や、監視イベントが現在検知されていることと録画が行なわれていることを示すマーカー402が重畳表示され、ユーザにシステムの動作が一目でわかるようになっている。403は、システムが映像監視を開始するかどうかを制御するボタンである。   FIG. 6 shows a screen during video recording. Basically, an area 400 for displaying the currently input video is mainly configured. In the input video area 400, a monitoring event information display 401 such as a place / date and time, and a marker 402 indicating that a monitoring event is currently detected and recording is being superimposed are displayed, and the system operation is displayed to the user. Can be seen at a glance. A button 403 controls whether the system starts video monitoring.

監視イベント情報表示401には、カメラが映している場所を示すID(監視場所の名称:あらかじめユーザによって登録される)、年月日、タイムコード(時分秒とその秒内でのフレーム番号)などが含まれる。   The monitoring event information display 401 includes an ID indicating the location where the camera is shown (monitoring location name: registered in advance by the user), year / month / day, time code (hour / minute / second and frame number within the second). Etc. are included.

マーカー402による、監視イベントの検出状態と録画状態をユーザへ通知方法であるが、例えば以下のように動作する。システムが、監視イベントを検出しはじめると、黄色で点滅をはじめる。録画時には一瞬赤く点滅することによって補助記憶装置160への録画(画像データと監視イベント情報データの転送)が発生していることを通知する。   This is a method of notifying the user of the monitoring event detection state and the recording state by using the marker 402. For example, the method operates as follows. When the system begins to detect a monitoring event, it will begin to flash yellow. When recording, it blinks red for a moment to notify that recording (transfer of image data and monitoring event information data) to the auxiliary storage device 160 is occurring.

410は、検出した監視イベントの履歴をユーザに通知する領域である。ここには、監視イベント情報の有無や強度(例:フレーム差分値など)を示す波形グラフ411が表示される。波形411は時間遷移に従って順次左方向にシフトし、表示領域410の右端に最新の監視イベント情報値が波形値として追加される。表示領域410下部には波形データ411の全体的な時間分布がわかるように、時刻を表す表示412がおかれる。本例では、現在時点からの何分前かを表示しているが、絶対時間(何時何分であるか)を表示しても良い。   An area 410 notifies the user of a history of detected monitoring events. Here, a waveform graph 411 indicating the presence / absence and intensity (eg, frame difference value) of the monitoring event information is displayed. The waveform 411 is sequentially shifted to the left according to the time transition, and the latest monitoring event information value is added as a waveform value to the right end of the display area 410. A display 412 representing the time is placed at the bottom of the display area 410 so that the overall time distribution of the waveform data 411 can be seen. In this example, how many minutes before the current time point is displayed, but absolute time (how many minutes) may be displayed.

420もまた、検出した監視イベントの履歴をユーザに通知する領域である。ここには、これまでに検出された監視イベント毎の代表画像421と時刻422が表示される。本例では、表示領域420の上部に最新の監視イベントに対応する画像が表示され、以下下に向かって新しい順に代表画像421と時刻422が配置されている。   420 is also an area for notifying the user of the history of detected monitoring events. Here, a representative image 421 and a time 422 for each monitoring event detected so far are displayed. In this example, an image corresponding to the latest monitoring event is displayed in the upper part of the display area 420, and a representative image 421 and a time 422 are arranged in descending order below.

表示領域410・420は、ポインティングデバイス190等により、グラフ部分や画像部分をタッチするにより、録画映像の再生が可能になっている。   In the display areas 410 and 420, the recorded video can be reproduced by touching the graph part or the image part with the pointing device 190 or the like.

再生時には、後述する図7のように領域400部分の表示に切り替わり、そこに録画した映像が出力される。   During playback, the display is switched to the display of the area 400 as shown in FIG. 7 described later, and the recorded video is output there.

例えば、領域420上の代表画像部分をタッチすることにより、該当する監視イベントの発生した区間の一連の画像データ161を補助記憶装置160から読み出して、領域400上に表示再生する。また、領域410の波形グラフ部分をタッチすると、該当時間に最も時間的に近い監視イベント区間の映像を領域400上に再生する。これに同期して、表示した監視イベントとその前後のイベントの代表画像を領域420上に表示する。このとき、タッチした箇所がユーザにフィードバックされるようにグラフ上に異なる色の縦線が表示される。   For example, by touching the representative image portion on the area 420, a series of image data 161 of the section where the corresponding monitoring event has occurred is read from the auxiliary storage device 160 and displayed and reproduced on the area 400. When the waveform graph portion in the area 410 is touched, the video of the monitoring event section closest in time to the corresponding time is reproduced on the area 400. In synchronization with this, the displayed monitoring event and representative images of the preceding and subsequent events are displayed on the area 420. At this time, vertical lines of different colors are displayed on the graph so that the touched location is fed back to the user.

なお、本例では、記録時画面内に記録映像と再生映像の表示を行なう領域400とそれ以外の領域410、420を併置しているが、これらは表示領域400と別々に表示しても良い。   In this example, the area 400 for displaying the recorded video and the reproduced video and the other areas 410 and 420 are juxtaposed in the recording screen, but these may be displayed separately from the display area 400. .

図7は再生時の画面について説明するものである。再生時には、領域400の上部と下部にそれぞれ再生操作に適したボタン類が新たに表示される。これらのボタン類はディスプレイ210上に表示される図とタッチパネル130の組み合わせによって実現されている仮想的なボタンである。これらボタン類にポインティングデバイス190などでタッチすることにより、ボタンを押したことに相当する動作をシステムが行なう。   FIG. 7 explains the screen during playback. During playback, buttons suitable for playback operations are newly displayed at the top and bottom of the area 400, respectively. These buttons are virtual buttons realized by a combination of a figure displayed on the display 210 and the touch panel 130. By touching these buttons with the pointing device 190 or the like, the system performs an operation corresponding to pressing the button.

領域400には再生される映像が、記録時の入力映像と同様に表示される。   In the area 400, the reproduced video is displayed in the same manner as the input video at the time of recording.

401には再生している映像に対応する監視イベント情報が表示される。   In 401, monitoring event information corresponding to the video being reproduced is displayed.

監視イベント検出マーカー402は再生時にも表示されうる。後述するが、本発明では再生時にもバックグラウンドで記録を行なうことが可能となっている。例えば、ユーザが監視映像を記録している間に、記録した映像を再生しようとする場合、マーカー402が表示されて、ユーザが閲覧している間にも監視イベントの検出があったことを通知する.もちろん、バックグラウンドで録画を行なっていない場合には、マーカー402は表示されない。   The monitoring event detection marker 402 can also be displayed during playback. As will be described later, in the present invention, recording can be performed in the background even during reproduction. For example, if the user tries to play back the recorded video while recording the monitoring video, the marker 402 is displayed to notify that the monitoring event is detected while the user is browsing. Do it. Of course, when recording is not performed in the background, the marker 402 is not displayed.

430は図6の記録時画面へ戻るためのボタンである。   Reference numeral 430 denotes a button for returning to the recording screen shown in FIG.

431は現在再生している監視イベント映像の内、イベント区間に含まれるフレーム画像データの総数と現在表示されている画像が何フレーム目であるかをユーザに通知する。   431 notifies the user of the total number of frame image data included in the event section and the frame number of the currently displayed image in the currently reproduced monitoring event video.

432は再生映像の再生、一時停止、逆再生、こま送り等を制御するボタンである。   Reference numeral 432 denotes a button for controlling reproduction, pause, reverse reproduction, top feed, and the like of the reproduced video.

433は後述する図8の代表画像一覧画面に遷移するためのボタンである。   Reference numeral 433 denotes a button for transitioning to a representative image list screen shown in FIG.

図8は検出した監視イベント毎の代表画像の一覧を表示する画面である。基本的には図6における表示領域420と同じであり、横方向にも幅を広げてラスタースキャン順に代表画像421と時刻422を並べて表示したものである。   FIG. 8 is a screen that displays a list of representative images for each detected monitoring event. Basically, it is the same as the display area 420 in FIG. 6, in which the width is expanded in the horizontal direction and the representative image 421 and the time 422 are displayed side by side in the raster scan order.

上下に三角形の形状で配置されているボタン440は一覧表示の内容を時間方向に従って切り替える。上部のボタンを押すと、時間的に一表示単位分前の内容を現在のページに表示する。下部のボタンを押すと一表示単位分後ろの内容を表示する。ユーザの操作によって、記録されている監視イベントの最初や最後まで到達した場合には、進めない方向のボタンが薄い色で表示され、ボタン入力を受け付けなくなる。   Buttons 440 arranged in a triangular shape at the top and bottom switch the contents of the list display according to the time direction. Press the button at the top to display the content one display unit before in the current page. Press the button at the bottom to display the contents one display unit later. When the first or last recorded monitoring event is reached by the user's operation, the button in the direction that cannot be advanced is displayed in a light color, and the button input is not accepted.

ユーザが個々の代表画像421にタッチ・選択を行なうと、図7で説明した再生画面に切り替わり、選択した監視イベント区間の映像が再生される。   When the user touches / selects each representative image 421, the screen is switched to the playback screen described in FIG. 7, and the video of the selected monitoring event section is played back.

図9は、画像記憶装置100を監視センタのような遠隔地から操作し、記録を行なったり、監視映像を再生・閲覧するユーザインターフェイスについて説明するものである。   FIG. 9 illustrates a user interface for operating the image storage device 100 from a remote location such as a monitoring center to perform recording and to reproduce / view monitoring video.

本実施例では、画像記憶装置100に対して、遠隔地にあるパソコン220から制御・閲覧を行なうために、それぞれWEBサーバとWEBブラウザを用いている。後述するが、画像記憶装置100側にWEBサーバを内蔵させ、遠隔地にあるパソコン220のWEBブラウザ上に示されるWEBページ500を表示する。以下、このページの説明を行なう。   In this embodiment, a WEB server and a WEB browser are used to control and browse the image storage device 100 from a personal computer 220 at a remote location. As will be described later, a WEB server is built in the image storage device 100, and a WEB page 500 shown on the WEB browser of the personal computer 220 at a remote location is displayed. This page will be described below.

メニュー510、ブラウズボタン520、URL表示部530、ブラウザステータス表示部580は、監視情報ページ500を表示するWEBブラウザの制御用ユーザインターフェイスの一部である。   Menu 510, browse button 520, URL display unit 530, and browser status display unit 580 are part of a user interface for controlling a web browser that displays monitoring information page 500.

この監視情報ページ500は、上記のブラウザコンポーネントのほか、監視データの最新時刻を表示する領域540、監視場所毎に年月日/日時で監視イベントをツリー表示した領域560、指定された日時毎の監視イベントについて、その代表画像を一覧表示する領域570、ツリー表示領域560または一覧表示領域570で選択された監視イベント区間の映像を再生表示する領域550、の大きく4つの表示領域から構成される。   In addition to the browser components described above, this monitoring information page 500 includes an area 540 that displays the latest time of monitoring data, an area 560 that displays monitoring events in a tree format by date / time for each monitoring location, and a specified date and time. The monitoring event is composed of four display areas: an area 570 for displaying a list of representative images, an area 550 for reproducing and displaying a video of the monitoring event section selected in the tree display area 560 or the list display area 570.

領域540は、現在表示中の監視データがいつの時点のものかをユーザに示す。これは、WEBのような形態の対話では、常に最新の情報をサーバからブラウザ側に送りつづけることが一般には困難である。すなわち、ある特定の時刻から遡った静的な状態でしかブラウザに提示できないからである(WANなどの途中のネットワーク帯域が十分でないことや、通信回線を維持するコストの問題、サーバ・クライアントの両方に生ずるCPU負荷が大きいなど)。従って、画像記憶装置100が監視映像を記録中に、遠隔地から監視結果をブラウザ経由で閲覧する場合、ページの内容が画像記憶装置100の内部に蓄積された状態と異なることがしばしば生ずることとなり、ユーザにその時間差を意識させる必要が生ずるためである。   Area 540 indicates to the user when the monitoring data currently being displayed is at that time. In general, it is difficult to keep sending the latest information from the server to the browser side in a dialog such as WEB. In other words, it can only be presented to the browser in a static state that goes back from a specific time (the network bandwidth on the way such as WAN is not enough, the problem of the cost of maintaining the communication line, both the server and the client CPU load that occurs in Therefore, when the image storage device 100 is recording a monitoring video and viewing the monitoring result from a remote location via a browser, the content of the page often differs from the state stored in the image storage device 100. This is because the user needs to be aware of the time difference.

領域560は、監視場所毎に年月日/日時で監視イベントをツリー表示することによって、ユーザがあらかじめ閲覧したいと思う場所、日時にすばやく到達することができるインターフェイスを提供する。ツリー表示は、上から順に、場所561、年月日562、時563、監視イベント単位564の4階層で構成される。ツリーの各ノードのアイコンをマウスでクリックすると、下位ノードが表示されていない場合には、アイコンが開いたイメージのものに替わり、下位ノード表示を行なう。逆に、表示されている場合には、アイコンが閉じたイメージのものに変わり、下位ノードを隠すといった動作を行なう。これにより、ユーザは目的とするノードだけを常に開いて閲覧することができる。   The area 560 provides an interface that allows a user to quickly reach a place, date and time that the user wants to browse in advance by displaying the monitoring events in a tree format by date / time for each monitoring location. The tree display is composed of four layers of a location 561, a date 562, a time 563, and a monitoring event unit 564 in order from the top. When the icon of each node of the tree is clicked with the mouse, if the lower node is not displayed, the lower node is displayed instead of the image of the opened icon. On the contrary, when the icon is displayed, the icon is changed to that of a closed image, and an operation of hiding the lower node is performed. Thereby, the user can always open and browse only the target node.

各ノードのテキスト部分565をクリックすると映像再生表示領域550や一覧表示領域570の表示内容が変化する。例えば、場所561、年月日562、時563の上位3階層のノードについて、そのテキスト部分565をクリックすると、その範囲での最も新しい年月日/時刻の監視イベント一覧が領域570に表示される。   When the text portion 565 of each node is clicked, the display contents of the video reproduction display area 550 and the list display area 570 are changed. For example, if you click on the text part 565 for a node in the top three layers of location 561, date 562, and time 563, a list of monitoring events of the newest date / time in that range will be displayed in area 570 .

最も下位のノードである、監視イベント単位564のテキスト部分をクリックすると今度は、映像再生表示領域550に、該当する監視イベント区間の録画映像を再生する。   When the text portion of the monitoring event unit 564, which is the lowest node, is clicked, this time, the recorded video of the corresponding monitoring event section is played back in the video playback display area 550.

570は、図6における420と同様、指定された時刻に含まれる、検出した監視イベント毎の代表画像の一覧を表示する領域である。領域上には、一覧表示している場所と年月日の表示571と時刻毎の区切りを示す時刻表示572、代表画像573が配置される。ブラウザ起動時など、時刻を与えることができない場合には、最新の記録日時に含まれる代表画像の一覧を表示する。   Similar to 420 in FIG. 6, an area 570 displays a list of representative images for each detected monitoring event included at a specified time. On the area, a list display location, year / month / day display 571, a time display 572 indicating a break for each time, and a representative image 573 are arranged. When the time cannot be given, such as when the browser is activated, a list of representative images included in the latest recording date is displayed.

代表画像572をクリックすると、映像再生表示領域550上に該当する監視イベント区間の録画映像を再生する。   When the representative image 572 is clicked, the recorded video of the corresponding monitoring event section is reproduced on the video reproduction display area 550.

従来のタイムラプスビデオレコーダでは、監視結果を再生する際に、単に時間順に提示するだけであったため、きわめて時間がかかっていた。   In the conventional time-lapse video recorder, it is extremely time-consuming because the monitoring results are simply presented in the order of time when the monitoring results are reproduced.

これに対し、図6〜9で述べてきたユーザインターフェイスを用いることにより、時間構造に合わせて階層的に提示したり、内容を判定しやすい代表画像でタイル状に二次元配置して提示することができる。   On the other hand, by using the user interface described in FIGS. 6 to 9, it is presented hierarchically according to the time structure, or presented in a two-dimensional layout in a tile shape with representative images that are easy to determine the contents. Can do.

ツリー表示は従来では不可能であった目的日時への高速なアクセスが可能であり、またすぐに映像を再生できるので、大体の当たりをつけた検索を行なう場合に非常に効果を発揮する。また、二次元配置は一度に複数の監視イベントをざっと見渡すことを可能にし、パラパラと見るときに必要とする時間を大幅に短縮することを可能にする。   The tree display enables high-speed access to the target date and time, which was not possible in the past, and can immediately reproduce the video, so it is very effective when performing a search with a rough hit. In addition, the two-dimensional arrangement makes it possible to overlook a plurality of monitoring events at a time, and it is possible to greatly reduce the time required when looking at each other.

これらにより、従来のタイムラプスビデオレコーダでは不可能であった、高速な閲覧と監視映像の内容の効率的な確認が可能になる。実際、われわれのフィールドテストでは検索に要する時間を1/30〜1/100程度に低減できることが確認されている。このように、本発明は従来の監視映像記録機器に比べて、使い勝手が良く省時間効果の高いインターフェイスを提供する。   These enable high-speed browsing and efficient confirmation of the contents of the monitoring video, which is impossible with a conventional time-lapse video recorder. In fact, our field test has confirmed that the search time can be reduced to about 1/30 to 1/100. As described above, the present invention provides an interface that is easy to use and has a high time-saving effect as compared with conventional surveillance video recording equipment.

図20は、画像記憶装置100について、機能の観点から構成を説明するものである。主たる構成要素は、メインコントロール610、監視イベント検出エンジン620、ビデオ出力用表示プログラム630、HTML生成プログラム640、WEBサーバ650の5つである。   FIG. 20 illustrates the configuration of the image storage device 100 from the viewpoint of functions. There are five main components: a main control 610, a monitoring event detection engine 620, a video output display program 630, an HTML generation program 640, and a web server 650.

メインコントロール610は、制御プログラム171の主たる機能そのものであり、画像記憶装置100全体を制御する。具体的には、タッチパネル130やWEBサーバ650経由でシステムへのユーザ入力をハンドルし、監視イベント検出エンジン620、ビデオ出力用表示プログラム630、HTML生成プログラム640、WEBサーバ650の動作を制御する。   The main control 610 is the main function itself of the control program 171 and controls the entire image storage device 100. Specifically, user input to the system is handled via the touch panel 130 or the web server 650, and the operations of the monitoring event detection engine 620, the video output display program 630, the HTML generation program 640, and the web server 650 are controlled.

監視イベント検出エンジン620は、あらかじめ登録されている監視イベントを監視カメラ200から入力された映像信号から検出し、その監視映像データ161と監視イベント情報データ162を補助記憶装置160に格納する。   The monitoring event detection engine 620 detects a pre-registered monitoring event from the video signal input from the monitoring camera 200, and stores the monitoring video data 161 and the monitoring event information data 162 in the auxiliary storage device 160.

ビデオ出力用表示プログラム630は、図6で説明した画面を出力・表示する。タッチパネル130を経由してメインコントロール610に伝えられた、ユーザからの入力に応じて監視映像データ161と監視イベント情報データ162を補助記憶装置160から読み出して、画面上に映像や関連する監視イベント情報を表示する。   The video output display program 630 outputs and displays the screen described with reference to FIG. The monitoring video data 161 and the monitoring event information data 162 are read from the auxiliary storage device 160 according to the input from the user transmitted to the main control 610 via the touch panel 130, and the video and related monitoring event information are displayed on the screen. Is displayed.

HTML生成プログラム640は、図9で説明した監視映像のWEBページ出力用にHTMLを動的に作成する。まず、パソコン220上で行なわれたユーザ操作はWEBページ500からWEBサーバ650を経由してメインコントロール610に伝えられる。ユーザ要求に従い、監視映像データ161と監視イベント情報データ162を補助記憶装置160から読み出して、あらかじめ用意されたHTMLデータ中に監視イベント情報と画像のWEBサーバ上での位置を示すHTMLタグを書き出す。これにより、HTMLの動的生成を実現する。   The HTML generation program 640 dynamically creates HTML for outputting the monitoring video web page described in FIG. First, user operations performed on the personal computer 220 are transmitted from the web page 500 to the main control 610 via the web server 650. In accordance with the user request, the monitoring video data 161 and the monitoring event information data 162 are read from the auxiliary storage device 160, and the monitoring event information and the HTML tag indicating the position of the image on the WEB server are written in the prepared HTML data. This realizes dynamic generation of HTML.

WEBサーバ650はこうして作成されたWEBページを遠隔地側のパソコン220に配信するとともに、ユーザからの操作命令をメインコントロール610に伝える。   The web server 650 distributes the created web page to the remote-side personal computer 220 and transmits an operation command from the user to the main control 610.

図11、12、13は、監視イベント検出エンジン620で実行される監視イベント検出の方法について説明するものである。   11, 12, and 13 describe a monitoring event detection method executed by the monitoring event detection engine 620.

ここでは、移動物体の有無を例として述べる。   Here, the presence or absence of a moving object will be described as an example.

まず、入力される映像から個々のフレーム画像700を取り出す。次に、図11に示すようにフレーム画像を複数の小矩形領域710にわけ、個々の領域毎に映像変化の有無を検出する。   First, individual frame images 700 are extracted from the input video. Next, as shown in FIG. 11, the frame image is divided into a plurality of small rectangular areas 710, and the presence or absence of a video change is detected for each area.

映像変化の判別方式としては例えば(特開平8−221577「移動物体検出・抽出装置」)に記述されている方式を用いる。この方式では、個々の着目領域710ごとに背景・移動物体・背景構造変化・照度変化を検出できる。   As a video change discrimination method, for example, the method described in (Japanese Patent Laid-Open No. Hei 8-221579 “Moving Object Detection / Extraction Device”) is used. In this method, a background / moving object / background structure change / illuminance change can be detected for each region of interest 710.

以下、個々の領域で用いられる移動物体検出方式について簡単に説明する。   Hereinafter, a moving object detection method used in each area will be briefly described.

まず、フレーム画像上の着目領域の内、移動物体の存在しない時刻を選んでこれを背景画像とする。   First, a time at which no moving object is present is selected from the region of interest on the frame image, and this is used as a background image.

そして、この背景画像と毎回新たに入力される最新の画像との間で、画像の相違度を計算する。この相違度計算の具体例としては、対応する位置の各画素の明るさについて差を求め、画像全体についてそれらの2乗和を求めてもよいし、明るさの替わりにRGBそれぞれの値の差分二乗和としてもよい。   Then, an image dissimilarity is calculated between the background image and the latest image newly input every time. As a specific example of this difference degree calculation, a difference may be obtained for the brightness of each pixel at the corresponding position, and a sum of squares thereof may be obtained for the entire image, or a difference of each value of RGB instead of the brightness. It may be a sum of squares.

こうして得られた相違度を時間順に並べ、連続するグラフとして眺めてみると、移動物体が存在する時間区間は大きく変動する状態となる。移動物体が存在しない時間区間では変動の少ない平坦な状態となるが、背景として決めた時刻と背景が全く同一の場合場合、すなわち、画像的に内容が同じには、その区間の平均値はほぼ零となる。一方、物が置かれたりするなど、背景の構造が変わった場合には、画像的に内容が異なるために、平坦ではあるが区間平均値は一定の大きさ以上となる。   When the dissimilarities obtained in this way are arranged in time order and viewed as a continuous graph, the time interval in which the moving object is present varies greatly. In the time interval where there is no moving object, the state is flat with little fluctuation, but if the time determined as the background and the background are exactly the same, that is, if the content is the same in terms of image, the average value for that interval is almost It becomes zero. On the other hand, when the structure of the background changes, such as when an object is placed, the content is different in terms of image, so that the average value of the section is not less than a certain size although it is flat.

この性質を用いることにより、時間区間として、移動物体の有無や、背景構造の変化の有無を確認することが可能となる。ここで問題になるのが、最初にどうやって背景となっている時刻を決定するかであるが、まず、任意の時点の画像を適当に選んで、相違度の時間変化グラフを求め、平らな区間が見つかった時点を開始とすればよい。その後の処理でも、背景構造の変化が有る時、すなわち、グラフの形状が平坦かつ一定値以上の平均値となる時のみ、背景とする時刻を更新するようにすれば、安定してこの処理を繰り返すことが可能になる。   By using this property, it is possible to confirm the presence or absence of a moving object or the presence or absence of a change in the background structure as a time interval. The problem here is how to determine the background time at first. First, select an image at an arbitrary point in time, obtain a time change graph of the difference, and find a flat interval. The point in time that is found should be the start. Even in the subsequent processing, if the background time is updated only when the background structure changes, that is, when the graph shape is flat and the average value exceeds a certain value, this processing is stably performed. It becomes possible to repeat.

以上説明した方式により、フレーム画像上に設定した個々の着目領域について移動物体の存在する領域を色づけ(レベル付け)したとすると、図11の右側図のようになる。   If the region where the moving object exists is colored (leveled) for each region of interest set on the frame image by the method described above, the right side of FIG. 11 is obtained.

図12は、図11で説明した処理をすべてのフレーム画像について実行し、フレーム画像を時間順に並べてできる三次元の時空間画像について述べたものである。この時空間画像中では移動物体は部分的な立体720を構成する。これを図示したものが図12である。この時空間画像730を眺めると、「移動物体がある」という監視イベントは、ある程度の大きさを持った部分領域720があることとみなしても良い。これを別の観点から見たものが下のグラフである。1フレーム当たりの映像変化があった領域数をグラフ740としてみると、上記判定はグラフが一定値以上の区間750とみなすことができる。このようにして決定された区間を監視イベント「移動物体在り」の区間として判別する。そして、監視イベント情報162として、開始フレーム、終了フレーム、区間長、各領域毎の判定結果を補助記憶装置160に記憶する。   FIG. 12 describes a three-dimensional space-time image obtained by executing the processing described in FIG. 11 for all frame images and arranging the frame images in time order. In this spatiotemporal image, the moving object forms a partial solid 720. This is illustrated in FIG. Looking at the spatiotemporal image 730, the monitoring event “there is a moving object” may be regarded as having a partial region 720 having a certain size. The graph below shows this from another perspective. When the number of regions where video changes per frame are viewed as a graph 740, the above determination can be regarded as a section 750 where the graph is equal to or greater than a certain value. The section determined in this way is determined as a section of the monitoring event “moving object exists”. Then, as the monitoring event information 162, the start frame, the end frame, the section length, and the determination result for each area are stored in the auxiliary storage device 160.

なお、画像全体を一つの領域とみなして判定するのも一つの方法ではあるが、上記のように小領域で分割してその結果を統合する方が監視イベントのハンドリングに適している。例えば、小さな外乱などに対して検出エンジンの動作をロバストにすることができる。また、判定に含めない領域も容易に設定できたり、後述の検索処理や代表画面決定処理を簡単に記述できるなどの利点がある。   Although it is one method to determine the entire image as one area, it is more suitable for handling the monitoring event to divide the image into smaller areas and integrate the results as described above. For example, the operation of the detection engine can be made robust against small disturbances. In addition, there are advantages that an area not included in the determination can be easily set, and a search process and a representative screen determination process described later can be easily described.

他の監視イベント、例えば背景構造の変化(物の配置換えなど)や顔領域の出現等を検出する場合にも、上記のようにフレーム内の領域単位で検出を行なうことにより、安定した検出が可能となる。   Even when detecting other monitoring events, such as changes in the background structure (replacement of objects, etc.), the appearance of a face area, etc., stable detection can be achieved by performing detection in units of areas in the frame as described above. It becomes possible.

なお、本例では着目領域を矩形としたが、他のいかなる形状としても何ら問題無い。また、ここでは、領域をきれいに並べたが図13に示すようにオーバーラップを持たせ、領域毎の判別結果について論理演算を施すことにより、大きな領域で安定した判別を行ないながら、判別する領域の実効面積を小さくすることも可能である。   In this example, the region of interest is rectangular, but there is no problem with any other shape. In addition, here, the areas are arranged neatly, but as shown in FIG. 13, the overlap is provided, and a logical operation is performed on the discrimination results for each area, so that stable discrimination is performed in a large area, and It is also possible to reduce the effective area.

図14は監視イベント情報162のデータ構造を説明するものである。   FIG. 14 explains the data structure of the monitoring event information 162.

監視イベント情報162はRDB(Relational Database:関係データベース)であり、場所テーブル162-1、画像テーブル162-2、イベントテーブル162-3、時間木テーブル162-4の4つのテーブルから構成される。 Monitoring event information 162 RDB: a (R elational D ata b ase relational database), location table 162-1, an image table 162-2, event table 162-3, consists of four tables time tree table 162-4 Is done.

場所テーブル162-1は、監視映像記録装置100が接続されたカメラの識別ID162-1-1と名称162-1-2、監視場所の名称162-1-3を格納するテーブルである。画像テーブル162-2の各レコードの冗長性をなくすために、独立して設けられている。   The location table 162-1 is a table that stores the identification ID 162-1-1 and name 162-1-2 of the camera to which the monitoring video recording apparatus 100 is connected, and the name 162-1-3 of the monitoring location. In order to eliminate the redundancy of each record of the image table 162-2, it is provided independently.

画像テーブル162-2は、監視映像記録装置100に記憶された個々のフレーム画像を制御するためのテーブルである。フレーム画像ID162-2-1、場所ID162-2-2、録画年月日162-2-3、録画時分秒162-2-4、フレーム番号162-2-5、画像ファイルパス名162-2-6、イベント種類162-2-7、イベント属性データ162-2-8の項目から構成される。場所ID162-2-2は、場所テーブル162-1の場所ID162-1-2と同一の項目であり、実際のID番号が格納される。録画年月日162-2-3、録画時分秒162-2-4、フレーム番号162-2-5は、フレーム画像が記録された時の時刻情報である。一般的なRDBでは高速にハンドルできるデータ型として、年月日と時分秒がわかれていることが多いため、本実施例ではこれらを三つに分割してある。画像ファイルパス名162-2-6は、システム内に記録されている画像ファイルのパス名が格納されており、監視映像の再生や検索時に実際の画像データを読み出すのに用いられる。イベント種類162-2-7は、格納されたフレーム画像がどんな監視イベントにより格納されることになったかを示すフィールドである。複数の監視イベントが重なる場合を想定して、ビットフラグによって監視イベントの種類を示す。監視映像再生時や検索時に監視イベント毎のフィルタリングを施すために設けられている。イベント属性データ162-2-8は、監視イベント検出の根拠となった各領域毎の特徴量データを格納する領域である。   The image table 162-2 is a table for controlling individual frame images stored in the surveillance video recording apparatus 100. Frame image ID 162-2-1, location ID 162-2-2, recording date 162-2-3, recording time and minutes 162-2-4, frame number 162-2-5, image file path name 162-2 -6, event type 162-2-7, and event attribute data 162-2-8. The location ID 162-2-2 is the same item as the location ID 162-1-2 in the location table 162-1 and stores the actual ID number. The recording date 162-2-3, recording hour / minute / second 162-2-4, and frame number 162-2-5 are time information when the frame image is recorded. In general RDB, a date type and an hour, minute, and second are often divided as data types that can be handled at high speed. In this embodiment, these are divided into three. The image file path name 162-2-6 stores the path name of the image file recorded in the system, and is used to read the actual image data when the surveillance video is reproduced or searched. The event type 162-2-7 is a field that indicates what kind of monitoring event the stored frame image is stored. Assuming that multiple monitoring events overlap, the type of monitoring event is indicated by a bit flag. It is provided to perform filtering for each monitoring event when monitoring video is reproduced or searched. The event attribute data 162-2-8 is an area for storing feature amount data for each area that is the basis for detecting a monitoring event.

イベントテーブル162-3は、監視イベントの区間情報をハンドリングする。イベントID162-3-1、開始フレームID162-3-2、終了フレームID162-3-3、代表フレームID162-3-4から構成される。開始フレームID162-3-2、終了フレームID162-3-3には、画像テーブル162-2のフレーム画像ID162-2-1が格納される。同様に、代表フレームID162-3-4は後述の代表画像決定アルゴリズムによって決定されたフレーム画像ID162-2-1が格納される。   The event table 162-3 handles section information of monitoring events. It consists of an event ID 162-3-1, a start frame ID 162-3-2, an end frame ID 162-3-3, and a representative frame ID 162-3-4. The frame image ID 162-2-1 of the image table 162-2 is stored in the start frame ID 162-3-2 and the end frame ID 162-3-3. Similarly, the representative frame ID 162-3-4 stores a frame image ID 162-2-1 determined by a representative image determination algorithm described later.

時間木テーブル162-4は、図9のツリー表示領域560などのように、監視イベント情報に対して、時間指定でダイレクトかつ高速にアクセスするために設けられたテーブルである。ノードID162-4-1、親ノードID162-4-2、ノード検索キー162-4-3、ノード内順序162-4-4、イベントID162-4-5、イベント種類162-4-6、場所ID162-4-7から構成される。このテーブルは冗長であるが、監視結果アクセス時のスループットを向上させるために設けられている。基本的には場所テーブル162-1、画像テーブル162-2、イベントテーブル162-3の3つから動的に作成可能であるが、監視映像の再生・閲覧動作では、きわめて高い頻度でこの計算が必要となるため、別にテーブルとして設けておくことによりシステムの負荷を小さくすることを目的としている。ノードID162-4-1、親ノードID162-4-2、ノード検索キー162-4-3、イベントID162-4-4、イベント種類162-4-5、場所ID162-4-6から構成される。ノードID162-4-1、親ノードID162-4-2はテーブルにより木構造を表現するためフィールドである。ノード検索キー162-4-3は、場所と年月日・時分秒から直接一番下位のノードにアクセスするための文字列であり、このテーブルをハッシュによって検索するための主キーとして設定されている。文字列であるため、キー作成が容易であり、検索のための計算コストが小さくてすむ。イベントID162-4-4は、イベントテーブル162-3のイベントID162-3-1と同一であり、実際のID番号が格納される。イベント種類162-4-5、場所ID162-4-6は、監視映像再生時や検索時に監視イベント毎のフィルタリングを施すために設けられたものである。   The time tree table 162-4 is a table provided for direct and high-speed access to monitoring event information with time designation, such as the tree display area 560 of FIG. Node ID 162-4-1, parent node ID 162-4-2, node search key 162-4-3, intra-node order 162-4-4, event ID 162-4-5, event type 162-4-6, location ID 162 -4-7. This table is redundant, but is provided to improve the throughput when accessing the monitoring result. Basically, it can be dynamically created from the location table 162-1, the image table 162-2, and the event table 162-3, but this calculation is performed very frequently in the playback / viewing operation of the surveillance video. Since it is necessary, it is intended to reduce the system load by providing a separate table. A node ID 162-4-1, a parent node ID 162-4-2, a node search key 162-4-3, an event ID 162-4-4, an event type 162-4-5, and a location ID 162-4-6. The node ID 162-4-1 and the parent node ID 162-4-2 are fields for expressing a tree structure by a table. The node search key 162-4-3 is a character string for directly accessing the lowest node from the location and the date / time / hour / minute / second, and is set as a primary key for searching this table by hash. ing. Since it is a character string, it is easy to create a key and the calculation cost for the search can be reduced. The event ID 162-4-4 is the same as the event ID 162-3-1 in the event table 162-3, and stores the actual ID number. The event type 162-4-5 and the place ID 162-4-6 are provided for performing filtering for each monitoring event at the time of monitoring video reproduction or search.

なお、これらテーブルのデータ生成されるタイミングであるが、場所テーブル162-1は監視が開始される前にユーザによってあらかじめ作成されるものである。画像テーブル162-2とイベントテーブル162-3は実際の監視映像記録時に動的に生成されるデータである。時間木テーブル162-4もまた、記録時に生成されるデータであるが、これは画像テーブル162-2とイベントテーブル162-3の内容から副次的に生成されるものでもある。これは、先に述べたように監視結果アクセス時のスループットを向上させるために設けられているからである。   Note that the location table 162-1 is created in advance by the user before the monitoring is started. The image table 162-2 and the event table 162-3 are data dynamically generated during actual monitoring video recording. The time tree table 162-4 is also data generated at the time of recording, but it is also generated as a secondary from the contents of the image table 162-2 and the event table 162-3. This is because it is provided to improve the throughput when accessing the monitoring result as described above.

以上のデータ構造により、画像記憶装置100は記録された監視イベントと映像を高速に検索・提示することが可能となる。また、図2、図10に示したハードウエア・システム構成と、この個々のフレーム画像ごとに独立したデータ構造により、監視映像を記録しながら閲覧を行なうという、これまでの監視記憶システムには不可能であったことをあらたに可能にしている。   With the above data structure, the image storage device 100 can search and present the recorded monitoring event and video at high speed. Also, with the hardware system configuration shown in FIG. 2 and FIG. 10 and the independent data structure for each individual frame image, the conventional monitoring storage system in which browsing is performed while recording a monitoring video is not possible. It makes it possible to do what was possible.

図15は、監視イベント区間における代表画面を決定するアルゴリズムについて説明するものである。   FIG. 15 explains an algorithm for determining a representative screen in the monitoring event section.

画像記憶装置100が検出した監視イベントを420や500のように表示するケースを考える。移動物体有を示すイベントの場合、監視イベント区間を代表する画像としてどれを選ぶかは、監視結果の閲覧の効率を大きく左右する重要な点である。   Consider a case where the monitoring event detected by the image storage device 100 is displayed as 420 or 500. In the case of an event indicating the presence of a moving object, which one is selected as an image representative of a monitoring event section is an important point that greatly affects the efficiency of browsing monitoring results.

例えば、区間の先頭フレームを代表画像とすると、移動物体の一部だけが映るだけで、検出した移動物体に関する情報をほとんど提示できないことがしばしば起こる。これは、最終フレームであっても同様である。単純に先頭フレームと最終フレームの中間とすることも考えられるが、2つの移動体が連続して検出されて一つの区間となった場合には、ちょうど間のあまり両方が映っていないような画像が代表になってしまうという問題点が発生する。そこで、図5で述べたサンプリング間隔の制御に用いたのと同じ方法を使うことにする。   For example, if the first frame of the section is a representative image, it often happens that only a part of the moving object is shown and information about the detected moving object can hardly be presented. The same applies to the final frame. It is possible to simply set it between the first frame and the last frame, but when two moving bodies are detected in succession and become one section, an image that does not show both of them in between. This causes the problem of becoming representative. Therefore, the same method used for controlling the sampling interval described in FIG. 5 is used.

監視イベントを検出するときに900のようなグラフが得られたとする。まず、顔領域の検出のようなケースで考えられるのが、グラフ値が最大となるフレーム910-4を代表画面とする方法である。次に、移動物体の有無の場合、複数の極大値が現れるということイコール複数の移動物体が一つのイベント区間内に通過したようなケースと考えられるので、はじめに出てきた極大値910-2をとりあえずの代表とみなして、これを採用する方法も考えられる。   Suppose that a graph like 900 is obtained when a monitoring event is detected. First, a method such as detection of a face region is a method in which the frame 910-4 having the maximum graph value is used as a representative screen. Next, in the case of the presence or absence of a moving object, it is considered that multiple local maximum values appear. It is considered that a plurality of moving objects have passed within one event section, so the local maximum value 910-2 that came out first is For the time being, it can be considered as a representative and a method of adopting this can be considered.

次に図9で説明したWEBブラウザによって提示されるユーザインターフェイスでの監視映像表示をHTMLによって実現する方式について説明する。なお、以下で用いる専門用語については URL(http://w3c.org/)に詳しく説明されている。   Next, a method for realizing the monitoring video display on the user interface presented by the WEB browser described in FIG. 9 using HTML will be described. The technical terms used below are explained in detail in the URL (http://w3c.org/).

図16では、まず、一覧表示領域570での代表画像573をクリックした時に、映像再生表示領域550上に該当する監視イベント区間の録画映像を再生することを実現する方式について説明する。それぞれ、各領域ともフレームと呼ばれる独立したHTML表示領域から構成されているものとする。ここでは説明のために一覧表示領域をフレームDigest、映像再生表示領域をAnimeと呼ぶことにする。   In FIG. 16, a method for realizing the reproduction of the recorded video of the corresponding monitoring event section on the video reproduction display area 550 when the representative image 573 in the list display area 570 is clicked will be described first. It is assumed that each area is composed of an independent HTML display area called a frame. Here, for the sake of explanation, the list display area is called a frame digest and the video playback display area is called anime.

Digestも、Animeも静的なHTMLデータではなく、WEBサーバ側の状態に応じて動的に生成されるHTMLデータになっている。これらの動的なHTMLデータを生成するためにCGI(Common Gateway Interface)やASP(Active Server Pages)といったサーバサイドスクリプト(WEBサーバ側で動作するスクリプト)が用いられる。   Neither Digest nor Anime is static HTML data, but HTML data that is dynamically generated according to the state of the WEB server. In order to generate such dynamic HTML data, server side scripts (scripts operating on the WEB server side) such as CGI (Common Gateway Interface) and ASP (Active Server Pages) are used.

1000はDigestのHTMLテキストデータの例である。本実施例では、1010、1020に示されているように、監視イベントの時刻を表す文字列やその代表画面をタイル状に表示するために、<TABLE>タグが使われている。タグ1030は表示1010に対応し、タグ1040は表示1020に対応している。表示画像1020はクリッカブルな領域になっているが、これは1041に示されるハイパーテキストタグ<A>をつかって、代表画像573を表示する画像タグ1042を囲うことによって実現される。そして、リンクジャンプ先としてフレームAnimeを指定し、クリックされた画像に応じて動的にHTML出力内容を変化させることにより、対応する監視イベント毎の映像が再生されるようにする。   1000 is an example of Digest HTML text data. In this embodiment, as shown in 1010 and 1020, a <TABLE> tag is used to display a character string indicating the time of the monitoring event and its representative screen in a tile shape. A tag 1030 corresponds to the display 1010, and a tag 1040 corresponds to the display 1020. The display image 1020 is a clickable area, which is realized by surrounding the image tag 1042 displaying the representative image 573 using the hypertext tag <A> shown in 1041. Then, the frame Anime is designated as the link jump destination, and the HTML output content is dynamically changed according to the clicked image, so that the video for each corresponding monitoring event is reproduced.

対応先を切り替えるために、<A>の要素であるHREFのジャンプ先にクエスチョンマークに続けてパラメータとなる文字列をあらかじめ書きこんでおく。1051に示されるように、書きこまれるパラメータとしては、画像テーブル162-2のレコード範囲を示すフレーム画像IDあるいはそれを取り出すことができるデータが適している。   In order to switch the correspondence destination, a character string as a parameter is written in advance after the question mark at the jump destination of HREF which is an element of <A>. As shown in 1051, a frame image ID indicating the record range of the image table 162-2 or data from which it can be extracted is suitable as a parameter to be written.

まず、図17のフローチャート1100は代表画像573のクリックから、映像再生表示領域550上に映像が再生されるまでの処理の流れを簡単に説明するものである。まず、代表画像573がクリッククリックされると(1110)、WEBブラウザ側で指定されたフレームAnimeへのジャンプが起こる(1120)。しかし、Animeに表示されるHTMLデータはジャンプ時に渡されるパラメータ1051から動的に決定・生成される(1130)。具体的にはパラメータ名sJumpKeyに代入された文字列(1131)から、画像テーブル162-2上での範囲を示すフレーム画像IDをとりだし(1132)、画像テーブルに対して該当するレコートの検索を行なって、個々の画像パス名をURL(Universal Resource Locator)として取り出す(1133)。そしてこれをHTML形式で出力する(1134)。WEBブラウザは、こうして得られたHTMLデータをフレームAnime上に表示する(1140)。最後にユーザ操作に従って該当するフレーム画像を可視・不可視にすることによってアニメーションとして表示する(1150)。   First, the flowchart 1100 in FIG. 17 briefly describes the flow of processing from the click of the representative image 573 to the playback of the video on the video playback display area 550. First, when the representative image 573 is clicked and clicked (1110), a jump to the frame Anime specified on the WEB browser side occurs (1120). However, the HTML data displayed in Anime is dynamically determined and generated from the parameter 1051 passed at the time of jump (1130). Specifically, the frame image ID indicating the range on the image table 162-2 is extracted from the character string (1131) substituted for the parameter name sJumpKey (1132), and the corresponding record is searched for the image table. Each image path name is extracted as a URL (Universal Resource Locator) (1133). This is output in HTML format (1134). The web browser displays the HTML data obtained in this way on the frame Anime (1140). Finally, according to the user operation, the corresponding frame image is displayed as an animation by making it visible or invisible (1150).

次に、図18の1200にDigestのHTMLテキストデータを生成される手順について説明する。ここでは一覧表示の範囲が特に指定されずに全データを表示する場合を想定して説明を行なう。まず、時間木の根っことなるルートノード(レコードIDが-1のもの)を親に持つノードを全レコードから検索する(1210)。次にこれを場所ID162‐4‐7ごとにソートする(1220)。次にルートノードを親ノードとする(1230)。親ノードが決まったら、同一の親ノードIDを持つノードを探しノード内順序にしたがってソートを行ない、リストを作成する(1240)。こうしてできたノードリストについて、以下再帰的に木構造内のすべての葉ノードへの移動を繰り返す(1250)。   Next, a procedure for generating digest HTML text data in 1200 of FIG. 18 will be described. Here, the description will be made assuming that all data is displayed without any particular designation of the list display range. First, a node having a root node (with a record ID of -1) as the parent of the time tree is searched from all records (1210). This is then sorted by location ID 162-4-7 (1220). Next, the root node is set as a parent node (1230). When the parent node is determined, a node having the same parent node ID is searched for and sorted according to the order within the node to create a list (1240). The node list thus created is then recursively moved to all leaf nodes in the tree structure (1250).

まず、現在のノードが枝ノードか葉ノードかを調べる(1260)。枝ノードであれば再帰的に下層ノードに降りてゆく(1290)。葉ノードであればsJumpKeyを作成し(1270)、これをHTML出力する(1280)。   First, it is checked whether the current node is a branch node or a leaf node (1260). If it is a branch node, it descends recursively to the lower node (1290). If it is a leaf node, sJumpKey is created (1270), and this is output as HTML (1280).

sJumpKeyの作成は具体的には以下の手順となる。まず、監視イベントテーブル162-3からノードが持つイベントID162-4-5と一致するレコードを検索し(1271)、開始フレームID162-3-2と終了フレームID162-3-3を取得する。次に画像テーブルから代表フレームID162-3-4と一致するレコードを探し(1273)、その代表画像パス名をURLとして取得する(1274)。 すべての葉ノードについて以上の処理を繰り返す。   The creation of sJumpKey is specifically as follows. First, a record matching the event ID 162-4-5 of the node is searched from the monitoring event table 162-3 (1271), and a start frame ID 162-3-2 and an end frame ID 162-3-3 are obtained. Next, a record matching the representative frame ID 162-3-4 is searched from the image table (1273), and the representative image path name is acquired as a URL (1274). Repeat the above process for all leaf nodes.

図19は時間木を表すツリー表示560から一覧表示領域570を動的に切り替える方法について説明するものである。説明のため、ツリー表示領域560のフレーム名称をTimeTreeと呼ぶことにする。   FIG. 19 illustrates a method of dynamically switching the list display area 570 from the tree display 560 representing a time tree. For the sake of explanation, the frame name of the tree display area 560 will be referred to as TimeTree.

ユーザがツリー表示部の葉ではないノードをポインティングデバイス190でポイントし、表示が切り替えられる場合、フレームDigestには日時の範囲が指定される。内部処理的には時間木テーブル162-4で具体的に親ノードが与えれている場合に相当する。あとは図12にて説明したのと同じ手順でHTMLデータが動的に生成される。   When the user points to a node that is not a leaf of the tree display unit with the pointing device 190 and the display is switched, a date and time range is specified in the frame Digest. Internal processing corresponds to a case where a parent node is specifically given in the time tree table 162-4. After that, HTML data is dynamically generated in the same procedure as described in FIG.

1300はこのジャンプを実現するHTMLの例を示したものである。ここでは、動的に開閉する木構造を実現するために<DIV>タグが用いられている。Animeの例と同様にクリックする先で出力が切り替えられるように、各ハイパージャンプタグ<A>で渡されるパラメータsDigestKeyの値が替えられる。この値として用いるのが1310、1320に示されているような、「場所名」+「日時」から構成される文字列である。これは、時間木テーブル162-4におけるノード検索キー162-4-3と同一になっており、フレームDigestを描画するための検索が迅速に行なえる構造になっている。   1300 shows an example of HTML that realizes this jump. Here, the <DIV> tag is used to realize a tree structure that dynamically opens and closes. As in the Anime example, the value of the parameter sDigestKey passed in each hyper jump tag <A> is changed so that the output can be switched at the click destination. This value is a character string composed of “location name” + “date and time” as shown in 1310 and 1320. This is the same as the node search key 162-4-3 in the time tree table 162-4, and has a structure in which a search for drawing a frame digest can be quickly performed.

図14はフレームTimeTreeの時間木構造表示の枝ノードをクリックした場合の動作を説明するものである。   FIG. 14 illustrates the operation when the branch node of the time tree structure display of the frame TimeTree is clicked.

まず、枝ノードがクリックされると(1410)、フレームDigestへのジャンプイベントが生ずる(1420)。フレームDigestが表示するHTMLは動的なページであるため、内容生成処理がスタートする(1430)。具体的には、ジャンプ時にパラメータとして与えられるsDigestKeyの文字列値をとりだし(1431)、これを検索キーとして時間木テーブル162-4から一致するレコードを検索する(1432)。こうして検出されたレコードのノードID162‐4‐1を親ノードとし、後は1200で述べたのと同一の手順で一覧表示画面のHTMLデータ生成を行なう(1433)。最後にこのHTMLデータをフレームDigest上に表示する(1440)。
First, when a branch node is clicked (1410), a jump event to frame Digest occurs (1420). Since the HTML displayed by the frame Digest is a dynamic page, the content generation process starts (1430). Specifically, a character string value of sDigestKey given as a parameter at the time of jump is extracted (1431), and a matching record is searched from the time tree table 162-4 using this as a search key (1432). The node ID 162-4-1 of the record thus detected is set as the parent node, and the HTML data of the list display screen is generated in the same procedure as described in 1200 (1433). Finally, this HTML data is displayed on the frame Digest (1440).

本発明の画像記憶装置を利用した監視システムの一例である。It is an example of the monitoring system using the image storage device of the present invention. 本発明の画像記憶装置におけるシステム構成の一例である。It is an example of the system configuration | structure in the image storage apparatus of this invention. 本発明で検出した監視イベントに従って映像を記録する方式の内、基本的なフレーム画像のサンプリング方法を説明する図である。It is a figure explaining the sampling method of a basic frame image among the systems which record an image | video according to the monitoring event detected by this invention. 本発明で検出した監視イベントに従って映像を記録する方式の内、監視イベントの有無に基づくフレーム画像のサンプリング方法を説明する図である。It is a figure explaining the sampling method of the frame image based on the presence or absence of a monitoring event among the systems which record an image | video according to the monitoring event detected by this invention. 本発明で検出した監視イベントに従って映像を記録する方式の内、フレーム画像のサンプリング間隔を監視イベント変動に基づいて動的に制御する方法を説明する図である。It is a figure explaining the method of controlling dynamically the sampling interval of a frame image based on the monitoring event fluctuation | variation among the systems which record an image | video according to the monitoring event detected by this invention. 本発明の監視映像記録装置における映像録画・再生時の画面の内、記録時画面を説明するものである。Of the screens during video recording / playback in the surveillance video recording apparatus of the present invention, screens during recording will be described. 本発明の監視映像記録装置における映像録画・再生時の画面の内、再生時画面を説明するものである。Of the screens during video recording / playback in the surveillance video recording apparatus of the present invention, screens during playback will be described. 本発明の監視映像記録装置における映像録画・再生時の画面の内、一覧表示画面を説明するものである。A list display screen among the screens during video recording / playback in the surveillance video recording apparatus of the present invention will be described. 本発明の画像記憶装置を監視センタのような遠隔地から操作し、記録を行なったり、監視映像を再生・閲覧するユーザインターフェイスについて説明するものである。A user interface for operating the image storage device of the present invention from a remote location such as a monitoring center to perform recording or reproducing / viewing a monitoring video will be described. 本発明の画像記憶装置について、機能の観点から構成を説明するものである。The configuration of the image storage device of the present invention will be described from the viewpoint of functions. 本発明の監視イベント検出エンジンで実行される監視イベント検出の方法において、着目領域の設定方法とそのときの検出結果について説明するものである。In the monitoring event detection method executed by the monitoring event detection engine of the present invention, a method of setting a region of interest and a detection result at that time will be described. 本発明の監視イベント検出エンジンで実行される監視イベント検出の方法において、図11での着目領域の設定によって得られる時空間画像について説明するものである。In the monitoring event detection method executed by the monitoring event detection engine of the present invention, a spatio-temporal image obtained by setting a region of interest in FIG. 11 will be described. 本発明の監視イベント検出エンジンで実行される監視イベント検出の方法において、もう一つの着目領域の設定方法を説明するものである。In the monitoring event detection method executed by the monitoring event detection engine of the present invention, another method of setting a region of interest will be described. 本発明の監視イベント情報のデータ構造を説明するものである。It explains the data structure of monitoring event information of the present invention. 本発明の監視イベント区間における代表画面を決定するアルゴリズムについて説明するものである。An algorithm for determining a representative screen in a monitoring event section according to the present invention will be described. 本発明のWEBブラウザによって提示されるユーザインターフェイスでの監視映像表示をHTMLによって実現する方式について説明する。A method for realizing the monitoring video display on the user interface presented by the WEB browser of the present invention in HTML will be described. 本発明の一覧画像表示画面上における代表画像のクリックから、映像再生表示領域上に映像が再生されるまでの処理の流れを簡単に説明するものである。The flow of processing from the click of the representative image on the list image display screen of the present invention to the playback of the video on the video playback display area will be briefly described. 本発明の一覧画像表示画面上のHTMLテキストデータを生成される手順について説明するものである。A procedure for generating HTML text data on the list image display screen of the present invention will be described. 本発明の時間木ツリー表示から一覧表示画面を動的に切り替える方法について説明するものである。The method of dynamically switching the list display screen from the time tree tree display according to the present invention will be described. 本発明の時間木構造表示の枝ノードをクリックした場合の動作を説明するものである。The operation when the branch node of the time tree structure display of the present invention is clicked will be described.

符号の説明Explanation of symbols

100…画像記憶装置、
110…ビデオ入力端子、
111…A/D変換器、
119…D/A変換器、
120…ビデオ出力端子、
130…タッチパネル、
139…ネットワークインターフェイスカード(NIC)、
140…LAN端子、
150…CPU、
160…補助記憶装置、
170…メモリ、
180…データバス、
190…ポインティングデバイス
200…監視カメラ、
210…ディスプレイ、
220…パソコン。
100: Image storage device,
110: Video input terminal,
111 ... A / D converter,
119 ... D / A converter,
120: Video output terminal,
130: Touch panel,
139 ... Network interface card (NIC),
140 ... LAN terminal,
150 ... CPU,
160 ... auxiliary storage device,
170 ... Memory,
180 ... data bus,
190 ... pointing device 200 ... surveillance camera,
210 ... display,
220: PC.

Claims (32)

入力される映像信号をディジタル化し時系列画像として取り込む手段と
現在入力中の画像を表示する入力画像手段と
入力画像から監視イベントを検出する手段と
検出した監視イベントに基づいて入力画像を記憶するか判定する手段と
「録画する」と判定された画像を記憶する手段と
記憶した画像の格納場所と対応する監視イベント情報を関連付けて記録する手段と
ユーザの閲覧要求に従って監視イベント情報と画像を検索する手段と、
選別された監視イベント情報と画像をレイアウトする手段と
レイアウト結果をひとつまたは複数表示する手段と
を具備することを特徴とする画像記憶装置。
Means to digitize the input video signal and capture it as a time-series image, input image means for displaying the currently input image, means for detecting a monitoring event from the input image, and whether to store the input image based on the detected monitoring event A means for determining, a means for storing the image determined to be “recorded”, a means for recording the stored monitoring image information in association with the storage location of the stored image, and searching for the monitoring event information and the image according to a user browsing request Means,
An image storage device comprising: means for laying out selected monitoring event information and images; and means for displaying one or more layout results.
請求項1記載の監視イベントを検出する手段において、
入力フレーム画像中において相違度大と判定される領域数が所定の値を超えたときに、「移動物体」または「照明変化」という監視イベントが有ると判定することを特徴とする画像記憶装置。
The means for detecting a monitoring event according to claim 1,
An image storage device characterized by determining that there is a monitoring event of “moving object” or “illumination change” when the number of areas determined to have a large difference in an input frame image exceeds a predetermined value.
請求項1記載の監視イベントを検出する手段において、
入力フレーム画像中において相違度大と判定される領域数の時間変動が所定の値を超えたときに、「背景構造の変化」という監視イベントが有ると判定することを特徴とする画像記憶装置。
The means for detecting a monitoring event according to claim 1,
An image storage device that determines that there is a monitoring event of “change in background structure” when the temporal variation of the number of areas determined to have a large degree of difference in an input frame image exceeds a predetermined value.
請求項1記載の監視イベントを検出する手段において、
入力フレーム画像中において肌色と判定される領域数が所定の値を超えたときに、「顔候補領域あり」という監視イベントが有ると判定することを特徴とする画像記憶装置。
The means for detecting a monitoring event according to claim 1,
An image storage device characterized in that, when the number of areas determined to be skin color in an input frame image exceeds a predetermined value, it is determined that there is a monitoring event of “there is a face candidate area”.
請求項2の相異度は、
ある過去の画像と現在入力された画像のそれぞれから、ブロック毎に色または輝度の平均値を計算し、対応するブロック間の差の絶対値をそれぞれ求め、それらの最大値とすることを特徴とする画像記憶装置。
The degree of difference in claim 2 is:
It is characterized by calculating the average value of color or brightness for each block from each past image and the currently input image, obtaining the absolute value of the difference between the corresponding blocks, and setting them as the maximum value. An image storage device.
請求項2の相異度は、
ある過去の画像と現在までの入力画像について、ブロック毎に色または輝度の平均値について対応するブロック間の差の絶対値をそれぞれ求めて得られた、時系列値の移動平均値とすることを特徴とする画像記憶装置。
The degree of difference in claim 2 is:
For a certain past image and the input image up to the present, it is assumed to be a moving average value of time series values obtained by calculating an absolute value of a difference between corresponding blocks with respect to an average value of color or luminance for each block. A featured image storage device.
請求項1記載の画像記憶判定手段において、
ユーザが登録した監視イベントが生じたときのみ録画することを特徴とする画像記憶装置。
The image storage determining means according to claim 1,
An image storage device for recording only when a monitoring event registered by a user occurs.
請求項1記載の画像記憶判定手段において、
検出した監視イベントの強度の変化に応じて録画間隔を動的に変化させることを特徴とする画像記憶装置。
The image storage determining means according to claim 1,
An image storage device characterized by dynamically changing a recording interval according to a change in intensity of a detected monitoring event.
請求項1記載の画像記憶判定手段において、
検出した監視イベントの種類に応じて、あらかじめ決めておいた複数の録画間隔のパターンを切り替えることを特徴とする画像記憶装置。
The image storage determining means according to claim 1,
An image storage device characterized by switching a plurality of predetermined recording interval patterns according to the type of detected monitoring event.
請求項1記載の画像記憶手段の媒体は、
ハードディスク、DVD-RAM、フラッシュメモリのいずれかであることを特徴とする画像記憶装置。
The medium of the image storage means according to claim 1 is:
An image storage device characterized by being one of a hard disk, a DVD-RAM, and a flash memory.
請求項1記載の監視イベント情報として、
イベントの識別ID、場所、時間、イベントを表す特徴量、イベントの判定に用いた計算結果を各領域ごとに格納し、監視イベントの種類や特徴量に検索・分別できるようにしたことを特徴とする画像記憶装置。
As monitoring event information according to claim 1,
Event identification ID, location, time, feature quantity that represents the event, and calculation results used to determine the event are stored for each area, and it is possible to search and sort by type and feature quantity of the monitored event An image storage device.
請求項1記載の監視イベント情報と画像をレイアウトする手段として、
時系列で格納されている監視イベント情報と画像について、代表画像を一枚あるいは複数用いて、これらを二次元的に配置することを特徴とする画像記憶装置。
As means for laying out the monitoring event information and the image according to claim 1,
An image storage device characterized in that one or more representative images are used for monitoring event information and images stored in time series, and these are arranged two-dimensionally.
請求項12記載の監視イベントの代表画像として、
監視イベントが発生している時間区間の中から一番最初、一番最後、あるいは、ちょうど中間にあたるフレーム画像を用いることを特徴とする画像記憶装置。
As a representative image of the monitoring event according to claim 12,
An image storage device using a frame image corresponding to the first, last, or just middle of a time interval in which a monitoring event occurs.
請求項12記載の監視イベントの代表画像として、
監視イベントを表す特徴量が極大あるいは極小あるいは急激に変化している箇所のフレーム画像を用いることを特徴とする画像記憶装置。
As a representative image of the monitoring event according to claim 12,
An image storage device using a frame image at a location where a feature amount representing a monitoring event is maximized, minimized or rapidly changed.
請求項1記載の監視イベント情報と画像をレイアウトする手段として、
時系列で格納されている監視イベント情報と画像について、時間的に連続する、あるいは、近しいことを用いて、複数の単位に分類し、それに応じて物理的に近傍に配置すること、を特徴とする画像記憶装置。
As means for laying out the monitoring event information and the image according to claim 1,
The monitoring event information and images stored in time series are classified into a plurality of units by using temporally continuous or closeness, and physically arranged in accordance with the units, Image storage device.
請求項15記載の監視イベント情報と画像の配置法として、日、午前・午後、時、15分ごとなどの時間単位で、時間見だしと共に二次元的に配置すること、を特徴とする画像記憶装置。   16. An image storage characterized in that the monitoring event information and image arrangement method according to claim 15 is arranged two-dimensionally together with time tracking in units of time such as day, morning / afternoon, hour, and every 15 minutes. apparatus. 請求項1記載の監視イベント情報と画像をレイアウトする手段として、監視イベント情報を、場所、日、午前・午後、時、15分ごとなどの時間単位で木構造に配置し、監視イベントの内容と発生時刻を木構造の葉として配置することを特徴とする画像記憶装置。   As a means for laying out the monitoring event information and the image according to claim 1, the monitoring event information is arranged in a tree structure in units of time such as place, day, am / pm, hour, every 15 minutes, An image storage device in which occurrence times are arranged as leaves of a tree structure. 請求項1記載の監視イベント情報と画像をレイアウトする手段として、監視イベント単位で、それに含まれるすべてのフレーム画像を時間順にアニメーションとして表示することを特徴とする画像記憶装置。   The image storage device according to claim 1, wherein, as means for laying out the monitoring event information and the image, all the frame images included in the monitoring event unit are displayed as animations in time order. 請求項1記載の監視イベント情報と画像をレイアウトする手段として、
監視イベントの過去の履歴を示す、特徴量の遷移グラフを表示することを特徴とする画像記憶装置。
As means for laying out the monitoring event information and the image according to claim 1,
An image storage device that displays a transition graph of a feature amount indicating a past history of monitoring events.
請求項1記載の監視イベント情報と画像をレイアウトする手段として、監視イベントの過去の履歴を示す一覧表示を持ち、常の複数の最新代表画像が表示されるように順に入れ替えて配置することを特徴とする画像記憶装置。   The means for laying out the monitoring event information and the image according to claim 1 has a list display showing past history of monitoring events, and is arranged in order so that a plurality of usual latest representative images are displayed. An image storage device. 請求項1記載の監視イベント情報と画像をレイアウトする手段として、請求項12〜20記載のレイアウト結果を二つ以上組み合わせ、それぞれの領域に対するユーザ操作に応じて、残る他の領域の表示を動的に切り替えることを特徴とする画像記憶装置。   As a means for laying out the monitoring event information and the image according to claim 1, two or more layout results according to claims 12 to 20 are combined, and the display of other remaining areas is dynamically performed according to a user operation on each area. An image storage device characterized by switching to 請求項1記載の監視画像を記憶する手段とレイアウト結果を表示する手段において、
それぞれ独立させることにより、監視映像を記録しながら監視結果を閲覧することを可能としたことを特徴とする画像記憶装置。
The means for storing the monitoring image according to claim 1 and the means for displaying the layout result,
An image storage device characterized in that, by making each independent, it is possible to view a monitoring result while recording a monitoring video.
請求項22記載の画像記憶装置において、監視結果を閲覧する際に、現在監視記録中の状態がわかるような表示を持たせることを特徴とする画像記憶装置。   23. The image storage device according to claim 22, wherein when viewing the monitoring result, a display is provided so that the state of the current monitoring recording can be understood. 請求項1記載の監視イベント情報と画像をレイアウトする手段ならびにレイアウト結果を表示する手段において、
監視イベント情報と画像をレイアウトする手段を、監視イベント情報と画像から、請求項12〜21記載のレイアウト結果をHTML(Hyper Text Markup Language)データとして生成する手段とし、
レイアウト結果を表示する手段として、生成したHTMLデータを送出するWEBサーバを組み合わせ、
遠隔地であっても監視結果を簡単に閲覧可能としたこと、を特徴とする画像記憶装置。
The means for laying out the monitoring event information and the image according to claim 1 and the means for displaying the layout result,
Means for laying a monitoring event information and the image, from the monitoring event information and the image, and means for generating a layout result of claims 12 to 21, wherein as HTML (H yper T ext M arkup L anguage) data,
As a means to display layout results, combined with a web server that sends out the generated HTML data,
An image storage device characterized in that a monitoring result can be easily browsed even in a remote place.
請求項24記載のレイアウト結果をHTMLデータとして生成する手段において、
代表画像をWEBで表示可能な画像フォーマットでフレーム毎に格納しておき、これを表示するHTMLデータとしてHTMLタグ<IMG SRC=画像データ格納パス名>を出力することにより、サーバ内部での画像データのコピー・移動をなくすこと、を特徴とする画像記憶装置。
The means for generating the layout result according to claim 24 as HTML data,
By storing the representative image for each frame in an image format that can be displayed on the web, and outputting the HTML tag <IMG SRC = image data storage path name> as the HTML data to display this image data inside the server An image storage device characterized by eliminating copy / movement.
請求項24記載のレイアウト結果をHTMLデータとして生成する手段において、
代表画像を表示するHTMLタグ、あるいは監視イベントを表す文字列を<A HREF=別レイアウト表示?パラメータ>と</A>ではさんだ文字列として出力することにより、これをクリックするだけで簡単に移動・表示できるようにしたことを特徴とする画像記憶装置。
The means for generating the layout result according to claim 24 as HTML data,
HTML tag that displays a representative image or a character string that represents a monitoring event <A HREF = Display different layouts? An image storage device characterized by being output as a character string sandwiched between parameters> and </A> so that it can be easily moved and displayed by simply clicking on it.
請求項25、26記載のレイアウト結果をHTMLデータとして生成する手段において、
時々刻々と追加更新される監視イベント情報と画像から、これらのHTMLデータを動的に生成する手段を有すること、を特徴とする画像記憶装置。
In means for generating the layout result according to claim 25 or 26 as HTML data,
An image storage device comprising: means for dynamically generating HTML data from monitoring event information and images that are added and updated from time to time.
入力された画像から画像変化を検出する検出手段と、
上記画像変化の特徴に基づいて上記入力された画像を選択的に記憶する画像記憶手段と、上記画像変化をその特徴量に基づき分類し、該変化に関する情報と対応する画像の上記画像記憶手段の格納位置とを記憶する手段とを有することを特徴とする画像記憶装置。
Detecting means for detecting an image change from the input image;
Image storage means for selectively storing the inputted image based on the feature of the image change, and the image storage means for classifying the image change based on the feature amount, and for the image corresponding to the information related to the change. An image storage device comprising means for storing a storage position.
請求項28に記載の画像記憶装置において、上記変化に関する情報に基づき対応する画像を検索して表示する表示手段とを有することを特徴とする画像記憶装置。   29. The image storage device according to claim 28, further comprising display means for searching for and displaying a corresponding image based on the information relating to the change. 入力された画像から監視イベントを検出する検出手段と、上記監視イベントに応じて上記画像を録画するか否か判定する判定手段と、録画すると判定された画像をディジタル信号化して記憶する手段と、記憶された画像に対応する監視イベントの情報を該監視イベントの種類に応じて分類し、該記憶された画像の格納場所情報と共に記憶する手段と、上記監視イベントに関する情報に基づき、対応する画像を検索する検索手段とを有することを特徴とする画像記憶装置。   Detecting means for detecting a monitoring event from the input image; determining means for determining whether to record the image in response to the monitoring event; means for storing the image determined to be recorded as a digital signal; Means for classifying the information of the monitoring event corresponding to the stored image according to the type of the monitoring event, and storing the information together with the storage location information of the stored image, and the corresponding image based on the information regarding the monitoring event. An image storage device comprising search means for searching. 入力された画像を表示する画像表示手段と、入力された画像から監視イベントを検出する検出手段と、上記監視イベントに応じて上記画像を録画するか否か判定する判定手段と、録画すると判定された画像を記憶する手段と、記憶された画像に対応する監視イベントの情報を該監視イベントの種類に応じて分類し、該記憶された画像の格納場所情報と共に記憶する手段と、上記監視イベントに関する情報に基づき、対応する画像を検索する検索手段と、上記監視イベントに関する情報を表示する表示手段とを有し、表示画面上で選択された監視イベントに関する情報に基づき、対応する画像を表示することを特徴とする監視システム。   Image display means for displaying an input image, detection means for detecting a monitoring event from the input image, determination means for determining whether or not to record the image in response to the monitoring event, and determination to be recorded A means for storing a stored image; a means for classifying information of a monitoring event corresponding to the stored image according to the type of the monitoring event; and storing the information together with storage location information of the stored image; A search unit for searching for a corresponding image based on the information, and a display unit for displaying information regarding the monitoring event, and displaying the corresponding image based on the information regarding the monitoring event selected on the display screen. A monitoring system characterized by 入力された画像から監視イベントを検出し該画像をメモリに録画するか否か判定するステップと録画すると判定した画像をメモリに記憶するステップと、記憶された画像に対応する監視イベントに係る情報を該記憶された画像と関連づけて記憶するステップと、メモリに記憶された画像から特定の監視イベントに係る情報に対応する画像を検索するステップと、検索された画像をディスプレイに表示するステップとが記録されたコンピュータ読みとり可能な記録媒体。

A step of determining whether or not to record a monitoring event from the input image and recording the image in the memory; a step of storing the image determined to be recorded in the memory; and information relating to the monitoring event corresponding to the stored image A step of storing in association with the stored image, a step of searching for an image corresponding to information relating to a specific monitoring event from the image stored in the memory, and a step of displaying the searched image on a display Computer-readable recording medium.

JP2005354311A 2005-12-08 2005-12-08 Image storage device, monitoring system, storage medium Expired - Fee Related JP4162003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005354311A JP4162003B2 (en) 2005-12-08 2005-12-08 Image storage device, monitoring system, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005354311A JP4162003B2 (en) 2005-12-08 2005-12-08 Image storage device, monitoring system, storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02124199A Division JP3826598B2 (en) 1999-01-29 1999-01-29 Image monitoring apparatus and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008148725A Division JP4678043B2 (en) 2008-06-06 2008-06-06 Image storage device, monitoring system, storage medium

Publications (2)

Publication Number Publication Date
JP2006129519A true JP2006129519A (en) 2006-05-18
JP4162003B2 JP4162003B2 (en) 2008-10-08

Family

ID=36723611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005354311A Expired - Fee Related JP4162003B2 (en) 2005-12-08 2005-12-08 Image storage device, monitoring system, storage medium

Country Status (1)

Country Link
JP (1) JP4162003B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060539A (en) * 2007-09-03 2009-03-19 Canon Inc Display controller and its control method, program, recording medium
WO2010073905A1 (en) * 2008-12-25 2010-07-01 シャープ株式会社 Moving image viewing apparatus
US9836799B2 (en) 2014-07-02 2017-12-05 Fujitsu Limited Service provision program
CN107734303A (en) * 2017-10-30 2018-02-23 北京小米移动软件有限公司 Video labeling method and device
JP2022042461A (en) * 2020-09-02 2022-03-14 Kddi株式会社 Image display device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060539A (en) * 2007-09-03 2009-03-19 Canon Inc Display controller and its control method, program, recording medium
WO2010073905A1 (en) * 2008-12-25 2010-07-01 シャープ株式会社 Moving image viewing apparatus
US9836799B2 (en) 2014-07-02 2017-12-05 Fujitsu Limited Service provision program
CN107734303A (en) * 2017-10-30 2018-02-23 北京小米移动软件有限公司 Video labeling method and device
JP2022042461A (en) * 2020-09-02 2022-03-14 Kddi株式会社 Image display device and program

Also Published As

Publication number Publication date
JP4162003B2 (en) 2008-10-08

Similar Documents

Publication Publication Date Title
JP3826598B2 (en) Image monitoring apparatus and recording medium
JP4678043B2 (en) Image storage device, monitoring system, storage medium
US9286777B2 (en) Presenting video data
US8250490B2 (en) Display image control apparatus
AU2004233453B2 (en) Recording a sequence of images
US11308158B2 (en) Information processing system, method for controlling information processing system, and storage medium
US6988244B1 (en) Image generating apparatus and method
US20100274674A1 (en) Media navigation system
US20050163346A1 (en) Monitoring an output from a camera
KR20160097870A (en) System and method for browsing summary image
US20170034483A1 (en) Smart shift selection in a cloud video service
GB2408880A (en) Observing monitored image data and highlighting incidents on a timeline
CN106031165A (en) Smart view selection in a cloud video service
JP4162003B2 (en) Image storage device, monitoring system, storage medium
JP5008484B2 (en) Video processing method
WO2018163398A1 (en) Similar image search system
JP5195156B2 (en) Monitoring device, monitoring system, and filter setting method
JP2002152721A (en) Video display method and device for video recording and reproducing device
WO2012157611A1 (en) Similar image search system
JPH07175816A (en) Video associative retrieving device and method
JP4397404B2 (en) Terminal management apparatus and terminal management program
KR20130124757A (en) Video management system and method of controlling video thereof
JP2009064256A (en) File management system, file management program, and file management terminal
GB2570498A (en) A method and user device for displaying video data, a method and apparatus for streaming video data and a video surveillance system
DeAngelus et al. On-demand Forensic Video Analytics for Large-Scale Surveillance Systems

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080701

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080714

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees