JP2007047902A - Image retrieval device - Google Patents

Image retrieval device Download PDF

Info

Publication number
JP2007047902A
JP2007047902A JP2005229255A JP2005229255A JP2007047902A JP 2007047902 A JP2007047902 A JP 2007047902A JP 2005229255 A JP2005229255 A JP 2005229255A JP 2005229255 A JP2005229255 A JP 2005229255A JP 2007047902 A JP2007047902 A JP 2007047902A
Authority
JP
Japan
Prior art keywords
feature
video
data
unit
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005229255A
Other languages
Japanese (ja)
Other versions
JP4713980B2 (en
Inventor
Kunio Furuta
邦夫 古田
Kazuya Abe
和也 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005229255A priority Critical patent/JP4713980B2/en
Publication of JP2007047902A publication Critical patent/JP2007047902A/en
Application granted granted Critical
Publication of JP4713980B2 publication Critical patent/JP4713980B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image retrieval device, in which the summary of an image can be obtained to facilitate image retrieval. <P>SOLUTION: A characteristic information extraction part 7 extracts predetermined characteristic quantity data from the image. An extracted characteristic information storage part 9 stores the characteristic quantity data extracted by the extraction part 7 with extraction time data. A characteristic expression part 19 of a screen display part 11 generates, based on the characteristic quantity data and the extraction time data, a characteristic expression pattern expressing the magnitude of the characteristic concerned at each extraction time on the time axis of the image, and displays the characteristic expression pattern on a display device 13. The characteristic expression part 19 generates, as the characteristic expression pattern, a graph having a first axis showing the time axis and a second axis showing the magnitude of the characteristic quantity. Further, the expression part 19 adds a mark such as icon to a point of the characteristic expression pattern where the characteristic quantity is a predetermined threshold or more. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、映像から所望の映像部分を検索するために用いられる映像検索装置に関するものである。   The present invention relates to a video search apparatus used for searching a desired video portion from a video.

従来、映像検索装置は、例えば、監視カメラによって撮影された監視映像から所望の映像部分を検索するために用いられる。監視システムの場合、所望の映像部分は、監視対象の事象が移った部分である。従来一般の映像検索装置は、映像を撮影日時と共に表示する。操作者は、撮影日時を頼りに映像を再生し、所望の映像部分を探索する。   Conventionally, a video search device is used, for example, to search for a desired video portion from a monitoring video taken by a monitoring camera. In the case of a surveillance system, the desired video part is the part to which the event to be monitored has moved. A conventional general video search apparatus displays a video together with the shooting date and time. The operator reproduces the video depending on the shooting date and searches for a desired video portion.

また、特許文献1は、映像探索を容易にする映像検索装置が開示している。該文献の映像検索装置は、時間軸上に登場人物毎の登場区間を棒図形で表示する。操作者は、所望の登場人物の所望の登場区間を選択することにより、所望の映像部分を探索できる。   Patent Document 1 discloses a video search device that facilitates video search. The video search apparatus of the document displays the appearance section for each character as a bar figure on the time axis. The operator can search for a desired video portion by selecting a desired appearance section of a desired character.

また、特許文献2の映像検索装置は、映像から所定の時間間隔で静止画像を抜き出し、静止画像を配列し、各静止画像と共にタイムコードの日時を表示する。ユーザは、静止画像を選択して、選択した静止画像から映像を再生することにより、所望の映像部分を探索できる。
特開2004−127311号公報(例えば第5−6ページ、図1) 特開平11−146325号公報(例えば第9ページ、図18)
Also, the video search device of Patent Document 2 extracts still images from video at predetermined time intervals, arranges the still images, and displays the date and time of the time code together with each still image. The user can search for a desired video portion by selecting a still image and playing a video from the selected still image.
Japanese Patent Laying-Open No. 2004-127711 (for example, page 5-6, FIG. 1) JP-A-11-146325 (for example, page 9 and FIG. 18)

しかしながら、従来の映像検索装置においては、操作者が日時情報を頼りに映像を再生しながら所望の映像部分を探さなければならないため、検索が大変で手間がかかり、検索が容易でないという問題があった。   However, in the conventional video search apparatus, the operator has to search for a desired video portion while playing back the video by relying on the date / time information. Therefore, there is a problem that the search is difficult and time-consuming and the search is not easy. It was.

また、特許文献1および特許文献2の技術では、映像検索がある程度容易にはなっているものの、特徴的部分が映像中のどこに映っているかといった映像の全容を把握するのは容易でなかった。例えば、監視映像を検索する場合に、監視対象が映った特徴部分がどの辺りに映っているかといった概要を直感的に把握することが望ましく、このような全体概要の把握が可能であれば映像検索がさらに容易になると考えられる。   Further, in the techniques of Patent Document 1 and Patent Document 2, although the video search has been facilitated to some extent, it has not been easy to grasp the entire video such as where the characteristic part appears in the video. For example, when searching for surveillance video, it is desirable to intuitively understand the outline of where the featured part of the monitoring target is reflected, and if such an overall outline can be grasped, video search is possible. Will be even easier.

本発明は、従来の問題を解決するためになされたもので、その目的は、映像の概要の把握を可能にして映像検索を容易にすることができる映像検索装置を提供することにある。   The present invention has been made in order to solve the conventional problems, and an object of the present invention is to provide a video search apparatus that can grasp a video overview and facilitate video search.

本発明の映像検索装置は、撮像された映像を記録する映像記録部と、前記映像から所定の特徴量データを抽出する特徴情報抽出部と、前記特徴情報抽出部により抽出された特徴量データを抽出時点データと共に記憶する抽出特徴情報記憶部と、前記抽出特徴情報記憶部から読み出した前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる特徴表現部と、を備えている。特徴表現図形は、点、線、面等の図図形で特徴量データの大きさを表現したものであり、例えば後述する実施の形態における棒グラフである。   The video search apparatus of the present invention includes a video recording unit that records a captured video, a feature information extraction unit that extracts predetermined feature amount data from the video, and a feature amount data extracted by the feature information extraction unit. An extracted feature information storage unit that stores the extracted time point data together with the extracted feature amount data and the extracted time point data based on the extracted feature amount data and the extracted time point data. And a feature expression unit that generates a feature expression figure represented by a figure at the time of extraction and displays the feature expression figure on a display device. The feature representation graphic is a representation of the size of the feature amount data by a graphic diagram such as a point, a line, or a surface, and is, for example, a bar graph in an embodiment described later.

この構成により、映像から特徴量データを抽出して抽出時点データと共に記憶し、映像の時間軸上に各抽出時点での該当特徴量の大きさを図形で表現した特徴表現図形を生成して表示するので、表示された特徴表現図形から映像の概要を把握することができ、これにより映像検索が容易になる。   With this configuration, feature value data is extracted from the video and stored together with the extracted time point data, and a feature representation graphic that represents the size of the corresponding feature value at each extraction time point on the video time axis is generated and displayed. Therefore, the outline of the video can be grasped from the displayed feature expression graphic, thereby facilitating video search.

また、本発明の映像検索装置は、所定の特徴事象に対応する抽出トリガーの発生を検出するトリガー検出部を備え、前記特徴情報抽出部は、前記抽出トリガーの発生が検出されたときに前記特徴量データを抽出し、前記特徴表現部は、前記抽出トリガーが発生した時に前記特徴情報抽出部により抽出された前記特徴量データに基づいて前記特徴表現図形を生成する。   The video search device of the present invention further includes a trigger detection unit that detects the occurrence of an extraction trigger corresponding to a predetermined characteristic event, and the feature information extraction unit detects the feature when the occurrence of the extraction trigger is detected. Quantity data is extracted, and the feature expression unit generates the feature expression figure based on the feature quantity data extracted by the feature information extraction unit when the extraction trigger occurs.

この構成により、特徴事象に対応する抽出トリガーが発生したときの特徴量が特徴表現図形の該当抽出時点の場所に表示されるので、どの時点で特徴事象が発生してそのときの特徴量がどれくらいの大きさであったかといった映像の概要を容易に把握できる特徴表現図形を表示できる。   With this configuration, the feature amount when the extraction trigger corresponding to the feature event occurs is displayed at the location of the feature representation figure at the time of the corresponding extraction, so at what point the feature event occurred and how much feature amount at that time It is possible to display a feature expression figure that can easily grasp the outline of the video such as whether it was the size of the video.

また、本発明の映像検索装置では、前記トリガー検出部は、前記抽出トリガーとして映像中の被写体の動きを検出する動き検出部を含む。この構成により、特徴事象の発生を適切に検出して特徴量データを抽出できる。   In the video search device of the present invention, the trigger detection unit includes a motion detection unit that detects a motion of a subject in the video as the extraction trigger. With this configuration, it is possible to appropriately detect occurrence of a characteristic event and extract feature amount data.

また、本発明の映像検索装置において、前記特徴表現部は、前記特徴表現図形として、第1の軸が時間軸であり、第2の軸が前記特徴量の大きさであるグラフを生成する。この構成により、映像の概要を把握しやすい特徴表現図形を提供できる。   In the video search device of the present invention, the feature expression unit generates a graph in which a first axis is a time axis and a second axis is the size of the feature amount as the feature expression figure. With this configuration, it is possible to provide a feature expression figure that makes it easy to grasp the outline of the video.

また、本発明の映像検索装置において、前記特徴情報抽出部は、前記特徴量データとして前記映像から所定の色代表値データを抽出する。色代表値データは、例えば、RGBのうちの特定の色値の合計値または平均値である。色代表値データを用いることにより、比較的簡単な処理と比較的少ないデータ量でもって特徴量を好適に表すことができる。   In the video search device of the present invention, the feature information extraction unit extracts predetermined color representative value data from the video as the feature amount data. The color representative value data is, for example, a total value or an average value of specific color values of RGB. By using the color representative value data, the feature amount can be suitably expressed with a relatively simple process and a relatively small amount of data.

また、本発明の映像検索装置において、前記特徴表現部は、前記特徴表現図形中で所定の特徴しきい値以上の特徴量が発生した場所に所定のマークを付加する。マークは例えばアイコンである。この構成により、特徴量が大きい箇所を容易に把握できる特徴表現図形を提供できる。   In the video search device of the present invention, the feature expression unit adds a predetermined mark to a place where a feature amount equal to or greater than a predetermined feature threshold value is generated in the feature expression figure. The mark is, for example, an icon. With this configuration, it is possible to provide a feature expression figure that can easily grasp a portion having a large feature amount.

また、本発明の映像検索装置において、前記抽出特徴情報記憶部は、前記特徴量データおよび前記抽出時点データと共に、各抽出時点の小型静止画像を記憶し、前記特徴表現部は、前記特徴表現図形中の前記マークに対する仮選択操作に応答して、選択された前記マークに対応する前記小型静止画像を前記表示装置に表示させる。小型静止画像は例えばサムネイル画像である。仮選択操作によるマーク選択はポインティングデバイス等の入力操作部から入力される。この構成により、選択されたマークに対応する小型静止画像を検索して表示することにより、映像内容の把握を助けることができ、映像検索が容易になる。   In the video search device of the present invention, the extracted feature information storage unit stores a small still image at each extraction point together with the feature amount data and the extraction point data, and the feature expression unit includes the feature expression figure. In response to the temporary selection operation for the mark in the middle, the small still image corresponding to the selected mark is displayed on the display device. The small still image is, for example, a thumbnail image. The mark selection by the temporary selection operation is input from an input operation unit such as a pointing device. With this configuration, by retrieving and displaying a small still image corresponding to the selected mark, it is possible to help grasp the content of the video and facilitate the video search.

また、本発明の映像検索装置は、前記仮選択操作として、前記マークの上にポインティングデバイスのポインタ図形が位置したことを検出する。この構成により、ポインタ図形を動かしてマーク上に位置させることにより小型静止画像を表示でき、簡単な操作で映像内容を把握できる。   Also, the video search apparatus of the present invention detects that the pointer figure of the pointing device is positioned on the mark as the temporary selection operation. With this configuration, a small still image can be displayed by moving the pointer graphic and positioning it on the mark, and the video content can be grasped by a simple operation.

また、本発明の映像検索装置は、前記マークに対する選択決定操作の入力に応答して前記マークに対応する映像データを前記映像記録部から取得して前記表示装置に表示させる。例えば、映像検索装置は、時間軸上でマークが位置する時点における所定時間の動画を表示する。選択決定操作は入力操作部から入力され、選択決定指示は例えばマウスクリック操作である。この構成により、選択されたマークに対応する映像を検索して表示することにより、映像内容の把握を助けることができ、映像検索が容易になる。   In addition, the video search apparatus of the present invention acquires video data corresponding to the mark from the video recording unit in response to an input of a selection determination operation on the mark and causes the display device to display the video data. For example, the video search device displays a moving image for a predetermined time at the time when the mark is located on the time axis. The selection determination operation is input from the input operation unit, and the selection determination instruction is, for example, a mouse click operation. With this configuration, by searching for and displaying a video corresponding to the selected mark, it is possible to help grasp the content of the video and facilitate video search.

また、本発明の映像検索装置において、前記抽出特徴情報記憶部は、前記特徴量データおよび前記抽出時点データと共に、各抽出時点の小型静止画像を記憶し、前記特徴表現部は、前記特徴表現図形中の特徴量データに対する仮選択操作に応答して、選択された前記特徴量データに対応する前記小型静止画像を前記表示装置に表示させる。仮選択操作による特徴量データの選択は、ポインティングデバイス等の入力操作部から入力される。上述のマークが表示され、マークを選択する仮選択操作によって特徴量データが選択されてもよい。また、小型静止画像は例えばサムネイル画像である。この構成により、選択された特徴量データに対応する小型静止画像を検索して表示するので、映像内容の把握を助けることができ、映像検索が容易になる。   In the video search device of the present invention, the extracted feature information storage unit stores a small still image at each extraction point together with the feature amount data and the extraction point data, and the feature expression unit includes the feature expression figure. In response to the provisional selection operation for the feature amount data in the medium, the small still image corresponding to the selected feature amount data is displayed on the display device. The selection of the feature amount data by the temporary selection operation is input from an input operation unit such as a pointing device. The above-described mark may be displayed, and the feature amount data may be selected by a temporary selection operation for selecting the mark. The small still image is, for example, a thumbnail image. With this configuration, a small still image corresponding to the selected feature amount data is retrieved and displayed, so that it is possible to help grasp the video content and facilitate the video search.

また、本発明の映像検索装置は、前記特徴表現図形中の特徴量データに対する選択決定操作の入力に応答して、選択された前記特徴量データに対応する映像データを前記映像記録部から取得して前記表示装置に表示させる。例えば、時間軸上の選択時点における所定時間の動画が表示される。選択決定操作は入力操作部から入力され、選択決定指示は例えばマウスクリック操作である。上述のマークが表示され、マークの選択決定操作によって特徴量データが選択されてもよい。この構成により、選択された特徴量データに対応する時点における映像を検索して表示するので、映像内容の把握を助けることができ、映像検索が容易になる。   The video search device of the present invention obtains video data corresponding to the selected feature data from the video recording unit in response to an input of a selection determination operation on the feature data in the feature representation figure. Display on the display device. For example, a moving image of a predetermined time at a selected time point on the time axis is displayed. The selection determination operation is input from the input operation unit, and the selection determination instruction is, for example, a mouse click operation. The above-described mark may be displayed, and feature amount data may be selected by a mark selection / determination operation. With this configuration, since the video at the time corresponding to the selected feature data is searched and displayed, it is possible to help grasp the video content and facilitate video search.

本発明の別の態様における映像検索装置は、撮像された映像から抽出された所定の特徴量データを抽出時点データと共に記憶する抽出特徴情報記憶部と、前記抽出特徴情報記憶部から読み出した前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる特徴表現部と、を備えている。この構成によっても上述の利点が得られる。   The video search device according to another aspect of the present invention includes an extracted feature information storage unit that stores predetermined feature amount data extracted from a captured video together with extraction time point data, and the feature read from the extracted feature information storage unit. Based on the quantity data and the extraction time point data, a feature expression figure in which the size of the extracted feature quantity data is represented by a figure at the extraction time point on the time axis of the video is generated, and the feature expression figure is displayed on the display device And a feature expression unit to be displayed. This configuration also provides the above-described advantages.

また、本発明の別の態様は、映像検索装置を構成するコンピュータで実行されるプログラムであって、撮像された映像から抽出された所定の特徴量データを抽出時点データと共に記憶した抽出特徴情報記憶部から特徴量データおよび抽出時点データを読み出し、前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる処理を前記コンピュータに実行させる。この構成によっても上述の利点が得られる。   According to another aspect of the present invention, there is provided an extracted feature information storage that stores a predetermined feature amount data extracted from a captured video together with extraction time data, which is a program executed by a computer constituting the video search device. The feature amount data and the extraction point data are read from the unit, and based on the feature amount data and the extraction point data, the size of the extracted feature amount data is graphically represented at the extraction point on the time axis of the video The computer is caused to execute processing for generating an expression graphic and displaying the characteristic expression graphic on a display device. This configuration also provides the above-described advantages.

本発明は、映像から特徴量データを抽出して抽出時点データと共に記憶し、映像の時間軸上に各抽出時点での該当特徴量の大きさを図形で表現した特徴表現図形を生成して表示することにより、表示された特徴表現図形から映像の概要を把握可能にでき、これにより映像検索を容易にできるという効果を有する映像検索装置を提供することができる。   The present invention extracts feature quantity data from a video and stores it together with the extraction time point data, and generates and displays a feature expression figure that represents the size of the corresponding feature quantity at each extraction time point on the video time axis. By doing so, it is possible to provide a video search apparatus having an effect that the outline of the video can be grasped from the displayed feature expression graphic, and thereby the video search can be facilitated.

以下、本発明の実施の形態に係る映像検索装置について、図面を用いて説明する。本実施の形態では、本発明の映像検索装置が監視システムに適用され、監視映像から所望の映像部分を探す作業を支援する機能を持つ。映像検索装置は、画像処理機能を持ったコンピュータにより実現される。   Hereinafter, a video search apparatus according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, the video search device of the present invention is applied to a monitoring system and has a function of supporting a work for searching for a desired video portion from a monitoring video. The video search device is realized by a computer having an image processing function.

本発明の実施の形態に係る映像検索装置を図1に示す。図1において、映像検索装置1は、撮像部3により撮像された映像を記録する映像記録部5と、映像から所定の特徴量データを抽出する特徴情報抽出部7と、特徴情報抽出部7により抽出された特徴量データを抽出時点データと共に記憶する抽出特徴情報記憶部9と、映像をディスプレイ13に表示させる画面表示部11と、ポインティングデバイスを含む操作部15とを備える。画面表示部11は映像表示部17と共に特徴表現部19を有しており、特徴表現部17は、抽出特徴情報記憶部9の特徴量データを用いて後述する特徴表現図形を生成しディスプレイ13に表示させ、これにより本実施の形態の映像検索機能が実現される。以下、映像検索装置1の各部構成について説明する。   A video search apparatus according to an embodiment of the present invention is shown in FIG. In FIG. 1, the video search device 1 includes a video recording unit 5 that records a video captured by the imaging unit 3, a feature information extraction unit 7 that extracts predetermined feature amount data from the video, and a feature information extraction unit 7. An extracted feature information storage unit 9 that stores the extracted feature data together with the extraction time data, a screen display unit 11 that displays a video on a display 13, and an operation unit 15 including a pointing device are provided. The screen display unit 11 has a feature representation unit 19 together with the video display unit 17, and the feature representation unit 17 generates a feature representation figure, which will be described later, using the feature amount data in the extracted feature information storage unit 9 and displays it on the display 13. Thus, the video search function of the present embodiment is realized. Hereinafter, the configuration of each part of the video search device 1 will be described.

撮像部3は、監視カメラであり、監視場所に設置されている。撮像部3は、レンズ等の光学系と、CCD等の撮像素子と、撮像素子により生成された画像信号を処理する構成とを有している。撮像部3は、監視場所を撮影し、監視映像として動画像データを出力する。   The imaging unit 3 is a surveillance camera and is installed at a surveillance location. The imaging unit 3 has an optical system such as a lens, an imaging element such as a CCD, and a configuration for processing an image signal generated by the imaging element. The imaging unit 3 captures a monitoring location and outputs moving image data as a monitoring video.

映像記録部5は、ハードディスクまたはDVD等の記録装置であり、撮像部3により撮像された映像(動画像データ)を記録する。映像データは、映像中の各部分の撮影日時(撮影時点)を特定するタイムコードと共に記録される。   The video recording unit 5 is a recording device such as a hard disk or a DVD, and records the video (moving image data) captured by the imaging unit 3. The video data is recorded together with a time code specifying the shooting date and time (shooting time) of each part in the video.

特徴情報抽出部7は、画像処理機能を持ったコンピュータ装置で構成されている。特徴情報抽出部7は、撮像部3により撮像された映像を取り込み、映像から所定の特徴量データを抽出する。特徴情報抽出部7は、トリガー検出部が所定の特徴事象に対応する抽出トリガーの発生を検出したときに特徴量データを抽出するように構成されている。本実施の形態では、トリガー検出部が、抽出トリガーとして映像中の被写体の動きを検出する動き検出部であり、特徴情報抽出部7自身に設けられている。   The feature information extraction unit 7 is configured by a computer device having an image processing function. The feature information extraction unit 7 takes in the video imaged by the imaging unit 3 and extracts predetermined feature amount data from the video image. The feature information extraction unit 7 is configured to extract feature amount data when the trigger detection unit detects the occurrence of an extraction trigger corresponding to a predetermined feature event. In the present embodiment, the trigger detection unit is a motion detection unit that detects the movement of the subject in the video as an extraction trigger, and is provided in the feature information extraction unit 7 itself.

また、本実施の形態では、特徴量データとして、色代表値データが抽出される。特徴量データは、該特徴量データの抽出時点と共に抽出特徴情報記憶部9に格納される。このとき、抽出時点の映像フレームからサムネイル画像が生成され、サムネイル画像も抽出特徴情報記憶部9に特徴量データと関連づけて記録される。   In this embodiment, color representative value data is extracted as the feature amount data. The feature amount data is stored in the extracted feature information storage unit 9 together with the extraction time of the feature amount data. At this time, a thumbnail image is generated from the video frame at the time of extraction, and the thumbnail image is also recorded in the extracted feature information storage unit 9 in association with the feature amount data.

図2は、特徴情報抽出部7の構成を、抽出特徴情報記憶部9に格納されるデータと共に示している。特徴情報抽出部7において、映像入力部21は、撮像部3または映像記録部5から、撮像部3により撮像された映像を入力する。   FIG. 2 shows the configuration of the feature information extraction unit 7 together with the data stored in the extraction feature information storage unit 9. In the feature information extraction unit 7, the video input unit 21 inputs the video captured by the imaging unit 3 from the imaging unit 3 or the video recording unit 5.

動き検出部23は、映像中の被写体の動きの発生を検出する。動き検出部23は、新しいフレーム画像が入力されるたびに、新しいフレーム画像を1つ前のフレーム画像と比較して、新しいフレームに生じた動きを検出する。動き検出部23は、映像中で連続する2枚のフレーム画像の差分合計値を計算する。差分合計値は、2枚の画像における対応画素の画素値差の合計である。動き検出部23は、差分合計値を所定の動き検出しきい値と比較し、差分合計値が動き検出しきい値以上であれば、動きが発生したと判定する。   The motion detector 23 detects the occurrence of motion of the subject in the video. Each time a new frame image is input, the motion detection unit 23 compares the new frame image with the previous frame image and detects the motion that has occurred in the new frame. The motion detection unit 23 calculates a total difference value between two consecutive frame images in the video. The difference total value is the sum of the pixel value differences of the corresponding pixels in the two images. The motion detection unit 23 compares the difference total value with a predetermined motion detection threshold, and determines that a motion has occurred if the difference total value is equal to or greater than the motion detection threshold.

色データ抽出部25は、動き検出部23が動きを検出すると、動きが検出されたフレームの画像データから、特徴量データとして色代表値データを抽出する。本実施の形態では、色代表値データが、抽出時点の1フレームの画像におけるR(赤)、G(緑)、B(青)の各色の合計値であり、したがって、3つの色代表値データが算出される。   When the motion detection unit 23 detects a motion, the color data extraction unit 25 extracts color representative value data as feature amount data from the image data of the frame in which the motion is detected. In the present embodiment, the color representative value data is the total value of each color of R (red), G (green), and B (blue) in one frame image at the time of extraction. Therefore, the three color representative value data Is calculated.

また、日時取得部27は、色データ抽出部25により色代表値データが抽出された時点、すなわち、動き検出部23が動きを検出した時点の日時データを取得する。この日時データを抽出日時データという。抽出日時データは、特徴情報抽出部7を構成するコンピュータ装置に内蔵される時計から取得される。この抽出日時データは、本発明の抽出時点データに相当する。   The date and time acquisition unit 27 acquires date and time data when the color representative value data is extracted by the color data extraction unit 25, that is, when the motion detection unit 23 detects motion. This date / time data is referred to as extracted date / time data. The extraction date / time data is acquired from a clock built in the computer device constituting the feature information extraction unit 7. This extraction date / time data corresponds to the extraction time point data of the present invention.

サムネイル生成部29は、色代表値データが抽出された画像データ、すなわち、動き検出部23が動きを検出した時のフレームの画像データから、サムネイル画像を生成する。サムネイル画像は、小型静止画像の典型的な例である。   The thumbnail generation unit 29 generates a thumbnail image from the image data from which the color representative value data is extracted, that is, the image data of the frame when the motion detection unit 23 detects the motion. A thumbnail image is a typical example of a small still image.

特徴情報格納処理部31は、色データ抽出部25により抽出された色代表値データ、日時取得部27により取得された抽出日時データおよびサムネイル生成部29により生成されたサムネイル画像29を抽出特徴情報記憶部9に格納する。色代表値データ、抽出日時データおよびサムネイル画像は、図2に示されるように互いに関連づけて記憶される。これらデータは、映像ファイル毎に記憶される。抽出特徴情報記憶部9は、ハードディスクまたはDVD等の記憶装置である。抽出特徴情報記憶部9と映像記録部5は物理的に同じ記憶装置でもよい。   The feature information storage processing unit 31 extracts the color representative value data extracted by the color data extraction unit 25, the extracted date / time data acquired by the date / time acquisition unit 27, and the thumbnail image 29 generated by the thumbnail generation unit 29. Stored in section 9. The color representative value data, the extraction date / time data, and the thumbnail image are stored in association with each other as shown in FIG. These data are stored for each video file. The extracted feature information storage unit 9 is a storage device such as a hard disk or a DVD. The extracted feature information storage unit 9 and the video recording unit 5 may be physically the same storage device.

より詳細には、例えば、抽出特徴情報記憶部9は、映像から得られた抽出日時データと色代表値データのテーブルを記憶すると共に、抽出日時データと関連づけてサムネイル画像を記憶するように構成されている。そして、特徴情報抽出部7は、映像中の動きを検出するたびに、抽出特徴情報記憶部9のテーブルを更新して抽出日時データおよび色代表値データを追加し、サムネイル画像も抽出日時データと共に抽出特徴情報記憶部9に書き込む。   More specifically, for example, the extraction feature information storage unit 9 is configured to store a table of extraction date / time data and color representative value data obtained from video, and to store thumbnail images in association with the extraction date / time data. ing. The feature information extracting unit 7 updates the table of the extracted feature information storage unit 9 to add the extracted date / time data and the color representative value data every time a motion in the video is detected, and the thumbnail image together with the extracted date / time data. Write to the extracted feature information storage unit 9.

次に、図3を参照し、画面表示部11の構成を説明する。画面表示部11は画像処理機能を持ったコンピュータ装置で構成されている。画面表示部11と特徴情報抽出部7は同じコンピュータで構成されてもよく、別々のコンピュータで構成されてもよい。   Next, the configuration of the screen display unit 11 will be described with reference to FIG. The screen display unit 11 is composed of a computer device having an image processing function. The screen display unit 11 and the feature information extraction unit 7 may be configured by the same computer or may be configured by separate computers.

画面表示部11において、映像表示部17は、操作部15から入力される指示に従い、映像記録部5から映像データを読み出して、ディスプレイ13に映像を表示させる。操作部15は、キーボードおよびポインティングデバイス等を含み、ポインティングデバイスは例えばマウスである。   In the screen display unit 11, the video display unit 17 reads video data from the video recording unit 5 in accordance with an instruction input from the operation unit 15 and displays the video on the display 13. The operation unit 15 includes a keyboard and a pointing device, and the pointing device is, for example, a mouse.

例えば、画面表示部11は、画面上に映像の選択メニューを表示する。映像選択メニュー画面は、映像記録部9に記録された複数の映像の中から表示すべき映像を選択するためのメニューの画面である。そして、映像の選択を操作部15が入力し、映像表示部17は選択された映像を映像記録部5から読み出してディスプレイ13に表示させる。映像が符号化されて映像記録部5に記録されている場合には、映像表示部17が適当な復号機能を有してよい。また、映像表示部17は、画面上に、再生、停止、早送り、巻戻し、一時停止等の機能ボタンを表示する。機能ボタンの押下げ指示が操作部15から入力されると、映像表示部17は、押下げられたボタンに応じた動作を行う。   For example, the screen display unit 11 displays a video selection menu on the screen. The video selection menu screen is a menu screen for selecting a video to be displayed from a plurality of videos recorded in the video recording unit 9. Then, the operation unit 15 inputs the selection of the video, and the video display unit 17 reads the selected video from the video recording unit 5 and displays it on the display 13. When the video is encoded and recorded in the video recording unit 5, the video display unit 17 may have an appropriate decoding function. The video display unit 17 also displays function buttons such as play, stop, fast forward, rewind, and pause on the screen. When an instruction for pressing a function button is input from the operation unit 15, the video display unit 17 performs an operation corresponding to the pressed button.

特徴表現部19は、ポインティングデバイスを含む操作部15から入力される指示に従って映像検索のために機能する構成を有する。   The feature expression unit 19 has a configuration that functions for video search in accordance with an instruction input from the operation unit 15 including a pointing device.

特徴表現部19において、特徴情報検索部41は、抽出特徴情報記憶部9から、映像表示部17にて選択された映像に対応するデータを読み出す。読み出されるデータは、特徴量データ、抽出日時データおよびサムネイル画像である。選択された映像に関連した全データが読み出され、画面表示部11のメモリに保持される。特徴検索指示部43は、操作部15から入力される操作者の指示を受け付けて、特徴情報検索部41に伝える。特徴表示部45は、特徴情報検索部41に制御されて、検索のための画像を生成し、ディスプレイ13に表示させる。   In the feature expression unit 19, the feature information search unit 41 reads data corresponding to the video selected by the video display unit 17 from the extracted feature information storage unit 9. The data to be read out is feature amount data, extraction date / time data, and thumbnail images. All data related to the selected video is read out and held in the memory of the screen display unit 11. The feature search instruction unit 43 receives an operator instruction input from the operation unit 15 and transmits it to the feature information search unit 41. The feature display unit 45 is controlled by the feature information search unit 41 to generate an image for search and display it on the display 13.

特徴表示部45において、特徴表現図形生成部51は、特徴表現図形を生成する。特徴表現図形は、特徴量データと抽出日時データに基づいて生成された、映像の時間軸上に各抽出時点での該当特徴量の大きさを図形で表現した図形である。特徴量の大きさは、点、線、面等の図形で表される。本実施の形態の場合には、特徴量表現図形が棒グラフである。   In the feature display unit 45, the feature expression graphic generation unit 51 generates a feature expression graphic. The feature expression graphic is a graphic generated based on the feature amount data and the extraction date / time data and representing the size of the corresponding feature amount at each extraction time on the video time axis. The size of the feature amount is represented by a figure such as a point, a line, or a surface. In the case of the present embodiment, the feature amount expression graphic is a bar graph.

また、本実施の形態では、特徴表現図形生成部51は、特徴表現図形を生成する際に、R(赤)、G(緑)、B(青)の色代表値データのうちで、R(赤)の色代表値データを特徴量データとして用いる。そして、特徴表現図形生成部51は、各抽出時点でのR(赤)の大きさを表現した特徴表現図形を生成する。   Further, in the present embodiment, the feature representation graphic generation unit 51 generates R (red), G (green), and B (blue) color representative value data when generating the feature representation graphic. Red) color representative value data is used as feature amount data. Then, the feature expression graphic generation unit 51 generates a characteristic expression graphic expressing the size of R (red) at each extraction time point.

マーク生成部53は、特徴表現図形中で所定のしきい値以上の特徴量が発生した場所に所定のマークを付加する。この処理のため、所定の特徴量しきい値が予め記憶されている。マーク生成部53は、各々の特徴量(R代表値データ)を特徴量しきい値と比較する。そして、特徴量がしきい値以上の場合、該当する特徴量の箇所にマークが付される。マークとしては、アイコンが付加される。   The mark generation unit 53 adds a predetermined mark to a place where a feature amount equal to or greater than a predetermined threshold value is generated in the feature expression graphic. For this process, a predetermined feature amount threshold value is stored in advance. The mark generation unit 53 compares each feature amount (R representative value data) with a feature amount threshold value. If the feature amount is equal to or greater than the threshold value, a mark is attached to the location of the corresponding feature amount. An icon is added as the mark.

サムネイル画像表示部55は、特徴情報検索部41から指示されたサムネイル画像をディスプレイ13の画面中の所定の場所に表示する。   The thumbnail image display unit 55 displays the thumbnail image instructed from the feature information search unit 41 at a predetermined location on the screen of the display 13.

図4は、特徴表現図形を表示したディスプレイ13の画面を示している。この画面を表示するために、画面表示部11は、記憶されているGUI画像リソースを読み込み、さらに、特徴表現部19を実現する特徴表現プログラムを読み込んで起動する。これにより、画面表示部11に特徴表現図形の表示が可能になり、特徴表現図形が生成されて表示される。   FIG. 4 shows a screen of the display 13 displaying the feature expression graphic. In order to display this screen, the screen display unit 11 reads the stored GUI image resource, and further reads and activates a feature expression program for realizing the feature expression unit 19. Thereby, it becomes possible to display the feature expression graphic on the screen display unit 11, and the characteristic expression graphic is generated and displayed.

図4の画面は、映像領域61、特徴表現領域63およびサムネイル領域65で構成されている。映像領域61は、記録された監視映像としての動画像を表示する領域である。映像領域61が画面の大部分を占めている。   The screen in FIG. 4 includes a video area 61, a feature expression area 63, and a thumbnail area 65. The video area 61 is an area for displaying a moving image as a recorded monitoring video. The video area 61 occupies most of the screen.

特徴表現領域63は、特徴表現図形を表示する領域である。特徴表現領域63は、画面の下方に配置されており横方向に延びた細長い領域である。本実施の形態では、特徴表現図形として、図示のグラフが表示される。このグラフでは、横軸が時間軸であり、縦軸が特徴量の大きさである。特徴量としては、上述のように、R(赤)の代表値データが用いられる。横方向には、映像の全範囲を含む時間が表示される。そして、特徴量の大きさに応じた棒状の図が、該当する抽出日時の場所に配置される。このようなグラフが、特徴表現図形生成部51により生成されて、ディスプレイ13の所定の特徴表現領域61に表示される。   The feature expression area 63 is an area for displaying a feature expression figure. The feature expression area 63 is an elongated area that is disposed below the screen and extends in the horizontal direction. In the present embodiment, the illustrated graph is displayed as the feature expression graphic. In this graph, the horizontal axis is the time axis, and the vertical axis is the size of the feature amount. As described above, R (red) representative value data is used as the feature amount. In the horizontal direction, the time including the entire range of the video is displayed. A bar-shaped diagram corresponding to the size of the feature amount is arranged at the location of the corresponding extraction date. Such a graph is generated by the feature expression graphic generation unit 51 and displayed in a predetermined feature expression area 61 of the display 13.

また、図4に示されるように、特徴表現図形のグラフには、特徴量しきい値を表すラインLが表示される。そして、特徴量がしきい値以上の箇所には、特徴量の棒の頂点にマークMが付加されている。本実施の形態では、マークMが小さなアイコンである。   Further, as shown in FIG. 4, a line L representing a feature amount threshold value is displayed on the graph of the feature expression figure. A mark M is added to the apex of the feature amount bar where the feature amount is equal to or greater than the threshold value. In the present embodiment, the mark M is a small icon.

また、特徴表現領域63の右側にはサムネイル領域65が設けられている。サムネイル領域65には、サムネイル画像が表示される。サムネイル画像表示部55は、下記のような操作に従いサムネイル領域65にサムネイル画像を表示するように構成されている。   A thumbnail area 65 is provided on the right side of the feature expression area 63. In the thumbnail area 65, thumbnail images are displayed. The thumbnail image display unit 55 is configured to display a thumbnail image in the thumbnail area 65 in accordance with the following operation.

操作者は、画面上でポインティングデバイスのポインタ図形を移動させ、ポインタ図形を1つのマークMの上に位置させる。この操作が本発明の仮選択操作に相当する。ポインタ図形はマークMの上に停止してもよく、マークMを通り過ぎてもよい。この操作が行われると、画面表示部11(特徴表現部19)は、選択されたマークMに対応するサムネイル画像を検索して表示する。このとき、図3の画面表示部11では、マークMの仮選択操作が、操作部15から入力されて特徴表現部19の特徴検索指示部43に受け付けられる。特徴検索指示部43は、選択されたマークMを示す検索指示を特徴情報検索部41に出す。特徴情報検索部41は、選択されたマークMに対応するサムネイル画像を検索する。このとき、特徴情報検索部41は、選択されたマークMが付された特徴量データの抽出日時データを特定し、さらに、抽出日時データと関連づけられたサムネイル画像を特定する。そして、特徴情報検索部41は、検索したサムネイル画像の表示をサムネイル画像表示部55に指示する。サムネイル画像表示部55が特徴情報検索部41の指示に従ってサムネイル画像を画面のサムネイル領域65に表示する。   The operator moves the pointer graphic of the pointing device on the screen and positions the pointer graphic on one mark M. This operation corresponds to the provisional selection operation of the present invention. The pointer graphic may stop on the mark M or pass through the mark M. When this operation is performed, the screen display unit 11 (feature expression unit 19) searches for and displays a thumbnail image corresponding to the selected mark M. At this time, in the screen display unit 11 of FIG. 3, the mark M temporary selection operation is input from the operation unit 15 and accepted by the feature search instruction unit 43 of the feature expression unit 19. The feature search instruction unit 43 issues a search instruction indicating the selected mark M to the feature information search unit 41. The feature information search unit 41 searches for a thumbnail image corresponding to the selected mark M. At this time, the feature information search unit 41 specifies the extraction date / time data of the feature amount data to which the selected mark M is attached, and further specifies a thumbnail image associated with the extraction date / time data. Then, the feature information search unit 41 instructs the thumbnail image display unit 55 to display the searched thumbnail image. The thumbnail image display unit 55 displays the thumbnail image in the thumbnail area 65 of the screen according to the instruction from the feature information search unit 41.

さらに、画面表示部11は、下記の操作に従い、マーク選択に応じて検索された映像を表示するように構成されている。   Furthermore, the screen display unit 11 is configured to display the searched video according to the mark selection according to the following operation.

操作者が1つのマークM上でポインティングデバイスにさらに所定の選択決定操作をしたとする。例えば、ポインティングデバイスがマウスであり、マウスのボタンがクリックされる。シングルクリックが選択決定操作に設定されてもよく、また、ダブルクリックが選択決定操作に設定されてもよい。この選択決定操作が入力され、特徴表現部19の特徴検索指示部43に受け付けられる。特徴検索指示部43は、選択されたマークMと共に選択決定操作を示す検索指示を特徴情報検索部41に送る。特徴情報検索部41は、選択されたマークMが付された特徴量データの抽出日時データを求め、抽出日時を映像表示部17に伝える。映像表示部17は、特徴情報検索部41から伝えられた抽出日時の映像を映像記録部9から検索する。このとき、映像表示部17は、映像のタイムコードを利用して映像を検索してよい。映像表示部17は、検索した映像を読み出してディスプレイ13に表示させる。抽出時点(選択マークの時点)の所定時間の映像が表示される。例えば、3秒程度の映像が表示される。より長く映像が表示されてもよい。抽出時点が映像の開始点でもよい。また、映像表示部17は、抽出時点の前後の所定時間の映像を表示してもよい。   It is assumed that the operator further performs a predetermined selection determination operation on the pointing device on one mark M. For example, the pointing device is a mouse, and a mouse button is clicked. Single click may be set to the selection determination operation, and double click may be set to the selection determination operation. This selection decision operation is input and accepted by the feature search instruction unit 43 of the feature expression unit 19. The feature search instruction unit 43 sends a search instruction indicating a selection determination operation together with the selected mark M to the feature information search unit 41. The feature information search unit 41 obtains the extraction date / time data of the feature amount data to which the selected mark M is attached, and informs the video display unit 17 of the extraction date / time. The video display unit 17 searches the video recording unit 9 for the video of the extraction date and time transmitted from the feature information search unit 41. At this time, the video display unit 17 may search for the video using the video time code. The video display unit 17 reads the searched video and displays it on the display 13. A video of a predetermined time at the extraction time (the time of the selection mark) is displayed. For example, an image of about 3 seconds is displayed. The video may be displayed longer. The extraction time point may be the start point of the video. Further, the video display unit 17 may display a video of a predetermined time before and after the extraction time point.

以上に本実施の形態に係る映像検索装置1の各部の構成について説明した。次に、映像検索装置1の動作を説明する。   The configuration of each part of the video search device 1 according to the present embodiment has been described above. Next, the operation of the video search device 1 will be described.

図5は、特徴情報抽出部7による特徴量データの抽出の動作を示している。図5に示すように、特徴情報抽出部7では、映像入力部21により1フレームの画像が入力されるたびに、動き検出部23が動き検出の処理を行い(S11)、動きが発生したか否かを判定する(S13)。動きが発生していなければ、ステップS11に戻る。   FIG. 5 shows an operation of extracting feature amount data by the feature information extraction unit 7. As shown in FIG. 5, in the feature information extraction unit 7, the motion detection unit 23 performs a motion detection process every time one frame image is input by the video input unit 21 (S11). It is determined whether or not (S13). If no movement has occurred, the process returns to step S11.

動きが発生すると、特徴情報抽出部7は、前回の特徴量抽出から所定時間が経過しているか否かを判定する(S15)。所定時間は、過度に頻繁な特徴量抽出を避けるために設定されている。所定時間は例えば5秒である。所定時間はフレーム数で表されてもよい。ステップS15の判定がNoであれば、特徴量抽出は行われず、処理はステップS11に戻る。   When a motion occurs, the feature information extraction unit 7 determines whether or not a predetermined time has elapsed since the previous feature amount extraction (S15). The predetermined time is set in order to avoid excessively frequent feature extraction. The predetermined time is, for example, 5 seconds. The predetermined time may be represented by the number of frames. If the determination in step S15 is No, feature amount extraction is not performed, and the process returns to step S11.

ステップS15の判定がYesであれば、色データ抽出部25が、動きが検出されたフレームの画像データから、特徴量データとして色代表値データを抽出する(S17)。色代表値データは、R(赤)、G(緑)、B(青)の各色の合計値である。また、日時取得部27が、動き検出時点の日時である抽出日時データを取得する(S19)。さらに、サムネイル生成部29が、動きを検出時のフレームの画像データからサムネイル画像を生成する(S21)。特徴量データ(色代表値データ)、抽出日時データおよびサムネイル画像は抽出特徴情報記憶部9に格納され(S23)、そして、特徴情報抽出部7の処理はステップS11に戻る。   If the determination in step S15 is Yes, the color data extraction unit 25 extracts color representative value data as feature amount data from the image data of the frame in which the motion is detected (S17). The color representative value data is a total value of each color of R (red), G (green), and B (blue). In addition, the date acquisition unit 27 acquires extracted date data that is the date of motion detection (S19). Further, the thumbnail generation unit 29 generates a thumbnail image from the image data of the frame at the time of detecting the motion (S21). The feature amount data (color representative value data), the extraction date / time data, and the thumbnail image are stored in the extracted feature information storage unit 9 (S23), and the process of the feature information extraction unit 7 returns to step S11.

このようにして、動き検出と特徴量抽出とが繰り返し行われる。そして、抽出特徴情報記憶部9は、動きが発生するたびに映像から得られる特徴量データ、抽出日時データおよびサムネイル画像を蓄積する。   In this way, motion detection and feature amount extraction are repeated. The extracted feature information storage unit 9 accumulates feature amount data, extracted date / time data, and thumbnail images obtained from the video every time a motion occurs.

次に、図6は、画面表示部11の動作を示している。図6は、主として画面表示部11の特徴表現部19の動作を示している。   Next, FIG. 6 shows the operation of the screen display unit 11. FIG. 6 mainly shows the operation of the feature expression unit 19 of the screen display unit 11.

図6に示されるように、まず、映像記録部5に記録された複数の映像ファイルの中から一つの映像ファイルが選択される(S31)。この映像選択は操作部15から入力される。特徴表現部19の特徴情報検索部41は、選択された映像ファイルに対応する全部の特徴量データ、抽出日時データおよびサムネイル画像を抽出特徴情報記憶部9から読み出して取得する(S33)。そして、特徴表示部45が、取得された特徴量データと抽出日時データから特徴表現図形のグラフを生成する(S35)。   As shown in FIG. 6, first, one video file is selected from a plurality of video files recorded in the video recording unit 5 (S31). This video selection is input from the operation unit 15. The feature information search unit 41 of the feature expression unit 19 reads out and acquires all feature amount data, extraction date / time data, and thumbnail images corresponding to the selected video file from the extracted feature information storage unit 9 (S33). And the characteristic display part 45 produces | generates the graph of a feature expression figure from the acquired feature-value data and extraction date data (S35).

このとき、映像の全時間が入るように、横方向の時間軸が設定される。そして、特徴表示部45の特徴表現図形生成部51は、特徴量データと抽出日時データの1つ目のペアを用いて、該当抽出日時の箇所に、特徴量の大きさに応じた長さの棒図形を配置する。特徴量としては、R(赤)の代表値が処理される。また、マーク生成部53は、特徴量としきい値を比較し、特徴量がしきい値以上であれば、特徴量の棒図形の上端にアイコンのマークMを付加する。同様の処理が、すべての特徴量データと抽出日時データのペアに対して繰り返される。さらに、特徴表現図形生成部51は、上記したマーク付加のしきい値のラインLをグラフ中に描く。こうして生成された特徴表現図形は、特徴表示部45によりディスプレイ13に表示される(S37)。特徴表現図形は、図4を用いて説明したように、映像領域画面61を避けて画面の下方に設けられた横長の特徴表現領域63に表示される。   At this time, the time axis in the horizontal direction is set so that the entire time of the video enters. Then, the feature representation graphic generation unit 51 of the feature display unit 45 uses the first pair of the feature amount data and the extraction date / time data to have a length corresponding to the size of the feature amount at the location of the extraction date / time. Place a bar figure. A representative value of R (red) is processed as the feature amount. In addition, the mark generation unit 53 compares the feature amount with a threshold value, and if the feature amount is equal to or greater than the threshold value, adds an icon mark M to the upper end of the feature amount bar graphic. Similar processing is repeated for all pairs of feature amount data and extraction date data. Further, the feature representation graphic generation unit 51 draws the mark addition threshold line L in the graph. The feature expression figure generated in this way is displayed on the display 13 by the feature display unit 45 (S37). As described with reference to FIG. 4, the feature representation graphic is displayed in a horizontally long feature representation region 63 provided below the screen avoiding the video region screen 61.

次に、図7は、サムネイル画像および検索映像の表示の動作を示している。図7の動作は、操作者が画面上でポインティングデバイスのポインタ図形を1つのマークM(アイコン)の上に位置させたときに行われる。この操作は、仮選択操作に相当する。   Next, FIG. 7 shows the operation of displaying thumbnail images and search video. The operation of FIG. 7 is performed when the operator places the pointer figure of the pointing device on one mark M (icon) on the screen. This operation corresponds to a temporary selection operation.

図7において、ポインタ図形が移動して1つのマークMの上に位置すると(S41)、この操作が特徴検索指示部43に受け付けられ、特徴検索指示部43は、選択されたマークMを示す検索指示を特徴情報検索部41に送る(S43)。特徴情報検索部41は、選択されたマークMに対応するサムネイル画像を検索する。このとき、特徴情報検索部41は、マークMが付けられている特徴量データの抽出日時データを求め、抽出日時データと関連づけられたサムネイル画像を特定し、該当サムネイル画像をサムネイル画像表示部55に表示させる。サムネイル画像表示部55は、該当サムネイル画像を、図4の特徴表現領域63の横に設けられたサムネイル領域65に表示する(S45)。   In FIG. 7, when the pointer graphic moves and is positioned on one mark M (S41), this operation is accepted by the feature search instruction unit 43, and the feature search instruction unit 43 searches for the selected mark M. An instruction is sent to the feature information search unit 41 (S43). The feature information search unit 41 searches for a thumbnail image corresponding to the selected mark M. At this time, the feature information search unit 41 obtains the extraction date / time data of the feature amount data with the mark M, identifies the thumbnail image associated with the extraction date / time data, and stores the corresponding thumbnail image in the thumbnail image display unit 55. Display. The thumbnail image display unit 55 displays the corresponding thumbnail image in a thumbnail area 65 provided beside the feature expression area 63 in FIG. 4 (S45).

ポインタ図形がマーク上に位置する状態で、さらに、所定の選択決定操作が操作部15から入力されて、特徴検索指示部43に受け付けられたとする(S47、Yes)。所定の選択決定操作は、既に説明したように、マウスクリック等である。この場合、特徴情報検索部41は、選択決定操作の対象のマークに対応する抽出日時データを映像表示部17に伝える。映像表示部17が、映像記録部5から、抽出日時データに該当する映像を検索し、検索した映像をディスプレイ13に表示する(S49)。該当映像が映像記録部5から読み出されてディスプレイ13の映像領域61に表示される。   It is assumed that a predetermined selection determination operation is further input from the operation unit 15 and received by the feature search instruction unit 43 in a state where the pointer graphic is positioned on the mark (S47, Yes). As described above, the predetermined selection determination operation is a mouse click or the like. In this case, the feature information search unit 41 informs the video display unit 17 of the extraction date / time data corresponding to the target mark for the selection determination operation. The video display unit 17 searches the video recording unit 5 for a video corresponding to the extracted date and time data, and displays the searched video on the display 13 (S49). The corresponding video is read from the video recording unit 5 and displayed in the video area 61 of the display 13.

映像検索装置1が図7の動作を行うので、操作者は下記のようにして映像検索装置1を操作できる。操作者は、特徴表現図形のグラフを見ることで、映像のどこで特徴事象に対応する抽出トリガー(被写体の動き)が発生したかを把握し、各々の特徴事象が発生したときの特徴量のレベルをグラフから把握し、こうして映像の概要を把握する。操作者は、ポインティングデバイスのポインタ図形を時間軸方向(左右方向)に動かし、グラフ中に表示されたマークMを次々と通るようにポインタ図形を動かす。ポインタ図形がマークMを通るたびに、該当マークMに対応するサムネイル画像が表示される。注目すべきサムネイル画像が表示されたとき、操作者は、ポインタ図形がマークM上にある状態でマウスクリック等の所定の選択決定操作を行う。この選択決定操作が検索映像の表示の指示として入力されて、時間軸上でマークMが配置された時点に対応する映像が検索されて、表示される。   Since the video search apparatus 1 performs the operation of FIG. 7, the operator can operate the video search apparatus 1 as follows. The operator grasps where the extraction trigger (movement of the subject) corresponding to the feature event occurred in the video by looking at the graph of the feature expression figure, and the level of the feature amount when each feature event occurs Is grasped from the graph, and thus the outline of the video is grasped. The operator moves the pointer graphic of the pointing device in the time axis direction (left-right direction) and moves the pointer graphic so as to pass through the marks M displayed in the graph one after another. Each time the pointer graphic passes through the mark M, a thumbnail image corresponding to the mark M is displayed. When a thumbnail image to be noticed is displayed, the operator performs a predetermined selection determination operation such as a mouse click in a state where the pointer graphic is on the mark M. This selection determination operation is input as an instruction to display a search video, and a video corresponding to the point in time when the mark M is arranged on the time axis is searched and displayed.

以上に映像検索装置1の動作を説明した。次に、映像検索装置1の変形例を説明する。まず、上記の実施の形態では、特徴情報抽出部7の映像入力部21が、フレーム間の差分をしきい値と比較して動きを検出していた。しかし、動き検出の画像処理はこれに限定されない。   The operation of the video search device 1 has been described above. Next, a modification of the video search device 1 will be described. First, in the above embodiment, the video input unit 21 of the feature information extraction unit 7 detects a motion by comparing the difference between frames with a threshold value. However, the image processing for motion detection is not limited to this.

また、動き検出部は、トリガー検出部の一形態である。しかし、トリガー検出部は、他の構成を有していてもよい。トリガー検出部は、音センサ、光センサ、物体検出センサ等のセンサで構成されてもよい。また、トリガー検出部は、監視場所の扉の開閉センサでもよい。   The motion detector is a form of the trigger detector. However, the trigger detection unit may have other configurations. The trigger detection unit may be configured by a sensor such as a sound sensor, an optical sensor, or an object detection sensor. The trigger detection unit may be an open / close sensor for a door at a monitoring place.

また、本実施の形態では、特徴量データが、R(赤)、G(緑)、B(青)の色代表値データであり、そして、特徴表現図形の作成にはRの代表値データが用いられた。変形例としては、Rの代表値データのみが抽出されてもよい。また、別の変形例としては、GまたはBといった別の色代表値データが用いられてよい。また、描画に使う色代表値データが、R、G、Bの間で切換可能であってもよい。また、特徴量データは、映像の特徴を表すデータであれば、色以外のデータでもよい。例えば、特徴量データは、動きベクトルのように、映像の動き量のデータでもよい。特徴情報抽出部7は、特徴量データに応じた抽出機能を備えるように構成される。   In the present embodiment, the feature amount data is R (red), G (green), and B (blue) color representative value data, and R representative value data is used to create a feature representation figure. Used. As a modification, only R representative value data may be extracted. As another modification, other color representative value data such as G or B may be used. The color representative value data used for drawing may be switchable between R, G, and B. Further, the feature amount data may be data other than color as long as it is data representing the feature of the video. For example, the feature amount data may be video motion amount data such as a motion vector. The feature information extraction unit 7 is configured to have an extraction function according to feature amount data.

また、特徴表現図形に関して、本実施の形態では映像の全時間のグラフが一度に表示された。しかし、画面上には映像の一部のグラフが現れており、スクロールによってグラフが時間軸方向に移動可能であってもよい。   In addition, regarding the feature expression graphic, in the present embodiment, a graph of the entire time of the video is displayed at a time. However, a partial graph of the video may appear on the screen, and the graph may be movable in the time axis direction by scrolling.

また、特徴表現図形の横軸および縦軸のスケールが切換可能であってもよい。例えば、昼間の映像と夜間の映像では縦軸の特徴量のスケールが好適に切り換えられる。   Further, the scales of the horizontal axis and the vertical axis of the feature representation figure may be switchable. For example, the scale of the feature amount on the vertical axis is suitably switched between a daytime video and a nighttime video.

また、特徴表現図形は棒グラフ以外の図形でもよい。例えば、特徴表現図形が折れ線グラフであってもよい。また、色の違いによって特徴量の大きさが表現されてもよく、これも特徴表現図形に含まれる。ただし、本実施の形態の棒グラフは、操作者に直感的かつ容易に映像の概要を把握させることができる点で特に有利である。   Further, the feature expression graphic may be a graphic other than the bar graph. For example, the feature expression graphic may be a line graph. The size of the feature amount may be expressed by the difference in color, and this is also included in the feature expression graphic. However, the bar graph of the present embodiment is particularly advantageous in that the operator can intuitively and easily grasp the outline of the video.

以上、本発明の実施の形態に係る映像検索装置1について説明した。本実施の形態の映像検索装置1は、映像から特徴量データを抽出して抽出時点データと共に記憶し、映像の時間軸上に各抽出時点での該当特徴量の大きさを表現した特徴表現図形を生成して表示するので、表示された特徴表現図形から映像の概要を把握することが可能になり、これにより映像検索が容易になる。   The video search device 1 according to the embodiment of the present invention has been described above. The video search device 1 of the present embodiment extracts feature quantity data from a video, stores it together with the extraction time data, and represents a feature expression figure that represents the size of the corresponding feature quantity at each extraction time on the video time axis. Is generated and displayed, so that an outline of the video can be grasped from the displayed feature expression graphic, thereby facilitating video search.

また、本実施の形態によれば、特徴事象に対応する抽出トリガーが発生したときの特徴量が特徴表現図形の該当抽出時点の場所に表示されるので、どの時点で特徴事象が発生してそのときの特徴量がどれくらいの大きさであったかといった映像の概要を容易に把握できる特徴表現図形を表示できる。   In addition, according to the present embodiment, since the feature amount when the extraction trigger corresponding to the feature event occurs is displayed at the location of the feature expression graphic at the corresponding extraction time point, It is possible to display a feature expression figure that can easily grasp the outline of the video such as how large the feature amount was.

また、本実施の形態によれば、特徴情報抽出部が抽出トリガーとして映像中の被写体の動きを検出するので、特徴事象の発生を適切に検出して特徴量データを抽出できる。   Further, according to the present embodiment, the feature information extraction unit detects the movement of the subject in the video as an extraction trigger, so that it is possible to appropriately detect the occurrence of the feature event and extract the feature amount data.

また、本実施の形態によれば、特徴表現部19が、特徴表現図形として、第1の軸が時間軸であり、第2の軸が前記特徴量の大きさであるグラフを生成する。したがって、映像の概要を把握しやすい特徴表現図形を提供することができる。   Further, according to the present embodiment, the feature expression unit 19 generates a graph in which the first axis is the time axis and the second axis is the size of the feature amount as the feature expression figure. Therefore, it is possible to provide a feature expression figure that makes it easy to grasp the outline of the video.

また、本実施の形態によれば、特徴情報抽出部7は、特徴量データとして映像から所定の色代表値データを抽出する。色代表値データを用いることにより、比較的簡単な処理と比較的少ないデータ量でもって特徴量を好適に表すことができる。   Further, according to the present embodiment, the feature information extraction unit 7 extracts predetermined color representative value data from the video as the feature amount data. By using the color representative value data, the feature amount can be suitably expressed with a relatively simple process and a relatively small amount of data.

また、本実施の形態によれば、特徴表現部19は、特徴表現図形中で所定の特徴しきい値以上の特徴量が発生した場所にアイコン等の所定のマークを付加する。この構成により、特徴量が大きい箇所を容易に把握できる特徴表現図形を提供できる。   Further, according to the present embodiment, the feature expression unit 19 adds a predetermined mark such as an icon to a place where a feature amount equal to or greater than a predetermined feature threshold value occurs in the feature expression figure. With this configuration, it is possible to provide a feature expression figure that can easily grasp a portion having a large feature amount.

また、本実施の形態によれば、特徴量データおよび抽出時点データと共に、各抽出時点の小型静止画像が記憶される。そして、マークに対する仮選択操作に応答して、選択されたマークに対応する小型静止画像が表示される。この構成により、選択されたマークに対応する小型静止画像を検索して表示することにより、映像内容の把握を助けることができ、映像検索が容易になる。   Further, according to the present embodiment, the small still image at each extraction time is stored together with the feature amount data and the extraction time data. In response to the provisional selection operation for the mark, a small still image corresponding to the selected mark is displayed. With this configuration, by retrieving and displaying a small still image corresponding to the selected mark, it is possible to help grasp the content of the video and facilitate the video search.

また、本実施の形態によれば、映像検索装置1は、仮選択操作として、マークの上にポインティングデバイスのポインタ図形が位置したことを検出する。この構成により、ポインタ図形を動かしてマーク上に位置させることにより小型静止画像を表示でき、簡単な操作で映像内容を把握できる。   Further, according to the present embodiment, the video search apparatus 1 detects that the pointer graphic of the pointing device is positioned on the mark as a temporary selection operation. With this configuration, a small still image can be displayed by moving the pointer graphic and positioning it on the mark, and the video content can be grasped by a simple operation.

また、本実施の形態によれば、映像検索装置1は、マークに対する選択決定操作の入力に応答してマークに対応する映像データを映像記録部から取得して表示装置に表示させる。この構成により、選択されたマークに対応する映像を検索して表示することにより、映像内容の把握を助けることができ、映像検索が容易になる。   Further, according to the present embodiment, the video search apparatus 1 acquires video data corresponding to a mark from the video recording unit in response to an input of a selection determination operation for the mark and causes the display device to display the video data. With this configuration, by searching for and displaying a video corresponding to the selected mark, it is possible to help grasp the content of the video and facilitate video search.

また、別の観点では、映像検索装置1は、マークの仮選択操作および選択決定操作により、着目する特徴量データの仮選択操作および選択決定操作を実現している。そして、本実施の形態では、仮選択操作で選択された特徴量データに対応する小型静止画像を検索して表示するので、映像内容の把握を助けることができ、映像検索が容易になる。また、本実施の形態では、選択決定操作で選択された特徴量データに対応する時点における映像を検索して表示するので、映像内容の把握を助けることができ、映像検索が容易になる。   From another point of view, the video search apparatus 1 realizes a temporary selection operation and a selection determination operation of feature data of interest by a temporary mark selection operation and a selection determination operation. In this embodiment, since a small still image corresponding to the feature amount data selected by the provisional selection operation is retrieved and displayed, it is possible to help grasp the contents of the video and facilitate the video search. Further, in the present embodiment, since the video at the time corresponding to the feature amount data selected by the selection determination operation is searched and displayed, it is possible to help grasp the video content and facilitate the video search.

以上に本発明の好適な実施の形態を説明した。しかし、本発明は上述の実施の形態に限定されず、当業者が本発明の範囲内で上述の実施の形態を変形可能なことはもちろんである。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and it goes without saying that those skilled in the art can modify the above-described embodiments within the scope of the present invention.

以上のように、本発明にかかる映像検索装置は、映像から特徴量データを抽出して抽出時点データと共に記憶し、映像の時間軸上に各抽出時点での該当特徴量の大きさを表現した特徴表現図形を生成して表示することにより、表示された特徴表現図形から映像の概要を把握可能にでき、これにより映像検索を容易にできるという効果を有し、監視システム等として有用である。   As described above, the video search device according to the present invention extracts feature data from a video and stores it together with the extraction time data, and expresses the size of the corresponding feature data at each extraction time on the video time axis. By generating and displaying the feature expression graphic, it is possible to grasp the outline of the video from the displayed characteristic expression graphic, thereby having an effect of facilitating the video search, which is useful as a monitoring system or the like.

本発明の実施の形態における映像検索装置のブロック図Block diagram of video search apparatus in an embodiment of the present invention 特徴情報抽出部の構成を示すブロック図Block diagram showing the configuration of the feature information extraction unit 画面表示部の構成を示すブロック図Block diagram showing the configuration of the screen display 画面表示例を示す模式図Schematic diagram showing a screen display example 映像検索装置の動作を示すフロー図Flow chart showing operation of video search device 映像検索装置の動作を示すフロー図Flow chart showing operation of video search device 映像検索装置の動作を示すフロー図Flow chart showing operation of video search device

符号の説明Explanation of symbols

1 映像検索装置
3 撮像部
5 映像記録部
7 特徴情報抽出部
9 抽出特徴情報記憶部
11 画面表示部
13 ディスプレイ
15 操作部
17 映像表示部
19 特徴表現部
21 映像入力部
23 動き検出部
25 色データ抽出部
27 日時取得部
29 サムネイル生成部
31 特徴情報格納処理部
41 特徴情報検索部
43 特徴検索指示部
45 特徴表示部
51 特徴表現図形生成部
53 マーク生成部
55 サムネイル画像表示部
DESCRIPTION OF SYMBOLS 1 Image | video search device 3 Image pick-up part 5 Image | video recording part 7 Feature information extraction part 9 Extraction feature information storage part 11 Screen display part 13 Display 15 Operation part 17 Video display part 19 Feature expression part 21 Video input part 23 Motion detection part 25 Color data Extraction unit 27 Date and time acquisition unit 29 Thumbnail generation unit 31 Feature information storage processing unit 41 Feature information search unit 43 Feature search instruction unit 45 Feature display unit 51 Feature expression graphic generation unit 53 Mark generation unit 55 Thumbnail image display unit

Claims (13)

撮像された映像を記録する映像記録部と、
前記映像から所定の特徴量データを抽出する特徴情報抽出部と、
前記特徴情報抽出部により抽出された特徴量データを抽出時点データと共に記憶する抽出特徴情報記憶部と、
前記抽出特徴情報記憶部から読み出した前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる特徴表現部と、
を備えたことを特徴とする映像検索装置。
A video recording unit for recording the captured video;
A feature information extraction unit for extracting predetermined feature data from the video;
An extracted feature information storage unit that stores feature amount data extracted by the feature information extraction unit together with extraction time point data;
Based on the feature value data read from the extracted feature information storage unit and the extraction time point data, a feature expression figure in which the size of the extracted feature amount data is represented as a graphic at the extraction time point on the time axis of the video Generating and displaying the feature representation graphic on a display device;
A video search apparatus comprising:
所定の特徴事象に対応する抽出トリガーの発生を検出するトリガー検出部を備え、
前記特徴情報抽出部は、前記抽出トリガーの発生が検出されたときに前記特徴量データを抽出し、
前記特徴表現部は、前記抽出トリガーが発生した時に前記特徴情報抽出部により抽出された前記特徴量データに基づいて前記特徴表現図形を生成することを特徴とする請求項1に記載の映像検索装置。
A trigger detection unit that detects the occurrence of an extraction trigger corresponding to a predetermined characteristic event,
The feature information extraction unit extracts the feature amount data when occurrence of the extraction trigger is detected,
The video search apparatus according to claim 1, wherein the feature expression unit generates the feature expression figure based on the feature amount data extracted by the feature information extraction unit when the extraction trigger occurs. .
前記トリガー検出部は、前記抽出トリガーとして映像中の被写体の動きを検出する動き検出部を含むことを特徴とする請求項2に記載の映像検索装置。   The video search apparatus according to claim 2, wherein the trigger detection unit includes a motion detection unit that detects a motion of a subject in the video as the extraction trigger. 前記特徴表現部は、前記特徴表現図形として、第1の軸が時間軸であり、第2の軸が前記特徴量の大きさであるグラフを生成することを特徴とする請求項1ないし3のいずれかに記載の映像検索装置。   The feature expression unit generates, as the feature expression figure, a graph in which a first axis is a time axis and a second axis is the size of the feature amount. The video search device according to any one of the above. 前記特徴情報抽出部は、前記特徴量データとして前記映像から所定の色代表値データを抽出することを特徴とする請求項1ないし4のいずれかに記載の映像検索装置。   5. The video search apparatus according to claim 1, wherein the feature information extraction unit extracts predetermined color representative value data from the video as the feature amount data. 前記特徴表現部は、前記特徴表現図形中で所定の特徴しきい値以上の特徴量が発生した場所に所定のマークを付加することを特徴とする請求項1ないし5のいずれかに記載の映像検索装置。   The video according to claim 1, wherein the feature expression unit adds a predetermined mark to a place where a feature amount equal to or greater than a predetermined feature threshold is generated in the feature expression graphic. Search device. 前記抽出特徴情報記憶部は、前記特徴量データおよび前記抽出時点データと共に、各抽出時点の小型静止画像を記憶し、
前記特徴表現部は、前記特徴表現図形中の前記マークに対する仮選択操作に応答して、選択された前記マークに対応する前記小型静止画像を前記表示装置に表示させることを特徴とする請求項6に記載の映像検索装置。
The extracted feature information storage unit stores a small still image at each extraction point together with the feature amount data and the extraction point data,
The feature expression unit displays the small still image corresponding to the selected mark on the display device in response to a provisional selection operation on the mark in the feature expression figure. The video search device described in 1.
前記仮選択操作として、前記マークの上にポインティングデバイスのポインタ図形が位置したことを検出することを特徴とする請求項7に記載の映像検索装置。   The video search apparatus according to claim 7, wherein the provisional selection operation detects that a pointer graphic of a pointing device is positioned on the mark. 前記マークに対する選択決定操作の入力に応答して前記マークに対応する映像データを前記映像記録部から取得して前記表示装置に表示させることを特徴とする請求項6ないし8のいずれかに記載の映像検索装置。   The video data corresponding to the mark is acquired from the video recording unit and displayed on the display device in response to an input of a selection determination operation on the mark. Video search device. 前記抽出特徴情報記憶部は、前記特徴量データおよび前記抽出時点データと共に、各抽出時点の小型静止画像を記憶し、
前記特徴表現部は、前記特徴表現図形中の特徴量データに対する仮選択操作に応答して、選択された前記特徴量データに対応する前記小型静止画像を前記表示装置に表示させることを特徴とする請求項1ないし5のいずれかに記載の映像検索装置。
The extracted feature information storage unit stores a small still image at each extraction point together with the feature amount data and the extraction point data,
The feature representation unit displays the small still image corresponding to the selected feature amount data on the display device in response to a provisional selection operation on the feature amount data in the feature representation figure. The video search device according to claim 1.
前記特徴表現図形中の特徴量データに対する選択決定操作の入力に応答して、選択された前記特徴量データに対応する映像データを前記映像記録部から取得して前記表示装置に表示させることを特徴とする請求項1ないし5のいずれかに記載の映像検索装置。   In response to an input of a selection determination operation on feature quantity data in the feature representation figure, video data corresponding to the selected feature quantity data is acquired from the video recording unit and displayed on the display device. The video search device according to claim 1. 撮像された映像から抽出された所定の特徴量データを抽出時点データと共に記憶する抽出特徴情報記憶部と、
前記抽出特徴情報記憶部から読み出した前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる特徴表現部と、
を備えたことを特徴とする映像検索装置。
An extracted feature information storage unit that stores predetermined feature amount data extracted from the captured video together with extraction time point data;
Based on the feature value data read from the extracted feature information storage unit and the extraction time point data, a feature expression figure in which the size of the extracted feature amount data is represented as a graphic at the extraction time point on the time axis of the video Generating and displaying the feature representation graphic on a display device;
A video search apparatus comprising:
映像検索装置を構成するコンピュータで実行されるプログラムであって、
撮像された映像から抽出された所定の特徴量データを抽出時点データと共に記憶した抽出特徴情報記憶部から特徴量データおよび抽出時点データを読み出し、前記特徴量データと前記抽出時点データを基に、抽出された特徴量データの大きさを前記映像の時間軸上の抽出時点に図形で表した特徴表現図形を生成し、該特徴表現図形を表示装置に表示させる処理を前記コンピュータに実行させることを特徴とするプログラム。
A program executed by a computer constituting the video search device,
The feature data and the extraction time data are read from the extracted feature information storage unit that stores the predetermined feature data extracted from the captured video together with the extraction time data, and extracted based on the feature data and the extraction time data. Generating a feature representation figure in which the size of the feature amount data is represented by a graphic at the time of extraction on the time axis of the video, and causing the computer to execute a process of displaying the feature representation figure on a display device Program.
JP2005229255A 2005-08-08 2005-08-08 Video search device Expired - Fee Related JP4713980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005229255A JP4713980B2 (en) 2005-08-08 2005-08-08 Video search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005229255A JP4713980B2 (en) 2005-08-08 2005-08-08 Video search device

Publications (2)

Publication Number Publication Date
JP2007047902A true JP2007047902A (en) 2007-02-22
JP4713980B2 JP4713980B2 (en) 2011-06-29

Family

ID=37850693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005229255A Expired - Fee Related JP4713980B2 (en) 2005-08-08 2005-08-08 Video search device

Country Status (1)

Country Link
JP (1) JP4713980B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018325A1 (en) * 2011-08-02 2013-02-07 Sony Corporation Information processing apparatus, information processing method, and computer program product
KR101250734B1 (en) * 2011-10-25 2013-04-03 김지수 Shop surveillance system be connected with cash register
JP2015041945A (en) * 2013-08-23 2015-03-02 国立大学法人山梨大学 Apparatus, method, and program for visualizing degree of activity within image
JP2016039496A (en) * 2014-08-07 2016-03-22 株式会社リコー Image processing apparatus, image processing system, image processing method and program
JP2019083532A (en) * 2015-03-02 2019-05-30 日本電気株式会社 Image processing system, image processing method, and image processing program
CN110177245A (en) * 2018-12-05 2019-08-27 圆通速递有限公司 Express delivery synchronizing information is to the device of video monitoring, method, system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887525A (en) * 1994-09-20 1996-04-02 Nippon Telegr & Teleph Corp <Ntt> Video management map presentation method and device therefor
JPH11168685A (en) * 1997-12-04 1999-06-22 Sony Corp Image processing method
JP2000295600A (en) * 1999-04-08 2000-10-20 Toshiba Corp Monitor system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887525A (en) * 1994-09-20 1996-04-02 Nippon Telegr & Teleph Corp <Ntt> Video management map presentation method and device therefor
JPH11168685A (en) * 1997-12-04 1999-06-22 Sony Corp Image processing method
JP2000295600A (en) * 1999-04-08 2000-10-20 Toshiba Corp Monitor system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018325A1 (en) * 2011-08-02 2013-02-07 Sony Corporation Information processing apparatus, information processing method, and computer program product
JP2013033375A (en) * 2011-08-02 2013-02-14 Sony Corp Information processing apparatus, information processing method, and program
CN103718166A (en) * 2011-08-02 2014-04-09 索尼公司 Information processing apparatus, information processing method, and computer program product
US9230352B2 (en) 2011-08-02 2016-01-05 Sony Corporation Information processing apparatus, information processing method, and computer program product
CN103718166B (en) * 2011-08-02 2016-08-31 索尼公司 Messaging device, information processing method
KR101250734B1 (en) * 2011-10-25 2013-04-03 김지수 Shop surveillance system be connected with cash register
JP2015041945A (en) * 2013-08-23 2015-03-02 国立大学法人山梨大学 Apparatus, method, and program for visualizing degree of activity within image
JP2016039496A (en) * 2014-08-07 2016-03-22 株式会社リコー Image processing apparatus, image processing system, image processing method and program
JP2019083532A (en) * 2015-03-02 2019-05-30 日本電気株式会社 Image processing system, image processing method, and image processing program
CN110177245A (en) * 2018-12-05 2019-08-27 圆通速递有限公司 Express delivery synchronizing information is to the device of video monitoring, method, system

Also Published As

Publication number Publication date
JP4713980B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
JP6074395B2 (en) Content management system, managed content generation method, managed content playback method, program, and recording medium
US8250490B2 (en) Display image control apparatus
JP4713980B2 (en) Video search device
JP5528008B2 (en) Playback apparatus and playback method
TWI552591B (en) Method for tagging an object in video, device and computer-readable medium
JP5917635B2 (en) Content management system, managed content generation method, managed content playback method, program, and recording medium
JP5701017B2 (en) Movie playback apparatus, movie playback method, computer program, and storage medium
JP2007310568A (en) Method for detecting traveling object in video, and method and system for supporting abnormality occurrence factor analysis of video system
JP2006197566A (en) Video display apparatus
JP2010176346A (en) Imaging device, retrieval method, and program
JP5677011B2 (en) Video playback apparatus and control method thereof
JP2011090476A (en) System and method for retrieving similar image
US20130019209A1 (en) Image processing apparatus, image processing method, and storage medium storing program
KR20160056889A (en) Method and apparatus for caption parallax over image while scrolling
JP2009123196A (en) Image retrieval device
KR20140044663A (en) Information retrieval method by using broadcast receiving apparatus with display device and the apparatus thereof
CN110502117B (en) Screenshot method in electronic terminal and electronic terminal
JP2005020209A (en) Picture display device, electronic information equipment, picture display method, control program readable record medium
JP2008199330A (en) Moving image management apparatus
JP2013042215A (en) Video editing device and control method therefor
JP4909315B2 (en) Video processing apparatus and method, program, and computer-readable recording medium
JPH11261946A (en) Video display method, device therefor and recording medium recorded with the video display method
JP4175622B2 (en) Image display system
JP5147737B2 (en) Imaging device
JP5554214B2 (en) Minutes system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110325

R150 Certificate of patent or registration of utility model

Ref document number: 4713980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees