JPH10224736A - Moving image index generating method and generator - Google Patents
Moving image index generating method and generatorInfo
- Publication number
- JPH10224736A JPH10224736A JP9022961A JP2296197A JPH10224736A JP H10224736 A JPH10224736 A JP H10224736A JP 9022961 A JP9022961 A JP 9022961A JP 2296197 A JP2296197 A JP 2296197A JP H10224736 A JPH10224736 A JP H10224736A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- index
- image
- moving image
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、動画像の一部また
は全体に対し、それらの内容を代表するフレーム画像を
インデックスとして選択する方法および装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for selecting, as an index, a frame image representing the contents of a part or the whole of a moving image.
【0002】[0002]
【従来の技術】動画像は各時間に対応する静止画(フレ
ーム)の列から構成されており、時間の経過に合わせて
表示するフレームを逐次変更することにより、動きを表
現している。動画像においては静止画像と異なり、時間
軸が加わっているために全体の内容を素早く把握するこ
とが難しい。2. Description of the Related Art A moving image is composed of a sequence of still images (frames) corresponding to each time, and expresses movement by sequentially changing the displayed frame as time elapses. Unlike a still image, a moving image has a time axis, so it is difficult to quickly grasp the entire contents.
【0003】動画像全体の内容を把握したり、また、動
画像の所望の一部分を検索したりする場合に、全てのフ
レームが一画面に表示されていれば、効率が良いことに
なるが、動画像に含まれるフレームの数は極めて多いた
め、全てのフレームを表示することは通常は効率的では
ない。例えば、テレビジョン標準化システムの1つであ
るNTSC(National Television System Committee)
方式においては、1秒間あたり約30のフレームが含ま
れており、1時間では10万以上のフレームを含むこと
になってしまい、これらを1画面に表示するのは不可能
である。また、数フレームずつを1ページとして構成し
て1画面に表示するようにしたとしてもページ数が多く
なってしまい、結局、動画像を早送りして再生するほう
が効率がよいという事態になってしまう。When all the frames are displayed on a single screen when grasping the contents of the whole moving image or searching for a desired part of the moving image, the efficiency is high. Since the number of frames included in a moving image is extremely large, displaying all frames is usually not efficient. For example, NTSC (National Television System Committee), one of the television standardization systems
In the system, about 30 frames are included per second, and 100,000 or more frames are included in one hour, and it is impossible to display these on one screen. Further, even if several frames are formed as one page and displayed on one screen, the number of pages increases, and eventually, it is more efficient to fast-forward and reproduce the moving image. .
【0004】一方、全てのフレームの表示の中には冗長
な情報が多く含まれていることから表示するフレームを
少なくし、内容把握や検索の効率を上げることができ
る。このとき表示のために選ばれたフレームをインデッ
クスと呼ぶことにする。例えば、1秒当たり1フレーム
や30秒あたり1フレームといった具合にインデックス
を選択することができる。このとき、単純に数フレーム
に1枚の割合でインデックス映像を選んでいくと、必ず
しもわかりやすい表示ができるとは限らない。例えば、
内容的に重要ではあるが、表示時間が短いためにインデ
ックスに選ばれなかったフレームがあったり、逆にあま
り意味的には重要ではないが長い時間静止した映像が存
在したために同じようフレームがインデックス映像とな
ってしまうという不都合が生じる。On the other hand, since the display of all frames contains a lot of redundant information, the number of displayed frames can be reduced, and the efficiency of content grasp and retrieval can be improved. The frame selected for display at this time is called an index. For example, the index can be selected such as one frame per second or one frame per 30 seconds. At this time, if an index image is simply selected at a rate of one per several frames, an easy-to-understand display is not always possible. For example,
Some frames are important in terms of content, but were not selected for indexing because of their short display time, and conversely, frames that were not semantically significant but were still for a long time existed, and so were indexed in the same way. The inconvenience of becoming an image occurs.
【0005】こういった不都合を解消するために、カッ
トと呼ばれる不連続なフレームを検出し、カットとカッ
トの間に含まれるフレームの中から一つのインデックス
映像を選択するという方法が考えられている。このよう
にインデックス映像を選ぶフレーム区間を決定すること
により、同じ様な映像がインデックスとして選択される
のをある程度防ぐことができる。カットを自動的に検出
する手法としては、特開平1−68084号公報、特開
平3−214364号公報、特開平4−219878号
公報等に記載された技術がある。通常は、カットとして
あるフレームを検出した後、そのカット後の先頭のフレ
ームをインデックスとして選択されている。In order to solve such inconveniences, a method has been considered in which a discontinuous frame called a cut is detected, and one index image is selected from frames included between the cuts. . By determining a frame section for selecting an index video in this way, it is possible to prevent a similar video from being selected as an index to some extent. As a technique for automatically detecting a cut, there are techniques described in JP-A-1-68084, JP-A-3-214364, JP-A-4-219828, and the like. Usually, after a certain frame is detected as a cut, the first frame after the cut is selected as an index.
【0006】[0006]
【発明が解決しようとする課題】上記のようなカットと
カットの間のフレームの中から一つのインデックスを選
択するという方法は、インデックスを選択する区間の決
定には有効であるが、カットとカットの間に含まれる複
数のフレームのうちのどれをインデックス映像として選
択するべきかは解決しない問題として残されている。す
なわち、動画像のある決められた一部分、もしくは全体
から内容を最もよく反映した1つのフレームを選択する
ための方法が与えられていないという問題点があった。The method of selecting one index from the frames between cuts as described above is effective for determining a section for selecting an index. It remains as an unsolved problem which of the plurality of frames included between the two should be selected as the index video. That is, there has been a problem that no method has been provided for selecting one frame that reflects the contents from a predetermined part or the whole of the moving image.
【0007】本発明は、上記問題点を解決するために、
撮影されている内容に意味のあるフレームをインデック
スとして選択することにより、動画像をインデックス表
示した場合に動画像の内容把握が容易で所望場面の検索
も容易な動画像インデックス生成方法および生成装置を
提供することを目的としている。The present invention has been made to solve the above problems.
By selecting a frame having a meaning in the content being photographed as an index, a moving image index generating method and a generating apparatus that can easily grasp the contents of the moving image and easily search for a desired scene when the moving image is displayed as an index. It is intended to provide.
【0008】[0008]
【課題を解決するための手段】上記目的を達成する、請
求項1の発明に係る動画像インデックス生成方法は、入
力された動画像から各時間に対応する静止画像であるフ
レームを抽出するステップと、所望の映像に関する辞書
を用いて、予め定められた算出方法により動画像の一部
または全てに含まれる前記フレームの部分領域の評価値
を算出するステップと、前記フレームに含まれる全ての
領域に対して算出された評価値からフレームの評価値を
算出するステップと、前記評価値に基づいて前記フレー
ムのうちから特定のフレームの画像を表示の際のインデ
ックス画像として選択するステップと、を備えることを
特徴としている。According to a first aspect of the present invention, there is provided a moving image index generating method for extracting a frame which is a still image corresponding to each time from an input moving image. Calculating the evaluation value of the partial region of the frame included in a part or all of the moving image by a predetermined calculation method using a dictionary relating to a desired video; and Calculating a frame evaluation value from an evaluation value calculated for the frame, and selecting an image of a specific frame from among the frames as an index image for display based on the evaluation value. It is characterized by.
【0009】また、請求項2に係る発明は、請求項1に
記載の動画像インデックス生成方法において、前記動画
像の一部または全体に含まれる前記フレームに対して、
移動するオブジェクトを背景から切り出すステップと、
切り出された前記オブジェクトごとに予め定められた算
出方法により評価値を算出するステップと、同一フレー
ムに含まれるオブジェクトの評価値からフレームの評価
値を算出するステップと、前記フレームの評価値に基づ
いて特定のフレームを表示の際のインデックスとして選
択して出力するステップと、を更に備えることを特徴と
している。According to a second aspect of the present invention, in the moving image index generating method according to the first aspect, the frame included in a part or the whole of the moving image is
Cutting out the moving object from the background;
Calculating an evaluation value by a predetermined calculation method for each of the cut-out objects; calculating an evaluation value of a frame from evaluation values of objects included in the same frame; and Selecting and outputting a specific frame as an index for display.
【0010】また、請求項3に係る発明は、請求項1に
記載の動画像インデックス生成方法において、動画像の
一部または全体に含まれるフレームに対し、前記動画像
を撮影しているカメラの動きと向きの変化を表すカメラ
パラメータを推定するステップと、予め定められたカメ
ラパラメータを有するフレームを表示の際のインデック
スとして選択するステップと、をさらに備えることを特
徴としている。According to a third aspect of the present invention, in the moving image index generating method according to the first aspect, a camera which captures the moving image for a frame included in a part or the whole of the moving image. The method further includes a step of estimating a camera parameter representing a change in the movement and the direction, and a step of selecting a frame having a predetermined camera parameter as an index for display.
【0011】また、請求項4に係る発明は、請求項1に
記載の動画像インデックス生成方法において、動画像の
一部または全体に含まれるフレームに対して任意の組み
合わせのフレーム間の類似度を予め定められた算出方法
により算出するステップと、前記類似度が所定の方法に
より算出されたしきい値よりも大きな類似度を有するフ
レームを検出することによって繰り返し登場するフレー
ムを検出するステップと、これら繰り返し登場するフレ
ームの中から表示の際のインデックスとするフレームを
選択するステップと、をさらに備えることを特徴として
いる。According to a fourth aspect of the present invention, in the moving image index generating method according to the first aspect, the similarity between any combination of frames included in a part or the whole of the moving image is determined. Calculating a frame using a predetermined calculation method, and detecting a frame that repeatedly appears by detecting a frame having a similarity greater than the threshold calculated by the predetermined method. And selecting a frame to be used as an index for display from the frames that appear repeatedly.
【0012】請求項5の発明に係る動画像インデックス
生成装置は、入力された動画像から各時間に対応する静
止画像であるフレームを抽出するフレーム抽出手段と、
所望の映像に関する辞書を格納し、予め定められた算出
方法により動画像の一部または全てに含まれる前記フレ
ームの部分領域の評価値を算出する領域評価値算出手段
と、前記フレームに含まれる全ての領域に対して前記領
域評価値算出手段により算出された評価値からフレーム
の評価値を算出するフレーム評価値算出手段と、前記評
価値に基づいて前記フレームのうちから特定のフレーム
の画像を表示の際のインデックス画像として選択するイ
ンデックス選択手段と、を備えることを特徴としてい
る。A moving image index generating apparatus according to a fifth aspect of the present invention provides a moving image index generating apparatus for extracting a frame which is a still image corresponding to each time from an input moving image,
A region evaluation value calculation unit that stores a dictionary relating to a desired video, calculates an evaluation value of a partial region of the frame included in a part or all of the moving image by a predetermined calculation method, and includes all regions included in the frame. Frame evaluation value calculation means for calculating an evaluation value of a frame from the evaluation value calculated by the area evaluation value calculation means for an area, and displaying an image of a specific frame from among the frames based on the evaluation value Index selecting means for selecting an index image at the time of (1).
【0013】また、請求項6に係る発明は、請求項5に
記載された動画像インデックス生成装置において、前記
フレームの部分領域は移動するオブジェクトであり、前
記インデックス選択手段は、この移動するオブジェクト
の動き量に基づいて、動画像のシーンが激しく変化した
フレームの静止画像をインデックス画像として選択する
ことを特徴としている。According to a sixth aspect of the present invention, in the moving picture index generating apparatus according to the fifth aspect, the partial area of the frame is a moving object, and the index selecting means is configured to determine the moving object. It is characterized in that a still image of a frame in which a scene of a moving image changes drastically is selected as an index image based on the amount of motion.
【0014】また、請求項7に係る発明は、請求項5に
記載された動画像インデックス生成装置において、前記
フレームの部分領域は、繰り返し登場する類似度の高い
部分領域であり、前記フレーム評価値算出手段は、フレ
ーム間の類似度をフレームの評価値として算出し、前記
インデックス画像選択手段は、所定のしきい値よりも評
価値の高いフレームを繰り返しの多いインデックス画像
として選択することを特徴としている。According to a seventh aspect of the present invention, in the moving picture index generating apparatus according to the fifth aspect, the partial area of the frame is a partial area that appears repeatedly and has a high degree of similarity, and the frame evaluation value The calculating means calculates the similarity between frames as an evaluation value of the frame, and the index image selecting means selects a frame having an evaluation value higher than a predetermined threshold value as an index image having many repetitions. I have.
【0015】[0015]
【発明の実施の形態】以下、本発明に係る動画像インデ
ックス生成方法および生成装置の好適な実施形態につい
て、添付図面を参照しながら詳細に説明する。まず、本
発明の基本概念を示す第1実施形態に係る動画像インデ
ックス生成方法および第2実施形態に係る動画像インデ
ックス生成装置について、図1および図2を参照しなが
ら説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a moving picture index generating method and a generating apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. First, a moving image index generation method according to a first embodiment and a moving image index generation device according to a second embodiment, which illustrate the basic concept of the present invention, will be described with reference to FIGS.
【0016】図1は、本発明の第1実施形態に係る動画
像インデックス生成方法の動作手順を示すフローチャー
トであり、同図において、動画像インデックス生成方法
は、入力された動画像から各時間に対応する静止画像で
あるフレームを抽出するステップST1と、所望の映像に
関する辞書を用いて、予め定められた算出方法により動
画像の一部または全てに含まれる前記フレームの部分領
域の評価値を算出するステップST2と、前記フレームに
含まれる全ての領域に対して算出された評価値からフレ
ームの評価値を算出するステップST3と、前記評価値に
基づいて前記フレームのうちから特定のフレームの画像
を表示の際のインデックス画像として選択するステップ
ST4と、を備えている。FIG. 1 is a flowchart showing an operation procedure of a moving image index generating method according to the first embodiment of the present invention. In FIG. 1, the moving image index generating method is executed at each time from an input moving image. Step ST1 of extracting a frame that is a corresponding still image, and calculating an evaluation value of a partial area of the frame included in a part or all of the moving image by a predetermined calculation method using a dictionary relating to a desired video. Step ST2, calculating a frame evaluation value from the evaluation values calculated for all the regions included in the frame, and step ST3. Calculating an image of a specific frame from the frames based on the evaluation value. Step to select as index image for display
ST4.
【0017】次に、装置発明の基本概念を示す第2実施
形態に係る動画像インデックス生成装置を、図2のブロ
ック構成図に従い説明する。図2において、第2実施形
態に係る動画像インデックス生成装置は、入力された動
画像から各時間に対応する静止画像であるフレームを抽
出するフレーム抽出手段1と、所望の映像に関する辞書
を格納し、予め定められた算出方法により動画像の一部
または全てに含まれる前記フレームの部分領域の評価値
を算出する領域評価値算出手段2と、前記フレームに含
まれる全ての領域に対して前記領域評価値算出手段2に
より算出された評価値からフレームの評価値を算出する
フレーム評価値算出手段3と、前記評価値に基づいて前
記フレームのうちから特定のフレームの画像を表示の際
のインデックス画像として選択するインデックス画像選
択手段4と、を備えることを特徴としている。Next, a moving picture index generating apparatus according to a second embodiment showing the basic concept of the apparatus invention will be described with reference to the block diagram of FIG. In FIG. 2, the moving image index generation device according to the second embodiment stores a frame extraction unit 1 for extracting a frame that is a still image corresponding to each time from an input moving image and a dictionary relating to a desired image. A region evaluation value calculation means 2 for calculating an evaluation value of a partial region of the frame included in a part or all of the moving image by a predetermined calculation method, and the region for all the regions included in the frame Frame evaluation value calculation means 3 for calculating an evaluation value of a frame from the evaluation value calculated by the evaluation value calculation means 2, and an index image for displaying an image of a specific frame from the frames based on the evaluation value And an index image selecting unit 4 for selecting the index image.
【0018】上記第2実施形態に係る動画像インデック
ス生成装置の動作は、上述した第1実施形態に係る動画
像インデックス生成方法の各処理手順がこれに相当して
いるので、重複説明を省略する。次に、図3ないし図2
1を用いて下位概念に係る各実施形態について説明す
る。The operation of the moving picture index generating apparatus according to the second embodiment corresponds to the processing procedure of the moving picture index generating method according to the first embodiment described above. . Next, FIG. 3 or FIG.
Each embodiment according to the lower concept will be described with reference to FIG.
【0019】本発明の第3実施形態に係る動画像インデ
ックス生成装置は、例えば図3に示すように構成され
る。図3において、符号101はユーザインタフェース
部であり、実際にはキーボードやマウス、タッチパネル
等のポインティングデバイスなどである。ユーザは10
1から指示を送ることにより、システムに動画像の再
生、停止、インデックスの表示などを行なわせる。A moving image index generating apparatus according to a third embodiment of the present invention is configured as shown in FIG. 3, for example. In FIG. 3, reference numeral 101 denotes a user interface unit, which is actually a keyboard, a mouse, a pointing device such as a touch panel, or the like. User is 10
By sending an instruction from 1, the system causes the system to reproduce, stop, display an index, and the like.
【0020】102は制御部であり、システム全体の制
御を行なう。103は映像表示部であり、動画像やイン
デックス映像の表示を行なう。105はバスであり、各
処理部間のデータの伝送はここを通して行なわれる。1
04は動画像記録部であり、具体的には磁気ディスクや
磁気テープ、光ディスクなどの大容量データ記録媒体で
ある。この動画像記録部104はそのままネットワーク
上の動画像サーバや動画像放送の受信で置き換えても良
い。A control unit 102 controls the entire system. An image display unit 103 displays a moving image or an index image. Reference numeral 105 denotes a bus through which data is transmitted between the processing units. 1
Reference numeral 04 denotes a moving image recording unit, specifically, a large-capacity data recording medium such as a magnetic disk, a magnetic tape, and an optical disk. The moving image recording unit 104 may be replaced with a moving image server on the network or reception of a moving image broadcast.
【0021】106はインデックス映像選択部であり、
動画像記録部104に蓄積された動画像のインデックス
映像の選択処理を行なう。ここでの選択処理の方法は後
で詳細に説明する。107はインデックス情報記録部で
あり、インデックス映像選択部106において選択され
たインデックスに関する情報を蓄積しておく。具体的に
は半導体メモリや磁気ディスク、光ディスクなどの記録
媒体である。Reference numeral 106 denotes an index video selection unit.
A process of selecting an index video of a moving image stored in the moving image recording unit 104 is performed. The method of the selection process here will be described in detail later. Reference numeral 107 denotes an index information recording unit which stores information on the index selected by the index video selection unit 106. Specifically, it is a recording medium such as a semiconductor memory, a magnetic disk, and an optical disk.
【0022】108はカット検出部であり、動画像記録
部104に蓄積された動画像から映像の不連続なフレー
ム間であるカットを検出する。109はカット情報記憶
部であり、カット検出部108で検出されたカット情報
を蓄積しておく、半導体メモリや磁気ディスク、光ディ
スクなどの記録媒体である。Reference numeral 108 denotes a cut detection unit which detects a cut between discontinuous frames of a video from a moving image stored in the moving image recording unit 104. Reference numeral 109 denotes a cut information storage unit, which is a recording medium such as a semiconductor memory, a magnetic disk, or an optical disk that stores the cut information detected by the cut detection unit 108.
【0023】インデックス情報を生成するときには、ま
ず、カット検出部108においてカットの検出が行なわ
れる。処理対象となる動画像は、動画像記録部104か
らバス105を通してカット検出部108に送られる。
カット検出部108での処理はいかなるカット検出手法
でも用いることが可能であるが、例えば特開平01−6
8084、特開平3−214364号公報、特開平4−
219878号公報などで説明されている方法を適用す
ることが可能である。検出されたカットに関する情報
は、フレーム番号、動画像の先頭からの時間、先頭から
のバイト数などのカット情報として出力され、カット情
報記憶部109に記憶される。When generating the index information, first, the cut detection section 108 detects a cut. The moving image to be processed is sent from the moving image recording unit 104 to the cut detection unit 108 via the bus 105.
The processing in the cut detection unit 108 can be performed by any cut detection method.
8084, JP-A-3-214364, JP-A-4-214
It is possible to apply the method described in, for example, Japanese Patent No. 219878. Information on the detected cut is output as cut information such as a frame number, time from the beginning of the moving image, and the number of bytes from the beginning, and is stored in the cut information storage unit 109.
【0024】次に、カット情報記憶部109に蓄積され
ているカット情報のうち、連続するカットに挟まれたフ
レームをインデックス選択のための部分動画像とする。
これら複数の部分動画像ごとにインデックス映像選択部
106においてインデックス映像が選択される。ここで
の処理は後述するが、選択されたインデックス映像に関
する情報は、フレーム番号、動画像の先頭からの時間、
先頭からのバイト数などの形式でインデックス情報に対
応したフレームのみを動画像記録部104から再生し、
インデックス映像のみからなる映像データを生成してお
いても良い。Next, among the cut information stored in the cut information storage unit 109, a frame sandwiched between consecutive cuts is set as a partial moving image for index selection.
The index video selection unit 106 selects an index video for each of the plurality of partial moving images. Although the processing here will be described later, the information on the selected index video includes a frame number, a time from the beginning of the moving image,
Only the frame corresponding to the index information in a format such as the number of bytes from the head is reproduced from the moving image recording unit 104,
Video data consisting only of the index video may be generated.
【0025】ユーザインタフェース101からインデッ
クス表示命令が入力されたときにはインデックス情報記
憶部107に記憶されたインデックス情報が読み出さ
れ、インデックス情報に対応したフレームの映像が動画
像記録部104から読み出され、映像表示部103に表
示される。また、インデックス映像のみからなる映像デ
ータが既に生成されている場合には、動画像記録部10
4から動画像データを読み出すのではなく、直接インデ
ックス映像のみからなる映像データが読み出されて映像
表示部103に表示される。When an index display command is input from the user interface 101, the index information stored in the index information storage unit 107 is read, and a video of a frame corresponding to the index information is read from the moving image recording unit 104. It is displayed on the video display unit 103. If video data consisting only of the index video has already been generated, the moving image recording unit 10
4, video data consisting of only index video is read directly and displayed on the video display unit 103.
【0026】以下、インデックス映像選択部106にお
ける処理を図4に従い、より詳細に説明する。図4はイ
ンデックス映像選択部106の内部のブロック図であ
る。Hereinafter, the processing in the index video selection unit 106 will be described in more detail with reference to FIG. FIG. 4 is a block diagram of the inside of the index video selection unit 106.
【0027】まず、カット情報記憶部109に記憶され
たカット情報をもとに、インデックス映像がまだ選択さ
れていないカット間のフレームがインデックス映像の選
択範囲として選ばれる。選択範囲内のフレームは順次バ
ス105を介してフレーム画像記憶部201に読み込ま
れる。202はサンプル領域切り出し・正規化部であ
り、フレーム画像記憶部201に記憶されたフレーム画
像の一部の矩形領域の切り出しを行なう。切り出す矩形
のスケールや位置は予め決めておくのが簡単であるが、
入力される画像により逐次変更できるようにしておいて
も良い。通常は、一つのフレーム画像から複数のスケー
ル、位置の組み合わせの矩形をサンプル領域として切り
出す。例えば、横20画素、縦20画素から横50画
素、縦50画素まで縦横各々一画素ステップで、フレー
ム上の全ての位置から切り出すといったように定めてお
く。切り出されたサンプル領域は、スケールが異なるの
で、あらかじめ定められたスケールに正規化される。First, based on the cut information stored in the cut information storage unit 109, a frame between cuts for which an index video has not been selected is selected as a selection range of the index video. The frames within the selected range are sequentially read into the frame image storage unit 201 via the bus 105. Reference numeral 202 denotes a sample area cutout / normalization unit that cuts out a rectangular area of a part of the frame image stored in the frame image storage unit 201. It is easy to predetermine the scale and position of the rectangle to be cut out,
You may make it possible to change sequentially according to the input image. Usually, a rectangle of a combination of a plurality of scales and positions is cut out from one frame image as a sample area. For example, it is defined that the image is cut out from all positions on the frame in steps of 20 pixels in the horizontal direction, 50 pixels in the vertical direction, 50 pixels in the horizontal direction, and 50 pixels in the vertical direction in one pixel each. Since the cut-out sample regions have different scales, they are normalized to a predetermined scale.
【0028】オブジェクト辞書記録部204はオブジェ
クト辞書を記録しておくための記録媒体である。オブジ
ェクト辞書は見つけたいオブジェクトの画像を予め学習
させ、統計的な分布を規定するパラメータを求めたもの
である。例えば、人間の顔や動物、車などをオブジェク
トとして辞書を作成する。辞書作成の手法としては、ベ
イズ推定がよく知られている。また、オブジェクト辞書
は見つけたいオブジェクトの画像の代表的なパターンの
集合としてもよい。The object dictionary recording unit 204 is a recording medium for recording an object dictionary. In the object dictionary, an image of an object to be found is learned in advance, and parameters for defining a statistical distribution are obtained. For example, a dictionary is created using human faces, animals, cars, and the like as objects. Bayesian estimation is well known as a dictionary creation technique. The object dictionary may be a set of representative patterns of the image of the object to be found.
【0029】距離計算部205では、あらかじめ定めら
れた手法により正規化されたサンプル領域とオブジェク
ト辞書に登録されたデータとの距離を算出する。例え
ば、オブジェクト辞書としてオブジェクトの統計的分布
の平均ベクトルや、共分散行列が用いられている場合に
は、平均からのユークリッド距離やマハラノビス距離を
用いることができる。また、オブジェクト辞書にオブジ
ェクトの画像の代表的なパターンが登録されている場合
には、正規化されたサンプル領域とユークリッド距離や
マハラノビス距離が最も近い代表パターンまでの距離と
して算出されても良い。The distance calculator 205 calculates the distance between the sample area normalized by a predetermined method and the data registered in the object dictionary. For example, when an average vector of a statistical distribution of objects or a covariance matrix is used as the object dictionary, a Euclidean distance or a Mahalanobis distance from the average can be used. When a representative pattern of an image of an object is registered in the object dictionary, the distance may be calculated as a distance between the normalized sample area and a representative pattern having the closest Euclidean distance or Mahalanobis distance.
【0030】距離計算部205により計算された距離情
報は距離情報記憶部203に記憶される。同一のフレー
ムごとに距離の最小値のみを記憶、更新し、フレーム内
の全てのサンプル領域に対する距離算出処理が終了する
と、距離の最小値がフレームを代表する距離情報として
距離情報記憶部203に記憶される。距離情報記憶部2
03はフレーム内の距離の最小値と共に、これまでに算
出されたフレームを代表する距離情報の最小値、および
そのフレームのフレーム番号またはそれに代わる情報を
記憶している。インデックス映像選択範囲内の全てのフ
レームに対しての距離算出処理が終了すると、距離情報
記憶部203はインデックス映像選択範囲内のフレーム
の中で最も小さな距離値を与えたフレームをインデック
ス映像として選択し、そのフレーム番号、または動画像
の先頭からの時間、バイト数などの情報をバス105を
介してインデックス情報記憶部107に送る。The distance information calculated by the distance calculation unit 205 is stored in the distance information storage unit 203. Only the minimum value of the distance is stored and updated for each same frame, and when the distance calculation processing for all the sample regions in the frame is completed, the minimum value of the distance is stored in the distance information storage unit 203 as distance information representative of the frame. Is done. Distance information storage unit 2
Reference numeral 03 stores the minimum value of the distance in the frame, the minimum value of the distance information representing the frame calculated so far, the frame number of the frame, or information in place of the minimum value. When the distance calculation processing for all the frames in the index video selection range is completed, the distance information storage unit 203 selects, as the index video, the frame having the smallest distance value among the frames in the index video selection range. Then, information such as the frame number, the time from the beginning of the moving image, the number of bytes, and the like are sent to the index information storage unit 107 via the bus 105.
【0031】例えば、オブジェクト辞書として、人物の
正面の顔を学習、登録しておいたものとする。この場
合、距離計算部205で算出された距離が小さいときに
はサンプル領域として人物の正面画像が切り出されてい
る可能性が高いことを意味している。図16はこの例に
おいて、正面顔の含まれているフレームがインデックス
として選択される様子を示している。図16において、
距離算出部205で計算される距離は、正面顔を含む中
央のフレームにおいて最小値をとり、正面顔を含まない
左右両端のフレームにおいては算出される距離が大きく
なっている。この結果、中央の正面顔を含むフレームが
インデックスとなる。For example, it is assumed that a front face of a person has been learned and registered as an object dictionary. In this case, when the distance calculated by the distance calculation unit 205 is small, it means that there is a high possibility that a front image of a person is cut out as a sample area. FIG. 16 shows a state in which a frame including a frontal face is selected as an index in this example. In FIG.
The distance calculated by the distance calculation unit 205 has a minimum value in the center frame including the front face, and the calculated distance is large in the left and right end frames not including the front face. As a result, the frame including the central front face becomes the index.
【0032】このような処理を行なうことにより、イン
デックスとして無意味なフレームを選択するのではな
く、人物という意味のあるオブジェクトが存在するフレ
ームがインデックス表示の際に表示され、内容の把握し
やすい表示、検索を効率よく行なうことのできる表示が
可能になる。By performing such processing, a frame in which an object meaningful as a person exists is displayed at the time of index display, instead of selecting an insignificant frame as an index, so that the contents can be easily grasped. Thus, it is possible to provide a display capable of performing a search efficiently.
【0033】オブジェクト辞書記録部204に記憶され
るオブジェクト辞書の種類、数は限定される物ではな
い。従って、インデックスとして表示されたいオブジェ
クトを複数用意しておくことができる。例えば、人物の
顔の他、車の辞書を登録しておくことにより、人物が登
場しない場合であっても、車の登場するフレームを優先
的にインデックスとして選択することができるようにな
る。The type and number of object dictionaries stored in the object dictionary recording unit 204 are not limited. Therefore, a plurality of objects to be displayed as an index can be prepared. For example, by registering a car dictionary in addition to a person's face, even when a person does not appear, a frame in which a car appears can be preferentially selected as an index.
【0034】また、どのフレームにおいても大きな距離
しか算出されなかった場合には、オブジェクト辞書に登
録されているオブジェクトはどれも含まれていないと判
断して、別の方法でインデックス映像を選択するように
してもよい。例えば、インデックス映像選択範囲内の先
頭フレームにするとか、真ん中のフレームにするといっ
た簡単な方法でも良い。When only a large distance is calculated in any frame, it is determined that none of the objects registered in the object dictionary is included, and an index image is selected by another method. It may be. For example, a simple method such as setting the first frame in the index video selection range or the middle frame may be used.
【0035】ここまで説明した処理は、ソフトウェア、
ハードウェアのどちらでも行なうことが可能である。ソ
フトウェアにより処理を行なう場合には例えば図5のフ
ローチャートに示す処理によっても、本発明のインデッ
クス生成を行なうことが可能である。図5において、フ
レーム区間から未処理のフレームを選択し(ステップST
11)、フレーム画像からサンプル領域を切り出し(ステ
ップST12)た後、サンプル領域を正規化して辞書十距離
を求める(ステップST13)。ステップST13により求めら
れた距離が最も小さいのならば、現在のフレームをイン
デックス候補とする(ステップST14)。次に、ステップ
ST15において、全てのスケール・位置のサンプル領域が
試されたか否かが判断され、まだ試されていないスケー
ル・位置が残っている場合にはステップST12に戻り、全
てのサンプル領域について検出が行われる。ステップST
15において、全てのサンプル領域が試されたものと判断
された場合には、ステップST16において、フレーム区間
内の全てのフレームについて試されたか否かが判断さ
れ、全てのフレームについて処理が行われていない場合
には、ステップST11ないしST16の処理が繰り返され、全
てのフレームについて処理が行われているものと判断さ
れた場合には、ステップST17において前記インデックス
候補をインデックス映像として決定する。The processing described so far is performed by software,
It can be done in either hardware. When the processing is performed by software, the index generation of the present invention can be performed by the processing shown in the flowchart of FIG. 5, for example. In FIG. 5, an unprocessed frame is selected from the frame section (step ST
11) After extracting a sample area from the frame image (step ST12), the sample area is normalized to obtain a dictionary ten-distance (step ST13). If the distance obtained in step ST13 is the smallest, the current frame is set as an index candidate (step ST14). Then, step
In ST15, it is determined whether or not sample areas of all scales / positions have been tried, and if scales / positions that have not been tried remain, the process returns to step ST12, and detection is performed for all sample areas. . Step ST
If it is determined in step 15 that all the sample areas have been tried, it is determined in step ST16 whether all the frames in the frame section have been tried, and the processing has been performed on all the frames. If not, the processing of steps ST11 to ST16 is repeated. If it is determined that the processing has been performed for all frames, the index candidate is determined as an index video in step ST17.
【0036】次に、本発明の第4実施形態に係る動画像
インデックス装置について、図6を参照しながら説明す
る。この第4実施形態においても、第3実施形態の装置
において説明した図3に関する部分は全く同様に説明さ
れるので、ここでは説明を省略する。従って、インデッ
クス映像選択部106の構成についてのみ、説明を行な
う。Next, a moving image indexing apparatus according to a fourth embodiment of the present invention will be described with reference to FIG. Also in the fourth embodiment, the portions related to FIG. 3 described in the device of the third embodiment are described in the same manner, and thus the description is omitted here. Therefore, only the configuration of the index video selection unit 106 will be described.
【0037】図6は第4実施形態に係る装置におけるイ
ンデックス映像選択部106の一例構成を示すブロック
図である。まず、カット情報記憶部108に記憶された
カット情報をもとに、インデックス映像がまだ選択され
ていないカット間のフレームがインデックス映像の選択
範囲として選ばれる。選択範囲内のフレームは順次バス
105を介してフレーム画像記憶部401に読み込まれ
る。402はサンプル領域切り出し・正規化部であり、
フレーム画像記憶部401に記憶されたフレーム画像の
一部の矩形領域の切り出しを行なう。切り出す矩形のス
ケールや位置は第3実施形態における説明と全く同様で
あり、あらかじめ決めておくか、入力される画像により
逐次変更できるようにしておいても良い。切り出された
サンプル領域は、スケールが異なるので、サンプル領域
切り出し・正規化部402において後に行なう距離算出
に適している予め定められたスケールに正規化する。こ
の第4実施形態のサンプル切り出し・正規化部402で
は、第3実施形態とは異なり、切り出された領域のスケ
ール、位置の情報をフレーム評価値算出部405に送る
処理も行なう。FIG. 6 is a block diagram showing an example of the configuration of the index video selection unit 106 in the device according to the fourth embodiment. First, based on cut information stored in the cut information storage unit 108, a frame between cuts for which an index video has not been selected is selected as a selection range of the index video. The frames within the selected range are sequentially read into the frame image storage unit 401 via the bus 105. Reference numeral 402 denotes a sample area cutout / normalization unit,
A rectangular area of a part of the frame image stored in the frame image storage unit 401 is cut out. The scale and position of the rectangle to be cut out are exactly the same as those described in the third embodiment, and may be determined in advance or may be changed sequentially according to the input image. Since the cut-out sample regions have different scales, the sample region cut-out / normalization unit 402 normalizes the cut-out sample regions to a predetermined scale suitable for distance calculation to be performed later. Unlike the third embodiment, the sample cutout / normalization unit 402 of the fourth embodiment also performs a process of transmitting the scale and position information of the cutout region to the frame evaluation value calculation unit 405.
【0038】オブジェクト辞書記録部406はオブジェ
クト辞書を記憶しておくための記録媒体である。第3実
施形態において説明した通り、オブジェクト辞書は見つ
けたいオブジェクトの画像をあらかじめ学習させ、統計
的な分布を規定するパラメータを求めたものである。距
離算出部403はオブジェクト辞書記録部406に記憶
されているオブジェクト辞書と正規化されたサンプル領
域との距離を所定の方法を用いて算出する。算出された
距離情報はフレーム評価値算出部405に送られる。The object dictionary recording unit 406 is a recording medium for storing an object dictionary. As described in the third embodiment, the object dictionary is obtained by preliminarily learning the image of an object to be found and obtaining a parameter defining a statistical distribution. The distance calculation unit 403 calculates the distance between the object dictionary stored in the object dictionary storage unit 406 and the normalized sample area using a predetermined method. The calculated distance information is sent to the frame evaluation value calculation unit 405.
【0039】フレーム評価値算出部405は、距離算出
部403から送られてきた距離の値が定められたしきい
値よりも小さい場合に、サンプル切り出し・正規化部4
02より送られてくる切り出し領域のスケール、位置情
報および距離情報とから領域の評価値を算出する。この
評価値はスケールが大きい、また、位置がフレームの中
心に近い、また、距離が小さいほど大きくなるようにす
る。例えば、領域の中心とフレームの中心との距離を
d、スケール(例えば、面積)をs、距離算出部403
で算出された辞書との距離をD、さらにC1,C2,C
3,C4,C5を定数として、 として算出するものとする。When the value of the distance sent from the distance calculation unit 403 is smaller than a predetermined threshold value, the frame evaluation value calculation unit 405
Then, an evaluation value of the area is calculated from the scale, position information, and distance information of the cutout area sent from 02. This evaluation value is set to be larger as the scale is larger, the position is closer to the center of the frame, and the distance is shorter. For example, the distance between the center of the region and the center of the frame is d, the scale (for example, the area) is s, and the distance calculation unit 403 is used.
D is the distance to the dictionary calculated in the above, and C1, C2, C
3, C4, C5 as constants, It shall be calculated as
【0040】フレーム評価値算出部405は上記の領域
の評価値を蓄積しておき、同一のフレーム内の領域に対
して算出された領域の評価値の和を求め、これをフレー
ム評価値とする。ただし、同一フレーム内でも重なり合
った領域に対して算出された領域の評価値については、
これら領域の一つの評価値に対してのみ和をとるものと
する。The frame evaluation value calculation unit 405 accumulates the evaluation values of the above-described areas, calculates the sum of the evaluation values of the areas calculated for the areas in the same frame, and uses the sum as the frame evaluation value. . However, regarding the evaluation value of the area calculated for the overlapping area in the same frame,
The sum is calculated only for one evaluation value in these areas.
【0041】フレーム評価値算出部405では、インデ
ックス映像選択範囲内の全てのフレームに対しての最大
値、および最大値を与えるフレームのフレーム番号もし
くはそれに代わる情報(先頭からの時間やバイト数な
ど)を記憶される。インデックス映像選択範囲内の全て
のフレームに対して処理が終わったときに、上記最大の
フレーム評価値を与えるフレーム番号またはそれに代わ
る情報をインデックス情報記憶部107に送ることによ
り、インデックス選択範囲内のインデックス選択が終了
する。The frame evaluation value calculation unit 405 determines the maximum value for all frames within the index video selection range, the frame number of the frame giving the maximum value, or information in place of the frame number (time from start, number of bytes, etc.). Is stored. When the processing is completed for all the frames within the index video selection range, the frame number giving the maximum frame evaluation value or information in place of the frame number is sent to the index information storage unit 107, so that the index within the index selection range is obtained. The selection ends.
【0042】第4実施形態のように処理を行なうことに
より、インデックス選択範囲内のフレームから、インデ
ックスとして取り上げたいオブジェクトが画面の中心付
近にあり、かつ、大きく映っているものがインデックス
として選択されやすくなる。例えば、オブジェクトに人
物の正面顔を選んだ場合には、画面の端に小さく顔が映
っているフレームよりも、中心に大きく映っているフレ
ームをインデックスとして選択することになり、インデ
ックス表示の際の視認性が向上する。図3はその一例で
ある。左端のフレームでは顔が画面の端の方にあること
から、フレーム評価値は顔が中心に映っている中央のフ
レームよりも低くなっている。また、右端のフレームで
は顔が端に映っている上に小さいため、さらに低いフレ
ーム評価値が算出されている。図17の例の場合には、
中央のフレームがインデックスとして選択される。By performing the processing as in the fourth embodiment, an object to be picked up as an index is located near the center of the screen and a large object is easily selected as an index from the frames within the index selection range. Become. For example, if a person's front face is selected as the object, a frame that is larger in the center will be selected as an index than a frame that has a small face at the edge of the screen. The visibility is improved. FIG. 3 shows an example. Since the face is at the edge of the screen in the leftmost frame, the frame evaluation value is lower than that in the center frame in which the face is reflected in the center. Further, in the rightmost frame, since the face is reflected on the edge and is small, a lower frame evaluation value is calculated. In the case of the example of FIG.
The center frame is selected as the index.
【0043】一方、評価値算出の際の定数としてC1=
C3=C4=0を選択すると、オブジェクトが多く存在
しているフレームがインデックスとして選択され易くな
る。先の例のようにオブジェクトとして人物の正面顔を
採用した場合には、一人だけ映っているフレームよりも
二人、三人が映っているフレームの方がインデックスと
して選択されやすくなる。このようなインデックスは、
登場人物を把握する上で好ましいインデックスである。On the other hand, C1 =
When C3 = C4 = 0 is selected, a frame in which many objects exist is easily selected as an index. When a frontal face of a person is adopted as an object as in the previous example, a frame in which two or three people are reflected is more easily selected as an index than a frame in which only one is reflected. Such an index is
This is a preferable index for grasping the characters.
【0044】ここまで説明した処理は、第3実施形態と
同様に、ソフトウェア、ハードウェアのどちらでも行な
うことが可能である。ソフトウェアにより処理を行なう
場合には例えば図7のフローチャートに示す処理によ
り、本発明のインデックス生成を行なうことが可能であ
る。図7において、ステップST11ないしST13およびステ
ップST15ないしST17は、図5に示された第3実施形態の
インデックス映像選択部の処理動作と同一である。この
第4実施形態の処理動作においては、第3実施形態のス
テップST14の代わりに距離がしきい値よりも小さいなら
ば距離・位置・スケールより評価値を求めるステップST
20が設けられ、また、ステップST15とステップST16の間
に、フレーム全体の評価値の和が最も大きいならば現在
のフレームをインデックス候補とするステップST21が設
けられている点が第3実施形態と異なっている。The processing described so far can be performed by either software or hardware, as in the third embodiment. When processing is performed by software, for example, the index generation of the present invention can be performed by the processing shown in the flowchart of FIG. In FIG. 7, steps ST11 to ST13 and steps ST15 to ST17 are the same as the processing operations of the index image selection unit of the third embodiment shown in FIG. In the processing operation of the fourth embodiment, instead of step ST14 of the third embodiment, if the distance is smaller than the threshold value, a step ST for obtaining an evaluation value from the distance / position / scale is performed.
The third embodiment differs from the third embodiment in that step ST21 is provided between step ST15 and step ST16, and if the sum of the evaluation values of the entire frame is the largest, the step ST21 is performed using the current frame as an index candidate. Is different.
【0045】次に、第5実施形態について説明する。こ
の第5実施形態においても、第3実施形態で説明した図
3に関する部分は同様に説明されるので、ここでは説明
を省略する。従って、インデックス映像選択部106の
処理についてのみ、説明を行なう。Next, a fifth embodiment will be described. Also in the fifth embodiment, the portions related to FIG. 3 described in the third embodiment are described in the same manner, and thus the description is omitted here. Therefore, only the processing of the index video selection unit 106 will be described.
【0046】図6は第5実施形態の動画像インデックス
生成装置におけるインデックス映像選択部106のブロ
ック図の一例である。まず、カット情報記憶部に記憶さ
れたカット情報をもとに、インデックス映像がまだ選択
されていないカット間のフレームがインデックス映像の
選択範囲として選ばれる。FIG. 6 is an example of a block diagram of the index video selection unit 106 in the moving picture index generation device of the fifth embodiment. First, based on the cut information stored in the cut information storage unit, a frame between cuts for which an index video has not been selected is selected as a selection range of the index video.
【0047】インデックス映像選択範囲内のフレーム
は、移動オブジェクト分離部601においてインデック
ス選択範囲内のフレームについてフレーム内に存在して
いるオブジェクトの分離処理が行なわれる。例えば、映
像の小領域ごとにフレーム間での移動量をベクトルとし
て推定し、これをフレーム前面に対して行なう。この処
理により得られたフレーム全体の小領域ごとの動きの情
報は、一般にオプティカルフローと呼ばれ、様々な手法
が開発されている(例えば、PROCEEDING OF THEIEEE, p
p.917-935, VOL.76, NO.8,1988.など)。次に、得られ
た動きを表すベクトルをクラスタリングすることにより
類似した動きを有する連続領域を特定している。このよ
うな処理により異なる動きを有しているオブジェクトを
分離することができる(例えば、COMPUTER GRAPHICS AN
D IMAGE PROCESSING, pp.301-315,VOL.9, 1979.な
ど)。For the frames within the index video selection range, the moving object separation unit 601 performs a process of separating the objects existing within the frames from the frames within the index selection range. For example, the amount of movement between frames is estimated as a vector for each small area of the video, and this is performed for the front of the frame. The motion information for each small area of the entire frame obtained by this processing is generally called an optical flow, and various methods have been developed (for example, PROCEEDING OF THEIEEE, p
p.917-935, VOL.76, NO.8, 1988.). Next, a continuous region having a similar motion is specified by clustering the vectors representing the obtained motion. By such processing, objects having different movements can be separated (for example, COMPUTER GRAPHICS AN
D IMAGE PROCESSING, pp. 301-315, VOL. 9, 1979.).
【0048】オブジェクト面積算出部602では、移動
オブジェクト分離部601で分離されたオブジェクトが
占める面積を算出する。一つのフレームから複数のオブ
ジェクトが分離された場合には、面積が最大のオブジェ
クトがどれであるかの特定も行なう。ここでの面積と
は、分離されたオブジェクトの占める画素数である。The object area calculation unit 602 calculates the area occupied by the object separated by the moving object separation unit 601. When a plurality of objects are separated from one frame, it is also specified which object has the largest area. The area here is the number of pixels occupied by the separated object.
【0049】次にオブジェクト重心算出部603におい
てオブジェクトの重心位置を算出する。これは一つのフ
レーム内の分離されたオブジェクトのうち、オブジェク
ト面積算出部において面積最大と判定されたオブジェク
トに対して行なう。Next, the object center-of-gravity calculation unit 603 calculates the position of the center of gravity of the object. This is performed for an object determined to have the maximum area in the object area calculation unit among the separated objects in one frame.
【0050】オブジェクト重心計算部603で算出され
た重心位置は、距離算出部605に送られ、フレームの
中心位置とのユークリッド距離が算出される。算出され
た距離は距離情報記憶部604に送られる。The position of the center of gravity calculated by the object center of gravity calculation unit 603 is sent to the distance calculation unit 605, and the Euclidean distance from the center position of the frame is calculated. The calculated distance is sent to the distance information storage unit 604.
【0051】距離情報記憶部では、処理されたフレーム
の中での最小の距離の値と、最小の距離を与えるフレー
ムを特定する情報(フレーム番号、先頭からの時間、バ
イト数など)とを記憶する。新たなフレームに関する距
離情報が605より送られてくると、最小の距離の更新
処理を行なう。インデックス映像選択範囲内の全てのフ
レームに関する距離情報の入力が終了すると、距離の最
小値を与えるフレームの特定情報をバス105を介して
インデックス情報記憶部107に送り、インデックス選
択処理を終了する。The distance information storage unit stores the value of the minimum distance among the processed frames and information (frame number, time from the beginning, number of bytes, etc.) specifying the frame giving the minimum distance. I do. When the distance information about the new frame is sent from 605, the minimum distance update processing is performed. When the input of the distance information regarding all the frames within the index video selection range is completed, the specific information of the frame giving the minimum value of the distance is sent to the index information storage unit 107 via the bus 105, and the index selection processing ends.
【0052】第5実施形態において説明された処理を行
なうことにより、インデックス映像選択範囲内に登場す
る最も大きな移動オブジェクトが、最も中心に位置して
いるフレームがインデックスとして選択される。第1、
第2の実施例においてはオブジェクトが何であるかをあ
らかじめ特定する必要があった。しかし、第5実施形態
ではどのようなオブジェクトであっても、フレーム内に
大きく映っている移動オブジェクトが存在すれば、その
オブジェクトが中心に映っているフレームをインデック
スとして選択することが可能である。例えば、画面の端
から端まで車が横切るような場面においては、車が画面
の中央に位置しているフレームがインデックスとして選
択される。By performing the processing described in the fifth embodiment, the largest moving object appearing in the index video selection range and the frame located at the most central position are selected as the index. First,
In the second embodiment, it is necessary to specify in advance what the object is. However, in the fifth embodiment, regardless of the type of object, if there is a large moving object in the frame, it is possible to select the frame in which the object is shown in the center as an index. For example, in a scene where a car crosses from one end of the screen to another, the frame in which the car is located at the center of the screen is selected as an index.
【0053】第5実施形態で説明した処理は、ソフトウ
ェア、ハードウェアのどちらでも行なうことが可能であ
る。ソフトウェアにより処理を行なう場合には例えば図
9のフローチャートに示す処理により、本発明のインデ
ックス生成を行なうことが可能である。図9において、
フレーム区間から未処理のフレームを選択するステップ
ST11の処理を行なう前に、フレーム区間に含まれる移動
オブジェクトを分離するステップST22が設けられてい
る。また、ステップST11とステップST14との間にフレー
ム画像に含まれる面積最大のオブジェクトの重心を求め
るステップST23とオブジェクトの中心と映像の中心との
距離を求めるステップST24とが設けられている。その他
の処理ステップは図5の処理ステップと同一なので重複
説明を省略する。The processing described in the fifth embodiment can be performed by either software or hardware. When processing is performed by software, the index generation of the present invention can be performed by, for example, the processing shown in the flowchart of FIG. In FIG.
Step of selecting an unprocessed frame from the frame section
Before performing the processing in ST11, a step ST22 for separating the moving object included in the frame section is provided. Further, between step ST11 and step ST14, there are provided a step ST23 for calculating the center of gravity of the object having the largest area included in the frame image, and a step ST24 for calculating the distance between the center of the object and the center of the video. Other processing steps are the same as the processing steps in FIG.
【0054】次に第6実施形態に係る動画像インデック
ス生成装置について説明する。第6実施形態において
も、第3実施形態で説明した図3に関する部分は全く同
様に説明されるので、ここでは説明を省略する。したが
って、インデックス映像選択部106の処理についての
み、説明を行なう。Next, a moving picture index generating apparatus according to a sixth embodiment will be described. In the sixth embodiment as well, the parts related to FIG. 3 described in the third embodiment are described in exactly the same manner, and thus description thereof is omitted here. Therefore, only the process of the index video selection unit 106 will be described.
【0055】図10は第6実施形態に係る生成装置にお
けるインデックス映像選択部106のブロック図の例で
ある。まず、これまでの幾つかの実施形態と同様、カッ
ト情報記憶部109に記憶されたカット情報をもとに、
インデックス映像がまだ選択されていないカット間のフ
レームがインデックス映像の選択範囲として選択され
る。FIG. 10 is an example of a block diagram of the index video selection unit 106 in the generator according to the sixth embodiment. First, similar to some embodiments described above, based on the cut information stored in the cut information storage unit 109,
A frame between cuts for which the index video has not been selected is selected as a selection range of the index video.
【0056】インデックス映像選択範囲内のフレーム
は、移動オブジェクト分離部802においてインデック
ス選択範囲内のフレームについてフレーム内に存在して
いるオブジェクトの分離処理が行なわれる。これは第5
実施形態において説明した601と同様のものであり、
オプティカルフローのクラスタリングにより、行なうこ
とが可能である。For the frames within the index video selection range, the moving object separation unit 802 performs separation processing of the objects existing within the frames for the frames within the index selection range. This is the fifth
It is the same as 601 described in the embodiment,
This can be performed by clustering optical flows.
【0057】オブジェクト重心算出部801では、80
2で分離されたオブジェクトの重心を算出する。ただ
し、第5実施形態とは異なり、分離された全てのオブジ
ェクトについて重心が計算される。オブジェクト面積算
出部803は、802で分離された全てのオブジェクト
の面積(占有する画素数)を算出する。これら、重心の
位置情報、および面積情報はオブジェクトごとにオブジ
ェクト評価値算出部804に送られる。In the object gravity center calculation unit 801,
The center of gravity of the object separated in 2 is calculated. However, unlike the fifth embodiment, the center of gravity is calculated for all the separated objects. The object area calculation unit 803 calculates the area (the number of occupied pixels) of all objects separated in 802. The position information of the center of gravity and the area information are sent to the object evaluation value calculation unit 804 for each object.
【0058】オブジェクト評価値算出部804では、面
積情報、重心の位置情報からオブジェクト毎に評価値を
算出する。オブジェクト評価値は、面積が大きいほど大
きくなり、重心位置が画面の中央に近いほど大きくなる
ように決定される。例えば、面積をs’、重心と画面の
中央との距離をd’,C6,C7,C8,C9を定数と
して、 とする。オブジェクト評価値は同一のフレームから分離
されたオブジェクト全てについて算出され、フレーム評
価値算出部806に送られる。The object evaluation value calculation unit 804 calculates an evaluation value for each object from the area information and the position information of the center of gravity. The object evaluation value is determined so as to increase as the area increases and to increase as the position of the center of gravity approaches the center of the screen. For example, assuming that the area is s 'and the distance between the center of gravity and the center of the screen is d', C6, C7, C8, and C9 are constants, And The object evaluation values are calculated for all objects separated from the same frame, and sent to the frame evaluation value calculation unit 806.
【0059】フレーム評価値算出部806では、同一フ
レーム内のオブジェクトについて算出された評価値から
フレームの評価値を算出する。これは、例えば単純に和
をとることにより行なわれたり、しきい値以上のオブジ
ェクト評価値の数として算出することができる。算出さ
れたフレーム評価値はフレーム評価値記憶部805に送
られる。フレーム評価値記憶部805では、インデック
ス選択範囲内のフレーム全ての中から最大のフレーム評
価値を持つフレームを選出し、バス105を介してイン
デックス情報記憶部107にフレームを特定する情報
(フレーム番号、先頭からの時間、バイト数など)を送
り、インデックス映像選択範囲内からのインデックス選
択処理を終了する。The frame evaluation value calculation section 806 calculates a frame evaluation value from the evaluation values calculated for the objects in the same frame. This can be performed, for example, by simply taking the sum, or can be calculated as the number of object evaluation values equal to or greater than the threshold value. The calculated frame evaluation value is sent to the frame evaluation value storage unit 805. The frame evaluation value storage unit 805 selects a frame having the largest frame evaluation value from all the frames within the index selection range, and stores information (frame number, frame number, The time from the beginning, the number of bytes, etc.) are sent, and the index selection processing from within the index video selection range ends.
【0060】第6実施形態のようにインデックス選択処
理を行なうことにより、インデックス選択範囲内のフレ
ームのうち、移動しているオブジェクトがなるべく多
く、なるべく画面の中心付近に存在し、なるべく大きく
映っているフレームがインデックスとして選ばれる。こ
のような性質を持つフレームをインデックスにすること
により、動画像に登場するオブジェクトを素早く認識す
ることが可能になる。By performing the index selection processing as in the sixth embodiment, among the frames within the index selection range, the moving objects are as many as possible, are present near the center of the screen as much as possible, and appear as large as possible. The frame is chosen as the index. By using a frame having such a property as an index, an object appearing in a moving image can be quickly recognized.
【0061】第6実施形態で説明した処理は、ソフトウ
ェア、ハードウェアのどちらでも行なうことが可能であ
る。ソフトウェアにより処理を行なう場合には例えば図
11のフローチャートに示す処理により、本発明のイン
デックス生成を行なうことが可能である。図9に示した
第5実施形態の動作説明のフローチャートと図11の第
6実施形態に係る生成装置の動作との違いは、図9のス
テップST24およびST14の代わりに、オブジェクト毎に評
価値を求めこれらの和をフレームの評価値とするステッ
プST25と、フレームの評価値が最も大きいのならば現在
のフレームをインデックス候補とするステップST26とが
設けられている点である。The processing described in the sixth embodiment can be performed by either software or hardware. When processing is performed by software, for example, the index generation of the present invention can be performed by the processing shown in the flowchart of FIG. The difference between the flowchart for explaining the operation of the fifth embodiment shown in FIG. 9 and the operation of the generation device according to the sixth embodiment shown in FIG. 11 is that instead of steps ST24 and ST14 in FIG. The point is that there is provided a step ST25 in which the sum of the obtained values is used as the evaluation value of the frame, and a step ST26 in which the current frame is used as the index candidate if the evaluation value of the frame is the largest.
【0062】次に、第7実施形態に係る動画像インデッ
クス生成装置について説明する。この第7実施形態に係
る装置においても、第3実施形態で説明した図3に関す
る部分の構成は全く同一であるので、重複説明を省略す
る。したがって、インデックス映像選択部106の処理
についてのみ、説明を行なう。Next, a moving picture index generation device according to a seventh embodiment will be described. Also in the device according to the seventh embodiment, the configuration of the portion related to FIG. 3 described in the third embodiment is completely the same, and therefore, redundant description will be omitted. Therefore, only the process of the index video selection unit 106 will be described.
【0063】図12は第7実施形態に係る動画像インデ
ックス生成装置におけるインデックス映像選択部106
のブロック図の異なる例である。これまでの実施形態と
同様に、はじめにカット情報記憶部に記憶されたカット
情報をもとに、インデックス映像がまだ選択されていな
いカット間のフレームがインデックス映像の選択範囲と
して選ばれる。FIG. 12 shows an index video selecting section 106 in the moving picture index generating apparatus according to the seventh embodiment.
Is a different example of the block diagram of FIG. As in the previous embodiments, based on the cut information stored in the cut information storage unit, a frame between cuts for which an index video has not been selected is selected as a selection range of the index video.
【0064】インデックス映像選択範囲内のフレーム
は、カメラパラメータ推定部1001においてカメラパ
ラメータが推定される。カメラパラメータは、動画像を
撮影したときの被写体とカメラとの相対的な位置、向
き、およびパンやズームなどの移動、倍率の変化等に関
するパラメータのことを指している。カメラパラメータ
推定部1001では、複数の連続するフレームから、有
するフレームにおけるカメラパラメータ推定部1001
では、複数の連続するフレームから、有るフレームにお
けるカメラパラメータを推定する。このための手法とし
ては、ハフ変換を用いて動きのベクトルの消失点を求
め、複数有る消失点のうちの最大の投票数を得た消失点
を背景に対する消失点とし、カメラパラメータに関する
拘束式を説くなどの手法がある。カメラパラメータと消
失点との関係やカメラパラメータを求める手法は、例え
ば「金谷健一著、『画像理解』、森北出版」などに詳し
い。カメラパラメータが推定されると、推定されたパラ
メータの値はカメラパラメータマッチング部1004に
送られる。Camera parameters of frames within the index video selection range are estimated by the camera parameter estimating unit 1001. The camera parameters refer to parameters relating to the relative position and orientation between the subject and the camera when a moving image is captured, movement such as pan and zoom, change in magnification, and the like. The camera parameter estimating unit 1001 calculates a camera parameter estimating unit 1001 for a given frame from a plurality of consecutive frames.
Then, camera parameters in a certain frame are estimated from a plurality of consecutive frames. As a technique for this, the vanishing point of the motion vector is obtained using the Hough transform, the vanishing point having the largest number of votes among the plural vanishing points is taken as the vanishing point with respect to the background, and the constraint equation regarding the camera parameter is calculated. There are techniques such as preaching. The relationship between the camera parameter and the vanishing point and a method of obtaining the camera parameter are described in detail in, for example, "Kenichi Kanaya," Image Understanding ", Morikita Publishing". When the camera parameters are estimated, the values of the estimated parameters are sent to the camera parameter matching unit 1004.
【0065】カメラパラメータマッチング部1004で
はカメラパラメータ推定部1001から送られたパラメ
ータ値と、登録カメラパラメータ記憶部1002に登録
されているカメラパラメータとが同じかどうかの判定を
行なう。1002に登録されているカメラパラメータ
は、1フレームが有するパラメータ値でも良いが、それ
よりはむしろカメラパラメータの変化点としておく方が
望ましい。例えば、ズーム・インが終了した時点のフレ
ームとして、ズームを表すパラメータ(ズーム・インで
正値をとるものとする)の値が0、かつ直前のフレーム
におけるパラメータの微分値が負となる条件を登録した
り、パンの始まりや終わりとして、パンを表すパラメー
タが0で、直前のフレームのパラメータの微分値の絶対
値がしきい値よりも大きくなるといった条件を登録す
る。カメラパラメータマッチング部1004はこれらの
登録カメラパラメータと推定されたカメラパラメータが
一致した場合には、マッチしたという情報をフレームの
特定情報と共にマッチング情報記憶部1003に送る。The camera parameter matching section 1004 determines whether or not the parameter value sent from the camera parameter estimating section 1001 is the same as the camera parameter registered in the registered camera parameter storage section 1002. The camera parameter registered in 1002 may be a parameter value included in one frame, but it is more preferable to set it as a change point of the camera parameter. For example, as a frame at the time when the zoom-in is completed, a condition that a value of a parameter representing zoom (which is assumed to be a positive value at the zoom-in) is 0 and a differential value of the parameter in the immediately preceding frame is negative is set. A condition is registered such that a parameter representing pan is 0 and the absolute value of the differential value of the parameter of the immediately preceding frame is larger than a threshold as the start or end of pan. When the registered camera parameters match the estimated camera parameters, the camera parameter matching unit 1004 sends information indicating that the registered camera parameters have been matched to the matching information storage unit 1003 together with frame specific information.
【0066】マッチング情報記憶部では、インデックス
映像選択範囲内のフレーム全てについての処理が終了す
るまで、全てのマッチング情報を記憶しておく。そし
て、複数のインデックスの選択が許されている場合に
は、マッチしたフレームの特定情報を全てインデックス
情報蓄積部107に送り、インデックス選択処理を終了
する。The matching information storage unit stores all matching information until the processing for all the frames within the index video selection range is completed. If the selection of a plurality of indexes is permitted, all the specific information of the matched frame is sent to the index information storage unit 107, and the index selection processing ends.
【0067】インデックス映像選択範囲内から一つのイ
ンデックスのみを選択する場合、一般に1003に記憶
された複数のフレームの中から一つをインデックスとし
て選択しなければならない。この際の処理としては、第
3ないし第6実施形態で説明した処理をマッチング情報
記憶部1003に記憶されたフレームに対して行ない、
インデックスを選択することが可能である。また、簡略
的に決定したい場合には、インデックス映像選択範囲内
の真ん中に近いフレームを選択したり、先頭のフレーム
を選択したりしても良い。When only one index is selected from the index video selection range, generally, one must be selected as an index from a plurality of frames stored in 1003. At this time, the processing described in the third to sixth embodiments is performed on the frame stored in the matching information storage unit 1003,
It is possible to select an index. If a simple determination is desired, a frame close to the center of the index video selection range may be selected, or a leading frame may be selected.
【0068】第7実施形態のようにインデックス選択処
理を行なうことにより、例えば、人物の顔にズーム・イ
ンした映像が含まれる場合では、ズーム・インされた顔
の映像が大きく映っているフレームがインデックスとし
て選択されるため、動画像に途上しているものや撮影者
が注目しているものがインデックスに反映されることに
なる。By performing the index selection processing as in the seventh embodiment, for example, when a face of a person includes a zoomed-in image, a frame in which the image of the zoomed-in face is greatly reflected is displayed. Since the selected moving image is selected as an index, the moving image and the image that the photographer is paying attention to are reflected in the index.
【0069】また、図18は、「水平方向、垂直方向の
カメラパラメータが0で、直前の水平方向のカメラパラ
メータの微分値のあるしきい値を上回る」という条件を
登録した例である。この条件は、左右方向のカメラの動
き、すなわちパンの終了したフレームを示している。図
18の例において説明されている動画像は、右方向のパ
ンがずっと続き、最後に人物の顔が中心にきたところで
パンが終了し、カメラが静止するというものである。水
平方向、垂直方向のカメラの動き速度(カメラパラメー
タ)は上のグラフ、そして同速度の微分値を下のグラフ
に示している。この例では、右側のフレームにおいて、
水平方向の動き速度が0で、かつ、直前の微分値がしき
い値を上回って大きく突出しているため、インデックス
画像に選択されている。FIG. 18 shows an example in which the condition "the camera parameters in the horizontal and vertical directions are 0 and the differential value of the immediately preceding camera parameter in the horizontal direction exceeds a certain threshold value" is registered. This condition indicates the movement of the camera in the left-right direction, that is, the frame where panning has been completed. In the moving image described in the example of FIG. 18, the panning in the right direction continues, the panning ends when the face of the person finally comes to the center, and the camera stops. The horizontal and vertical camera movement speeds (camera parameters) are shown in the upper graph, and the differential values of the same speed are shown in the lower graph. In this example, in the right frame,
Since the horizontal movement speed is 0 and the immediately preceding differential value greatly exceeds the threshold value, it is selected as an index image.
【0070】第7実施形態で説明した処理は、ソフトウ
ェア、ハードウェアのどちらでも行なうことが可能であ
る。ソフトウェアにより処理を行なう場合には例えば図
13のフローチャートに示す処理により、本発明のイン
デックス生成を行なうことが可能である。ステップST11
において、フレーム区間から未処理のフレームを選択し
た後、ステップST31において、フレーム画像のカメラパ
ラメータを推定する。ステップST32において、フレーム
区間内の全てのフレームのカメラパラメータを求めたか
否かが判断される。全てのフレームのカメラパラメータ
が求められたものと判断された場合には、登録されてい
るカメラパラメータを含むフレームをインデックス候補
とする(ステップST33)。最後に、インデックス候補が
複数の場合、そのうちの1つを選択し、インデックス画
像とする(ステップST34)。The processing described in the seventh embodiment can be performed by either software or hardware. When processing is performed by software, for example, the index generation of the present invention can be performed by the processing shown in the flowchart of FIG. Step ST11
In, after selecting an unprocessed frame from the frame section, in step ST31, the camera parameters of the frame image are estimated. In step ST32, it is determined whether or not the camera parameters of all the frames in the frame section have been obtained. If it is determined that the camera parameters of all the frames have been obtained, a frame including the registered camera parameters is set as an index candidate (step ST33). Finally, when there are a plurality of index candidates, one of them is selected and used as an index image (step ST34).
【0071】次に第8実施形態に係る動画像インデック
ス生成装置について説明する。第8実施形態において
も、第3実施形態のインデックス生成装置で説明した図
3に関する部分は全く同様に説明されるので、ここでは
説明を省略する。従って、インデックス映像選択部10
6の処理についてのみ、説明を行なう。Next, a moving picture index generating apparatus according to the eighth embodiment will be described. In the eighth embodiment as well, the portions related to FIG. 3 described in the index generation device of the third embodiment are described in exactly the same manner, and thus description thereof is omitted here. Therefore, the index video selection unit 10
Only the process 6 will be described.
【0072】図14は第8実施形態におけるインデック
ス映像選択部106のブロック図の例である。これまで
の実施例と同様、はじめにカット情報記憶部に記憶され
たカット情報をもとに、インデックス映像がまだ選択さ
れていないカット間のフレームが選ばれる。選択範囲内
のフレームは順次バスを介してフレーム画像記憶部12
01に読み込まれる。FIG. 14 is an example of a block diagram of the index video selection unit 106 in the eighth embodiment. As in the previous embodiments, based on the cut information stored in the cut information storage unit, a frame between cuts for which an index video has not yet been selected is selected. The frames within the selected range are sequentially transmitted to the frame image storage unit 12 via the bus.
01 is read.
【0073】比較フレーム画像記憶部1203には動画
像に含まれるフレームのうち、1201に読み込まれて
いるフレーム、及びそのフレームから決められたフレー
ム数以上離れた位置にあるフレームが順次読み込まれ
る。類似度算出部1204はフレーム画像記憶部120
1と比較フレーム画像記億部1203に読み込まれてい
るフレームとの類似度をあらかじめ決められた手法によ
り算出する。例えば、単純に対応する位置の画素値の差
分の絶対値もしくは2乗した値をフレーム全体で足し合
わせるといった方法がとられる。In the comparison frame image storage unit 1203, of the frames included in the moving image, the frame read into the frame 1201 and the frame located at a position separated from the frame by the number of frames or more are sequentially read. The similarity calculation unit 1204 includes the frame image storage unit 120
The similarity between “1” and the frame read into the comparison frame image storage unit 1203 is calculated by a predetermined method. For example, a method of simply adding the absolute value or the square of the difference between the pixel values at the corresponding position in the entire frame is used.
【0074】しきい値算出部1202は、比較部120
5において類似度と比較されるしきい値を算出する。し
きい値は、通常、定数としておけば十分であるが、画面
全体の色や輝度の分布により変化させることも可能であ
る。比較部1205においては、しきい値よりも高い類
似度であると判定された場合には、フレーム画像記憶部
1201に読み込まれているフレームをインデックス候
補として、類似度とフレームを特定するフレーム番号等
の情報がインデックス候補記憶部1206に送られる。The threshold value calculation unit 1202 is
In step 5, a threshold value to be compared with the similarity is calculated. Normally, it is sufficient to set the threshold value as a constant, but it is also possible to change the threshold value according to the distribution of colors and luminance on the entire screen. When the comparison unit 1205 determines that the similarity is higher than the threshold value, the frame read into the frame image storage unit 1201 is used as an index candidate, and the similarity and the frame number for specifying the frame are used. Is sent to the index candidate storage unit 1206.
【0075】インデックス候補記憶部1206では、一
つのフレームのみが候補となっている場合にはこれをイ
ンデックス映像として選択するが、通常は複数のフレー
ムが候補となるか、一つも候補にならない。一つも候補
がない場合には、他の方法により選ばれたフレームをイ
ンデックス映像とする。例えば、第3ないし第7実施形
態において説明した手法により選択されたフレームをイ
ンデックス映像と決定する。In the case where only one frame is a candidate, the index candidate storage unit 1206 selects this as an index image. However, usually, a plurality of frames are candidates or none of them are candidates. If there is no candidate, a frame selected by another method is used as an index image. For example, a frame selected by the method described in the third to seventh embodiments is determined as an index image.
【0076】複数のフレームが候補となっている場合に
は、その中の一つをインデックス映像と決定する。この
ときには、第3内次第7実施形態において説明した手法
を候補となっているフレームについてのみ行なうことに
より決定することができる。また、単純な方法として、
類似度の最大値を与えるフレームに決定する方法や、候
補となったフレームのうちで真ん中に位置するフレーム
に決定するという方法でも良い。If a plurality of frames are candidates, one of them is determined as an index image. At this time, the determination can be made by performing the method described in the third and seventh embodiments on only the candidate frames. Also, as a simple method,
A method of determining a frame that gives the maximum value of similarity or a method of determining a frame located in the middle among candidate frames may be used.
【0077】第8実施形態で説明された手法により、重
要であるために繰り返し撮影されている場面がインデッ
クスとして選択されることが可能になる。例えば、スポ
ーツ映像においてリプレイとして繰り返し出てくるシー
ンや、スロー再生として同じシーンを異なる再生速度で
映し出すような場合がこれに相当する。これらはどれも
重要なシーンであり、本実施例による方法で検出するこ
とが可能である。これらのフレームからインデックスを
選択することにより検索や、内容理解の効率化が図れ
る。The technique described in the eighth embodiment makes it possible to select a scene that is repeatedly photographed because it is important as an index. For example, this corresponds to a case where a scene repeatedly appearing as a replay or a case where the same scene is displayed as a slow playback at a different playback speed in a sports video. These are all important scenes, and can be detected by the method according to the present embodiment. By selecting an index from these frames, the efficiency of search and understanding of contents can be improved.
【0078】第8実施形態において説明した処理は、ソ
フトウェア、ハードウェアのどちらでも行なうことが可
能である。ソフトウェアにより処理を行なう場合には例
えば図15のフローチャートに示す処理により、本発明
のインデックス生成を行なうことが可能である。図15
において、まず、フレーム区間辛み処理のフレームを選
択し(ステップST11)、次に、ステップST35において、
他のフレームとの類似度を算出する。ステップST36で
は、類似度がしきい値よりも大きなフレームをインデッ
クス候補として設定する。ステップST16において、フレ
ーム区間内の全てのフレームが試されたか否かを判断す
る処理動作は第3ないし第7実施形態に係る動作と同じ
である。全てのフレームについて処理が終了していない
場合には、ステップST11,ST35およびST36を全てのフレ
ームについて行ない、全てのフレームについての処理が
終了した場合には、ステップST37に進む。ステップST37
においては、インデックス候補が複数の場合にその内の
1つを選択してインデックス映像として出力する。The processing described in the eighth embodiment can be performed by either software or hardware. When processing is performed by software, for example, the index generation of the present invention can be performed by the processing shown in the flowchart of FIG. FIG.
In, first, a frame of the frame section spicy processing is selected (step ST11), and then, in step ST35,
Calculate the similarity with other frames. In step ST36, a frame whose similarity is larger than the threshold value is set as an index candidate. In step ST16, the processing operation of judging whether or not all the frames in the frame section have been tried is the same as the operation according to the third to seventh embodiments. If the processing has not been completed for all frames, steps ST11, ST35 and ST36 are performed for all frames, and if the processing has been completed for all frames, the process proceeds to step ST37. Step ST37
In, when there are a plurality of index candidates, one of them is selected and output as an index video.
【0079】次に、上記インデックス生成方法および装
置により生成されたインデックス画像を表示出力する方
法について、図19ないし図21に従い詳細に説明す
る。図19は本発明の第9実施形態に係る動画像インデ
ックス生成方法のインデックス画像の表示を説明するた
めの概念図である。CRT(Cathode Ray Tube)や液晶
ディスプレイ等の表示装置の画面10には、動画像のあ
る一定の時間区間を表す立体アイコンウインドウ11が
最も手前側に表示されており、その後ろには代表フレー
ムの一覧表示欄ウインドウ12が表示されている。立体
アイコンウインドウ11の横には、映像の編集作業を支
援する部品リストウインドウ13が表示されており、こ
の部品リストウインドウ13を用いて映像に関する編集
作業を行なうことができる。この部品リストウインドウ
13を用いて行なう編集作業については後述する。Next, a method for displaying and outputting an index image generated by the above-described index generation method and apparatus will be described in detail with reference to FIGS. FIG. 19 is a conceptual diagram illustrating display of an index image in the moving image index generation method according to the ninth embodiment of the present invention. On a screen 10 of a display device such as a CRT (Cathode Ray Tube) or a liquid crystal display, a three-dimensional icon window 11 representing a certain time section of a moving image is displayed at the foremost side, and a representative frame of a representative frame is displayed behind it. A list display window 12 is displayed. On the side of the three-dimensional icon window 11, a component list window 13 for supporting a video editing operation is displayed. Using the component list window 13, an editing operation on the video can be performed. Editing work performed using the parts list window 13 will be described later.
【0080】図19において、各々のウインドウ11,
12および13は、画面内の仮想的3次元空間内に表示
されており、利用者の操作により上下左右および奥行き
方向に自由に位置を移動させることができ、また、自由
な方向に回転させることもできる。ここでいう「仮想的
3次元空間」とは、2次元で表示される画面内に投影表
示される3次元空間のことを意味しており、バーチャル
リアリティの分野で通常用いられている表示方法のこと
である。In FIG. 19, each window 11,
Reference numerals 12 and 13 are displayed in a virtual three-dimensional space on the screen, and can be freely moved in the vertical, horizontal, and depth directions by a user's operation, and can be rotated in any direction. Can also. Here, the “virtual three-dimensional space” means a three-dimensional space projected and displayed on a screen displayed in two dimensions, and is a display method generally used in the field of virtual reality. That is.
【0081】左右の目の位置すなわち視点の位置に応じ
た表示方法を用いて、真の3次元表示を行なっても構わ
ないし、また、移動・回転についての自由度は、各々の
ウインドウ11,12および13が互いに衝突しないよ
うに、あるいは画面の表示上からも不都合とならないよ
うに、制限を加えておくようにしても良く、本発明に係
る動画像インデックス生成方法を含む表示装置によって
自動的に制御することも可能である。A true three-dimensional display may be performed by using a display method corresponding to the position of the left and right eyes, that is, the position of the viewpoint, and the degrees of freedom for movement and rotation are determined by the respective windows 11 and 12. And 13 may be restricted so that they do not collide with each other or become inconvenient from the display of the screen. The display device including the moving image index generation method according to the present invention may be used automatically. It is also possible to control.
【0082】図20は、図19の画面10における立体
アイコンウインドウ11のみを詳細に示す説明図であ
り、図において、立体アイコンウインドウ11は情報に
突出する代表フレーム15を有している。各代表フレー
ム15は、それを生成したショットの時間的な長さに比
例した奥行き方向の距離的な長さ分ずつ離隔して配置さ
れている。図20においては、奥行き方向の距離にわた
って並べられるフレームの連続として表示されている
が、これに限定されず、連続する一纏まりのフレーム毎
に箱状の容器に収納されているように表現しても良い。FIG. 20 is an explanatory diagram showing only the three-dimensional icon window 11 on the screen 10 of FIG. 19 in detail. In the figure, the three-dimensional icon window 11 has a representative frame 15 protruding from information. Each of the representative frames 15 is spaced apart by a distance in the depth direction that is proportional to the temporal length of the shot that generated it. In FIG. 20, the frames are displayed as a series of frames arranged over a distance in the depth direction. However, the present invention is not limited to this, and it is expressed that each of a series of frames is stored in a box-shaped container. Is also good.
【0083】また、立体アイコンを箱状にすると共にこ
の箱毎にインデックスを表示して視認しやすくすること
も可能であるし、時間的な経過を奥から手前に向かって
時間的に新しくなるように配列しても良いし、その逆に
手前から奥に向かって新しくするように並べても良い。
要するに、代表フレームを並べて表示する際に、それぞ
れのショットの時間の長さに比例した空間的な距離をも
って3次元空間内に配列されるような構成のものであれ
ば、細かい仕様は如何なるものであっても実施可能であ
る。It is also possible to make the three-dimensional icons box-shaped and to display an index for each box so that the icons can be easily viewed. May be arranged, or conversely, they may be arranged so that they are newly arranged from the front to the back.
In short, when the representative frames are displayed side by side, any detailed specification can be used as long as the representative frames are arranged in a three-dimensional space with a spatial distance proportional to the length of time of each shot. It can be implemented even if there is.
【0084】図21は、図19に示された代表フレーム
一覧ウインドウ12の詳細を示す説明図である。図21
において、ウインドウ12は、各ショットから生成され
た代表フレームを列挙するフレーム表示欄17と、フレ
ーム表示欄17に記載された代表フレームが示している
ショットの有する属性や付加情報等を表示する情報表示
欄18と、を備えている。属性・付加情報とは、ショッ
ト内のカメラ操作の情報(ズームやパン等)、登場人物
の有無、登場人物名、撮影時間、継続時間、フレーム数
等のショットに関する情報一般を指している。また、利
用者がそのショットについてのコメント(覚え書き)等
を入力したならば、これも属性・付加情報に含めても良
い。FIG. 21 is an explanatory diagram showing details of the representative frame list window 12 shown in FIG. FIG.
In the window 12, a frame display column 17 listing representative frames generated from each shot, and an information display displaying attributes, additional information, and the like of the shot indicated by the representative frame described in the frame display column 17 Column 18. The attribute / additional information indicates general information on the shot such as information on camera operation (zoom, pan, etc.) in the shot, presence / absence of a character, name of a character, shooting time, duration, the number of frames, and the like. If the user has input a comment (memorandum) on the shot, this may be included in the attribute / additional information.
【0085】さて、図19に戻り、この表示方法を用い
た操作の例について説明する。利由者は、立体アイコン
ウインドウ11または代表フレーム一覧ウインドウ12
を眺めながら、自分が必要であると判断したショットを
選択する。この選択操作は、例えば代表フレーム一覧ウ
インドウ12上で目的とするショットの部分をマウスで
クリックして、「選択ボタン」(図示せず)を押下する
か、再びクリックするかして選択する。また、代表フレ
ーム一覧ウインドウ12上の目的のショット部分にマウ
スポインタを位置決めしてマウスボタンを押し下げたま
ま部品リストウインドウ13上にマウスポインタ移動さ
せての端を放す(ドラッグ・アンド・ドロップ)ことに
よっても、目的のショットを選択することができる。Returning to FIG. 19, an example of an operation using this display method will be described. The winner is the three-dimensional icon window 11 or the representative frame list window 12
While looking at, select the shot that you determine is necessary. This selection operation is performed by, for example, clicking a target shot portion on the representative frame list window 12 with a mouse and pressing a “selection button” (not shown) or clicking again. Further, by positioning the mouse pointer on a target shot portion on the representative frame list window 12, moving the mouse pointer onto the parts list window 13 while holding down the mouse button, and releasing the end (drag and drop), Also, a desired shot can be selected.
【0086】また、選択の対象は、代表フレーム一覧ウ
インドウでなく、立体アイコンウインドウ11であって
も良いし、ショット中の時間部分を限定して選択するよ
うにしても良い。部品リストウインドウ13にはこのよ
うにして選択・登録されたショットやショット中の部分
が列挙されている。この部品リストウインドウ13は動
画像全体から利用者が後になって編集作業に利用したも
のを素材として登録しておくための記録領域を想定して
表示しているものである。利用者は、動画像全体から必
要な部分だけを予めこの部品リストウインドウ13にピ
ックアップしておいて、後の操作においてはこの部品リ
ストウインドウ13に登録された映像素材を並べ替える
等の方法により目的のドキュメントを作成することがで
きる。The selection target may be the three-dimensional icon window 11 instead of the representative frame list window, or the time portion during the shot may be limited. In the parts list window 13, the shots selected and registered in this way and the parts in the shots are listed. The parts list window 13 is displayed assuming a recording area for registering, as a material, a material used later by the user for editing work from the entire moving image. The user picks up only necessary parts from the whole moving image in the parts list window 13 in advance, and rearranges the video materials registered in the parts list window 13 in a later operation. Documents can be created.
【0087】ここで、代表フレームのリストは、カット
検出によるものだけでなくて良い。例えば、カット検出
により決定されたショットの中でも、特定の人物が映っ
ているもののみを表示させたり、或いは、ズームインし
ているもののみを表示させたりする等、上記の属性・付
加情報を検索条件として利用者が指定したショットのみ
を表示させても良い。Here, the list of representative frames is not limited to the list based on cut detection. For example, among the shots determined by the cut detection, only the one showing a specific person is displayed, or only the one zoomed in is displayed. , Only the shot specified by the user may be displayed.
【0088】上記第9実施形態に係る動画像インデック
ス生成方法および装置によれば、カット検出の結果を3
次元表示したことにより、立体アイコン表示の際にそれ
ぞれの代表フレームが重なり合い、見難くなるという問
題点を、利用者の任意の移動・回転操作により克服する
ことができる。また、複数のウインドウを3次元空間内
に配置したことにより、現在の作業に最も必要なウイン
ドウを最前面に移動させてきたりすることができるばか
りでなく、斜め方向に配置させることにより画面内の大
きな場所を占めずに多くのウインドウを表示させること
ができるなど、種々の効果がある。According to the moving image index generating method and apparatus according to the ninth embodiment, the result of cut detection is
With the three-dimensional display, it is possible to overcome the problem that the respective representative frames overlap and become difficult to see when displaying the three-dimensional icon, by a user's arbitrary movement / rotation operation. In addition, by arranging a plurality of windows in the three-dimensional space, not only can the window most necessary for the current work be moved to the foreground, but also by arranging the windows diagonally, There are various effects such as displaying many windows without occupying a large area.
【0089】さらに、部品リストウインドウを導入した
ことにより、長大な動画像から直接必要な部分を探索す
るという面倒な作業を行うことなく、ショット単位で映
像素材をピックアップし、次にピックアップした映像素
材を並べ換えることにより完成させているので、編集作
業環境を改善して動画編集作業の流れの効率化を図るこ
とができる。Furthermore, by introducing the parts list window, the video material can be picked up in shot units and the next video material can be picked up without the troublesome work of directly searching for a necessary part from a long moving image. Are rearranged, so that the editing work environment can be improved and the flow of the moving image editing work can be made more efficient.
【0090】[0090]
【発明の効果】本発明の動画像インデックス生成方法お
よび生成装置により、インデックスとして無意味なフレ
ームを選択するのではなく、人物などの意味のあるオブ
ジェクトが存在するフレームがインデックスとして選択
されるようになる。また、人物などのオブジェクトが多
く存在しているフレームがインデックスとして選択され
やすくなる。According to the moving picture index generating method and the generating apparatus of the present invention, a frame in which a meaningful object such as a person exists is selected as an index instead of selecting a meaningless frame as an index. Become. In addition, a frame in which many objects such as persons exist is easily selected as an index.
【0091】さらに、大きなオブジェクトが、最も中心
に位置しているフレームがインデックスとして選択され
る。さらにまた、動画像に登場しているものや撮影者が
注目しているものがインデックスに反映されることにな
る。さらに、重要であるために繰り返し撮影されている
場面がインデックスとして選択されることが可能にな
る。Further, the frame in which the large object is located at the center is selected as an index. Furthermore, what appears in the moving image or what the photographer is paying attention to is reflected in the index. Furthermore, scenes that have been repeatedly photographed because they are important can be selected as an index.
【0092】従って、内容的に意味のあるフレームがイ
ンデックスとして選択されることから、動画像のインデ
ックス表示を行なった際に、動画像の内容の把握が簡単
になり、また、所望の検索が容易になる。Accordingly, since a frame having a meaningful content is selected as an index, it is easy to grasp the content of the moving image when the index display of the moving image is performed, and it is easy to perform a desired search. become.
【図1】本発明の基本概念としての第1実施形態に係る
動画像インデックス生成方法のステップを示すフローチ
ャート。FIG. 1 is a flowchart showing steps of a moving image index generation method according to a first embodiment as a basic concept of the present invention.
【図2】本発明の基本概念としての第2実施形態に係る
動画像インデックス生成装置の構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of a moving image index generation device according to a second embodiment as a basic concept of the present invention.
【図3】本発明の第3ないし第8実施形態の全体の概略
構成を示すブロック図。FIG. 3 is a block diagram showing an overall schematic configuration of third to eighth embodiments of the present invention.
【図4】本発明の第3実施形態における選択部の構成を
示すブロック図。FIG. 4 is a block diagram illustrating a configuration of a selection unit according to a third embodiment of the present invention.
【図5】本発明の第3実施形態における処理手順を示す
フローチャート。FIG. 5 is a flowchart illustrating a processing procedure according to a third embodiment of the present invention.
【図6】本発明の第4実施形態における選択部の構成を
示すブロック図。FIG. 6 is a block diagram illustrating a configuration of a selection unit according to a fourth embodiment of the present invention.
【図7】本発明の第4実施形態における処理手順を示す
フローチャート。FIG. 7 is a flowchart illustrating a processing procedure according to a fourth embodiment of the present invention.
【図8】本発明の第5実施形態における選択部の構成を
示すブロック図。FIG. 8 is a block diagram illustrating a configuration of a selection unit according to a fifth embodiment of the present invention.
【図9】本発明の第5実施形態における処理手順を示す
フローチャート。FIG. 9 is a flowchart illustrating a processing procedure according to a fifth embodiment of the present invention.
【図10】本発明の第6実施形態における選択部の構成
を示すブロック図。FIG. 10 is a block diagram illustrating a configuration of a selection unit according to a sixth embodiment of the present invention.
【図11】本発明の第6実施形態における処理手順を示
すフローチャート。FIG. 11 is a flowchart illustrating a processing procedure according to a sixth embodiment of the present invention.
【図12】本発明の第7実施形態における選択部の構成
を示すブロック図。FIG. 12 is a block diagram illustrating a configuration of a selection unit according to a seventh embodiment of the present invention.
【図13】本発明の第7実施形態における処理手順を示
すフローチャート。FIG. 13 is a flowchart illustrating a processing procedure according to a seventh embodiment of the present invention.
【図14】本発明の第8実施形態における選択部の構成
を示すブロック図。FIG. 14 is a block diagram illustrating a configuration of a selection unit according to an eighth embodiment of the present invention.
【図15】本発明の第8実施形態における処理手順を示
すフローチャート。FIG. 15 is a flowchart showing a processing procedure according to the eighth embodiment of the present invention.
【図16】本発明における距離に関するオブジェクト辞
書の一例を示す説明図。FIG. 16 is an explanatory diagram showing an example of an object dictionary relating to distance in the present invention.
【図17】本発明における評価値に関するオブジェクト
辞書の他の一例を示す説明図。FIG. 17 is an explanatory diagram showing another example of the object dictionary relating to the evaluation value in the present invention.
【図18】本発明におけるカメラパラメータのオブジェ
クト辞書の例を示す説明図。FIG. 18 is an explanatory diagram showing an example of an object dictionary of camera parameters according to the present invention.
【図19】本発明の第9実施形態に係る表示方法を示す
説明図。FIG. 19 is an explanatory diagram showing a display method according to a ninth embodiment of the present invention.
【図20】本発明の第9実施形態の詳細を示す説明図。FIG. 20 is an explanatory diagram showing details of a ninth embodiment of the present invention.
【図21】本発明の第9実施形態の異なる詳細を示す説
明図。FIG. 21 is an explanatory view showing different details of the ninth embodiment of the present invention.
1 フレーム抽出手段 2 領域評価値算出手段 3 フレーム評価値算出手段 4 インデックス選択手段 101 ユーザインタフェース部 102 制御部 103 映像表示部 104 動画像記録部 105 バス 106 インデックス映像選択部 107 インデックス情報記憶部 108 カット検出部 109 カット情報記憶部 Reference Signs List 1 frame extraction means 2 area evaluation value calculation means 3 frame evaluation value calculation means 4 index selection means 101 user interface unit 102 control unit 103 video display unit 104 moving image recording unit 105 bus 106 index video selection unit 107 index information storage unit 108 cut Detection unit 109 Cut information storage unit
フロントページの続き (72)発明者 窪 田 進 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内Continuing on the front page (72) Inventor Susumu Kubota 1 Toshiba R & D Center, Komukai Toshiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa
Claims (7)
止画像であるフレームを抽出するステップと、 所望の映像に関する辞書を用いて、予め定められた算出
方法により動画像の一部または全てに含まれる前記フレ
ームの部分領域の評価値を算出するステップと、 前記フレームに含まれる全ての領域に対して算出された
評価値からフレームの評価値を算出するステップと、 前記評価値に基づいて前記フレームのうちから特定のフ
レームの画像を表示の際のインデックス画像として選択
するステップと、 を備える動画像インデックス生成方法。1. A step of extracting a frame as a still image corresponding to each time from an input moving image, and a part or all of the moving image by a predetermined calculation method using a dictionary relating to a desired image. Calculating the evaluation value of the partial area of the frame included in the frame; calculating the evaluation value of the frame from the evaluation values calculated for all the areas included in the frame; based on the evaluation value Selecting an image of a specific frame from among the frames as an index image to be displayed.
記フレームに対して、移動するオブジェクトを背景から
切り出すステップと、 切り出された前記オブジェクトごとに予め定められた算
出方法により評価値を算出するステップと、 同一フレームに含まれるオブジェクトの評価値からフレ
ームの評価値を算出するステップと、 前記フレームの評価値に基づいて特定フレームを表示の
際のインデックスとして選択して出力するステップと、 を更に備える請求項1に記載の動画像インデックス生成
方法。2. A step of cutting out a moving object from a background with respect to the frame included in a part or the whole of the moving image, and calculating an evaluation value by a predetermined calculation method for each of the cut out objects. And calculating an evaluation value of a frame from evaluation values of objects included in the same frame; and selecting and outputting a specific frame as an index for display based on the evaluation value of the frame. The moving image index generation method according to claim 1, further comprising:
ムに対し、前記動画像を撮影しているカメラの動きと向
きの変化を表すカメラパラメータを推定するステップ
と、予め定められたカメラパラメータを有するフレーム
を表示の際のインデックスとして選択するステップと、
をさらに備える請求項1に記載の動画像インデックス生
成方法。3. Estimating camera parameters representing changes in the movement and direction of a camera that is capturing the moving image for a frame included in a part or the whole of the moving image; Selecting a frame having the following as an index for display;
The moving image index generation method according to claim 1, further comprising:
ムに対して任意の組み合わせのフレーム間の類似度を予
め定められた算出方法により算出するステップと、前記
類似度が所定の方法により算出されたしきい値よりも大
きな類似度を有するフレームを検出することによって繰
り返し登場するフレームを検出するステップと、これら
繰り返し登場するフレームの中から表示の際のインデッ
クスとするフレームを選択するステップと、をさらに備
える請求項1に記載の動画像インデックス生成方法。4. A step of calculating a similarity between frames of an arbitrary combination with respect to a frame included in a part or the whole of the moving image by a predetermined calculation method, and calculating the similarity by a predetermined method. Detecting a frame that repeatedly appears by detecting a frame having a degree of similarity greater than the threshold, and selecting a frame to be an index for display from these repeatedly appearing frames, The moving image index generation method according to claim 1, further comprising:
止画像であるフレームを抽出するフレーム抽出手段と、 所望の映像に関する辞書を格納し、予め定められた算出
方法により動画像の一部または全てに含まれる前記フレ
ームの部分領域の評価値を算出する領域評価値算出手段
と、 前記フレームに含まれる全ての領域に対して前記領域評
価値算出手段により算出された評価値からフレームの評
価値を算出するフレーム評価値算出手段と、 前記評価値に基づいて前記フレームのうちから特定のフ
レームの画像を表示の際のインデックス画像として選択
するインデックス画像選択手段と、 を備える動画像インデックス生成装置。5. A frame extracting means for extracting a frame which is a still image corresponding to each time from an input moving image, a dictionary relating to a desired image is stored, and a part of the moving image is stored by a predetermined calculating method. Or an area evaluation value calculating means for calculating an evaluation value of a partial area of the frame included in all of the frames; and an evaluation of the frame from the evaluation values calculated by the area evaluation value calculating means for all the areas included in the frame. A moving image index generating apparatus, comprising: a frame evaluation value calculating unit that calculates a value; and an index image selecting unit that selects an image of a specific frame from the frames as an index image when displaying the image based on the evaluation value. .
ェクトであり、前記インデックス選択手段は、この移動
するオブジェクトの動き量に基づいて、動画像のシーン
が激しく変化したフレームの静止画像をインデックス画
像として選択することを特徴とする請求項5に記載の動
画像インデックス生成装置。6. A partial area of the frame is a moving object, and the index selecting means uses a still image of a frame in which a scene of a moving image changes drastically as an index image based on a moving amount of the moving object. The moving image index generation device according to claim 5, wherein the moving image index is selected.
する類似度の高い部分領域であり、前記フレーム評価値
算出手段は、フレーム間の類似度を評価値として算出
し、前記インデックス画像選択手段は、所定のしきい値
よりも前記評価値の高いフレームを繰り返しの多いイン
デックス画像として選択することを特徴とする請求項5
に記載の動画像インデックス生成装置。7. The partial area of the frame is a partial area that appears repeatedly and has a high degree of similarity, wherein the frame evaluation value calculating means calculates the similarity between frames as an evaluation value, and the index image selecting means includes: A frame having a higher evaluation value than a predetermined threshold value is selected as an index image having a large number of repetitions.
5. The moving image index generation device according to item 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02296197A JP3312105B2 (en) | 1997-02-05 | 1997-02-05 | Moving image index generation method and generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02296197A JP3312105B2 (en) | 1997-02-05 | 1997-02-05 | Moving image index generation method and generation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10224736A true JPH10224736A (en) | 1998-08-21 |
JP3312105B2 JP3312105B2 (en) | 2002-08-05 |
Family
ID=12097199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02296197A Expired - Fee Related JP3312105B2 (en) | 1997-02-05 | 1997-02-05 | Moving image index generation method and generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3312105B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350156A (en) * | 1999-06-09 | 2000-12-15 | Hitachi Ltd | Method for storing moving picture information and recording medium recording the information |
JP2003522346A (en) * | 1998-11-30 | 2003-07-22 | ヘンリー シー ユーエン | Video and graphics search engine |
WO2005086478A1 (en) * | 2004-03-04 | 2005-09-15 | Seiko Epson Corporation | Moving image data processing |
JP2006050076A (en) * | 2004-08-02 | 2006-02-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and program for selecting representative image of video image |
US7071974B2 (en) | 2001-07-18 | 2006-07-04 | Canon Kabushiki Kaisha | Image processing apparatus |
CN1327706C (en) * | 2002-10-18 | 2007-07-18 | 富士胶片株式会社 | Reproducing device of motion image and its method |
JP2009537047A (en) * | 2006-05-12 | 2009-10-22 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Video viewing user interface |
JP2009288822A (en) * | 2008-05-27 | 2009-12-10 | Fujifilm Corp | Attention degree calculation device, method, and program |
US7657096B2 (en) | 2004-03-22 | 2010-02-02 | Seiko Epson Corporation | Generation of digested image data |
JP2010166256A (en) * | 2009-01-14 | 2010-07-29 | Sony Corp | Information processor, information processing method, and program |
JP2011129137A (en) * | 2004-03-31 | 2011-06-30 | Fuji Xerox Co Ltd | Method for generating highly condensed visual summary of image region |
US8270806B2 (en) | 2008-10-29 | 2012-09-18 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling same |
US8300926B2 (en) | 2008-07-09 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US8379931B2 (en) | 2008-06-27 | 2013-02-19 | Canon Kabushiki Kaisha | Image processing apparatus for retrieving object from moving image and method thereof |
JP2015515770A (en) * | 2012-02-29 | 2015-05-28 | アルトネット、インコーポレイテッド | Stream recognition and filtering |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4775306B2 (en) | 2007-04-23 | 2011-09-21 | ソニー株式会社 | Image processing apparatus, imaging apparatus, image display control method, and computer program |
JP5483863B2 (en) | 2008-11-12 | 2014-05-07 | キヤノン株式会社 | Information processing apparatus and control method thereof |
-
1997
- 1997-02-05 JP JP02296197A patent/JP3312105B2/en not_active Expired - Fee Related
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003522346A (en) * | 1998-11-30 | 2003-07-22 | ヘンリー シー ユーエン | Video and graphics search engine |
JP2000350156A (en) * | 1999-06-09 | 2000-12-15 | Hitachi Ltd | Method for storing moving picture information and recording medium recording the information |
US7071974B2 (en) | 2001-07-18 | 2006-07-04 | Canon Kabushiki Kaisha | Image processing apparatus |
CN1327706C (en) * | 2002-10-18 | 2007-07-18 | 富士胶片株式会社 | Reproducing device of motion image and its method |
WO2005086478A1 (en) * | 2004-03-04 | 2005-09-15 | Seiko Epson Corporation | Moving image data processing |
US7657096B2 (en) | 2004-03-22 | 2010-02-02 | Seiko Epson Corporation | Generation of digested image data |
JP2011129137A (en) * | 2004-03-31 | 2011-06-30 | Fuji Xerox Co Ltd | Method for generating highly condensed visual summary of image region |
JP2006050076A (en) * | 2004-08-02 | 2006-02-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and program for selecting representative image of video image |
JP2009537047A (en) * | 2006-05-12 | 2009-10-22 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Video viewing user interface |
JP2009288822A (en) * | 2008-05-27 | 2009-12-10 | Fujifilm Corp | Attention degree calculation device, method, and program |
US8379931B2 (en) | 2008-06-27 | 2013-02-19 | Canon Kabushiki Kaisha | Image processing apparatus for retrieving object from moving image and method thereof |
US8300926B2 (en) | 2008-07-09 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US8270806B2 (en) | 2008-10-29 | 2012-09-18 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling same |
JP2010166256A (en) * | 2009-01-14 | 2010-07-29 | Sony Corp | Information processor, information processing method, and program |
US9734406B2 (en) | 2009-01-14 | 2017-08-15 | Sony Corporation | Information processing device, information processing method and program |
JP2015515770A (en) * | 2012-02-29 | 2015-05-28 | アルトネット、インコーポレイテッド | Stream recognition and filtering |
US9703869B2 (en) | 2012-02-29 | 2017-07-11 | Global File Systems Holdings, Llc | Stream recognition and filtering |
US10068017B2 (en) | 2012-02-29 | 2018-09-04 | Global File Systems Holdings, Llc | Stream recognition and filtering |
Also Published As
Publication number | Publication date |
---|---|
JP3312105B2 (en) | 2002-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3312105B2 (en) | Moving image index generation method and generation device | |
CN107633241B (en) | Method and device for automatically marking and tracking object in panoramic video | |
JP4226730B2 (en) | Object region information generation method, object region information generation device, video information processing method, and information processing device | |
CN101689394B (en) | Method and system for video indexing and video synopsis | |
EP2426917A1 (en) | Display control device, display control method, and program | |
JP6179889B2 (en) | Comment information generation device and comment display device | |
US6342904B1 (en) | Creating a slide presentation from full motion video | |
US9361943B2 (en) | System and method for tagging objects in a panoramic video and associating functions and indexing panoramic images with same | |
US8614741B2 (en) | Method and apparatus for intelligent and automatic sensor control using multimedia database system | |
JP4973188B2 (en) | Video classification device, video classification program, video search device, and video search program | |
US11758082B2 (en) | System for automatic video reframing | |
JP2002536729A (en) | System and method for representing trajectories of moving objects for indexing and searching visual animated data based on content | |
JP2002359777A (en) | Time space region information processing method and time space region information processing system | |
JP2019186689A (en) | Information processing apparatus, system, analysis method, computer program, and storage medium | |
JP6203188B2 (en) | Similar image search device | |
JP3372096B2 (en) | Image information access device | |
JP2003303333A (en) | Image display control device | |
EP0636994B1 (en) | Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images | |
WO1999005865A1 (en) | Content-based video access | |
US6256401B1 (en) | System and method for storage, retrieval and display of information relating to marine specimens in public aquariums | |
JP2009123020A (en) | Information processor, information processing method, program and recording medium | |
JPH11134352A (en) | Moving picture display method | |
JP2006244424A (en) | Image scene classifying method and device and program | |
JP2004080156A (en) | Image processing apparatus, image processing method, program, recording medium, and image processing system | |
Babaguchi et al. | A System for Visualization and Summarization of Omnidirectional Surveillance Video. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090524 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090524 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100524 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110524 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110524 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120524 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120524 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130524 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130524 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140524 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |