JP2000287165A - Image information description method, video image retrieval method, video reproduction method, video retrieval device and video reproduction device - Google Patents

Image information description method, video image retrieval method, video reproduction method, video retrieval device and video reproduction device

Info

Publication number
JP2000287165A
JP2000287165A JP11339465A JP33946599A JP2000287165A JP 2000287165 A JP2000287165 A JP 2000287165A JP 11339465 A JP11339465 A JP 11339465A JP 33946599 A JP33946599 A JP 33946599A JP 2000287165 A JP2000287165 A JP 2000287165A
Authority
JP
Japan
Prior art keywords
information
video
sample image
frame
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11339465A
Other languages
Japanese (ja)
Other versions
JP4574771B2 (en
Inventor
Osamu Hori
修 堀
Toshimitsu Kaneko
敏充 金子
Takeshi Mita
雄志 三田
Koji Yamamoto
晃司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP33946599A priority Critical patent/JP4574771B2/en
Publication of JP2000287165A publication Critical patent/JP2000287165A/en
Application granted granted Critical
Publication of JP4574771B2 publication Critical patent/JP4574771B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to facilitate retrieval by confirming the contents of a video data through representative frame display or variable speed reproduction from compression coded video data in compliance with the MPEG-2 or the like even with a retrieval device having a low CPU capability. SOLUTION: Information such as the frame number of an original video frame and the size of each sampled image frame corresponding to a sampled image frame group is described as sampled image information relating to the sampled image frame group resulting from sampling a video frame group of the original video data 101 into an optional spatial size at an optional temporal interval and the scene change position information of the original video frame group and inter-frame screen change amount information area described together as attached information. Then a database is built up by cross-referencing the resultant time-space sampled video meta data 102 with the original video data 101, and the original video data are subject to representative frame display or variable speed reproduction by using the time-space sampled video meta data 102.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像情報、特に映像
フレーム群を時間的に任意の間隔でかつ空間的に任意の
大きさでサンプリングした標本画像フレーム群に関する
標本画像情報を記述する方法および該標本画像情報を用
いた映像検索並びに映像再生の方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for describing image information, particularly sample image information relating to a sample image frame group obtained by sampling a video frame group at an arbitrary time interval and at an arbitrary spatial size. The present invention relates to a method and apparatus for video search and video playback using sample image information.

【0002】[0002]

【従来の技術】近年、半導体技術およびディジタル信号
処理技術の進歩により、動画像(映像)情報をアナログ
データからディジタルデータに変換して圧縮する処理を
リアルタイムに行うことが可能となっている。実際、デ
ィジタル衛星放送では、動画像圧縮の国際標準規格であ
るMPEG−2により圧縮符号化されたディジタル映像
データが配信され、各家庭で圧縮映像データをリアルタ
イムで伸長復号化してテレビ受像機で映画等を観賞でき
るようになっている。
2. Description of the Related Art Recent advances in semiconductor technology and digital signal processing technology have made it possible to convert video (video) information from analog data to digital data and compress the data in real time. In fact, in digital satellite broadcasting, digital video data compressed and encoded by MPEG-2, which is the international standard for moving picture compression, is distributed. And so on.

【0003】また、光ディスクの高密度化により、MP
EG−2等で圧縮されたディジタル映像データを記録す
る技術も実用段階に達しつつある。このような光ディス
ク媒体の代表的なものとして、DVD−RAMやCD−
RWがある。DVD−RAMより記録時間は短いが、H
DDにおいてもディジタル映像データの記録が可能であ
る。今後、DVD−RAM等に記録されたディジタル映
像データについても、ディジタル化された文字や静止画
データと同様に、容易に検索できるようにすることが要
求されると考えられる。
[0003] Also, with the increase in the density of optical discs, MP
The technology of recording digital video data compressed by EG-2 or the like has also reached the practical stage. A typical example of such an optical disk medium is a DVD-RAM or a CD-RAM.
There is RW. Although the recording time is shorter than DVD-RAM,
Digital video data can also be recorded in DD. In the future, digital video data recorded on a DVD-RAM or the like will be required to be easily searched, like digitalized character and still image data.

【0004】映像検索の古典的手法は、映画等の映像フ
ァイル毎にタイトル名、およびキーワードを定めてお
き、タイトル名およびキーワードのいずれか一方または
両方によって検索するというものである。この方法は、
検索そのものは容易であるが、映像の内容に応じた細か
な検索ができず、実際に映像を再生表示しないと所望の
映像かどうかが分からないのが欠点である。
[0004] A classic technique of video search is to define a title and a keyword for each video file such as a movie, and to search by either or both of the title and the keyword. This method
Although the search itself is easy, it is difficult to perform a detailed search according to the content of the video, and the disadvantage is that it is impossible to know whether or not the video is the desired video without actually reproducing and displaying the video.

【0005】圧縮されたディジタル映像データを記録す
る際、映像を静止画像フレームの連続として扱うことが
できるため、画像処理技術によって元の映像から代表フ
レームと呼ばれる特徴的な画像フレームを選択し、一覧
表示する方法が考えられている。代表フレームとして
は、シーンチェンジと呼ばれる画面が切り替わる部分を
用いる場合が多い。しかし、シーンチェンジは数秒に一
回、場合によっては数十秒に一回といった頻度でしか起
こらないため、代表フレームで映像の内容を表現するに
は限界がある。シーンチェンジとシーンチェンジの間の
フレームの映像を確認しようとすると、元の映像データ
を復号して表示するしかない。
When recording compressed digital video data, since a video can be treated as a sequence of still image frames, a characteristic image frame called a representative frame is selected from the original video by an image processing technique, and the list is selected. A method of displaying is considered. As a representative frame, a portion called a scene change at which a screen is switched is often used. However, since a scene change occurs only once every few seconds, and sometimes once every several tens of seconds, there is a limit in expressing the contents of a video in a representative frame. The only way to check the video of a frame between scene changes is to decode and display the original video data.

【0006】MPEG−1,MPEG−2といった国際
標準規格で圧縮されたディジタル映像データには、ある
程度ランダムアクセスするための仕組みが入っており、
ランダム再生、早送り再生等の可変速再生(トリックプ
レイ)ができるようになっている。しかし、これらの可
変速再生はディジタル映像データそのものを操作するこ
とにより行われるために処理が重く、計算機パワーの小
さい家庭用の受信機器では処理の負担が大きい。また、
ビデオ・オン・デマンドやインターネットでのブラウズ
のように、遠隔地に設置されたサーバからネットワーク
を通してディジタル映像データを配信し、家庭のコンピ
ュータやテレビ受像機で受信するような環境で上記の可
変速再生を行うことは、ネットワークのトラフィックを
増大させてしまうという困難がある。
Digital video data compressed according to international standards such as MPEG-1 and MPEG-2 has a mechanism for random access to some extent.
Variable speed reproduction (trick play) such as random reproduction and fast forward reproduction can be performed. However, these variable speed reproductions are performed by manipulating the digital video data itself, so that the processing is heavy, and the processing load is large for a home-use receiving device having a small computer power. Also,
The above-mentioned variable-speed playback in an environment where digital video data is distributed from a server installed at a remote location through a network and received by a home computer or television receiver, such as video-on-demand or browsing on the Internet Is difficult to increase network traffic.

【0007】[0007]

【発明が解決しようとする課題】上述したように、従来
の一般的な映像検索は映像ファイルに付与されたタイト
ル名やキーワードで検索する程度であり、映像の内容を
確認して検索するという環境は十分に提供されていない
のが実情である。
As described above, in the conventional general video search, the search is performed only by the title name or keyword assigned to the video file. Is not provided enough.

【0008】また、元の映像からシーンチェンジの部分
を代表フレームとして選択して一覧表示する方法では、
シーンチェンジとシーンチェンジの間のフレームの映像
を確認することができないという問題点がある。
In a method of selecting a scene change portion from an original video as a representative frame and displaying it in a list,
There is a problem in that it is not possible to check the video of a frame between scene changes.

【0009】さらに、MPEG−1,MPEG−2のよ
うな動画像圧縮の国際標準規格に組み込まれた可変速再
生の仕組みでは、ディジタル映像データそのものを操作
することで可変速再生を行うことから、計算機パワーの
小さい機器では処理の負担が大きく、またネットワーク
を通して配信されるディジタル映像データを受信するよ
うな環境で可変速再生を行おうとすると、ネットワーク
のトラフィックを増大させてしまうという問題点があっ
た。
Further, in the variable speed reproduction mechanism incorporated in the international standard for moving picture compression such as MPEG-1 and MPEG-2, the variable speed reproduction is performed by operating the digital video data itself. There is a problem in that the processing load is heavy on a device with a small computer power, and when trying to perform variable speed playback in an environment where digital video data distributed through a network is received, network traffic increases. .

【0010】本発明は、映像の内容を確認しての検索や
表示を行うことができる画像情報記述方法を提供するこ
とを主たる目的とする。
[0010] It is a main object of the present invention to provide an image information description method capable of performing search and display while confirming the contents of a video.

【0011】また、所望のフレームがシーンチェンジと
シーンチェンジの間に存在するような場合でも良好な映
像検索ができるようにすることを目的としている。
Another object of the present invention is to enable good image retrieval even when a desired frame exists between scene changes.

【0012】さらに、映像の可変速再生等を行う場合の
処理量を軽減し、計算機パワーの小さな機器やネットワ
ーク上でも容易に実現できるようにすることを目的とす
る。
It is another object of the present invention to reduce the amount of processing when performing variable-speed playback of video and the like, so that it can be easily realized even on a device with a small computer power or on a network.

【0013】[0013]

【課題を解決するための手段】上記の課題を解決するた
め、本発明に係る画像情報記述方法は、映像フレーム群
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た標本画像フレーム群に関する標本画
像情報として、該標本画像フレーム群のそれぞれに対応
する映像フレームを特定するための属性情報を記述する
ことを基本的な特徴とする。
In order to solve the above-mentioned problems, an image information description method according to the present invention samples a video frame group at an arbitrary time interval and at an arbitrary spatial size. The basic feature is that attribute information for specifying a video frame corresponding to each of the sample image frame groups is described as sample image information regarding the obtained sample image frame group.

【0014】また、このような属性情報からなる標本画
像情報に加え、該標本画像フレーム群のそれぞれに対応
する映像フレームを特定するための属性情報を記述し、
さらに映像フレーム群に関する付帯情報を記述すること
を特徴とする。
Further, in addition to the sample image information including such attribute information, attribute information for specifying a video frame corresponding to each of the sample image frame groups is described.
Further, it is characterized in that the additional information on the video frame group is described.

【0015】ここで、属性情報は、標本画像フレーム群
のそれぞれに対応する映像フレームの時間軸上の位置を
示す位置情報、標本画像フレームの大きさに関する情報
のいずれかまたはその両方を含む。
Here, the attribute information includes one or both of position information indicating a position on the time axis of a video frame corresponding to each of the sample image frame groups and information relating to the size of the sample image frame.

【0016】付帯情報は、映像フレーム群のシーンチェ
ンジ位置情報、映像フレーム群のフレーム間の画面変化
量の情報のいずれか、またはその両方を含む。
The supplementary information includes one or both of scene change position information of a video frame group and information of a screen change amount between frames of the video frame group.

【0017】標本画像情報としては、標本画像フレーム
群の画像データまたは該標本画像フレーム群の前記映像
フレーム群へのポインタを併せて記述してもよい。
As the sample image information, image data of a sample image frame group or a pointer to the video frame group of the sample image frame group may be described together.

【0018】また、本発明によると、上記のような画像
情報記述方法により記述された標本画像情報または標本
画像情報および付帯情報を映像フレームの画像データと
共に、あるいは該画像データとは別に格納した記録媒体
が提供される。
According to the present invention, there is provided a recording method in which sample image information or sample image information and supplementary information described by the above-described image information description method are stored together with image data of a video frame or separately from the image data. A medium is provided.

【0019】さらに、本発明によると、上記のような画
像情報記述方法により記述された標本画像情報または標
本画像情報および付帯情報を用いて、以下のように標本
画像フレーム群を対象とした映像検索や映像再生を行う
環境を提供することができる。
Further, according to the present invention, a video search for a sample image frame group is performed as follows using the sample image information or the sample image information and the supplementary information described by the image information description method as described above. And an environment for reproducing video.

【0020】すなわち、本発明に係る第1の映像検索方
法/装置は、映像フレーム群を時間的に任意の間隔でか
つ空間的に任意の大きさにサンプリングして得た標本画
像フレーム群に関する標本画像情報として、少なくとも
該標本画像フレーム群のそれぞれに対応する映像フレー
ムの時間軸上の位置を示す第1の位置情報を記述してお
き、第1の位置情報と与えられた所望の映像フレームの
時間軸上の位置を示す第2の位置情報に基づいて、第2
の位置情報に最も近い第1の位置情報を有する標本画像
フレームを検索することを特徴とする。
That is, a first video search method / apparatus according to the present invention provides a sample related to a sample image frame group obtained by sampling a video frame group at an arbitrary time interval and at an arbitrary spatial size. As image information, at least first position information indicating a position on a time axis of a video frame corresponding to each of the sample image frame groups is described, and the first position information and a given desired video frame Based on the second position information indicating the position on the time axis, the second
A search is made for a sample image frame having the first position information closest to the position information.

【0021】このように本発明により記述された標本画
像情報を用いることで、計算機パワーやトラフィックに
負担をかけることなく、所望フレームの映像検索を容易
に行うことが可能となる。
As described above, by using the sample image information described according to the present invention, it is possible to easily perform a video search for a desired frame without imposing a load on computer power or traffic.

【0022】本発明に係る他の映像検索方法/装置は、
映像フレーム群を時間的に任意の間隔でかつ空間的に任
意の大きさにサンプリングして得た標本画像フレーム群
に関する標本画像情報として、少なくとも該標本画像フ
レーム群のそれぞれに対応する映像フレームの時間軸上
の位置を示す第1の位置情報を記述し、さらに映像フレ
ーム群のシーンチェンジ位置情報を付帯情報として併せ
て記述しておき、第1の位置情報と与えられた所望の映
像フレームの時間軸上の位置を示す第2の位置情報およ
びシーンチェンジ位置情報に基づいて、第2の位置情報
とこれに最も近いシーンチェンジ位置情報との時間的な
前後関係に応じて該シーンチェンジ位置情報より時間的
に前または後の第2の位置情報に最も近い第1の位置情
報を有する標本画像フレームを検索することを特徴とす
る。
Another video search method / apparatus according to the present invention comprises:
As sample image information relating to a sample image frame group obtained by sampling the video frame group at an arbitrary time interval and an arbitrary size spatially, at least the time of an image frame corresponding to each of the sample image frame groups The first position information indicating the position on the axis is described, and the scene change position information of the video frame group is also described as additional information, and the first position information and the time of the given desired video frame are described. Based on the second position information indicating the position on the axis and the scene change position information, the second position information and the scene change position information closest to the second position information are determined based on the temporal order of the scene change position information. The method is characterized in that a sample image frame having the first position information closest to the second position information before or after in time is searched.

【0023】より具体的には、所望のフレームに最も近
いシーンチェンジ位置を検出し、所望のフレームがその
シーンチェンジ位置から時間的に前か後にあるかを判定
して、前者の場合はそのシーンチェンジ位置より前で所
望のフレームに最も近い映像フレームを検索し、後者の
場合はそのシーンチェンジ位置より後で所望のフレーム
に最も近い映像フレームを検索する。
More specifically, a scene change position closest to a desired frame is detected, and it is determined whether the desired frame is temporally before or after the scene change position. The video frame closest to the desired frame is searched before the change position, and in the latter case, the video frame closest to the desired frame after the scene change position is searched.

【0024】このようにシーンチェンジ位置情報を付帯
情報として記述することによって、所望のフレームとよ
り類似した標本画像フレームの検索が可能となる。
By describing the scene change position information as supplementary information in this way, it is possible to search for a sample image frame more similar to a desired frame.

【0025】本発明に係るさらに別の映像検索方法/装
置は、映像フレーム群を時間的に任意の間隔でかつ空間
的に任意の大きさにサンプリングして得た標本画像フレ
ーム群に関する標本画像情報として、少なくとも該標本
画像フレーム群のそれぞれに対応する映像フレームの時
間軸上の位置を示す位置情報を記述しておき、検索対象
画像を提示し、標本画像フレーム群から該検索対象画像
との差分が所定の閾値以下の標本画像フレームを検索す
ることを特徴とする。この場合、検索対象画像との差が
所定の閾値以下の標本画像フレームに対して記述された
位置情報を検索結果として記録するようにしてもよい。
Still another video search method / apparatus according to the present invention provides sample image information relating to a sample image frame group obtained by sampling a video frame group at an arbitrary time interval and at an arbitrary spatial size. As at least, position information indicating a position on the time axis of a video frame corresponding to each of the sample image frame groups is described, a search target image is presented, and a difference between the sample image frame group and the search target image is defined. Is searched for a sample image frame having a predetermined threshold or less. In this case, position information described for a sample image frame whose difference from the search target image is equal to or smaller than a predetermined threshold may be recorded as a search result.

【0026】このように検索対象画像と各標本画像フレ
ームの画像との差分、例えば絶対値差分の合計を求め、
この値が小さい標本画像フレームを検索することによっ
ても、所望フレームの検索ができる。
In this way, the difference between the image to be searched and the image of each sample image frame, for example, the sum of the absolute value differences is obtained.
A desired frame can also be searched by searching for a sample image frame having a small value.

【0027】本発明に係る映像再生方法/装置は、映像
フレーム群を時間的に任意の間隔でかつ空間的に任意の
大きさにサンプリングして得た標本画像フレーム群に関
する標本画像情報として、少なくとも該標本画像フレー
ム群のそれぞれに対応する映像フレームの時間軸上の位
置を示す位置情報を記述し、さらに映像フレーム群のフ
レーム間の画面変化量の情報を付帯情報として併せて記
述しておき、標本画像フレーム群を用いて、画面変化量
の情報に応じて標本画像フレームの取得位置を変化させ
ることにより映像の可変速再生を行うことを特徴とす
る。
According to the video reproducing method / apparatus of the present invention, at least sample image information relating to a sample image frame group obtained by sampling a video frame group at an arbitrary time interval and an arbitrary size spatially is provided. Position information indicating the position on the time axis of the video frame corresponding to each of the sample image frame group is described, and information on the amount of screen change between frames of the video frame group is additionally described as additional information, Using a sample image frame group, variable speed reproduction of video is performed by changing the acquisition position of the sample image frame in accordance with the information on the amount of screen change.

【0028】すなわち、画面変化量が画面変化量が大き
いところでは再生速度を遅く、また画面変化量が小さい
ところで再生速度を遅くすることで、画面変化量を一定
に保った見やすい可変速再生を標本画像フレームに対し
て実現することが可能となる。
That is, by reducing the reproduction speed when the screen change amount is large, and slowing down the reproduction speed when the screen change amount is small, the variable speed reproduction which is easy to read while the screen change amount is kept constant is sampled. This can be realized for an image frame.

【0029】[0029]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0030】図1は、本発明の一実施形態に係るシステ
ムアーキテクチャを示している。このシステムは大きく
分けてデータベース100、映像表示エンジン104、
検索エンジン/標本画像表示エンジン105、コントロ
ーラ106および表示部107からなる。データベース
100の内容は、後に詳しく説明する元映像データ10
1と時・空間標本映像メタデータ102、および両者を
対応付ける対応テーブル103(対応関数テーブルでも
よい)の3つのコンポーネントからなっている。
FIG. 1 shows a system architecture according to an embodiment of the present invention. This system is roughly divided into a database 100, a video display engine 104,
It comprises a search engine / specimen image display engine 105, a controller 106 and a display unit 107. The contents of the database 100 are the original video data 10 described in detail later.
1 and the spatiotemporal sample video metadata 102 and a correspondence table 103 (or a correspondence function table) for associating the two.

【0031】データベース100は一箇所に集中配置さ
れていてもよいし、複数箇所に分散配置されていてもよ
く、要は映像表示エンジン104や検索エンジン/標本
画像表示エンジン105でアクセスすることができれば
よい。元映像データ101と時・空間標本映像メタデー
タ102は、別々の媒体に格納されていてもよいし、同
一の媒体に格納されていてもよい。媒体としては、例え
ばDVD等が用いられる。また、元映像データ101は
一箇所に記憶されるのではなく、ネットワークを介して
伝送されるデータであってもよい。
The database 100 may be centrally arranged at one place or may be dispersedly arranged at plural places. In short, the database 100 can be accessed by the video display engine 104 or the search engine / sample image display engine 105. Good. The original video data 101 and the spatiotemporal sample video metadata 102 may be stored on different media or may be stored on the same media. As the medium, for example, a DVD or the like is used. The original video data 101 may be data transmitted via a network instead of being stored in one place.

【0032】映像表示エンジン104は、コントローラ
106による制御の下で元映像データ101を表示部1
07で表示させるための処理を行う。さらに、映像表示
エンジン104は、検索エンジン/標本画像表示エンジ
ン105により時・空間標本映像メタデータ102に基
づいて元映像データ101が検索された場合には、元映
像データ101の検索された部分を表示部107で表示
させるための処理も行う。
The video display engine 104 displays the original video data 101 on the display unit 1 under the control of the controller 106.
A process for displaying at 07 is performed. Further, when the search engine / sample image display engine 105 searches for the original video data 101 based on the spatiotemporal sample video metadata 102, the video display engine 104 displays the searched portion of the original video data 101. Processing for displaying on the display unit 107 is also performed.

【0033】検索エンジン/標本画像表示エンジン10
5は、コントローラ106による制御の下で、後に詳し
く説明する時・空間標本映像メタデータ102から、元
映像データ101の所望フレーム近傍の適切な標本画像
フレームを検索し、それらを代表フレームとして表示部
107で表示させたり、時・空間標本映像メタデータ1
02を用いてコントローラ106を介して元映像データ
101の検索を行う。
Search Engine / Specimen Image Display Engine 10
5 retrieves an appropriate sample image frame in the vicinity of a desired frame of the original video data 101 from the spatiotemporal sample video metadata 102, which will be described in detail later, under the control of the controller 106, and uses them as a representative frame. 107, or spatio-temporal sample video metadata 1
The search for the original video data 101 is performed via the controller 106 using 02.

【0034】ここで、検索エンジン/標本画像表示エン
ジン105と、映像表示エンジン104との違いについ
て説明すると、前者は容量の少ない時・空間標本映像メ
タデータ102の中の標本画像フレーム群を処理するの
で、受信機器に内蔵の能力の低いPC上のソフトウェア
として実装しても十分な処理速度を得ることができる。
Here, the difference between the search engine / sample image display engine 105 and the image display engine 104 will be described. The former processes a group of sample image frames in the spatiotemporal sample image metadata 102 having a small capacity. Therefore, a sufficient processing speed can be obtained even if it is implemented as software on a PC having a low capacity built in the receiving device.

【0035】後者はMPEG−2映像データやアナログ
映像データである元映像データ101を処理するもので
あるため、特別のハードウェアを実装する必要がある場
合が多い。具体的には、元映像データ101がMPEG
−2による圧縮映像データの場合は、映像表示エンジン
104には特別なデコードボード(MPEG−2デコー
ダ)が用いられ、また元映像データ101がアナログ映
像信号の場合は、映像表示エンジン104としては早送
り、巻き戻しをコントロールできるVTRのような映像
再生装置が用いられる。
Since the latter processes the original video data 101 which is MPEG-2 video data or analog video data, it is often necessary to implement special hardware. Specifically, the original video data 101 is MPEG
-2 compressed video data, a special decode board (MPEG-2 decoder) is used as the video display engine 104. If the original video data 101 is an analog video signal, the video display engine 104 fast-forwards. A video reproducing device such as a VTR that can control rewinding is used.

【0036】なお、元映像データ101がMPEG−1
やMPEG−4による圧縮映像データの場合は、PC上
のソフトウェアでも映像表示エンジン104の実装は可
能であり、システムのアーキテクチャとして分離する必
要はない。
Note that the original video data 101 is MPEG-1
In the case of compressed video data according to MPEG-4 or MPEG-4, the video display engine 104 can be implemented even by software on a PC, and there is no need to separate them as a system architecture.

【0037】対応テーブル103における上下の線のコ
ネクションは概念的なもので、対応テーブル103は元
映像データ101および時・空間標本映像メタデータ1
02と物理的につながっている必要はない。従って、元
映像データ101が格納された媒体は、映像表示エンジ
ン104と同一筐体内に納められる場合があり、また時
・空間標本映像メタデータ102が格納された媒体は、
検索エンジン/標本画像表示エンジン105と同じ筐体
内に納められる場合もある。
The connection between the upper and lower lines in the correspondence table 103 is conceptual, and the correspondence table 103 includes the original video data 101 and the spatiotemporal sample video metadata 1.
02 does not need to be physically connected. Therefore, the medium storing the original video data 101 may be stored in the same housing as the video display engine 104, and the medium storing the spatiotemporal sample video metadata 102
The search engine / specimen image display engine 105 may be housed in the same housing.

【0038】時・空間標本映像メタデータ102が格納
された媒体と検索エンジン/標本画像表示エンジン10
5が離れた位置に存在していたとしても、両者を接続す
る回線としては、伝送容量の比較的小さい、例えば10
Mbpsのネットワークでも十分である。一方、元映像
データ101が格納された媒体と映像表示エンジン10
4を接続する回線は、メデイアの種類によっては100
Mbps以上の回線を用意する必要がある。
The medium storing the spatiotemporal sample video metadata 102 and the search engine / sample image display engine 10
Even if 5 is located at a distance, the line connecting them has a relatively small transmission capacity, for example, 10
A Mbps network is sufficient. On the other hand, the medium storing the original video data 101 and the video display engine 10
The line connecting 4 is 100 depending on the type of media.
It is necessary to prepare a line of Mbps or more.

【0039】図1に示したようなシステムアーキテクチ
ャの有利な点は、検索を元映像データ101を対象にし
て行うのではなく、それよりデータサイズが小さい時・
空間標本映像メタデータ102を対象に行うため、イン
タラクティブな操作を快適に行うことができ、また全体
的にトラフィックを低く抑えることができるという点で
ある。
The advantage of the system architecture as shown in FIG. 1 is that the search is not performed for the original video data 101 but for a smaller data size.
Since the spatial sample video metadata 102 is used as a target, interactive operations can be performed comfortably, and overall traffic can be suppressed low.

【0040】図2は、元映像データ101と時・空間標
本映像メタデータ102の概念図である。元映像データ
101は、MPEG−1,MPEG−2,MPEG−4
等により圧縮されたディジタル映像データまたはアナロ
グデータであり、動画像を構成する映像フレームの集合
(映像フレーム群)からなっている。また、元映像デー
タ101には、各映像フレームの時間軸上の位置を示す
位置情報、例えばメディア時間(以下、単に時間と称す
る)またはフレーム番号という位置情報が関連付けられ
ている。元映像データ101と時・空間映像メタデータ
102の関連付けは、対応テーブル103により時間ま
たはフレーム番号で行われる。
FIG. 2 is a conceptual diagram of the original video data 101 and the spatiotemporal sample video metadata 102. The original video data 101 is MPEG-1, MPEG-2, MPEG-4
Digital video data or analog data compressed by the above method, and is composed of a set of video frames (video frame group) constituting a moving image. The original video data 101 is associated with position information indicating a position on the time axis of each video frame, for example, position information such as a media time (hereinafter simply referred to as time) or a frame number. The association between the original video data 101 and the spatio-temporal video metadata 102 is performed by the correspondence table 103 by time or frame number.

【0041】時・空間標本映像メタデータ102は、標
本画像情報201〜201を主体として構成され、
さらに本実施形態の例では付帯情報としてシーンチェン
ジ位置情報202および画面変化量情報203も含まれ
る。
The spatiotemporal sample video metadata 102 is mainly composed of sample image information 201 1 to 201 n .
Further, in the example of the present embodiment, scene change position information 202 and screen change amount information 203 are also included as supplementary information.

【0042】標本画像情報201〜201は、元映
像データ101を構成する映像フレーム群を時間的に任
意の間隔でかつ空間的に任意の大きさにサンプリングし
て得られた標本画像フレーム群と、各標本画像フレーム
にそれぞれ対応する元映像フレームの時間軸上の位置を
示す位置情報(時間またはフレーム番号)と、各標本画
像フレームの大きさを示す大きさ情報等の該標本画像フ
レームを特定するための属性情報とからなる。これらの
属性情報のうち、前者の各標本画像フレームにそれぞれ
対応する元映像フレームの時間軸上の位置を示す位置情
報(時間またはフレーム番号)は、対応テーブル103
を参照して記述される。
The sample image information 201 1 to 201 n is a sample image frame group obtained by sampling a video frame group constituting the original video data 101 at an arbitrary time interval and at an arbitrary spatial size. And position information (time or frame number) indicating the position on the time axis of the original video frame corresponding to each sample image frame, and the sample image frame such as size information indicating the size of each sample image frame. It consists of attribute information for specifying. Among these pieces of attribute information, position information (time or frame number) indicating the position on the time axis of the original video frame corresponding to each of the former sample image frames is stored in the correspondence table 103.
It is described with reference to FIG.

【0043】元映像データ101が圧縮されたディジタ
ル映像データのように既にディジタル化されている場合
には、時・空間標本映像メタデータ102の標本画像情
報201〜201の中の標本画像フレーム群は、元
映像データ101の所望のフレームを復号または部分復
号することで作成される。元映像データ101がアナロ
グデータの場合は、これをディジタル化してから標本画
像フレーム群を作成すればよい。
If the original video data 101 has already been digitized as compressed digital video data, the sample image frames in the sample image information 201 1 to 201 n of the spatiotemporal sample video metadata 102 The group is created by decoding or partially decoding a desired frame of the original video data 101. If the original video data 101 is analog data, the original video data 101 may be digitized before the sample image frame group is created.

【0044】次に、元映像データ101がMPEG−2
圧縮映像データである場合について、属性情報のうちの
前者、すなわち各標本画像フレームにそれぞれ対応する
元映像フレームの時間軸上の位置を示す位置情報(時間
またはフレーム番号)を説明する。この場合は、MPE
G−2圧縮映像データである元映像データ101を復号
して例えば30フレームに1枚、かつ大きさを縦横1/
8ずつ縮小して標本画像フレーム群201〜201
を作成する。また、このように固定の時間サンプリング
と固定の空間サンブリングで標本画像フレーム群を作成
するのでなく、これらを適宜変化させて標本画像フレー
ム群を作成することもできる。画面変化量が少ないとこ
ろでは、時間方向に粗くサンプリングし、画面変化量の
多いところでは時間方向に細かくサンプリングすること
も有効である。
Next, if the original video data 101 is MPEG-2
In the case of compressed video data, the former of the attribute information, that is, position information (time or frame number) indicating the position on the time axis of the original video frame corresponding to each sample image frame will be described. In this case, the MPE
The original video data 101, which is G-2 compressed video data, is decoded and, for example, one frame every 30 frames,
The sample image frame groups 201 1 to 201 n are reduced by 8
Create In addition, instead of creating a sample image frame group by fixed time sampling and fixed spatial sampling as described above, a sample image frame group can be created by appropriately changing these. It is also effective to perform coarse sampling in the time direction where the screen change amount is small, and fine sampling in the time direction where the screen change amount is large.

【0045】MPEG−2圧縮映像データには、Iピク
チャ(フレーム内符号化フレーム)と呼ばれるフレーム
内の相関のみを用いて圧縮したフレームが間欠的に存在
する。IピクチャはPピクチャ(前方予測フレーム間符
号化フレーム)やBピクチャ(双方向予測フレーム間符
号化フレーム)のようにフレーム間の相関を用いて圧縮
していないために、復号が容易である。そこで、標本画
像フレーム群を作成するに当たり元映像データ101の
Iピクチャのみについて、しかもIピクチャのDCT
(離散コサイン変換)係数のうちのDC成分のみを復号
すれば、より容易に時間的かつ空間的にサンプリングし
た標本画像フレーム群を得ることができる。
In the MPEG-2 compressed video data, there are intermittently frames compressed using only a correlation in a frame called an I picture (intra-frame coded frame). I-pictures are easy to decode because they are not compressed using correlation between frames, unlike P-pictures (forward-predicted inter-coded frames) and B-pictures (bi-directionally predicted inter-coded frames). Therefore, when creating a sample image frame group, only the I picture of the original video data 101 and the DCT of the I picture are used.
(Discrete cosine transform) By decoding only the DC component of the coefficients, a sample image frame group sampled temporally and spatially can be obtained more easily.

【0046】Iピクチャは、必ずしもー定のフレーム間
隔で存在することが保証されていないが、MPEG−2
により圧縮された映像データからビデオレート以上のス
ビードで、時間的かつ空間的にサンプリングした標本画
像フレーム群を作成するにはIピクチャを用いる方法が
有効である。
Although it is not always guaranteed that I-pictures exist at a constant frame interval, MPEG-2
In order to create a sample image frame group sampled temporally and spatially at a speed equal to or higher than the video rate from the video data compressed by the method described above, a method using an I picture is effective.

【0047】このようにIピクチャから標本画像フレー
ム群を作成する方法は、処理量が少ないために、特別な
ハードウェアを用いなくとも、PC上のソフトウェアだ
けで処理が可能である利点がある。また、ネットワーク
を介して元映像データ101から標本画像フレーム群を
作成する際にも、Iピクチャを用いると、トラフィック
増大の問題を容易に回避することができる。
The method of creating a sample image frame group from an I picture as described above has an advantage that the processing amount is small and processing can be performed only by software on a PC without using special hardware. Also, when a sample image frame group is created from the original video data 101 via the network, the problem of traffic increase can be easily avoided by using the I picture.

【0048】一方、標本画像フレーム群を作成する際の
元映像データ101の空間方向のサンプリングも固定で
ある必要はなく、適宜可変とすることができ、場合によ
っては縮小のみでなく、特に重要な画面のフレームにつ
いては拡大しても構わない。上述したように、標本画像
情報201は標本画像フレーム群と標本画像フレームの
属性情報が含まれており、属性情報に標本画像フレーム
群の大きさ情報が含まれているので、検索または表示時
に標本画像フレームを適宜所望の大きさに変換してから
用いることができる。
On the other hand, the sampling of the original video data 101 in the spatial direction at the time of creating the sample image frame group does not need to be fixed, and can be appropriately changed. In some cases, not only reduction but also particularly important The frame of the screen may be enlarged. As described above, the sample image information 201 includes the sample image frame group and the attribute information of the sample image frame, and the attribute information includes the size information of the sample image frame group. The image frame can be used after being appropriately converted to a desired size.

【0049】図3に、標本画像情報201の具体的な記
述例を示す。標本画像情報は標本画像フレーム群の各フ
レーム毎に記述される情報であり、この例では(1)当
該標本画像フレームに対応する元映像データのフレーム
番号または時間、(2)当該標本画像フレームの大きさ
(高さ×幅)、(3)次の標本画像フレームまでのフレ
ーム数または時間、(4)JPEG,RGB,YUVと
いった標本画像フレームの画像形式、(5)標本画像フ
レームの画像データ(または元映像データ101へのポ
インタ)からなっている。ここで、(3)、(4)、
(5)は必須でなく、いずれかが省略されていてもよ
い。また、(1)〜(5)以外の付加的情報がさらに含
まれていてもよい。
FIG. 3 shows a specific description example of the sample image information 201. The sample image information is information described for each frame of the sample image frame group. In this example, (1) the frame number or time of the original video data corresponding to the sample image frame, (2) the sample image frame Size (height x width), (3) number of frames or time to the next sample image frame, (4) image format of sample image frame such as JPEG, RGB, YUV, (5) image data of sample image frame ( Or a pointer to the original video data 101). Where (3), (4),
(5) is not essential, and any of them may be omitted. Further, additional information other than (1) to (5) may be further included.

【0050】標本画像フレーム群を時間的に連続したフ
レーム群からなる映像データ(後述する標本映像)とし
て扱ってもよい。その映像データを例えばAVIファイ
ルやMPEG−4ファイルに圧縮することにより、さら
にコンパクトにすることも可能である。その場合、その
映像データは、元映像データ101の映像フレームへの
ファイルポインタとフレーム番号となる。従って、その
映像データから任意のフレームの画像を取得するための
インタフェースが必要となる。
The sample image frame group may be treated as video data (sample video described later) composed of a temporally continuous frame group. By compressing the video data into, for example, an AVI file or an MPEG-4 file, it is possible to further reduce the size. In that case, the video data is a file pointer to the video frame of the original video data 101 and a frame number. Therefore, an interface for acquiring an image of an arbitrary frame from the video data is required.

【0051】図4は、メタデータ102の管理構造を示
している。この例では、標本画像情報201,201
、…を管理するためにリスト構造を利用している。R
oot401からフレーム番号の小さい順に標本画像情
報201,201、…へのポインタとなるリスト4
02、403、404、405をつなげてゆき、End
406が最終のフラグとなる。リスト402,403,
404,405の番号ID1,ID2,ID3,ID4
は概念的なもので、この順番に各リスト402,40
3,404,405が並んでいることを意味する。この
例ではリスト402,403、404,405から実際
の標本画像情報201,201、202、202
のある場所を指し示しポインタが張られている。
FIG. 4 shows a management structure of the metadata 102. In this example, the specimen image information 201 1 , 201
2 , a list structure is used to manage. R
list 4 which is a pointer from sample 401 to sample image information 201 1 , 201 2 ,.
Connect 02, 403, 404, 405 and End
406 is the final flag. Lists 402, 403,
Numbers ID1, ID2, ID3, ID4 of 404, 405
Are conceptual, and the lists 402 and 40 are listed in this order.
3, 404, 405 are arranged. In this example, the actual sample image information 201 1 , 201 2 , 202 3 , 202 from the lists 402, 403, 404, 405
4 is pointed to and pointed to.

【0052】このようなリスト構造にすると、標本画像
情報の追加・削除が容易である。新しい標本画像フレー
ムを追加するときは、フレーム番号を順に調べてゆき、
フレーム番号の大小が逆転しないように標本画像情報の
追加を行う。標本画像フレームを削除するときは、対応
する標本画像情報をリストから取り外せばよい。
With such a list structure, it is easy to add and delete specimen image information. When adding a new sample image frame, look up the frame number in order,
Sample image information is added so that the size of the frame number does not reverse. When deleting a sample image frame, the corresponding sample image information may be removed from the list.

【0053】このように標本画像情報201の管理をリ
スト構造として追加・削除を容易にする理由は、標本画
像フレームとして最初に決められたものだけでなく、後
から追加したい場合が多々あることを考慮している。例
えば、MPEG−2圧縮映像データのIピクチャを標本
画像フレームとして登録した後に、MPEG−2圧縮映
像のシーンチェンジ位置を検出し、そのシーンチェンジ
位置のフレームを標本画像フレームとして登録したい場
合が生じる。この場合、先に述べたIピクチャからの標
本画像フレームについてはDC成分のみからなる縮小画
像として登録し、シーンチェンジ位置の標本画像フレー
ムについては重要なフレームなので、フルサイズの画像
フレームとして登録することも可能である。
The reason for facilitating the addition / deletion of the management of the sample image information 201 in the form of a list structure is that there are many cases where it is desired to add not only the sample image frame initially determined but also the sample image frame later. Take into account. For example, after registering an I picture of MPEG-2 compressed video data as a sample image frame, a scene change position of the MPEG-2 compressed video may be detected, and a frame at the scene change position may be registered as a sample image frame. In this case, the sample image frame from the I picture described above should be registered as a reduced image consisting only of the DC component, and the sample image frame at the scene change position should be registered as a full-size image frame because it is an important frame. Is also possible.

【0054】なお、標本画像情報の他の記述例について
は、後述する。
Other examples of description of the sample image information will be described later.

【0055】次に、図5を用いて標本画像情報201の
記述方法の具体的な手順を元映像データ101がMPE
G−2圧縮映像データである場合を例にとり説明する。
図5は、標本画像情報201の記述を含む時・空間標本
映像メタデータ102の記録手順を示すフローチャート
である。
Next, a specific procedure of the description method of the sample image information 201 will be described with reference to FIG.
The case of G-2 compressed video data will be described as an example.
FIG. 5 is a flowchart showing a recording procedure of the spatiotemporal specimen video metadata 102 including the description of the specimen image information 201.

【0056】先ず、元映像データ101の映像フレーム
群を読み込み(ステップS11)、元映像フレームを時
間的にサンプリングする(ステップS12)。元映像デ
ータのシーンチェンジ位置を検出する(ステップS1
3)。シーンチェンジ位置は、例えば読み込んだ元映像
データ101の隣接するフレーム間の画面変化量を計算
し、一定値以上の変化があったところをシーンチェンジ
位置として検出する。
First, a video frame group of the original video data 101 is read (step S11), and the original video frame is temporally sampled (step S12). A scene change position of the original video data is detected (step S1)
3). The scene change position is calculated by, for example, calculating a screen change amount between adjacent frames of the read original video data 101, and detecting a scene change position having a change equal to or more than a predetermined value.

【0057】ステップS12での元映像データ101の
時間的なサンプリングは、例えば動きの大きい領域は細
かく、動きの小さい領域は粗くサンプリングする等の処
理を行うこともできる。この例では元映像データ101
がMPEG−2圧縮映像データであるため、ステップS
12においては標本画像フレームを作成するためにIピ
クチャを抽出し、また画面変化量を検出するためにPピ
クチャを抽出する。
The temporal sampling of the original video data 101 in step S12 can be performed, for example, by sampling a region with a large motion finely and a region with a small motion roughly. In this example, the original video data 101
Is MPEG-2 compressed video data,
At 12, an I picture is extracted to create a sample image frame, and a P picture is extracted to detect a screen change amount.

【0058】次に、ステップS12で抽出されたIピク
チャを空間的にサンプリングすることにより、一枚の標
本画像フレームを作成する(ステップS14)。より具
体的には、ステップS14では主としてIピクチャの画
素間引きを行って、縮小画像からなる標本画像フレーム
を作成する。但し、Iピクチャがシーンチェンジ位置の
ような重要なフレームであれば、縮小せずに元映像デー
タのフレームをそのまま標本画像フレームとするか、場
合によっては画素補間により拡大を行って標本画像フレ
ームを作成してもよい。
Next, one sample image frame is created by spatially sampling the I picture extracted in step S12 (step S14). More specifically, in step S14, pixel thinning of the I picture is mainly performed to create a sample image frame including a reduced image. However, if the I picture is an important frame such as a scene change position, the frame of the original video data is used as it is as a sample image frame without reduction, or in some cases, the sample image frame is enlarged by performing pixel interpolation. May be created.

【0059】一方、ステップS12で抽出されたPピク
チャから画面変化量、つまり隣接する画面間の画像の変
化の大きさの情報を取得する(ステップS15)。Pピ
クチャには、前フレームからの動きベクトルの情報がサ
イド情報として付加されているので、この動きベクトル
の大きさや分布から画面変化量を求めることができる。
On the other hand, from the P picture extracted in step S12, information on the amount of screen change, that is, information on the magnitude of image change between adjacent screens is obtained (step S15). Since the information of the motion vector from the previous frame is added to the P picture as side information, the screen change amount can be obtained from the size and distribution of the motion vector.

【0060】次に、ステップS14で作成された標本画
像フレームを必要に応じて圧縮加工した後(ステップS
16)、この圧縮標本画像フレームと、ステップS13
で検出されたシーンチェンジ位置、およびステップS1
5で取得された画面変化量の情報を用いて、図2、図3
に示すような時・空間標本映像メタデータ102を記録
し(ステップS17)、処理は終了する。
Next, after compressing the sample image frame created in step S14 as necessary (step S14).
16), this compressed sample image frame and step S13
Scene change position detected in step S1 and step S1
2 and 3 using the information of the screen change amount acquired in FIG.
Is recorded (step S17), and the process ends.

【0061】すなわち、ステップS17では時・空間標
本映像メタデータ102として、図2に示したように標
本画像情報201、シーンチェンジ位置情報202、画
面変化量情報203の3つの情報を記録する。また、標
本画像情報201は、図3に示したように、(1)当該
標本画像フレームに対応する元映像データのフレーム番
号または時間、(2)当該標本画像フレームの大きさ
(高さ×幅)、(3)次の標本画像フレームまでのフレ
ーム数または時間、(4)JPEG,RGB,YUVと
いった標本画像フレームの画像形式、(5)標本画像フ
レームの画像データ(または元映像データ101へのポ
インタ)を含んでいる。(5)の標本画像フレームの画
像データとは、この例ではステップS12で抽出され、
ステップS14で空間的なサンプリングが施され、さら
に必要に応じてステップS16で圧縮加工された、ある
いは圧縮加工されないIピクチャの画像データである。
That is, in step S17, three pieces of information, ie, sample image information 201, scene change position information 202, and screen change amount information 203 are recorded as the spatiotemporal sample video metadata 102 as shown in FIG. As shown in FIG. 3, the sample image information 201 includes (1) the frame number or time of the original video data corresponding to the sample image frame, and (2) the size (height × width) of the sample image frame. ), (3) the number or time to the next sample image frame, (4) the image format of the sample image frame such as JPEG, RGB, YUV, (5) the image data of the sample image frame (or the original image data 101 Pointer). The image data of the sample image frame of (5) is extracted in step S12 in this example,
This is image data of an I picture that has been subjected to spatial sampling in step S14 and further compressed or uncompressed in step S16 as necessary.

【0062】次に、このようにして記録された時・空間
標本映像メタデータ102の利用形態について説明す
る。
Next, the use of the spatiotemporal sample video metadata 102 thus recorded will be described.

【0063】(1)シーンチェンジ位置情報を用いた標
本画像フレームの検索 所望の映像フレームを表示したい場合、その所望映像フ
レームを元映像データ101から直接検索しようとする
と、処理に時間がかかってしまうことは前述した通りで
ある。その代わり、元映像データをサンプリングして得
られた時・空間標本映像メタデータ102を検索するこ
とにより所望フレームを探せば、処理時間が短くて済
む。しかし、標本画像フレーム群は時間的にサンプリン
グされているので、所望フレームの画像が含まれている
とは限らない。そこで、最も簡単には所望フレームに時
間的に最も近い標本画像フレームを検索して表示すれば
よいことになる。図2の例では、破線で示す所望フレー
ムに、時間的に最も近い標本画像情報201の標本画
像フレームを表示用の画像フレームとする。
(1) Retrieval of Sample Image Frame Using Scene Change Position Information If it is desired to display a desired video frame, it takes time to retrieve the desired video frame directly from the original video data 101. This is as described above. Instead, if the desired frame is searched by searching the spatio-temporal sample video metadata 102 obtained by sampling the original video data, the processing time can be reduced. However, since the sample image frame group is temporally sampled, an image of a desired frame is not always included. Therefore, the simplest method is to search for and display the sample image frame temporally closest to the desired frame. In the example of FIG. 2, the sample image frame of the sample image information 201 n that is temporally closest to the desired frame indicated by the broken line is set as the display image frame.

【0064】この場合、標本画像フレーム群がどの程度
の時間サンプリングで作成されているかによって、所望
フレームと表示用の画像フレームとのずれが決まる。こ
のずれは標本画像フレーム群が十分に短い間隔で時間サ
ンプリングされていれば小さいので、ほとんど問題はな
い。しかし、シーンチェンジがある場合は、必ずしも所
望フレームに時間的に最も近い標本画像フレームが表示
用の画像フレームとして適当とは限らない。すなわち、
所望フレームとそれに最も近い標本画像情報201
含まれる標本画像フレームとの間にシーンチェンジがあ
ると、標本画像情報201よりも一つ前の標本画像情
報201n−1に含まれる標本画像フレームの方が所望
フレームに類似する表示用の画像フレームとして適当で
ある。本実施形態によれば、図2に示したように時・空
間標本映像メタデータ102にシーンチェンジ位置情報
202を付帯情報として付加することによって、この問
題を解決することができる。
In this case, the shift between the desired frame and the display image frame is determined by how long the sample image frame group is created by sampling. This shift has little problem if the sample image frame group is time-sampled at sufficiently short intervals. However, when there is a scene change, the sample image frame that is temporally closest to the desired frame is not always suitable as an image frame for display. That is,
Desired frame and if there is a scene change between the specimen image frames included in the closest specimen image information 201 n to, specimen image included in the sample image data 201 n-1 before one than the specimen image information 201 n The frame is more suitable as a display image frame similar to the desired frame. According to the present embodiment, this problem can be solved by adding the scene change position information 202 as additional information to the spatiotemporal sample video metadata 102 as shown in FIG.

【0065】図6に示すフローチャートを参照して、上
記のようにしてシーンチェンジ情報202を用いて所望
フレームを代表する標本画像フレームを検索する処理手
順を説明する。なお、ここではシーンチェンジ情報20
2は、シーンチェンジ位置のフレーム番号(シーンチェ
ンジフレーム番号という)で表されるものとする。
Referring to the flowchart shown in FIG. 6, a processing procedure for searching for a sample image frame representing a desired frame using the scene change information 202 as described above will be described. Here, the scene change information 20
2 is represented by a frame number at a scene change position (referred to as a scene change frame number).

【0066】先ず、検索したい所望フレームのフレーム
番号が与えられると、当該フレーム番号に一番近いシー
ンチェンジフレーム番号を検索する(ステップS2
1)。
First, when a frame number of a desired frame to be searched is given, a scene change frame number closest to the frame number is searched (step S2).
1).

【0067】次に、(元映像データの)開始フレーム番
号からステップS21で検索されたシーンチェンジフレ
ーム番号までの間に所望のフレーム番号が存在するかど
うかを判定する(ステップS22)。
Next, it is determined whether or not a desired frame number exists between the start frame number (of the original video data) and the scene change frame number searched in step S21 (step S22).

【0068】ステップS22の判定の結果、所望のフレ
ーム番号が開始フレーム番号〜シーンチェンジフレーム
番号の間にあることが分かれば、開始フレーム番号〜シ
ーンチェンジフレーム番号の間において、所望のフレー
ム番号に時間的に(あるいは空間的に)最も近い標本画
像フレームを検索する(ステップS23)。
If it is determined in step S22 that the desired frame number is between the start frame number and the scene change frame number, the time between the start frame number and the scene change frame number is The closest (or spatially) sample image frame is searched (step S23).

【0069】また、ステップS22の判定の結果、所望
のフレーム番号が開始フレーム番号〜シーンチェンジフ
レーム番号の間にないことが分かれば、シーンチェンジ
フレーム番号〜(元映像データの)最終フレーム番号の
間において、所望のフレーム番号に時間的に(あるいは
空間的に)最も近い標本画像フレームを検索する(ステ
ップS24)。
If it is determined in step S22 that the desired frame number is not between the start frame number and the scene change frame number, the scene change frame number and the last frame number (of the original video data) are determined. In, a sample image frame temporally (or spatially) closest to the desired frame number is searched (step S24).

【0070】そして、検索された標本画像フレームを所
望フレームに最も類似する画像として表示し(ステップ
S25)、処理は終了する。
Then, the retrieved sample image frame is displayed as an image most similar to the desired frame (step S25), and the process ends.

【0071】(2)標本画像フレームの検索 次に、図7に示すフローチャートを参照して、時・空間
標本映像メタデータ102を対象としてある画像に類似
する画像を検索する手順について説明する。
(2) Retrieval of Sample Image Frame Next, a procedure for retrieving an image similar to a certain image for the spatiotemporal sample video metadata 102 will be described with reference to the flowchart shown in FIG.

【0072】先ず、検索対象画像R、つまり検索してほ
しい画像を提示する(ステップS31)。
First, a search target image R, that is, an image to be searched is presented (step S31).

【0073】次に、時・空間標本映像メタデータ102
から標本画像フレームを順次1枚ずつ取得する(ステッ
プS33)。
Next, the spatiotemporal sample video metadata 102
, Sample image frames are sequentially acquired one by one (step S33).

【0074】検索対象画像RをステップS33で取得さ
れた標本画像フレームの大きさに正規化する(ステップ
S34)。これは、標本画像フレームは一枚一枚サイズ
が異なるからである。
The search target image R is normalized to the size of the sample image frame acquired in step S33 (step S34). This is because the sample image frames have different sizes one by one.

【0075】ステップS33で取得された標本画像フレ
ームと、ステップS34で正規化された検索対象画像R
との間の類似度、例えば画素毎の絶対値差分の合計を計
算する(ステップS35)。
The sample image frame obtained in step S33 and the search target image R normalized in step S34
, For example, the sum of absolute value differences for each pixel is calculated (step S35).

【0076】この絶対値差分の合計がある閾値以下かど
うかを判定する(ステップS36)。ステップS36の
判定の結果、絶対値差分の合計が閾値以下ならば、ステ
ップS33で取得された標本画像フレームが検索対象画
像Rとほぼ同じであると判断して、その標本画像フレー
ムのフレーム番号を検索結果として記録する(ステップ
S37)。
It is determined whether or not the sum of the absolute value differences is equal to or smaller than a certain threshold (step S36). If the result of the determination in step S36 is that the sum of the absolute value differences is equal to or smaller than the threshold value, it is determined that the sample image frame acquired in step S33 is substantially the same as the search target image R, and the frame number of the sample image frame is changed. It is recorded as a search result (step S37).

【0077】以上の一連の処理をステップS32で全て
の標本画像フレームが取得されたと判定されるまで繰り
返して、処理は終了する。
The above series of processing is repeated until it is determined in step S32 that all the sample image frames have been obtained, and the processing ends.

【0078】次に、図7のフローチャートに示した手順
に従った処理の終了後、以下のようにして検索結果を表
示する。
Next, after the processing according to the procedure shown in the flowchart of FIG. 7 is completed, the search result is displayed as follows.

【0079】ステップS37で検索結果として得られた
標本画像フレームのフレーム番号に基づき、検索された
標本画像フレームを図1における検索エンジン/標本画
像表示エンジン105によって表示部107で表示す
る。
Based on the frame number of the sample image frame obtained as the search result in step S37, the searched sample image frame is displayed on the display unit 107 by the search engine / sample image display engine 105 in FIG.

【0080】あるいは、ステップS37で検索結果とし
て得られた標本画像フレームのフレーム番号に基づき、
元映像データ101をそのフレーム番号の位置から再生
したい場合は、図1に示した対応テーブル103(また
は対応関数テーブル)を用いて、その標本画像フレーム
のフレーム番号に対応する元映像データ101のフレー
ム番号を調べる。そして、コントローラ106にそのフ
レーム番号の情報と表示コマンドを送ることにより、映
像表示エンジン104を用いて元映像データ101の該
当フレームから再生を行い、表示部107で表示する。
Alternatively, based on the frame number of the sample image frame obtained as a search result in step S37,
When the original video data 101 is to be reproduced from the position of the frame number, the frame of the original video data 101 corresponding to the frame number of the sample image frame is determined using the correspondence table 103 (or the corresponding function table) shown in FIG. Look up the number. Then, by transmitting the information of the frame number and the display command to the controller 106, the image is reproduced from the corresponding frame of the original video data 101 using the video display engine 104 and displayed on the display unit 107.

【0081】(3)時・空間標本映像メタデータを用い
た早送り再生 図2に示したように、本実施形態では時・空間標本化ビ
デオメタデータ102には、標本画像情報201以外の
付帯情報として、シーン位置情報202のほか、画面変
化量情報203も記述されている。
(3) Fast-forward playback using spatio-temporal sample video metadata As shown in FIG. 2, in this embodiment, spatio-temporal sampled video metadata 102 includes additional information other than sample image information 201 In addition to the scene position information 202, screen change amount information 203 is described.

【0082】画面変化量情報203は、元映像データ1
01の飛び飛びに存在する映像フレーム間の画面変化量
を示す情報であり、例えばフレーム間の絶対値差分の合
計を用いたり、また元映像データ101がMPEG圧縮
映像データであれば、フレーム間動き補償のデータから
画面全体の動きベクトルの大きさの平均(平均パワー)
を計算して求めることができる。このような画面変化量
情報203を時・空間標本化ビデオメタデータ102に
付帯させることより、高度な可変速再生を行うことがで
きる。
The screen change amount information 203 contains the original video data 1
01 is information indicating the amount of screen change between video frames that exist intermittently. For example, the sum of absolute value differences between frames is used. If the original video data 101 is MPEG-compressed video data, motion compensation between frames is used. Average of motion vector magnitude (average power) of the whole screen from the data of
Can be calculated and obtained. By attaching such screen change amount information 203 to the spatio-temporal sampling video metadata 102, it is possible to perform high-speed variable-speed playback.

【0083】特開平10−243351号(特願平09
−042637号)「映像再生装置」で述べられている
ように、映像を画面の変化が大きいところではゆっくり
と再生し、画面の変化が小さいところでは速く再生する
ことにより、画面の変化量を一定にして見やすい早送り
再生を実現する技術は知られている。この特許では、各
フレーム毎に画面変化が存在し、かつ全てのフレームを
用いることが前提となっているが、本発明のように時間
的に離散した標本画像フレームを対象とし、かつ画面変
化量も時間的に離散して得られる場合については言及さ
れていない。そこで、本実施形態では時間的に離散した
標本画像フレームおよび画面変化量に対して同様の効果
が得られる可変速再生を実現する方法を提供する。
JP-A-10-243351 (Japanese Patent Application No.
As described in “Video playback device”, the amount of screen change is kept constant by playing back the image slowly where the screen change is large and fast at the place where the screen change is small. A technique for realizing fast-forward playback that is easy to view is known. In this patent, it is assumed that there is a screen change for each frame, and that all frames are used. There is no mention of the case where the time is obtained discretely in time. In view of this, the present embodiment provides a method for realizing variable-speed reproduction in which a similar effect is obtained with respect to a temporally discrete sample image frame and a screen change amount.

【0084】最初に、図8に示すフローチャートを参照
して、標本画像フレームを用いて可変速再生を行う場合
の基本的な処理手順を説明する。
First, with reference to a flowchart shown in FIG. 8, a basic processing procedure when performing variable speed reproduction using a sample image frame will be described.

【0085】先ず、可変速再生(この場合は、早送り再
生)を行う範囲の指定を行う(ステップS41)。可変
速再生範囲の開始フレーム番号をFs、終了フレーム番
号をFeとする。
First, a range for performing variable speed reproduction (in this case, fast forward reproduction) is specified (step S41). Let Fs be the start frame number and Fe be the end frame number of the variable speed playback range.

【0086】次に、再生速度倍率m、つまり何倍速で早
送り再生を行うかを指定する(ステップS42)。
Next, the reproduction speed magnification m, that is, how many times the fast forward reproduction is to be performed is specified (step S42).

【0087】次に、再生方向の指定、つまり早送り再生
を順方向再生で行うか逆方向再生で行うかの指定を行う
(ステップS43)。
Next, the reproduction direction is specified, that is, whether fast-forward reproduction is to be performed by forward reproduction or reverse reproduction (step S43).

【0088】次に、標本画像フレームの再生フレームレ
ートr[フレーム/秒]を指定する(ステップS4
4)。再生フレームレートrは、テレビジョン方式によ
って異なり、例えばNTSCの場合は30[フレーム/
秒]、PALの場合は24[フレーム/秒]である。
Next, the reproduction frame rate r [frame / second] of the sample image frame is designated (step S4).
4). The reproduction frame rate r differs depending on the television system. For example, in the case of NTSC, 30 [frame / frame]
Second], and 24 [frames / second] for PAL.

【0089】ここで、元映像データ101のフレームレ
ートがR[フレーム/秒]であったとすると、これを基
に可変速再生時に標本画像フレーム群について読み飛ば
すフレーム数を後述のようにして計算する(ステップS
45)。
Here, assuming that the frame rate of the original video data 101 is R [frame / second], the number of frames to be skipped for the sample image frame group during variable speed reproduction is calculated based on this, as described later. (Step S
45).

【0090】そして、再生フレームレートr[フレーム
/秒]で標本画像フレームの再生を行うために、1/r
秒のサイクルで標本画像フレームを取得して表示を行う
(ステップS46)。
Then, in order to reproduce the sample image frame at the reproduction frame rate r [frame / second], 1 / r
A sample image frame is acquired and displayed in a cycle of seconds (step S46).

【0091】順方向再生の場合は、フレームFsに対応
する標本画像フレーム番号から再生を開始し、フレーム
番号を増加させる方向で読み飛ばす。逆方向再生の場合
は、フレームFeに対応する標本画像フレームから再生
を開始し、フレ一ム番号を減少させる方向で読み飛ばす
ことになる。
In the case of forward reproduction, reproduction is started from the sample image frame number corresponding to the frame Fs, and is skipped in the direction of increasing the frame number. In the case of reverse reproduction, reproduction is started from the sample image frame corresponding to the frame Fe, and is skipped in the direction of decreasing the frame number.

【0092】ここで、ステップS46の処理についてさ
らに詳しく説明すると、順方向の早送り再生の場合は、
1サイクル当たりフレーム番号を(m×R/r)フレー
ムずつ増加させながら標本画像フレームを取得する。す
なわち、(m×R/r)がステップS45で計算された
順方向に読み飛ばすフレーム数であり、ステップS46
ではFs+(m×R/r)×tのフレーム番号における
最近傍の標本画像フレームを再生して表示することにな
る。ここで、tはサイクル数である。
Here, the processing in step S46 will be described in more detail. In the case of fast forward reproduction in the forward direction,
A sample image frame is obtained while increasing the frame number by (m × R / r) frames per cycle. That is, (m × R / r) is the number of frames to be skipped in the forward direction calculated in step S45, and step S46
In this case, the nearest sample image frame at the frame number of Fs + (m × R / r) × t is reproduced and displayed. Here, t is the number of cycles.

【0093】同様に、逆方向の早送り再生の場合も、1
サイクル当たり(m×R/r)フレームずつ減少させな
がら標本画像フレームを取得する。すなわち、(m×R
/r)がステップS45で計算された逆方向に読み飛ば
すフレーム数であり、ステップS46ではFe−(m×
R/r)×tのフレーム番号における最近傍の標本画像
フレームを再生して表示する。
Similarly, in the case of fast forward reproduction in the reverse direction,
A sample image frame is acquired while decreasing by (m × R / r) frames per cycle. That is, (mxR
/ R) is the number of frames to be skipped in the reverse direction calculated in step S45, and in step S46, Fe− (m ×
The nearest sample image frame at the frame number of (R / r) × t is reproduced and displayed.

【0094】このようにして、標本画像フレーム群を用
いて任意の再生速度倍率の可変速再生が可能になる。な
お、毎サイクルで取り出す標本画像フレームに違いがな
い場合は、同じフレームを継続して表示するようにして
もよく、それにより処理効率を上げることができる。
In this manner, variable speed reproduction at an arbitrary reproduction speed magnification can be performed using the sample image frame group. If there is no difference between the sample image frames taken out in each cycle, the same frame may be displayed continuously, thereby increasing the processing efficiency.

【0095】上述の説明では、ユーザが変更しない限
り、再生速度倍率mは一定であるとしたが、次に、前述
した画面変化量情報203を利用して、より円滑な可変
速再生を行う方法について述べる。この可変速再生の基
本は、画面変化量情報203に応じて標本画像フレーム
を用いた可変速再生での再生速度を時時刻刻変化させ
る、というものである。説明を簡単にするために、可変
速再生の範囲を特に指定せず、元映像データ101全体
を対象に早送り再生を行う場合を考える。
In the above description, the reproduction speed magnification m is constant unless changed by the user. Next, a method of performing smoother variable speed reproduction using the above-described screen change amount information 203 will be described. Is described. The basis of the variable speed reproduction is that the reproduction speed in the variable speed reproduction using the sample image frame is changed at every time according to the screen change amount information 203. For the sake of simplicity, consider a case where fast forward playback is performed on the entire original video data 101 without specifying a variable speed playback range.

【0096】先ず、以下のパラメータを定義する。First, the following parameters are defined.

【0097】元映像データ101の全フレーム数:K
[フレーム] 元映像データ101のフレームレート:R[フレーム/
秒] 標本画像フレームの再生フレームレート:r[フレーム
/秒] 再生速度倍率:m 画面変化量情報:Pi(i=0,…,n) 画面変化量に対応して再生速度に与える重み:Wi 標本画像フレームに対応する元映像データのフレーム番
号:Fi(i=0,…,n−1) 元映像データの各フレームに対応して再生速度に与える
重み:Wj(j=0,…,K−1) 今、激しい動きに対して与える標本画像フレームの画面
変化量の限界値をLとし、限界値Lを超えないような値
[Pi]を考える。
Total number of frames of original video data 101: K
[Frame] Frame rate of original video data 101: R [frame /
Second] Reproduction frame rate of sample image frame: r [frame / second] Reproduction speed magnification: m Screen change amount information: Pi (i = 0,..., N) Weight given to reproduction speed corresponding to screen change amount: Wi Frame number of the original video data corresponding to the sample image frame: Fi (i = 0,..., N-1) Weight given to the reproduction speed corresponding to each frame of the original video data: Wj (j = 0,..., K) -1) Now, let L be the limit value of the amount of screen change of the sample image frame given to severe movement, and consider a value [Pi] that does not exceed the limit value L.

【0098】 [Pi]=L, Pi>Lの場合, [Pi]=Pi, その他の場合 …(1) また、画面変化量に対応して再生速度に与えられる重み
をWi=[Pi]とする。
[Pi] = L, Pi> L, [Pi] = Pi, other cases (1) Also, the weight given to the reproduction speed in accordance with the screen change amount is Wi = [Pi]. I do.

【0099】次に、各フレームの再生速度に対する重み
を考える。離散的な再生速度に対応する重みWiを線形
補間して、次式に示すWjを求める。
Next, the weight for the reproduction speed of each frame will be considered. The weight Wi corresponding to the discrete reproduction speed is linearly interpolated to obtain Wj represented by the following equation.

【0100】 Wj = Wi + (W(i+1)−Wi)/(F(i+1)−Fi)×t ここで、t=0,…,F(i+1)−Fi、 j=Fi,…,F(i+1)−1、 i=0,…,n−1 …(2) Wjを全体の和が1.0になるように正規化したものをW’jとすると、 W’j = Wj/ΣWj ここで、j=0,…,k …(3) ここで、再生速度倍率m、再生フレームレートr[フレ
ーム/秒]で再生する場合に必要な表示回数Nは次式と
なる。
Wj = Wi + (W (i + 1) −Wi) / (F (i + 1) −Fi) × t where t = 0,..., F (i + 1) −Fi, j = Fi,. i + 1) -1, i = 0,..., n-1 (2) When Wj is normalized such that the total sum of Wj becomes 1.0, W′j = Wj / ΣWj J = 0,..., K (3) Here, the number of display times N required for reproduction at a reproduction speed magnification m and a reproduction frame rate r [frame / second] is as follows.

【0101】 N = K/(m×R/r) …(4) 再生速度に対して与える重みを考慮して、標本画像フレ
ーム群から表示用画像フレームを取得する場合、各標本
画像フレームに割り付けられた重みW’jを加算してゆ
き、その加算値がTh=p/N(p=0,…,N−1)
なる閾値を超えたときの標本画像フレームを取得する。
すなわち、加算値が閾値Thを超えたときのフレーム番
号に対応する最近傍の標本画像フレームが表示用画像フ
レームとなる。
N = K / (m × R / r) (4) When acquiring display image frames from a group of sample image frames in consideration of the weight given to the reproduction speed, assigning them to each sample image frame The weights W′j thus obtained are added, and the added value becomes Th = p / N (p = 0,..., N−1).
A sample image frame when the threshold value is exceeded is obtained.
That is, the nearest sample image frame corresponding to the frame number when the added value exceeds the threshold Th becomes the display image frame.

【0102】上記の計算に従って表示用画像フレームを
予め取得しておき、フレームレートr[フレーム/秒]
で表示すれば、画面変化量が大きい時には遅めに、また
画面変化量が小さい時には早目に可変速再生することに
なるが、結果としては所望の再生速度倍率mで画像を表
示できる。上記の計算を用いれば、ある時間長の映像番
組をそれより短い任意の時間内で再生することが可能と
なる。再生速度に対して与える重みW’jに対してスム
ージングをかけたり、シーンチェンジや静止画の部分で
特殊な重み付けを行うことで、可変速再生にさらに特殊
効果を加えることも可能である。
A display image frame is obtained in advance according to the above calculation, and a frame rate r [frame / second] is obtained.
If the screen change amount is large, the variable speed reproduction is performed later, and if the screen change amount is small, the variable speed reproduction is performed earlier. As a result, the image can be displayed at a desired reproduction speed magnification m. By using the above calculation, a video program of a certain time length can be reproduced within an arbitrary shorter time. By applying smoothing to the weight W'j given to the reproduction speed or performing special weighting in a scene change or a still image portion, a special effect can be further added to the variable speed reproduction.

【0103】ここでは、元映像データ101の全体に対
して可変速再生を行う場合について述べたが、部分再生
の場合も全く同様の考え方で可変速再生を行うことがで
きる。すなわち、元映像データ101全体のW’jが計
算できれば、部分再生の問題は容易に解決できる。ま
た、元映像データ101の全体に対しての可変速再生の
場合の説明では、可変速再生の開始フレームと終了フレ
ームに画面変化量情報が存在すると仮定したが、これら
がない場合は適当に近傍の画面変化量情報を流用する
か、デフォルトの値を与えるかして計算すればよい。
Here, the case where the variable speed reproduction is performed on the entire original video data 101 has been described. However, the variable speed reproduction can be performed in the same manner in the case of the partial reproduction. That is, if W′j of the entire original video data 101 can be calculated, the problem of partial reproduction can be easily solved. Also, in the description of the case of variable-speed playback of the entire original video data 101, it is assumed that the screen change amount information exists in the start frame and the end frame of variable-speed playback. The screen change amount information may be used or a default value may be given for the calculation.

【0104】以下、図9に示すフローチャートを参照し
て、上述のように画面変化量情報203を利用して、よ
り円滑な可変速再生を行う場合の具体的な処理手順を説
明する。図9において、ステップS51〜S54の処理
は図8におけるステップS41〜S44の処理と基本的
に同様である。
Hereinafter, with reference to the flowchart shown in FIG. 9, a specific processing procedure in the case where smoother variable speed reproduction is performed using the screen change amount information 203 as described above will be described. 9, the processing in steps S51 to S54 is basically the same as the processing in steps S41 to S44 in FIG.

【0105】すなわち、先ず画面変化量を一定にして可
変速再生(この場合は、早送り再生)を行う範囲の指定
を行う(ステップS51)。可変速再生範囲の開始フレ
ームをFs、終了フレームをFeとする。次に、再生速
度倍率m、つまり何倍速で早送り再生を行うかを指定す
る(ステップS52)。次に、再生方向の指定、つまり
早送り再生を順方向再生で行うか逆方向再生で行うかの
指定を行う(ステップS53)。次に、標本画像フレー
ムの再生フレームレートr[フレーム/秒]を指定する
(ステップS54)。
That is, first, a range for performing variable speed reproduction (in this case, fast forward reproduction) with the screen change amount being fixed is specified (step S51). The start frame of the variable speed reproduction range is Fs, and the end frame is Fe. Next, the reproduction speed magnification m, that is, how many times the fast forward reproduction is to be performed is specified (step S52). Next, a reproduction direction is specified, that is, whether fast-forward reproduction is performed in forward reproduction or reverse reproduction (step S53). Next, the reproduction frame rate r [frame / second] of the sample image frame is specified (step S54).

【0106】この後、式(4)により必要な表示回数N
を計算する(ステップS55)。また、式(3)に示し
た重みW’jの加算値がTh = p/N(p=0,
…,N−1)なる閾値を超えるときの標本画像フレーム
の位置、つまり加算値が閾値Thを超えたときのフレー
ム番号に対応する最近傍の標本画像フレームを表示用画
像フレーム位置として計算し、これをテーブルに記録す
る(ステップS56)。
Thereafter, the necessary number of display times N is obtained by the equation (4).
Is calculated (step S55). Further, the sum of the weights W′j shown in the equation (3) is Th = p / N (p = 0,
, N-1), the position of the sample image frame when it exceeds the threshold value, that is, the nearest sample image frame corresponding to the frame number when the added value exceeds the threshold value Th is calculated as the display image frame position. This is recorded in a table (step S56).

【0107】そして、再生フレームレートr[フレーム
/秒]で標本画像フレームを再生して表示するために、
1/r秒のサイクルで上記テーブルを用いて表示用標本
画像フレームを取得して表示を行う(ステップS5
7)。
Then, in order to reproduce and display the sample image frame at the reproduction frame rate r [frame / second],
The display sample image frame is acquired and displayed using the table at a cycle of 1 / r second (step S5).
7).

【0108】このように標本画像フレーム群を用いて可
変速再生を行う場合、画面変化量に応じて再生速度を変
化させる、つまり画面変化量が大きいところでは再生速
度を遅く、また画面変化量が小さいところで再生速度を
遅くすることで、先に示した特開平10−243351
号(特願平09−042637号)「映像再生装置」と
同様の画面変化量を一定に保った見やすい早送り再生を
標本画像フレームに対して実現することが可能である。
In the case of performing the variable speed reproduction using the sample image frame group as described above, the reproduction speed is changed in accordance with the screen change amount, that is, the reproduction speed is reduced when the screen change amount is large, and the screen change amount is reduced. By lowering the reproduction speed at a small area, the above-described Japanese Patent Application Laid-Open No. 10-243351 is disclosed.
(Japanese Patent Application No. 09-042637), it is possible to realize easy-to-see fast-forward reproduction for a sample image frame while maintaining a constant screen change amount in the same manner as in the “video reproduction device”.

【0109】(4)その他の利用形態 図10は、上記で述べた方法で選択したシーンチェンジ
位置(カット点)近傍の標本画像フレーム501,50
2,…を一覧表示した例である。元映像データから画像
フレームを取り出すことをしないので、このような一覧
画面500を高速に作成することができる。
(4) Other Use Modes FIG. 10 shows sample image frames 501 and 50 near the scene change position (cut point) selected by the method described above.
This is an example in which 2,... Are displayed in a list. Since the image frame is not extracted from the original video data, such a list screen 500 can be created at high speed.

【0110】図11は、元映像全体を時間軸方向に延び
た一本のバー601で表示し、さらにバー601の指定
した一部分を拡大したバー602で表示した例である。
拡大したバー602には、この部分の元映像に含まれる
カット点のフレームの画像が見出しとして表示されてい
る。さらに拡大したバー602の上にマウスカーソル6
03を当てると、カット点の位置を考慮して、指定点の
画像フレームに最も類似する近傍の標本画像フレーム6
04を選択し、アイコンとして表示できる。この処理が
高速に行えるため、マウスアイコンを左右にスライドさ
せることにより、アイコンイメージをリアルタイムに動
画のように表示することができる。
FIG. 11 shows an example in which the entire original image is displayed by a single bar 601 extending in the time axis direction, and a specified portion of the bar 601 is displayed by an enlarged bar 602.
In the enlarged bar 602, the image of the frame of the cut point included in the original video of this portion is displayed as a heading. Mouse cursor 6 over bar 602
03, the nearest sample image frame 6 most similar to the image frame at the designated point is considered in consideration of the position of the cut point.
04 can be selected and displayed as an icon. Since this processing can be performed at high speed, the icon image can be displayed in real time like a moving image by sliding the mouse icon left and right.

【0111】一方、監視システムの応用を考えたとき、
たまに起る事象を効率よく発見したいという要求があ
る。例えば、常時は監視画面に背景画像のみが映ってい
るが、あるとき侵入者が映ったとする。侵入者は、背景
画像の差分画像として容易に発見することができる。ま
た、映像を記録すると同時に、画面の変化のないところ
では標本画像フレームを時間的に粗くサンプリングし、
画面の変化があったところでは時間的に細かくサンブリ
ングすることにより、侵入者を確実に記録することがで
きる。侵入者が映った画面に、付加情報としてカット点
の管理等のための情報を貯えておき、後で一覧表示を行
うことが可能となる。また、侵入者があったときだけ、
標本画像フレームの空間的サンブリングを精細にするこ
とにより、標本画像フレームでも侵入者を確認するよう
にすることもできる。
On the other hand, when considering the application of the monitoring system,
There is a need to efficiently find occasional events. For example, suppose that a background image is always shown on the monitoring screen, but an intruder is shown at some point. An intruder can easily find the difference image of the background image. At the same time as recording the video, the sample image frame is sampled coarsely in a place where there is no change in the screen,
Where the screen changes, the intruder can be reliably recorded by finely sampling in time. Information for managing a cut point or the like is stored as additional information on the screen on which the intruder appears, and a list can be displayed later. Also, only when there is an intruder,
By refining the spatial sampling of the specimen image frame, intruders can also be identified in the specimen image frame.

【0112】さらに、侵入者が入った時に元映像よりも
高精細な静止画像を取得し、それを標本画像フレームと
して管理することも有効である。通常の映像では解像度
が不十分な場合、それよりも高解像度の静止画像を用い
て侵入者の判別を行うことが可能となる。
It is also effective to acquire a still image with higher definition than the original video when an intruder enters, and manage it as a sample image frame. When the resolution is insufficient for a normal video, it is possible to determine an intruder by using a still image with a higher resolution.

【0113】以上説明したように、本実施形態によれ
ば、元映像データ以外に、元映像フレーム群を時間的に
任意の間隔でかつ空間的に任意の大きさにサンプリング
して得た標本画像フレーム群の画像データと属性情報か
らなる標本画像情報を記録しておき、元映像データでは
なく標本画像情報を検索することにより、計算機パワー
やトラフィックに負担をかけることなく、所望フレーム
の映像検索を容易に行うことが可能となる。また、標本
画像情報にシーンチェンジ位置情報を付帯情報として記
述することによって、所望のフレームとより類似した標
本画像フレームの検索が可能となる。さらに、検索対象
画像と各標本画像フレームの画像との差分、例えば絶対
値差分の合計を求め、この値が小さい標本画像フレーム
を検索することによっても、所望フレームの検索ができ
る。さらに、画面変化量が大きいところでは再生速度を
遅く、画面変化量が小さいところで再生速度を遅くする
ことで、画面変化量を一定に保った見やすい可変速再生
を標本画像フレームに対して実現することも可能とな
る。
As described above, according to the present embodiment, in addition to the original video data, a sample image obtained by sampling the original video frame group at an arbitrary time interval and at an arbitrary spatial size. By recording sample image information consisting of frame group image data and attribute information and searching for sample image information instead of original video data, video search for a desired frame can be performed without burdening computer power or traffic. This can be easily performed. Further, by describing the scene change position information as supplementary information in the sample image information, it becomes possible to search for a sample image frame more similar to the desired frame. Furthermore, a desired frame can also be searched by obtaining the difference between the search target image and the image of each sample image frame, for example, the sum of absolute value differences, and searching for a sample image frame having a small value. Further, by reducing the reproduction speed when the screen change amount is large and by lowering the reproduction speed when the screen change amount is small, it is possible to realize easy-to-read variable speed reproduction with a constant screen change amount for the sample image frame. Is also possible.

【0114】以下、本発明の他の実施形態を説明する。
他の実施形態の説明において第1の実施形態と同一部分
は同一参照数字を付してその詳細な説明は省略する。
Hereinafter, another embodiment of the present invention will be described.
In the description of the other embodiments, the same parts as those of the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0115】第1実施形態では時・空間標本映像メタデ
ータ102は複数の標本画像情報201〜201
有するとしたが、その詳細な記述例は説明しなかった。
この記述例の具体例に関する第2実施形態を以下に説明
する。
In the first embodiment, the spatiotemporal sample video metadata 102 has a plurality of sample image information 201 1 to 201 n , but a detailed description example thereof has not been described.
A second embodiment relating to a specific example of this description example will be described below.

【0116】図12は第2実施形態の標本画像情報の記
述例を示している。ここでは、標本画像フレーム群を一
つの映像(標本映像)として扱い、その集合として標本
映像情報701を構成する。標本映像は標本映像情報7
01とは別に用意し、標本映像情報701にその場所を
URL等により記述してもよいし、標本映像を標本映像
情報701として直接記述してもよい。
FIG. 12 shows a description example of sample image information according to the second embodiment. Here, the sample image frame group is treated as one image (sample image), and the sample image information 701 is configured as a set thereof. Sample video is sample video information 7
01, the location may be described in the sample video information 701 by a URL or the like, or the sample video may be directly described as the sample video information 701.

【0117】標本画像情報702は標本映像情報701
で示される標本映像内の標本画像フレームと元映像デー
タフレームとの対応付けを示し、標本映像に含まれる標
本画像フレーム数に応じて、複数記述される。標本画像
情報702は元映像フレームのメディア時間703と標
本映像のメディア時間704より構成される。元映像フ
レームのメディア時間703は標本画像フレームに対応
する元映像のフレームを示す。元映像のフレームを一意
に決めることができれば、タイムスタンプ等の時間であ
ってもよいし、フレーム番号等であってもよい。また、
元映像フレームが一定間隔でサンプリングされている場
合など、演算によって対応する元映像フレームが求めら
れる場合は、演算に必要な情報(例えばサンプリング間
隔)を記述して、元映像フレームのメディア時間703
を省略してもよい。標本映像のメディア時間704は標
本映像情報701で示される標本映像内の特定の標本画
像フレームを示す。標本映像のメディア時間704は標
本画像フレームを一意に決めることができれば、フレー
ム番号等であってもよいし、標本映像を通常の映像とし
て扱った場合のタイムスタンプ等の時間であってもよ
い。また、標本映像と順次対応付けが行われる場合は省
略しても構わない。
The sample image information 702 is sample video information 701
Indicates the correspondence between the sample image frame in the sample video and the original video data frame, and is described in plurality according to the number of sample image frames included in the sample video. The sample image information 702 includes a media time 703 of the original video frame and a media time 704 of the sample video. The media time 703 of the original video frame indicates a frame of the original video corresponding to the sample image frame. As long as the frame of the original video can be uniquely determined, it may be a time such as a time stamp or a frame number. Also,
When the original video frame corresponding to the original video frame is obtained by the calculation, for example, when the original video frame is sampled at a constant interval, information necessary for the calculation (for example, the sampling interval) is described, and the media time 703 of the original video frame is described.
May be omitted. The sample video media time 704 indicates a specific sample image frame in the sample video indicated by the sample video information 701. The media time 704 of the sample video may be a frame number or the like as long as the sample image frame can be uniquely determined, or may be a time such as a time stamp when the sample video is treated as a normal video. Further, when the correspondence is sequentially performed with the sample video, it may be omitted.

【0118】図13は標本画像情報の別の記述例を示し
ている。標本画像情報801は各標本画像フレームと元
映像データフレームとの対応付けを示し、標本画像フレ
ーム数に応じて、複数記述される。標本画像情報801
は元映像フレームのメディア時間802と標本画像デー
タ803より構成される。メディア時間802は図12
で示される記述例におけるメディア時間703と同様に
標本画像フレームに対応する元映像データのフレーム位
置を示す。なお、本メディア時間802もメディア時間
703と同様に省略してもよい。標本画像は標本画像デ
ータ801とは別に個々に用意し、標本画像データ80
1にその場所をURL等により記述してもよいし、標本
画像を標本画像データとして標本画像データ801に直
接記述してもよい。また、標本画像のかわりにその内容
を示すイラスト等の他の画像を標本画像データとしても
よい。
FIG. 13 shows another description example of the sample image information. The sample image information 801 indicates the correspondence between each sample image frame and the original video data frame, and is described in plural according to the number of sample image frames. Specimen image information 801
Is composed of the media time 802 of the original video frame and the sample image data 803. The media time 802 is shown in FIG.
The frame position of the original video data corresponding to the sample image frame is shown similarly to the media time 703 in the description example shown by. Note that the main media time 802 may be omitted in the same manner as the media time 703. The sample images are individually prepared separately from the sample image data 801.
1 may be described by a URL or the like, or the sample image may be directly described in the sample image data 801 as sample image data. Further, instead of the sample image, another image such as an illustration showing the contents may be used as the sample image data.

【0119】図14は標本画像情報の別の記述例を示し
ている。図14で示される記述例は図12及び図13で
示される記述例の両方を含んでいる。標本映像情報90
1は図12で示される記述例における標本映像情報70
1と同様で、標本映像の場所を示すURLあるいは標本
映像自体を示す。標本画像情報902は各標本画像フレ
ームと元映像データフレームとの対応付けを示し、標本
画像フレーム数に応じて、複数記述される。標本画像情
報902は元映像フレームのメディア時間903と標本
映像のメディア時間904Aあるいは標本画像データ9
04Bのいずれかにより構成される。元映像フレームの
メディア時間903は図12で示される記述例における
メディア時間703と同様に標本画像フレームに対応す
る元映像データのフレームを示す。なお、本メディア時
間903もメディア時間703と同様に省略してもよ
い。標本映像のメディア時間904Aは図12で示され
る記述例におけるメディア時間704と同様で、標本映
像情報901で示される標本映像内の特定の標本画像フ
レームを示す。該メディア時間904Aが標本映像と順
次対応付けされる場合は省略しても構わない。標本画像
データ904Bは図13で示される記述例における標本
画像データ803と同様で、個々の標本画像フレームの
場所や標本画像フレーム自体を示す。
FIG. 14 shows another description example of the sample image information. The description example shown in FIG. 14 includes both the description examples shown in FIG. 12 and FIG. Sample video information 90
Reference numeral 1 denotes sample video information 70 in the description example shown in FIG.
Similar to 1, the URL indicates the location of the sample image or the sample image itself. The sample image information 902 indicates the correspondence between each sample image frame and the original video data frame, and is described in plural according to the number of sample image frames. The sample image information 902 includes the media time 903 of the original video frame and the media time 904A of the sample video or the sample image data 9
04B. The media time 903 of the original video frame indicates a frame of the original video data corresponding to the sample image frame similarly to the media time 703 in the description example shown in FIG. Note that the main media time 903 may be omitted in the same manner as the media time 703. The media time 904A of the sample video is the same as the media time 704 in the description example shown in FIG. 12, and indicates a specific sample image frame in the sample video indicated by the sample video information 901. If the media time 904A is sequentially associated with the sample video, it may be omitted. The sample image data 904B is the same as the sample image data 803 in the description example shown in FIG. 13, and indicates the location of each sample image frame and the sample image frame itself.

【0120】図14の記述例によれば、標本映像の一部
を差し替えたり、別の標本画像を追加することができ
る。
According to the description example of FIG. 14, it is possible to replace a part of a sample image or add another sample image.

【0121】次に、図12〜図14で示される記述例を
利用して、所望メディア時間の標本画像データを抽出す
る処理を説明する。図15はその基本フローである。ス
テップS61で所望の標本画像フレームに対応する元映
像フレームのメディア時間を入力する。メディア時間は
タイムスタンプやフレーム番号等、メディア内での時間
的な位置を一意に示すものである。ステップS62では
図12〜図14の記述例で記述される標本画像情報群の
中から最初の標本画像情報を取り出す。ステップS63
で、所望のメディア時間と標本画像情報に含まれる元映
像フレームのメディア時間とを比較し、両者が同一、あ
るいは、所望のメディア時間の方が後になる場合はステ
ップS64へ進み、標本画像情報で示されている標本画
像データを取り出す。標本画像データの抽出方法は記述
方法によって異なり、標本フレーム番号が記述されてい
る場合は標本映像の該当標本画像データを抽出し、標本
画像データが記述されている場合はそれを用いる。標本
画像情報に含まれるメディア時間の方が所望メディア時
間より後の場合はステップS65へ進み、標本画像情報
群から次の標本画像情報を取り出して、再びステップS
63へ進みメディア時間の比較を行う。
Next, a process for extracting sample image data at a desired media time will be described with reference to the description examples shown in FIGS. FIG. 15 shows the basic flow. In step S61, a media time of an original video frame corresponding to a desired sample image frame is input. The media time uniquely indicates a temporal position in the media, such as a time stamp or a frame number. In step S62, the first sample image information is extracted from the sample image information group described in the description examples of FIGS. Step S63
Then, the desired media time is compared with the media time of the original video frame included in the sample image information. If both are the same or the desired media time is later, the process proceeds to step S64, and the process proceeds to step S64. The sample image data shown is taken out. The method of extracting the sample image data differs depending on the description method. When the sample frame number is described, the corresponding sample image data of the sample video is extracted, and when the sample image data is described, it is used. If the media time included in the sample image information is later than the desired media time, the process proceeds to step S65, the next sample image information is extracted from the sample image information group, and the process returns to step S65.
Proceed to 63 to compare the media times.

【0122】図16は図12〜図14で示される記述例
に標本画像フレームの属性情報を付加する記述例であ
る。標本映像は、大きさの異なる標本画像を用いたり、
元映像データの一部の領域のみを切り出して、標本画像
として用いることができるので、これらのパラメータを
属性情報として記述するための一例が図16に示す記述
例である。
FIG. 16 is a description example in which the attribute information of the sample image frame is added to the description examples shown in FIGS. Sample images use sample images of different sizes,
Since only a part of the original video data can be cut out and used as a sample image, an example for describing these parameters as attribute information is the description example shown in FIG.

【0123】標本画像フレーム群情報1001は図12
〜図14で示される記述例等による情報を示す。標本属
性情報1002は個々の標本画像フレームの属性情報
で、標本映像に含まれる標本画像フレーム数に応じて、
複数記述される。標本属性情報1002は標本番号10
03、解像度情報1004、領域情報1005により構
成される。
The sample image frame group information 1001 is shown in FIG.
15 shows information according to the description example shown in FIG. The sample attribute information 1002 is attribute information of each sample image frame. According to the number of sample image frames included in the sample video,
Described multiple times. Sample attribute information 1002 is sample number 10
03, resolution information 1004, and area information 1005.

【0124】標本番号1003は標本画像フレーム群情
報1001で示される標本画像フレーム群に含まれる特
定の標本画像フレームに対応する番号である。標本フレ
ーム番号1003が標本画像フレーム群内の標本画像フ
レームと順次対応する場合は省略しても構わない。
A sample number 1003 is a number corresponding to a specific sample image frame included in the sample image frame group indicated by the sample image frame group information 1001. If the sample frame number 1003 sequentially corresponds to the sample image frames in the sample image frame group, it may be omitted.

【0125】解像度情報1004は標本番号1003で
示される標本画像フレームの元映像データの対応フレー
ムに対する解像度を示す。例えば、画像を何分の1に縮
小したか等を記述する。
The resolution information 1004 indicates the resolution of the sample image frame indicated by the sample number 1003 with respect to the corresponding frame of the original video data. For example, it describes how many times the image has been reduced.

【0126】領域情報1005は標本番号1003で示
される標本画像フレームの元映像データの対応フレーム
における該当傾城を示す。標本画像フレームが元映像デ
ータの対応フレームの一部を切り出している場合はその
領域を記述する。標本画像フレームが元映像データの対
応フレーム全体に相当する場合は領域情報を省略しても
よい。
The area information 1005 indicates a corresponding slope in the corresponding frame of the original video data of the sample image frame indicated by the sample number 1003. If the sample image frame cuts out a part of the corresponding frame of the original video data, the area is described. If the sample image frame corresponds to the entire corresponding frame of the original video data, the region information may be omitted.

【0127】なお、これら属性情報は図示しないが、図
12〜図14で示した記録例における各標本画像情報内
に記述するようにしてもよい。
Although not shown, the attribute information may be described in each sample image information in the recording examples shown in FIGS.

【0128】図17は図16で示される記述方法を用い
た実際の記述例である。元映像フレーム1401の中に
は物体が一部のみに存在しているとする。元映像フレー
ム1401の標本画像フレームを作成する場合、両画全
体のサンプリングするよりも一部のみを取り出してサン
プリングした方が、画像の内容をより反映した標本画像
フレームが作成できる。そこで、元映像フレーム140
1内の矩形領域1402を取り出して、縦横がそれぞれ
1/2となるようにサンプリングを行い標本画像フレー
ム1403を作成する。このときの解像度情報、領域情
報の記述例は1404のようになる。
FIG. 17 is an actual description example using the description method shown in FIG. It is assumed that an object exists only partially in the original video frame 1401. When a sample image frame of the original video frame 1401 is created, it is possible to create a sample image frame that reflects the contents of the image more by taking out and sampling only a part than sampling the entirety of both images. Therefore, the original video frame 140
A rectangular area 1402 within the area 1 is sampled, and sampling is performed so that the height and width are each halved to create a sample image frame 1403. A description example of the resolution information and the area information at this time is as shown in 1404.

【0129】図18はユーザの要求に応じて標本画像フ
レームの一覧表示を行う基本フローである。スナッブS
71ではユーザが一覧表示するレベルを入力する。入力
方法は表示レベルに応じて連続的に変化するスライダー
等のGUIを用いてもよいし、数字で直接入力してもよ
い。あるいは、計算機等に接読されたホイールやダイヤ
ル等の入力装置を用いてもよい。
FIG. 18 is a basic flow for displaying a list of sample image frames in response to a user request. Snub S
At 71, the user inputs a level to be displayed in a list. As an input method, a GUI such as a slider that changes continuously according to the display level may be used, or the input may be directly made by a number. Alternatively, an input device such as a wheel or a dial read by a computer or the like may be used.

【0130】ステップS72では、ステップS71で入
力されたレベル値から一覧表示する標本画像の枚数を計
算する。例えば、最大表示レベルをLmax、最大表示
標本画像フレーム数をTmaxとし、現在の表示レベル
がLであるとすると、表示標本画像フレーム数T=Tm
ax×L/Lmaxで求められる。
In step S72, the number of sample images to be displayed in a list is calculated from the level value input in step S71. For example, assuming that the maximum display level is Lmax, the maximum display sample image frame number is Tmax, and the current display level is L, the display sample image frame number T = Tm
ax × L / Lmax.

【0131】ステップS73では、表示標本画像フレー
ム数に応じて一覧表示する標本画像フレームの選択を行
う。例えば、一定時間間隔や一定フレーム間隔で標本画
像フレームを選択する。あるいは、カット点情報等の付
加情報が与えられている場合は、カット点やシーンの先
頭フレーム等のより重要度の高いフレームから優先的に
選択してもよい。
In step S73, sample image frames to be displayed in a list are selected according to the number of display sample image frames. For example, sample image frames are selected at fixed time intervals or fixed frame intervals. Alternatively, when additional information such as cut point information is provided, a frame having higher importance such as a cut point or a top frame of a scene may be preferentially selected.

【0132】ステップS74では選択された標本画像の
一覧を作成して、表示する。
At step S74, a list of the selected specimen images is created and displayed.

【0133】図19は図18で示される基本フローを用
いた標本画像フレームの一覧表示のインターフェースを
示す。画面1101上には表示レベルを指定するための
スライダー1102と標本画像一覧1103が存在す
る。スライダー1102を画面1104内のスライダー
1105に示すような位置に移動させて表示レベルを大
きくすると、一覧表示される標本画像の枚数が一覧表示
1106に示されるように増加する。このようなインタ
ーフェースを用いることによって、ユーザは映像の内容
に応じて必要なだけの標本画像を直感的に表示すること
が可能である。
FIG. 19 shows an interface for displaying a list of sample image frames using the basic flow shown in FIG. On a screen 1101, there are a slider 1102 for specifying a display level and a sample image list 1103. When the slider 1102 is moved to the position shown by the slider 1105 in the screen 1104 to increase the display level, the number of sample images displayed in the list increases as shown in the list display 1106. By using such an interface, the user can intuitively display as many sample images as necessary according to the content of the video.

【0134】図20は図16で示される記述例を用いた
画面表示の例である。図16で示される記述例を用いる
ことにより、解像度の異なる標本画像フレームや画面の
一部の領域のみを切り出した標本画像フレームを扱うこ
とができる。一方、画像中には字幕部分等の高解像度で
サンプリングすることが望ましい領域と、背景等の低解
像度でサンプリングすれば十分な領域が混在している。
そこで、同一フレームから作成した解像度と領域の異な
る標本画像フレームを含む標本画像フレーム群1201
を用意し、画面表示例1202に示すようにこれらを重
ね合わせて表示することにより、字幕を高解像度で背景
を低解像度で表示することが可能となる。
FIG. 20 is an example of a screen display using the description example shown in FIG. By using the description example shown in FIG. 16, it is possible to handle sample image frames having different resolutions or sample image frames obtained by cutting out only a part of the screen. On the other hand, in the image, there are mixed regions such as a subtitle portion where it is desirable to perform sampling at a high resolution, and regions such as a background that are sufficient for sampling at a low resolution.
Therefore, a sample image frame group 1201 including sample image frames created from the same frame and having different resolutions and regions.
Is prepared, and these are superimposed and displayed as shown in a screen display example 1202, so that the subtitles can be displayed at a high resolution and the background can be displayed at a low resolution.

【0135】図21は図16で示される記述例を用いた
画面表示の別の例である。画像1301は低解像度でサ
ンプリングされた標本画像フレームである。字幕部分
等、ユーザがより詳細な画像を所望する領域1302を
マウス等で指し示すと、領域1302のみをより高解像
度でサンプリングした標本画像フレーム1303がポッ
プアップ等によって表示される。通常は、画像1301
のような低解像度な標本画像フレームが表示されている
ので、画像の大きさを小さくすることができ、一覧表示
等により多くの画像を表示することができる。
FIG. 21 is another example of a screen display using the description example shown in FIG. Image 1301 is a sample image frame sampled at low resolution. When the user points a region 1302 where a more detailed image is desired, such as a subtitle portion, with a mouse or the like, a sample image frame 1303 obtained by sampling only the region 1302 at a higher resolution is displayed by a pop-up or the like. Normally, the image 1301
Since a low resolution sample image frame is displayed, the size of the image can be reduced, and more images can be displayed in a list display or the like.

【0136】なお、本発明は上述した実施例に限定され
るものではなく、種々変形して実施可能である。
The present invention is not limited to the above-described embodiments, but can be implemented with various modifications.

【0137】[0137]

【発明の効果】以上説明したように、本発明の画像情報
記述方法によれば、映像の内容を確認しての検索や表示
を行うことができる。
As described above, according to the image information description method of the present invention, search and display can be performed while confirming the contents of the video.

【0138】また、元映像データをサンプリングして得
られた標本画像に基づいて検索を行う場合、所望のフレ
ームがシーンチェンジとシーンチェンジの間に存在する
ような場合でも良好な映像検索ができる。
When a search is performed based on a sample image obtained by sampling original video data, a good video search can be performed even when a desired frame exists between scene changes.

【0139】さらに、標本画像に基づいて可変速再生を
行うことができるので処理量が軽減でき、計算機パワー
の小さな機器やネットワーク上でも容易に可変速再生を
実現できる。
Further, since the variable speed reproduction can be performed based on the sample image, the processing amount can be reduced, and the variable speed reproduction can be easily realized even on a device with a small computer power or on a network.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るシステムアーキテク
チャを示す図。
FIG. 1 is a diagram showing a system architecture according to an embodiment of the present invention.

【図2】元映像データおよび時・空間標本映像メタデー
タの構造を示す概念図。
FIG. 2 is a conceptual diagram showing the structure of original video data and spatio-temporal sample video metadata.

【図3】時・空間標本映像メタデータに含まれる標本画
像情報の説明図。
FIG. 3 is an explanatory diagram of sample image information included in spatiotemporal sample video metadata.

【図4】標本画像情報の管理構造を示す図。FIG. 4 is a diagram showing a management structure of specimen image information.

【図5】標本画像情報の記述手順を説明するための時・
空間標本映像メタデータの記録手順を示すフローチャー
ト。
FIG. 5 is a time chart for explaining a description procedure of specimen image information.
9 is a flowchart illustrating a recording procedure of spatial sample video metadata.

【図6】時・空間標本映像メタデータに含まれるシーン
チェンジ情報を用いた標本画像フレームの検索手順を示
すフローチャート。
FIG. 6 is a flowchart showing a procedure for searching for a sample image frame using scene change information included in spatiotemporal sample video metadata.

【図7】時・空間標本映像メタデータを対象とした標本
画像フレームの検索手順を示すフローチャート。
FIG. 7 is a flowchart showing a procedure for searching for a sample image frame for spatiotemporal sample video metadata;

【図8】標本画像フレームを用いた可変速再生の手順を
示すフローチャート。
FIG. 8 is a flowchart showing a procedure of variable speed reproduction using a sample image frame.

【図9】標本画像フレームと画面変化量情報を用いて円
滑な可変速再生の手順を示すフローチャート。
FIG. 9 is a flowchart showing a procedure of smooth variable-speed reproduction using a sample image frame and screen change amount information.

【図10】時・空間標本映像メタデータに含まれるシー
ンチェンジ情報を用いた標本画像フレームの一覧表示の
例を示す図。
FIG. 10 is a view showing an example of a list display of sample image frames using scene change information included in spatiotemporal sample video metadata.

【図11】時・空間標本映像メタデータを用いた元映像
データと標本画像フレームの表示例を示す図。
FIG. 11 is a diagram showing a display example of original video data and a sample image frame using spatiotemporal sample video metadata.

【図12】標本画像情報の他の記述例を示す図。FIG. 12 is a diagram showing another description example of sample image information.

【図13】標本画像情報の別の記述例を示す図。FIG. 13 is a diagram showing another description example of sample image information.

【図14】標本画像情報のさらに他の記述例を示す図。FIG. 14 is a diagram showing still another description example of sample image information.

【図15】図12〜図14の記述例に従った標本画像情
報を用いた標本画像データの検索を示すフローチャー
ト。
FIG. 15 is a flowchart showing a search for sample image data using sample image information according to the description examples of FIGS. 12 to 14;

【図16】標本画像情報のさらに別の記述例を示す図。FIG. 16 is a diagram showing still another description example of sample image information.

【図17】図16の記述例に従った標本画像情報の具体
例を示す図。
FIG. 17 is a view showing a specific example of sample image information according to the description example of FIG. 16;

【図18】表示レベルに応じて表示枚数を可変する標本
画像一覧表示の動作を示すフローチャート。
FIG. 18 is a flowchart illustrating an operation of displaying a sample image list in which the number of displayed images is changed according to a display level.

【図19】表示レベルが可変された場合の標本画像一覧
表示の変化を示す図。
FIG. 19 is a diagram showing a change in a sample image list display when a display level is changed.

【図20】図16の記述例に従った標本画像情報により
解像度と領域の異なる複数の標本画像を重ねて表示する
例を示す図。
FIG. 20 is a diagram showing an example in which a plurality of sample images having different resolutions and regions are displayed in a superimposed manner based on the sample image information according to the description example of FIG. 16;

【図21】図16の記述例に従った標本画像情報により
解像度と領域の異なる複数の標本画像を重ねて表示する
他の例を示す図。
FIG. 21 is a diagram showing another example in which a plurality of sample images having different resolutions and regions are superimposed and displayed based on the sample image information according to the description example of FIG. 16;

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三田 雄志 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 山本 晃司 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5B075 ND12 NK10 NK31 NK44 NK50 NK54 PP28 PQ02 PQ32 PQ46 PQ60 PR06 QM08 QP05 QS20 5C052 AA01 AA02 AA04 AA17 AC06 CC11 DD04 5C053 FA21 FA23 FA25 FA27 GA10 GA18 GB06 GB27 GB28 GB36 GB37 GB38 HA21 HA29 HA33 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Yuji Mita 1st address, Toshiba-cho, Komukai-shi, Kawasaki-shi, Kanagawa Prefecture Inside the Toshiba R & D Center (72) Inventor Koji Yamamoto Toshiba, Komukai-shi, Kawasaki-shi, Kanagawa No. 1 town Toshiba Research & Development Center F-term (reference) GB36 GB37 GB38 HA21 HA29 HA33

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 複数の映像フレームからなる映像情報を
時間的に任意の間隔でかつ空間的に任意の大きさにサン
プリングして得た複数の標本画像フレームに関する標本
画像情報として、該標本画像フレームのそれぞれに対応
する前記映像情報の映像フレームを特定するための属性
情報を記述することを特徴とする画像情報記述方法。
1. A sample image frame comprising: a plurality of sample image frames obtained by sampling video information composed of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially; A description of attribute information for specifying a video frame of the video information corresponding to each of the image information.
【請求項2】 前記映像情報に関する付帯情報も前記標
本画像情報として記述することを特徴とする請求項1記
載の画像情報記述方法。
2. The image information description method according to claim 1, wherein additional information relating to said video information is also described as said sample image information.
【請求項3】 前記属性情報は、前記標本画像フレーム
に対応する映像フレームの時間軸上の位置を示す位置情
報を含むことを特徴とする請求項1、または請求項2記
載の画像情報記述方法。
3. The image information description method according to claim 1, wherein the attribute information includes position information indicating a position on a time axis of a video frame corresponding to the sample image frame. .
【請求項4】 前記属性情報は、前記標本画像フレーム
の大きさもしくは解像度に関する情報を含むことを特徴
とする請求項1乃至請求項3のいずれか1項記載の画像
情報記述方法。
4. The method according to claim 1, wherein the attribute information includes information on a size or a resolution of the sample image frame.
【請求項5】 前記付帯情報は、前記映像情報のシーン
チェンジ位置情報を含むことを特徴とする請求項2記載
の画像情報記述方法。
5. The image information description method according to claim 2, wherein the supplementary information includes scene change position information of the video information.
【請求項6】 前記付帯情報は、前記映像情報の画面変
化量の情報を含むことを特徴とする請求項2、または請
求項5記載の画像情報記述方法。
6. The image information description method according to claim 2, wherein the supplementary information includes information on a screen change amount of the video information.
【請求項7】 前記標本画像情報として、前記標本画像
フレームの画像データまたは該標本画像フレームへのポ
インタを記述することを特徴とする請求項1乃至請求項
6のいずれか1項記載の画像情報記述方法。
7. The image information according to claim 1, wherein image data of the sample image frame or a pointer to the sample image frame is described as the sample image information. Description method.
【請求項8】 請求項1乃至請求項7のいずれか1項に
記載の画像情報記述方法により記述された前記標本画像
情報を格納する記録媒体。
8. A recording medium for storing the sample image information described by the image information description method according to claim 1. Description:
【請求項9】 複数の映像フレームからなる映像情報を
時間的に任意の間隔でかつ空間的に任意の大きさにサン
プリングして得た複数の標本画像フレームに関する標本
画像情報を用いて所望の映像情報を検索する映像検索方
法において、前記標本画像フレームに対応する前記映像
フレームを特定するために少なくとも時間軸上の位置を
示す第1の位置情報を含む属性情報を前記標本画像情報
として記述し、 前記第1の位置情報と前記所望の映像の時間軸上の位置
を示す第2の位置情報に基づいて、該第2の位置情報に
最も近い第1の位置情報を有する標本画像フレームを検
索することを特徴とする映像検索方法。
9. A desired video using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. In the video search method for searching information, attribute information including at least first position information indicating a position on a time axis to specify the video frame corresponding to the sample image frame is described as the sample image information, Based on the first position information and second position information indicating a position on the time axis of the desired image, a sample image frame having first position information closest to the second position information is searched for. A video search method characterized by the following.
【請求項10】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて所望の映像を検索する映像検索方法
において、 前記標本画像フレームに対応する前記映像フレームを特
定するために少なくとも時間軸上の位置を示す第1の位
置情報を含む属性情報を前記標本画像情報として記述
し、 前記標本画像情報に前記映像情報のシーンチェンジ位置
情報を付帯情報として記述し、 前記第1の位置情報、前記所望の映像の時間軸上の位置
を示す第2の位置情報、及び前記シーンチェンジ位置情
報に基づいて、該シーンチェンジ位置情報より時間的に
前または後の第2の位置情報に最も近い第1の位置情報
を有する標本画像フレームを検索することを特徴とする
映像検索方法。
10. A desired image using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. In the video search method for searching, the attribute information including at least first position information indicating a position on a time axis for specifying the video frame corresponding to the sample image frame is described as the sample image information, The scene change position information of the video information is described as incidental information in the sample image information, the first position information, the second position information indicating a position on the time axis of the desired video, and the scene change position information The sample image frame having the first position information closest to the second position information temporally before or after the scene change position information is determined based on A video search method characterized by searching.
【請求項11】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて所望の映像を検索する映像検索方法
において、 前記標本画像フレームに対応する前記映像フレームを特
定するために少なくとも時間軸上の位置を示す位置情報
を含む属性情報を前記標本画像情報として記述し、 前記所望の画像との差分が所定の閾値以下の標本画像フ
レームを検索することを特徴とする映像検索方法。
11. A desired video using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. In the video search method for searching for, the attribute information including at least position information indicating a position on a time axis for specifying the video frame corresponding to the sample image frame is described as the sample image information, and the desired image is described. A video image search method for searching for a sample image frame whose difference from the sample image is equal to or less than a predetermined threshold value.
【請求項12】 前記所望の画像との差分が所定の閾値
以下の標本画像に対して記述された前記位置情報を検索
結果として記録することを特徴とする請求項11記載の
映像検索方法。
12. The video search method according to claim 11, wherein the position information described for a sample image whose difference from the desired image is equal to or less than a predetermined threshold is recorded as a search result.
【請求項13】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて映像の可変速再生を行う映像再生方
法において、 前記標本画像フレームと、前記標本画像フレームに対応
する前記映像フレームを特定するために少なくとも時間
軸上の位置を示す位置情報を含む属性情報を標本画像情
報として記述し、 前記標本画像情報に前記映像情報の画面変化量の情報を
付帯情報として記述し、 前記画面変化量の情報に応じて前記標本画像フレームの
再生速度を変化させることにより映像の可変速再生を行
うことを特徴とする映像再生方法。
13. A method for producing an image by using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. In a video reproduction method for performing variable speed reproduction, attribute information including at least position information indicating a position on a time axis for specifying the sample image frame and the video frame corresponding to the sample image frame is described as sample image information. The sample image information describes the information of the screen change amount of the video information as supplementary information, and the variable speed reproduction of the video is performed by changing the reproduction speed of the sample image frame according to the information of the screen change amount. A video reproducing method characterized by performing.
【請求項14】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて所望の映像を検索する映像検索装置
において、 前記標本画像フレームに対応する前記映像フレームを特
定するために少なくとも時間軸上の位置を示す第1の位
置情報を含む属性情報とからなる標本画像情報と、 前記標本画像情報に付加される前記映像情報のシーンチ
ェンジ位置情報を示す付帯情報と、 前記第1の位置情報、前記所望の映像の時間軸上の位置
を示す第2の位置情報、及び前記シーンチェンジ位置情
報に基づいて、該シーンチェンジ位置情報より時間的に
前または後の第2の位置情報に最も近い第1の位置情報
を有する標本画像フレームを検索する検索エンジンと、 を具備することを特徴とする映像検索装置。
14. A desired video using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. A sample image information comprising attribute information including at least first position information indicating a position on a time axis for identifying the image frame corresponding to the sample image frame; Supplementary information indicating scene change position information of the video information added to image information, the first position information, second position information indicating a position on the time axis of the desired video, and the scene change position Based on the information, the sample image frame having the first position information closest to the second position information temporally before or after the scene change position information is detected. A video search device, comprising: a search engine for searching.
【請求項15】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて所望の映像を検索する映像検索装置
において、 前記標本画像フレームに対応する前記映像フレームを特
定するために少なくとも時間軸上の位置を示す位置情報
を含む属性情報とからなる標本画像情報と、 前記所望の画像との差分が所定の閾値以下の標本画像フ
レームを検索する検索エンジンと、 を具備することを特徴とする映像検索装置。
15. A desired video using sample image information on a plurality of sample image frames obtained by sampling video information consisting of a plurality of video frames at an arbitrary time interval and at an arbitrary spatial size. In the video search device for searching for, sample image information consisting of attribute information including position information indicating at least a position on the time axis to identify the video frame corresponding to the sample image frame, and the desired image A search engine for searching for a sample image frame whose difference is equal to or less than a predetermined threshold value.
【請求項16】 複数の映像フレームからなる映像情報
を時間的に任意の間隔でかつ空間的に任意の大きさにサ
ンプリングして得た複数の標本画像フレームに関する標
本画像情報を用いて映像の可変速再生を行う映像再生装
置において、 前記標本画像の画像データと、前記標本画像フレームに
対応する前記映像フレームを特定するために少なくとも
時間軸上の位置を示す位置情報を含む属性情報とからな
る標本画像情報と、 前記標本画像情報に付加される前記映像情報の画面変化
量を示す付帯情報と、 前記画面変化量の情報に応じて前記標本画像フレームの
再生速度を変化させることにより映像の可変速再生を行
う表示エンジンと、 を具備することを特徴とする映像再生装置。
16. A method for producing an image by using sample image information on a plurality of sample image frames obtained by sampling video information composed of a plurality of video frames at an arbitrary time interval and an arbitrary size spatially. In a video playback apparatus that performs variable-speed playback, a sample including image data of the sample image and attribute information including position information indicating at least a position on a time axis for specifying the video frame corresponding to the sample image frame. Image information, incidental information indicating a screen change amount of the video information added to the sample image information, and a variable speed of a video by changing a reproduction speed of the sample image frame according to the information of the screen change amount. A video playback device, comprising: a display engine that performs playback.
【請求項17】 前記標本画像フレームは前記映像情報
の1枚の画像の任意の部分のみを時間的に任意の間隔で
かつ空間的に任意の大きさにサンプリングして得たもの
を含むことを特徴とする請求項1乃至請求項7のいずれ
か1項記載の画像情報記述方法。
17. The method according to claim 17, wherein the sample image frame includes an image obtained by sampling only an arbitrary portion of one image of the video information at an arbitrary time interval and an arbitrary spatial size. The image information description method according to any one of claims 1 to 7, characterized in that:
【請求項18】 前記標本画像フレームは前記映像情報
の1枚の画像の任意の部分のみを時間的に任意の間隔で
かつ空間的に任意の大きさにサンプリングして得たもの
を含むことを特徴とする請求項9乃至請求項12のいず
れか1項記載の映像検索方法。
18. The method according to claim 18, wherein the sample image frame includes an image obtained by sampling only an arbitrary portion of one image of the video information at an arbitrary time interval and an arbitrary spatial size. The video search method according to any one of claims 9 to 12, characterized in that:
【請求項19】 前記標本画像フレームは前記映像情報
の1枚の画像の任意の部分のみを時間的に任意の間隔で
かつ空間的に任意の大きさにサンプリングして得たもの
を含むことを特徴とする請求項13記載の映像再生方
法。
19. The method according to claim 19, wherein the sample image frame includes an image obtained by sampling only an arbitrary portion of one image of the video information at an arbitrary time interval and an arbitrary spatial size. 14. The video reproducing method according to claim 13, wherein:
【請求項20】 前記標本画像フレームは前記映像情報
の1枚の画像の任意の部分のみを時間的に任意の間隔で
かつ空間的に任意の大きさにサンプリングして得たもの
を含むことを特徴とする請求項14、または請求項15
記載の映像検索装置。
20. The sample image frame includes a sample obtained by sampling only an arbitrary portion of one image of the video information at an arbitrary time interval and an arbitrary spatial size. Claim 14 or Claim 15 characterized by the above-mentioned.
The video search device according to the above.
【請求項21】 前記標本画像フレームは前記映像情報
の1枚の画像の任意の部分のみを時間的に任意の間隔で
かつ空間的に任意の大きさにサンプリングして得たもの
を含むことを特徴とする請求項16記載の映像再生装
置。
21. The sample image frame includes a sample obtained by sampling only an arbitrary portion of one image of the video information at an arbitrary time interval and an arbitrary spatial size. 17. The video playback device according to claim 16, wherein:
【請求項22】 前記複数の標本画像フレームを1つの
映像情報として記憶することを特徴とする請求項1乃至
請求項7のいずれか1項記載の画像情報記述方法。
22. The image information description method according to claim 1, wherein the plurality of sample image frames are stored as one piece of video information.
【請求項23】 前記複数の標本画像フレームを1つの
映像情報として記憶することを特徴とする請求項9乃至
請求項12のいずれか1項記載の映像検索方法。
23. The video search method according to claim 9, wherein the plurality of sample image frames are stored as one video information.
【請求項24】 前記複数の標本画像フレームを1つの
映像情報として記憶することを特徴とする請求項13記
載の映像再生方法。
24. The video reproducing method according to claim 13, wherein said plurality of sample image frames are stored as one video information.
【請求項25】 前記複数の標本画像フレームを1つの
映像情報として記憶することを特徴とする請求項14、
または請求項15記載の映像検索装置。
25. The method according to claim 14, wherein the plurality of sample image frames are stored as one piece of video information.
Or the video search device according to claim 15.
【請求項26】 前記複数の標本画像フレームを1つの
映像情報として記憶することを特徴とする請求項16記
載の映像再生装置。
26. The video reproducing apparatus according to claim 16, wherein said plurality of sample image frames are stored as one video information.
JP33946599A 1999-01-28 1999-11-30 Image information description method Expired - Fee Related JP4574771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33946599A JP4574771B2 (en) 1999-01-28 1999-11-30 Image information description method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2038699 1999-01-28
JP11-20386 1999-01-28
JP33946599A JP4574771B2 (en) 1999-01-28 1999-11-30 Image information description method

Publications (2)

Publication Number Publication Date
JP2000287165A true JP2000287165A (en) 2000-10-13
JP4574771B2 JP4574771B2 (en) 2010-11-04

Family

ID=26357327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33946599A Expired - Fee Related JP4574771B2 (en) 1999-01-28 1999-11-30 Image information description method

Country Status (1)

Country Link
JP (1) JP4574771B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238162A (en) * 2000-02-23 2001-08-31 Nec Corp Device and system for acquiring program information and machine readable recording medium with program recorded therein
WO2002103562A1 (en) * 2001-06-19 2002-12-27 Whoi-Yul Kim Method of extracting shape variation descriptor for retrieving image sequence
WO2006080654A1 (en) * 2005-01-27 2006-08-03 Industry-University Cooperation Foundation Hanyang University Information parts extraction for retrieving image sequence data
JP2007221496A (en) * 2006-02-17 2007-08-30 Sony Corp Data processing apparatus, data processing method, and program
US7460601B2 (en) 2001-10-30 2008-12-02 Panasonic Corporation Video data transmitting/receiving method and video monitor system
JP2009094586A (en) * 2007-10-03 2009-04-30 Sony Corp Video playback device, video playback method and program
JP2013162337A (en) * 2012-02-06 2013-08-19 Jcc Kk Video recording apparatus
KR101747220B1 (en) 2012-08-30 2017-06-15 한화테크윈 주식회사 Adaptive image processing apparatus and method in image pyramid
WO2022209657A1 (en) * 2021-03-30 2022-10-06 テルモ株式会社 Computer program, information processing method, and information processing device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238162A (en) * 2000-02-23 2001-08-31 Nec Corp Device and system for acquiring program information and machine readable recording medium with program recorded therein
WO2002103562A1 (en) * 2001-06-19 2002-12-27 Whoi-Yul Kim Method of extracting shape variation descriptor for retrieving image sequence
US7212671B2 (en) 2001-06-19 2007-05-01 Whoi-Yul Kim Method of extracting shape variation descriptor for retrieving image sequence
US7460601B2 (en) 2001-10-30 2008-12-02 Panasonic Corporation Video data transmitting/receiving method and video monitor system
WO2006080654A1 (en) * 2005-01-27 2006-08-03 Industry-University Cooperation Foundation Hanyang University Information parts extraction for retrieving image sequence data
US7995870B2 (en) 2005-01-27 2011-08-09 Industry-University Cooperation Foundation Hanyang University Information parts extraction for retrieving image sequence data
JP2007221496A (en) * 2006-02-17 2007-08-30 Sony Corp Data processing apparatus, data processing method, and program
JP4613851B2 (en) * 2006-02-17 2011-01-19 ソニー株式会社 Data processing apparatus, data processing method, and program
JP2009094586A (en) * 2007-10-03 2009-04-30 Sony Corp Video playback device, video playback method and program
JP2013162337A (en) * 2012-02-06 2013-08-19 Jcc Kk Video recording apparatus
KR101747220B1 (en) 2012-08-30 2017-06-15 한화테크윈 주식회사 Adaptive image processing apparatus and method in image pyramid
WO2022209657A1 (en) * 2021-03-30 2022-10-06 テルモ株式会社 Computer program, information processing method, and information processing device

Also Published As

Publication number Publication date
JP4574771B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
US6912327B1 (en) Imagine information describing method, video retrieval method, video reproducing method, and video reproducing apparatus
JP3738631B2 (en) Image search system and image search method
JP3409834B2 (en) Image processing apparatus, image processing method, and recording medium
JP3528524B2 (en) Recording / reproducing apparatus, recording / reproducing method, and recording medium
US9502075B2 (en) Methods and apparatus for indexing and archiving encoded audio/video data
JP3719933B2 (en) Hierarchical digital video summary and browsing method and apparatus
JP4666784B2 (en) Video sequence key frame extraction method and video sequence key frame extraction device
US8448068B2 (en) Information processing apparatus, information processing method, program, and storage medium
KR20030056783A (en) Video highlight generating system based on scene transition
JP3529540B2 (en) Video search device
JP2009124298A (en) Device and method for reproducing coded video image
JPH1139846A (en) Apparatus and method for recording as well as recording medium
JP2000350165A (en) Moving picture recording and reproducing device
JP4574771B2 (en) Image information description method
JP4325767B2 (en) Data receiving apparatus and data receiving method
JP4770875B2 (en) Image feature data generation device, image feature determination device, and image search system
EP2306719B1 (en) Content reproduction control system and method and program thereof
US20010017976A1 (en) Image or video data processing system
JP4667356B2 (en) Video display device, control method therefor, program, and recording medium
JPH08154230A (en) Method for storing moving image coded data on medium
JP4090936B2 (en) Video search device
JP2012044451A (en) Image reproduction device, control method therefor, image reproduction program, and recording medium
KR20060102639A (en) System and method for playing mutimedia data
JP2000516006A (en) Method and apparatus for navigating video content by displaying a plurality of key frames in parallel
JPH10276388A (en) Device, method for processing and reproducing image and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080512

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees