JP2003298981A - Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program - Google Patents

Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program

Info

Publication number
JP2003298981A
JP2003298981A JP2002101196A JP2002101196A JP2003298981A JP 2003298981 A JP2003298981 A JP 2003298981A JP 2002101196 A JP2002101196 A JP 2002101196A JP 2002101196 A JP2002101196 A JP 2002101196A JP 2003298981 A JP2003298981 A JP 2003298981A
Authority
JP
Japan
Prior art keywords
scene
feature
summary image
extracting
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002101196A
Other languages
Japanese (ja)
Inventor
Shozo Hirose
尚三 廣瀬
Mitsuhiro Hori
充宏 堀
Shingo Fujiwara
紳吾 藤原
Motohide Yasukawa
元英 安川
Masahiro Inui
昌弘 乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ogis Ri Co Ltd
Original Assignee
Ogis Ri Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ogis Ri Co Ltd filed Critical Ogis Ri Co Ltd
Priority to JP2002101196A priority Critical patent/JP2003298981A/en
Publication of JP2003298981A publication Critical patent/JP2003298981A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digest image generating apparatus and method therefor capable of generating a proper digest image in response to a category. <P>SOLUTION: A plurality of feature extract sections 14, 16, 18, 20, 22 extract features of a plurality of kinds different from each other such as scene changes, a camera motion, the luminance and color of a designated area, a telop, and the sound from an original image, read a scene extract condition corresponding to a selected category from a library 26, produce a play list listing up feature information of scenes with a feature for satisfying the condition, and select a particular scene from the original image according to the play list to generate a digest image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【発明の属する技術分野】本発明は、要約画像作成装
置、要約画像作成方法、要約画像作成プログラム、及び
要約画像作成プログラムを記憶したコンピュータ読取可
能な記憶媒体に関し、さらに詳しくは、動画像から要約
画像を作成する要約画像作成装置、要約画像作成方法、
要約画像作成プログラム、及び要約画像作成プログラム
を記憶したコンピュータ読取可能な記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a summary image creating device, a summary image creating method, a summary image creating program, and a computer-readable storage medium storing the summary image creating program. Abstract image creating device for creating an image, abstract image creating method,
The present invention relates to a summary image creating program and a computer-readable storage medium storing the summary image creating program.

【0001】[0001]

【従来の技術】特表平10−507554号公報、特開
平10−232884号公報、及び特開平11−751
46号公報には、録画したテレビ番組や映画等の概要を
短時間で確認することを可能にするために、動画像から
要約画像を作成する装置が開示されている。
2. Description of the Related Art Japanese Laid-Open Patent Publication No. 10-507554, Japanese Laid-Open Patent Publication No. 10-232884, and Japanese Laid-Open Patent Publication No. 11-751.
Japanese Patent Laid-Open No. 46-46 discloses a device for creating a summary image from a moving image in order to confirm the outline of a recorded TV program or movie in a short time.

【0002】[0002]

【発明が解決しようとする課題】しかし、これらの装置
では、ニュース、音楽、相撲等、番組のカテゴリによっ
ては、適切な要約画像を作成することができない場合が
あった。上述の特開平10−232884号公報及び特
開平11−75146号公報には、カテゴリに応じて適
切な要約画像を作成することが示唆されているが、具体
的な方法は記載されていない。
However, these devices may not be able to create an appropriate summary image depending on the program category such as news, music, sumo, etc. Although the above-mentioned JP-A-10-232884 and JP-A-11-75146 suggest that an appropriate summary image be created according to the category, no specific method is described.

【0003】本発明の目的は、カテゴリに応じて適切な
要約画像を作成することが可能な要約画像作成装置、要
約画像作成方法、要約画像作成プログラム、及び要約画
像作成プログラムを記憶したコンピュータ読取可能な記
憶媒体を提供することである。
An object of the present invention is to provide a summary image creating apparatus capable of creating an appropriate summary image according to a category, a summary image creating method, a summary image creating program, and a computer readable storage of the summary image creating program. Another storage medium is to provide.

【0004】[0004]

【課題を解決するための手段】本発明による要約画像作
成装置は、動画像から要約画像を作成する要約画像作成
装置であって、1又は複数の特徴抽出手段と、シーン抽
出手段とを備える。1又は複数の特徴抽出手段は、動画
像のビデオ又はオーディオ信号の中から、1又は複数種
類の特徴を抽出する。シーン抽出手段は、特徴抽出手段
により抽出された特徴を参照して、動画像のカテゴリに
特有の特徴を有するシーンをビデオ又はオーディオ信号
の中から抽出する。
A summary image creating apparatus according to the present invention is a summary image creating apparatus for creating a summary image from a moving image, and includes one or a plurality of feature extracting means and a scene extracting means. The one or a plurality of feature extracting means extracts one or a plurality of types of features from the video or audio signal of the moving image. The scene extraction unit refers to the features extracted by the feature extraction unit and extracts a scene having a feature specific to the category of the moving image from the video or audio signal.

【0005】本発明による要約画像作成方法は、動画像
から要約画像を作成する要約画像作成方法であって、動
画像のビデオ又はオーディオ信号の中から、1又は複数
種類の特徴を抽出する特徴抽出ステップと、抽出された
特徴を参照して、動画像のカテゴリに特有の特徴を有す
るシーンをビデオ又はオーディオ信号の中から抽出する
シーン抽出ステップとを含む。
A summary image creating method according to the present invention is a summary image creating method for creating a summary image from a moving image, which is feature extraction for extracting one or a plurality of types of features from a video or audio signal of the moving image. And a scene extraction step of extracting, from the video or audio signal, a scene having characteristics specific to the category of the moving image with reference to the extracted characteristics.

【0006】本発明による要約画像作成プログラムは、
上記ステップをコンピュータに実行させるものである。
A summary image creating program according to the present invention is
The computer is made to execute the above steps.

【0007】本発明によるコンピュータ読取可能な記憶
媒体は、上記要約画像作成プログラムを記憶したもので
ある。
A computer-readable storage medium according to the present invention stores the summary image creating program.

【0008】この要約画像作成装置、要約画像作成方
法、要約画像作成プログラム、及び要約画像作成プログ
ラムを記憶したコンピュータ読取可能な記憶媒体では、
動画像のビデオ又はオーディオ信号の中から1又は複数
種類の特徴が抽出され、その抽出された特徴を参照して
動画像のカテゴリに特有の特徴を有するシーンが抽出さ
れる。
The summary image creating apparatus, the summary image creating method, the summary image creating program, and the computer-readable storage medium storing the summary image creating program include:
One or a plurality of types of features are extracted from the video or audio signal of the moving image, and a scene having features unique to the category of the moving image is extracted by referring to the extracted features.

【0009】その結果、本発明によれば、動画像のカテ
ゴリが様々であっても、カテゴリに応じた適切な要約画
像を作成することができる。
As a result, according to the present invention, it is possible to create an appropriate summary image according to a category even if the moving image has various categories.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳しく説明する。図中同一又は相当部分には
同一符号を付してその説明を援用する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. In the drawings, the same or corresponding parts will be denoted by the same reference symbols and the description thereof will be incorporated.

【0011】1.構成 図1は、本発明の実施の形態による要約画像作成装置の
構成を示すブロック図である。図1を参照して、要約画
像作成装置は、データライブラリ10に蓄積されている
動画像から要約画像を作成する。要約画像作成装置は具
体的には、MPEG形式のビデオストリームを複数のレ
イヤに分解するMPEGパージング部12と、シーンチ
ェンジに関連するシーンチェンジ特徴データをビデオス
トリームの中から抽出するシーンチェンジ特徴抽出部1
4と、カメラモーションに関連するカメラモーション特
徴データをビデオストリームの中から抽出するカメラモ
ーション特徴抽出部16と、フレーム内の指定された領
域の輝度又は色に関連する指定領域特徴データをビデオ
ストリームの中から抽出する指定領域特徴抽出部18
と、テロップに関連するテロップ特徴データをビデオス
トリームの中から抽出するテロップ特徴抽出部20と、
音声に関連する音声特徴データをビデオストリームの中
から抽出する音声特徴抽出部22と、複数の特徴抽出部
14,16,18,20,22により抽出された特徴を
参照して、動画像のカテゴリに特有の特徴を有するシー
ンをビデオストリーム及びオーディオストリームの中か
ら抽出するシーン抽出部24とを備える。
1. Configuration FIG. 1 is a block diagram showing a configuration of a summary image creating device according to an embodiment of the present invention. With reference to FIG. 1, the summary image creating apparatus creates a summary image from moving images stored in a data library 10. Specifically, the summary image creating apparatus includes an MPEG parsing unit 12 that decomposes an MPEG format video stream into a plurality of layers, and a scene change feature extraction unit that extracts scene change feature data related to a scene change from the video stream. 1
4, a camera motion feature extraction unit 16 that extracts camera motion feature data related to camera motion from the video stream, and designated area feature data related to luminance or color of a designated area in a frame of the video stream. Specified area feature extraction unit 18 to extract from inside
And a telop feature extraction unit 20 for extracting telop feature data related to the telop from the video stream,
The audio feature extraction unit 22 that extracts audio feature data related to audio from the video stream, and the features extracted by the plurality of feature extraction units 14, 16, 18, 20, and 22 are referred to And a scene extraction unit 24 for extracting a scene having a characteristic peculiar to the video stream and the audio stream.

【0012】シーン抽出部24は、複数のカテゴリに対
応して複数のシーン抽出条件を記憶する条件ライブラリ
26と、複数のカテゴリのうち選択されたカテゴリに対
応するシーン抽出条件に応じて、抽出すべきシーンを特
定するために必要なシーン特定情報を作成するシーン特
定情報作成部28と、作成されたシーン特定情報を列記
したプレイリストを記憶するためのプレイリストライブ
ラリ30と、プレイリストのシーン特定情報に応じて特
定されたシーンをビデオストリーム及びオーディオスト
リームの中から選択するシーン選択部32とを含む。
The scene extraction unit 24 extracts a scene according to a condition library 26 for storing a plurality of scene extraction conditions corresponding to a plurality of categories and a scene extraction condition corresponding to a selected category among the plurality of categories. Scene identification information creation unit 28 that creates the scene identification information necessary to identify the desired scene, a playlist library 30 that stores a playlist that lists the created scene identification information, and the scene identification of the playlist. And a scene selection unit 32 that selects a scene specified according to information from a video stream and an audio stream.

【0013】2.動作 次に、この要約画像作成装置の動作を図2に示したフロ
ー図を参照して説明する。
2. Operation Next, the operation of this summary image creating apparatus will be described with reference to the flow chart shown in FIG.

【0014】データライブラリ10には、動画像とし
て、ニュース、音楽、野球、ドラマ、相撲等、録画した
テレビ番組のデジタルデータが蓄積されている。データ
ライブラリ10は実際には、DVD(デジタル多用途デ
ィスク)やコンピュータのハードディスク上に形成され
る。
The data library 10 stores digital data of recorded television programs such as news, music, baseball, drama, sumo, etc. as moving images. The data library 10 is actually formed on a DVD (digital versatile disk) or a hard disk of a computer.

【0015】まず、データライブラリ10のコンテンツ
が要約画像作成装置に入力される(S1)。入力された
コンテンツは、エンコーダ(図示せず)によりMPEG
形式のビデオストリームに変換されるとともに(S
2)、WAVE形式のオーディオストリームに変換され
る。ビデオストリームはMPEGパージング部12に入
力され、IフレームやPフレーム等、複数のレイヤに分
解される(S3)。Iフレームは、シーンチェンジ特徴
抽出部14、指定領域特徴抽出部18及びテロップ特徴
抽出部20に入力される(S4)。Pフレームは、カメ
ラモーション特徴抽出部16及びテロップ特徴抽出部2
0に入力される(S4)。オーディオストリームは、音
声特徴抽出部22に入力される(S4)。そして、これ
ら特徴抽出部により互いに異なる複数種類の特徴がビデ
オストリーム及びオーディオストリームから抽出される
(S5)。以下、各特徴抽出部の動作を説明する。
First, the contents of the data library 10 are input to the summarized image creating apparatus (S1). The input content is MPEG encoded by an encoder (not shown).
Format is converted to a video stream (S
2), converted to a WAVE format audio stream. The video stream is input to the MPEG parsing unit 12 and decomposed into a plurality of layers such as I frame and P frame (S3). The I frame is input to the scene change feature extraction unit 14, the designated area feature extraction unit 18, and the telop feature extraction unit 20 (S4). The P frame includes a camera motion feature extraction unit 16 and a telop feature extraction unit 2
It is input to 0 (S4). The audio stream is input to the audio feature extraction unit 22 (S4). Then, a plurality of different types of features are extracted from the video stream and the audio stream by these feature extraction units (S5). The operation of each feature extraction unit will be described below.

【0016】(1)シーンチェンジ特徴抽出 シーンチェンジ特徴抽出部14は、IフレームのDCT
(離散コサイン変換)係数に基づいて輝度ヒストグラム
を作成する。具体的には、8ドット×8ドットからなる
ブロックの64個のDCT係数の中から、このブロック
の平均輝度を表す直流成分を抽出する。そして、各フレ
ーム内における輝度のヒストグラムを作成する。続い
て、各フレームの輝度ヒストグラムとその次のフレーム
の輝度ヒストグラムとの差分を算出し、その差分の時間
方向に対する分散を算出する。この分散がシーンチェン
ジ特徴データであり、シーンが大きく変化する時に大き
くなる傾向にある。
(1) Scene Change Feature Extraction The scene change feature extraction unit 14 uses the DCT of the I frame.
(Discrete cosine transform) A luminance histogram is created based on the coefficients. Specifically, the DC component representing the average luminance of this block is extracted from the 64 DCT coefficients of the block of 8 dots × 8 dots. Then, a histogram of luminance in each frame is created. Then, the difference between the luminance histogram of each frame and the luminance histogram of the next frame is calculated, and the variance of the difference in the time direction is calculated. This distribution is the scene change feature data, and tends to increase when the scene changes significantly.

【0017】(2)カメラモーション特徴抽出 カメラモーション特徴抽出部16は、Pフレームのモー
ションベクトルをアフィン変換してカメラモーション特
徴データを算出する。このカメラモーション特徴データ
から、画像を撮影したカメラが停止しているのか、上下
左右に回転しているのか、ズームインしているのか、ズ
ームアウトしているのか等、カメラの動き(モーショ
ン)を判別することができる。
(2) Camera Motion Feature Extraction The camera motion feature extraction unit 16 affine-transforms the motion vector of the P frame to calculate camera motion feature data. From this camera motion feature data, determine the camera movement (motion) such as whether the camera that took the image is stopped, rotating up / down / left / right, zooming in, zooming out, etc. can do.

【0018】(3)指定領域特徴抽出 指定領域特徴抽出部18は、IフレームのDCT係数に
基づいて、フレーム内で予め指定された1又は2以上の
領域において輝度又は色の値が所定の範囲内か否かを判
別するために有効な指定領域特徴データを算出する。
(3) Designated Area Feature Extraction The designated area feature extraction unit 18 uses the DCT coefficient of the I frame to set the luminance or color value in a predetermined range in one or more areas designated in advance in the frame. Specified area feature data effective for determining whether or not the area is inside is calculated.

【0019】図3は、相撲の取り組み画面の例を示す。
相撲というカテゴリの場合、このような取り組み画面を
要約画像の中に取り込む必要がある。相撲の取り組み画
面では一般に、画面の上側約5分の3に観客席が映し出
され、画面の下側約5分の2に土俵が映し出されること
が多い。そこで、フレーム内の上下に2つの指定領域3
4,36を設定する。取り組み画面では、上側の指定領
域34は観客席が映し出されるので暗くなり、下側の指
定領域36は土俵が映し出されるので明るくなる傾向に
ある。したがって、上側の指定領域34では輝度の低い
画素の割合が80%以上あり、かつ下側の指定領域36
では輝度の高い画素の割合が90%以上あれば、その画
面は取り組み画面と判別することができる。
FIG. 3 shows an example of a sumo wrestling screen.
In the case of the sumo category, it is necessary to incorporate such an action screen in the summary image. In sumo wrestling screens, the audience seats are generally displayed on the upper three-fifths of the screens, and the ring is projected on the lower two-fifths of the screens. Therefore, there are two designated areas 3 above and below in the frame.
Set 4, 36. In the approach screen, the upper designated area 34 tends to be dark because the audience seats are projected, and the lower designated area 36 tends to be bright because the ring is projected. Therefore, in the upper designated area 34, the proportion of pixels having low luminance is 80% or more, and in the lower designated area 36.
Then, if the ratio of pixels with high brightness is 90% or more, the screen can be determined to be the approach screen.

【0020】図4は、指定領域特徴抽出のための具体的
な処理を示すフロー図である。
FIG. 4 is a flow chart showing a specific process for extracting a specified area feature.

【0021】まず、フレーム内の全ての画素について後
述のチェックを行ったか否かを判別する(S10)。全
ての画素についてチェックを終えていない場合、画像中
のある画素の位置とその輝度値とを入力する(S1
1)。
First, it is determined whether all the pixels in the frame have been checked as described below (S10). If the check has not been completed for all pixels, the position of a pixel in the image and its brightness value are input (S1).
1).

【0022】続いて、フレーム内の全ての指定領域(図
3の例では2つの指定領域34,36)について後述の
チェックを行ったか否かを判別する(S12)。全ての
指定領域についてチェックを終えていない場合、入力さ
れた画素の位置が指定領域内にあるか否かをチェックす
る(S13)。指定領域内にない場合はステップS12
に戻り、ある場合は次のステップS15に進む(S1
4)。
Then, it is determined whether or not the below-described check has been performed for all designated areas (two designated areas 34 and 36 in the example of FIG. 3) in the frame (S12). If all the designated areas have not been checked, it is checked whether the position of the input pixel is within the designated area (S13). If it is not within the designated area, step S12
, And if there is, go to the next step S15 (S1
4).

【0023】入力された画素の位置が指定領域内にある
場合、その画素の輝度値が所定の範囲内か否かをチェッ
クする(S15)。図3に示した画面の場合、上側の指
定領域34には観客席として典型的な低い輝度値を中心
に所定の範囲を設定し、下側の指定領域36には土俵と
して典型的な高い輝度値を中心に所定の範囲を設定す
る。輝度値が所定の範囲内でない場合はステップS12
に戻り、所定の範囲内の場合は次のステップS17に進
む。
If the position of the input pixel is within the designated area, it is checked whether the brightness value of the pixel is within a predetermined range (S15). In the case of the screen shown in FIG. 3, a predetermined range is set in the designated area 34 on the upper side around a low luminance value that is typical for a spectator seat, and in the designated area 36 on the lower side, a high brightness that is typical for a ring. Set a predetermined range around the value. If the brightness value is not within the predetermined range, step S12.
Returning to step S17, if it is within the predetermined range, the process proceeds to the next step S17.

【0024】そして、画素のカウントを1つ追加する
(S17)。これにより、指定領域内において所定範囲
内の輝度値を有する画素の数をカウントすることができ
る。
Then, one pixel count is added (S17). Thus, it is possible to count the number of pixels having the brightness value within the predetermined range within the designated area.

【0025】ステップS12で全ての指定領域について
上述のチェックを終えたと判断した場合はステップS1
0に戻り、さらにステップS10でフレーム内の全ての
画素について上述のチェックを終えたと判断した場合は
次のステップS18に進む。
If it is determined in step S12 that the above-mentioned checks have been completed for all designated areas, step S1
Returning to 0, and when it is determined in step S10 that the above-described check has been completed for all pixels in the frame, the process proceeds to the next step S18.

【0026】次に、指定領域内の全画素数に対する上記
でカウントされた画素数の割合を各指定領域ごとに算出
する(S18)。続いて、算出した画素数の割合が所定
のしきい値以上か否かを判定する(S19)。しきい値
以上の場合はその指定領域に割り当てられたフラグを
「1」に設定し(S20)、しきい値以上でない場合は
そのフラグを「0」に設定する(S21)。
Next, the ratio of the number of pixels counted above to the total number of pixels in the designated area is calculated for each designated area (S18). Then, it is determined whether the calculated ratio of the number of pixels is equal to or more than a predetermined threshold value (S19). If it is equal to or more than the threshold value, the flag assigned to the designated area is set to "1" (S20), and if it is not equal to or more than the threshold value, the flag is set to "0" (S21).

【0027】続いて、フラグ=1が連続するフレーム数
が所定のしきい値以上か否かを判定する(S22)。し
きい値以上の場合は抽出すべきシーンの開始フレームと
判断する(S23)。一方、しきい値以上でない場合は
フラグ=0が連続するフレーム数が所定のしきい値以上
か否かを判定する(S24)。しきい値以上の場合は抽
出すべきシーンの終了フレームと判断する(S25)。
Then, it is determined whether or not the number of frames in which flag = 1 continues is equal to or more than a predetermined threshold value (S22). If it is equal to or more than the threshold value, it is determined to be the start frame of the scene to be extracted (S23). On the other hand, if it is not equal to or more than the threshold value, it is determined whether or not the number of consecutive frames of flag = 0 is equal to or more than a predetermined threshold value (S24). If it is equal to or more than the threshold value, it is determined that it is the end frame of the scene to be extracted (S25).

【0028】上述の例では輝度情報を用いているが、輝
度情報とともに又は輝度情報に代えて色情報を用いても
よい。
Although the luminance information is used in the above example, color information may be used together with the luminance information or instead of the luminance information.

【0029】(4)テロップ特徴抽出 テロップ特徴抽出部20は、IフレームのDCT係数及
びPフレームのモーションベクトルに基づいて、画面に
テロップがあるか否かを判別するために有効なテロップ
特徴データを算出する。
(4) Telop Feature Extraction The telop feature extraction unit 20 outputs telop feature data effective for determining whether or not there is a telop on the screen based on the DCT coefficient of the I frame and the motion vector of the P frame. calculate.

【0030】図5は、テロップ特徴抽出のための具体的
な動作を示すフロー図である。
FIG. 5 is a flowchart showing a specific operation for extracting telop features.

【0031】まず、フレーム内の全てのマクロブロック
について後述の処理を行ったか否かを判別する(S3
0)。図6に示すように、MPEGでは1つの画像は複
数のマクロブロックで構成される。各マクロブロックは
16ドット×16ドットで構成される。
First, it is determined whether or not the processing described below has been performed for all macroblocks in the frame (S3).
0). As shown in FIG. 6, in MPEG, one image is composed of a plurality of macroblocks. Each macroblock is composed of 16 dots × 16 dots.

【0032】全マクロブロックの処理を終えていない場
合、IフレームからマクロブロックのDCT係数を入力
する(S31)。図6に示すように、各マクロブロック
は4つのブロックで構成される。各ブロックは8ドット
×8ドットで構成される。MPEGでは、各ブロックに
ある64(=8×8)個のDCT係数をデコードするこ
とによって実際の色を求める。
If the processing of all macroblocks has not been completed, the DCT coefficient of the macroblock is input from the I frame (S31). As shown in FIG. 6, each macroblock is composed of four blocks. Each block is composed of 8 dots × 8 dots. In MPEG, the actual color is obtained by decoding 64 (= 8 × 8) DCT coefficients in each block.

【0033】続いて、各ブロックについて、直流成分の
DCT係数(図6に示したブロック上で左上隅のドット
に割り当てられる)を除く63個のDCT係数の分散を
算出する(S32)。このようなDCT係数の分散を4
つのブロックについて算出する。
Subsequently, the variance of 63 DCT coefficients excluding the DCT coefficient of the DC component (assigned to the dot in the upper left corner on the block shown in FIG. 6) is calculated for each block (S32). The variance of such DCT coefficient is 4
Calculate for one block.

【0034】続いて、算出した4つの分散の中から最大
値を選択する(S33)。その最大値が所定のしきい値
よりも大きければ、そのマクロブロックに割り当てられ
たフラグを立てる(S34)。テロップの部分では1色
又は数色の文字が映し出されることが多いので、ここで
算出した分散の最大値が大きくなる傾向にある。
Then, the maximum value is selected from the calculated four variances (S33). If the maximum value is larger than the predetermined threshold value, the flag assigned to the macroblock is set (S34). Since characters of one color or several colors are often displayed in the telop portion, the maximum value of the variance calculated here tends to increase.

【0035】上記ステップS30で全マクロブロックに
ついて上述の処理を終えたと判別した場合、指定領域内
のフラグの割合を算出する(S35)。テロップは画面
の下側中央に映し出されることが多いので、その辺りに
指定領域は設定される。
If it is determined in step S30 that the above processing has been completed for all macroblocks, the ratio of flags in the designated area is calculated (S35). Since the telop is often displayed in the lower center of the screen, the designated area is set around that.

【0036】続いて、フラグの割合が所定のしきい値よ
りも大きければ、その指定領域に割り当てられたフラグ
を立てる(S36)。
Then, if the flag ratio is higher than a predetermined threshold value, the flag assigned to the designated area is set (S36).

【0037】続いて、フラグが立ったマクロブロックの
X座標(画面横方向)の分散を算出する(S37)。テ
ロップは画面横方向に伸びていることが多いので、ここ
で算出したX座標の分散が大きくなる傾向にある。
Then, the variance of the X-coordinate (horizontal direction of the screen) of the flagged macroblock is calculated (S37). Since the telop often extends in the horizontal direction of the screen, the variance of the X coordinate calculated here tends to be large.

【0038】続いて、算出した分散の時間方向に対する
分散を算出し、安定しているか否かを調べる(S3
8)。テロップは一定時間継続して映し出されることが
多いので、ここで算出した時間方向に対する分散が安定
する傾向にある。
Subsequently, the variance of the calculated variance in the time direction is calculated and it is checked whether or not it is stable (S3).
8). Since the telop is often displayed continuously for a certain period of time, the dispersion in the time direction calculated here tends to be stable.

【0039】続いて、指定領域のフラグが立ち、かつ、
時間方向に対する分散が安定しているか否かを判別する
(S39)。フラグが立ちかつ分散が安定している場合
は、テロップの開始フレームと判断し、それを保持する
(S40)。一方、そうでない場合は、開始フレームが
保持されているか否かを判別する(S41)。開始フレ
ームが保持されている場合は、テロップの終了フレーム
と判断し、開始フレーム及び終了フレームを出力する
(S42)。
Then, the flag of the designated area is set, and
It is determined whether or not the dispersion in the time direction is stable (S39). If the flag is set and the dispersion is stable, it is determined that the frame is the telop start frame, and the frame is held (S40). On the other hand, if not, it is determined whether or not the start frame is held (S41). If the start frame is held, it is determined to be the end frame of the telop, and the start frame and the end frame are output (S42).

【0040】(5)音声特徴抽出 音声特徴抽出部22は、オーディオストリームから得ら
れる音声の周波数及びその分散、振幅及びその分散等、
その音声の種類(会話、音楽等)を特定するのに有効な
音声特徴データを算出する。
(5) Speech Feature Extraction The speech feature extraction unit 22 determines the frequency and the variance of the voice obtained from the audio stream, the amplitude and the variance thereof, and the like.
The voice feature data effective for specifying the type of voice (conversation, music, etc.) is calculated.

【0041】上述した特徴抽出の結果、図1及び図2に
示すように、特徴抽出部14,16,18,20,22
からそれぞれの特徴データが出力される(S6)。
As a result of the above-mentioned feature extraction, as shown in FIGS. 1 and 2, the feature extraction units 14, 16, 18, 20, 22 are extracted.
The respective characteristic data are output from (S6).

【0042】続いて、ユーザの操作に応じて動画像のカ
テゴリを選択する(S7)。
Then, the category of the moving image is selected according to the user's operation (S7).

【0043】図7は、条件ライブラリ26の内容を示
す。条件ライブラリ26は、複数のカテゴリに対応して
複数のシーン抽出条件を記憶している。たとえばニュー
スというカテゴリの場合、ニュースヘッドラインに相当
する要約画像を作成する必要がある。この例では、シー
ン抽出条件として、音声特徴データに関連して「音声に
人の声が含まれていること」、シーンチェンジ特徴デー
タに関連して「シーンチェンジがないこと」、カメラモ
ーション特徴データに関連して「動きがないこと」、テ
ロップ特徴データに関連して「テロップが画面の下側に
ある区間の後半に出現すること」が記憶されている。
FIG. 7 shows the contents of the condition library 26. The condition library 26 stores a plurality of scene extraction conditions corresponding to a plurality of categories. For example, in the category of news, it is necessary to create a summary image corresponding to a news headline. In this example, as the scene extraction conditions, "the voice contains a human voice" in relation to the voice feature data, "there is no scene change" in relation to the scene change feature data, and the camera motion feature data "There is no motion" in relation to ", and" that the telop appears in the latter half of the section on the lower side of the screen "is stored in relation to the telop feature data.

【0044】このような条件ライブラリ26から、上記
ステップS7で選択されたカテゴリに対応するシーン抽
出条件が読み出される。
From such a condition library 26, scene extraction conditions corresponding to the category selected in step S7 are read.

【0045】続いて、シーン特定情報作成部28は、特
徴抽出部14,16,18,20,22から与えられた
特徴抽出データに基づいて、条件ライブラリ26から読
み出されたシーン抽出条件を満たすシーンを特定するた
めに必要なシーン特定情報を作成する。シーン特定情報
としては、先頭フレームから該当フレームまでの時間、
フレームの連続番号等を用いることができる。作成され
たシーン特定情報はプレイリストライブラリ30に順次
記録され、その結果、要約画像に含めるべきシーンを特
定するプレイリストが完成する。プレイリストは、画像
コンテンツを含んでおらず、要約画像を形成するフレー
ムの指標を記録したインデックスファイルである。
Then, the scene specifying information creating section 28 satisfies the scene extraction conditions read from the condition library 26 based on the feature extraction data provided from the feature extracting sections 14, 16, 18, 20, 22. Create the scene identification information needed to identify the scene. As the scene identification information, the time from the first frame to the corresponding frame,
A frame serial number or the like can be used. The created scene identification information is sequentially recorded in the playlist library 30, and as a result, the playlist that identifies the scenes to be included in the summary image is completed. The play list is an index file that does not include image content and records indexes of frames forming a summary image.

【0046】実際に要約画像を作成するときには、プレ
イリストライブラリ30からプレイリストが出力され、
シーン選択部32がこのプレイリストに従って動画像の
中から特定のシーンを選択する(S9)。
When the summary image is actually created, the playlist is output from the playlist library 30,
The scene selection unit 32 selects a specific scene from the moving images according to this playlist (S9).

【0047】3.他の実施の形態 上述した実施の形態ではユーザの操作に応じてカテゴリ
を選択している。通常はユーザが動画像のカテゴリを知
っているから、ユーザにカテゴリを選択させた方が適切
な要約画像を作成することができる。しかし、1つの動
画像の中に複数のカテゴリの画像が含まれている場合
は、ユーザが一々カテゴリを選択しなければならず、面
倒である。
3. Other Embodiments In the above-described embodiments, the category is selected according to the user's operation. Since the user usually knows the category of the moving image, it is possible to create an appropriate summary image by allowing the user to select the category. However, when a plurality of categories of images are included in one moving image, the user has to select each category, which is troublesome.

【0048】そこで、図2に示したステップS7の代わ
りに、図8に示したステップS71を追加してもよい。
ここでは、カテゴリを自動的に選択する。
Therefore, step S71 shown in FIG. 8 may be added instead of step S7 shown in FIG.
Here, the category is automatically selected.

【0049】図9は、カテゴリを自動的に選択する方法
を示す。まず上記と同じ方法で、動画像から複数種類の
特徴を抽出する。この動画像は複数のカテゴリの画像を
含んでいるから、各カテゴリごとに特有の特徴が抽出さ
れる。これらの抽出された特徴は、タイムレコードやそ
の特徴抽出に特有のパラメータを複数持つが、パラメー
タがN個の場合、N次元の特徴ベクトルに置き換えるこ
とができる。なお予め、様々なカテゴリの番組について
過去の番組等から抽出した特徴抽出結果からカテゴリ別
にテンプレートとなる特徴ベクトルを1又は複数用意し
ておき、データベース化しておく。
FIG. 9 shows a method of automatically selecting a category. First, a plurality of types of features are extracted from a moving image by the same method as above. Since this moving image includes images of a plurality of categories, a characteristic peculiar to each category is extracted. These extracted features have a plurality of parameters peculiar to the time record and the feature extraction, and when the number of parameters is N, it can be replaced with an N-dimensional feature vector. It should be noted that one or a plurality of feature vectors serving as templates for each category are prepared in advance from the feature extraction results extracted from past programs and the like for programs in various categories and stored in a database.

【0050】任意の動画像のある区間の特徴ベクトルを
作成し、データベース内の特徴ベクトルの距離や相関係
数を求め、ベクトル間距離が短いか又は最も相関係数が
高い特徴ベクトルを選択する。この特徴ベクトルのカテ
ゴリがたとえばニュースであれば、この区間のカテゴリ
はニュースと決定することができる。
A feature vector of a certain section of an arbitrary moving image is created, the distance and correlation coefficient of the feature vector in the database are obtained, and the feature vector having a short inter-vector distance or the highest correlation coefficient is selected. If the category of this feature vector is, for example, news, the category of this section can be determined to be news.

【0051】また、上述した実施の形態によれば、ほと
んどの場合、カテゴリに応じた適切な要約画像を作成す
ることができる。しかし、同じカテゴリであっても番組
によって抽出される特徴にはバラツキがあるため、適切
な要約画像を作成することができない場合もある。
Further, according to the above-described embodiments, in most cases, an appropriate summary image can be created according to the category. However, even in the same category, there are cases where it is not possible to create an appropriate summary image because the characteristics extracted by the program vary.

【0052】そこで図10に示すように、各特徴抽出部
の特徴抽出条件を調整し(S50)、その調整後の特徴
抽出条件で特徴を抽出し(S4)、さらにシーン抽出条
件を調整し(S51)、その調整後のシーン抽出条件で
シーン特定情報を作成する(S8)、というようにして
もよい。なお、図10中で丸付数字は処理の順番を示
す。
Therefore, as shown in FIG. 10, the feature extraction conditions of each feature extraction unit are adjusted (S50), the features are extracted by the adjusted feature extraction conditions (S4), and the scene extraction conditions are further adjusted (S50). S51), the scene identification information may be created under the adjusted scene extraction conditions (S8). In FIG. 10, circled numbers indicate the order of processing.

【0053】特徴抽出条件を自動的に調整するために
は、初期の特徴抽出条件によって抽出された上記特徴ベ
クトルと、それに近いか又は相関の高いデータベース内
の1又は複数の特徴ベクトルとの差を求め、その差が小
さくなるように特徴抽出条件を微調整する。
In order to automatically adjust the feature extraction condition, the difference between the above-mentioned feature vector extracted by the initial feature extraction condition and one or a plurality of feature vectors in the database that are close to or have a high correlation is calculated. Then, the feature extraction conditions are finely adjusted so that the difference becomes small.

【0054】次に、微調整された特徴抽出条件を用いて
特徴を抽出し、特徴ベクトルを求め、最も近いか又は相
関の高いデータベース内の特徴ベクトルを選択する。こ
のとき若干差が残るが、これを特徴ベクトル差として記
憶しておく。選択された特徴ベクトルがたとえばニュー
スであった場合、ニュースのシーン抽出条件を用いてシ
ーン特定情報を作成するが、先に求めた特徴ベクトル差
により、予め規定された調整係数を用い、シーン抽出条
件の各パラメータを微調整する。
Next, the feature is extracted by using the finely adjusted feature extraction condition, the feature vector is obtained, and the feature vector in the database that is the closest or has a high correlation is selected. At this time, a slight difference remains, but this is stored as a feature vector difference. If the selected feature vector is, for example, news, the scene identification information is created using the news scene extraction condition. However, the scene extraction condition is created using the adjustment coefficient that is defined in advance based on the previously obtained feature vector difference. Fine-tune each parameter of.

【0055】図1に示したブロック図中の各機能、並び
に図2、図4、図5、図8及び図10に示したフロー図
中の各ステップは、所定のプログラムをコンピュータに
実行させることにより実現することができる。このプロ
グラムはCD−ROM等のコンピュータ読取可能な記録
媒体に記録して配布することも可能であるが、インター
ネット等を通じて配信することも可能である。
The functions in the block diagram shown in FIG. 1 and the steps in the flow charts shown in FIGS. 2, 4, 5, 8 and 10 cause a computer to execute a predetermined program. Can be realized by This program can be recorded in a computer-readable recording medium such as a CD-ROM and distributed, but can also be distributed via the Internet or the like.

【0056】以上、本発明の実施の形態を説明したが、
上述した実施の形態は本発明を実施するための例示に過
ぎない。よって、本発明は上述した実施の形態に限定さ
れることなく、その趣旨を逸脱しない範囲内で上述した
実施の形態を適宜変形して実施することが可能である。
The embodiment of the present invention has been described above.
The embodiments described above are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiments, and can be implemented by appropriately modifying the above-described embodiments without departing from the spirit thereof.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態による要約画像作成装置の
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a summary image creating device according to an embodiment of the present invention.

【図2】図1に示した画像作成装置の動作を示すフロー
図である。
FIG. 2 is a flowchart showing an operation of the image creating apparatus shown in FIG.

【図3】図1中の指定領域特徴抽出部で指定領域を設定
した画面の例を示す図である。
FIG. 3 is a diagram showing an example of a screen in which a designated area is set by a designated area feature extraction unit in FIG.

【図4】図1中の指定領域特徴抽出部の動作を示すフロ
ー図である。
FIG. 4 is a flowchart showing an operation of a specified area feature extraction unit in FIG.

【図5】図1中のテロップ特徴抽出部の動作を示すフロ
ー図である。
5 is a flowchart showing the operation of a telop feature extraction unit in FIG.

【図6】図5に示したテロップ特徴抽出で用いるMPE
Gのマクロブロックの構成を示す図である。
6 is an MPE used in the telop feature extraction shown in FIG.
It is a figure which shows the structure of the macroblock of G.

【図7】図1中の条件ライブラリの具体的な内容を示す
図である。
FIG. 7 is a diagram showing specific contents of a condition library in FIG.

【図8】本発明のもう1つの実施の形態による要約画面
作成装置の動作を示すフロー図である。
FIG. 8 is a flowchart showing the operation of the summary screen creating apparatus according to another embodiment of the present invention.

【図9】図8中のカテゴリの自動選択の方法を示す図で
ある。
9 is a diagram showing a method of automatic selection of categories in FIG.

【図10】本発明のさらにもう1つの実施の形態による
要約画面作成装置の動作を示すフロー図である。
FIG. 10 is a flowchart showing the operation of the summary screen creation device according to yet another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 データライブラリ 14 シーンチェンジ特徴抽出部 16 カメラモーション特徴抽出部 18 指定領域特徴抽出部 20 テロップ特徴抽出部 22 音声特徴抽出部 24 シーン抽出部 26 条件ライブラリ 28 シーン特定情報作成部 30 プレイリストライブラリ 32 シーン選択部 34,36 指定領域 10 data library 14 Scene change feature extraction unit 16 Camera motion feature extraction unit 18 Designated Area Feature Extraction Unit 20 Telop feature extraction unit 22 Speech feature extraction unit 24 Scene extractor 26 Condition Library 28 Scene Specific Information Creation Department 30 playlist library 32 Scene selection section 34,36 designated area

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤原 紳吾 大阪市西区千代崎3丁目南2番37号 株式 会社オージス総研内 (72)発明者 安川 元英 大阪市西区千代崎3丁目南2番37号 株式 会社オージス総研内 (72)発明者 乾 昌弘 大阪市西区千代崎3丁目南2番37号 株式 会社オージス総研内 Fターム(参考) 5B075 ND12 NS01 5C052 AA01 AC08 CC11 DD04 5C053 FA06 FA14 FA23 GA11 GB37 HA30    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Shingo Fujiwara             2-3-3 Minami 2-3, Chiyosaki, Nishi-ku, Osaka             OGIS Research Institute (72) Inventor Motohide Yasukawa             2-3-3 Minami 2-3, Chiyosaki, Nishi-ku, Osaka             OGIS Research Institute (72) Inventor Masahiro Inui             2-3-3 Minami 2-3, Chiyosaki, Nishi-ku, Osaka             OGIS Research Institute F term (reference) 5B075 ND12 NS01                 5C052 AA01 AC08 CC11 DD04                 5C053 FA06 FA14 FA23 GA11 GB37                       HA30

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 動画像から要約画像を作成する要約画像
作成装置であって、 動画像のビデオ又はオーディオ信号の中から、1又は複
数種類の特徴を抽出する1又は複数の特徴抽出手段と、 前記特徴抽出手段により抽出された特徴を参照して、前
記動画像のカテゴリに特有の特徴を有するシーンを前記
ビデオ又はオーディオ信号の中から抽出するシーン抽出
手段とを備えたことを特徴とする要約画像作成装置。
1. A summary image creating apparatus for creating a summary image from a moving image, comprising one or a plurality of feature extracting means for extracting one or a plurality of types of features from a video or audio signal of the moving image, And a scene extracting unit for extracting a scene having a characteristic peculiar to the category of the moving image from the video or audio signal with reference to the characteristic extracted by the characteristic extracting unit. Image creation device.
【請求項2】 請求項1に記載の要約画像作成装置であ
って、 前記特徴抽出手段の1つは、シーンチェンジに関連する
特徴を前記ビデオ信号の中から抽出するシーンチェンジ
特徴抽出手段であることを特徴とする要約画像作成装
置。
2. The summary image creating apparatus according to claim 1, wherein one of the feature extracting means is a scene change feature extracting means for extracting a feature associated with a scene change from the video signal. A summary image creating device characterized by the above.
【請求項3】 請求項1又は請求項2に記載の要約画像
作成装置であって、前記特徴抽出手段の1つは、カメラ
モーションに関連する特徴を前記ビデオ信号の中から抽
出するカメラモーション特徴抽出手段であることを特徴
とする要約画像作成装置。
3. The summary image creating device according to claim 1, wherein one of the feature extracting means extracts a feature related to camera motion from the video signal. An abstract image creating device characterized by being extraction means.
【請求項4】 請求項1から請求項3のいずれか1項に
記載の要約画像作成装置であって、 前記特徴抽出手段の1つは、フレーム内の指定された領
域の輝度又は色に関連する特徴を前記ビデオ信号の中か
ら抽出する指定領域特徴抽出手段であることを特徴とす
る要約画像作成装置。
4. The summary image creating device according to claim 1, wherein one of the feature extracting means relates to a luminance or a color of a designated area in a frame. A specified area feature extracting means for extracting the feature to be extracted from the video signal.
【請求項5】 請求項1から請求項4のいずれか1項に
記載の要約画像作成装置であって、 前記特徴抽出手段の1つは、テロップに関連する特徴を
前記ビデオ信号の中から抽出するテロップ特徴抽出手段
であることを特徴とする要約画像作成装置。
5. The summary image creating device according to claim 1, wherein one of the feature extracting means extracts a feature associated with a telop from the video signal. An abstract image creating apparatus characterized by being a telop feature extracting means for performing.
【請求項6】 請求項1から請求項5のいずれか1項に
記載の要約画像作成装置であって、 前記特徴抽出手段の1つは、音声に関連する特徴を前記
オーディオ信号の中から抽出する音声特徴抽出手段であ
ることを特徴とする要約画像作成装置。
6. The summary image creating device according to claim 1, wherein one of the feature extracting means extracts a feature related to voice from the audio signal. A summary image creating apparatus characterized in that it is a voice feature extracting means.
【請求項7】 請求項1から請求項6のいずれか1項に
記載の要約画像作成装置であって、 前記シーン抽出手段は、 前記抽出すべきシーンを特定するために必要なシーン特
定情報を作成するシーン特定情報作成手段と、 前記シーン特定情報に応じて特定されたシーンを前記ビ
デオ又はオーディオ信号の中から選択するシーン選択手
段とを含むことを特徴とする要約画像作成装置。
7. The summary image creating device according to claim 1, wherein the scene extracting unit includes scene specifying information necessary for specifying a scene to be extracted. A summary image creating apparatus comprising: a scene specifying information creating unit to create; and a scene selecting unit selecting a scene specified according to the scene specifying information from the video or audio signal.
【請求項8】 請求項7に記載の要約画像作成装置であ
って、 前記シーン抽出手段はさらに、 複数のカテゴリに対応して複数のシーン抽出条件を記憶
する記憶手段を含み、前記シーン特定情報作成手段は、
前記複数のカテゴリのうち選択されたカテゴリに対応す
るシーン抽出条件に応じて前記シーン特定情報を作成す
ることを特徴とする要約画像作成装置。
8. The summary image creating device according to claim 7, wherein the scene extraction means further includes a storage means for storing a plurality of scene extraction conditions corresponding to a plurality of categories, and the scene identification information. The means of creation is
A summary image creating apparatus, wherein the scene specifying information is created according to a scene extraction condition corresponding to a selected category among the plurality of categories.
【請求項9】 請求項8に記載の要約画像作成装置であ
って、 前記シーン抽出手段はさらに、 前記特徴抽出手段により抽出された特徴に基づいて前記
複数のカテゴリのうち1つを選択するカテゴリ選択手段
を含むことを特徴とする要約画像作成装置。
9. The summary image creating device according to claim 8, wherein the scene extracting unit further selects one of the plurality of categories based on the features extracted by the feature extracting unit. An abstract image creating apparatus comprising a selecting means.
【請求項10】 請求項1から請求項9のいずれか1項
に記載の要約画像作成装置であってさらに、 前記特徴抽出手段により抽出された特徴に基づいて前記
特徴抽出手段が前記特徴を抽出するときに適用される特
徴抽出条件を調整する特徴抽出条件調整手段を備えるこ
とを特徴とする要約画像作成装置。
10. The summary image creating apparatus according to claim 1, further comprising: the feature extracting unit extracting the feature based on the feature extracted by the feature extracting unit. And a feature extraction condition adjusting means for adjusting a feature extraction condition applied when performing a summary image creating apparatus.
【請求項11】 請求項8に記載の要約画像作成装置で
あってさらに、 前記特徴抽出手段により抽出された特徴に基づいて前記
シーン抽出条件を調整するシーン抽出条件調整手段を備
えることを特徴とする要約画像作成装置。
11. The summary image creating apparatus according to claim 8, further comprising a scene extraction condition adjusting unit that adjusts the scene extraction condition based on the feature extracted by the feature extracting unit. Summary image creation device.
【請求項12】 動画像から要約画像を作成する要約画
像作成方法であって、 動画像のビデオ又はオーディオ信号の中から、互いに異
なる複数種類の特徴を抽出する特徴抽出ステップと、 前記抽出された特徴を参照して、前記動画像のカテゴリ
に特有の特徴を有するシーンを前記ビデオ又はオーディ
オ信号の中から抽出するシーン抽出ステップとを含むこ
とを特徴とする要約画像作成方法。
12. A summary image creating method for creating a summary image from a moving image, comprising: a feature extracting step of extracting a plurality of different features from a video or audio signal of the moving image; A scene extraction step of extracting from the video or audio signal a scene having a characteristic peculiar to the category of the moving image with reference to the characteristic, a summary image creating method.
【請求項13】 請求項12に記載の要約画像作成方法
であって、 前記特徴抽出ステップは、シーンチェンジに関連する特
徴を前記ビデオ信号の中から抽出することを特徴とする
要約画像作成方法。
13. The method of creating a summarized image according to claim 12, wherein the feature extracting step extracts a feature associated with a scene change from the video signal.
【請求項14】 請求項12又は請求項13に記載の要
約画像作成方法であって、 前記特徴抽出ステップは、カメラモーションに関連する
特徴を前記ビデオ信号の中から抽出することを特徴とす
る要約画像作成方法。
14. The summary image creating method according to claim 12, wherein the feature extracting step extracts a feature related to camera motion from the video signal. Image creation method.
【請求項15】 請求項12から請求項14のいずれか
1項に記載の要約画像作成方法であって、 前記特徴抽出ステップは、フレーム内の指定された領域
の輝度又は色に関連する特徴を前記ビデオ信号の中から
抽出することを特徴とする要約画像作成方法。
15. The method of creating a summarized image according to claim 12, wherein the feature extracting step includes extracting a feature related to a luminance or a color of a designated area in the frame. A method of creating a summarized image, characterized by extracting from the video signal.
【請求項16】 請求項12から請求項15のいずれか
1項に記載の要約画像作成方法であって、 前記特徴抽出ステップは、テロップに関連する特徴を前
記ビデオ信号の中から抽出することを特徴とする要約画
像作成方法。
16. The summary image creating method according to claim 12, wherein the feature extracting step extracts a feature associated with a telop from the video signal. A method for creating a featured summary image.
【請求項17】 請求項12から請求項16のいずれか
1項に記載の要約画像作成方法であって、 前記特徴抽出ステップは、音声に関連する特徴を前記オ
ーディオ信号の中から抽出することを特徴とする要約画
像作成方法。
17. The method of creating a summary image according to claim 12, wherein the feature extracting step extracts a feature associated with voice from the audio signal. A method for creating a featured summary image.
【請求項18】 請求項12から請求項17のいずれか
1項に記載の要約画像作成方法であって、 前記シーン抽出ステップは、 前記抽出すべきシーンを特定するために必要なシーン特
定情報を作成するシーン特定情報作成ステップと、 前記シーン特定情報に応じて特定されたシーンを前記ビ
デオ又はオーディオ信号の中から選択するシーン選択ス
テップとを含むことを特徴とする要約画像作成方法。
18. The summary image creating method according to claim 12, wherein the scene extracting step includes scene specifying information necessary for specifying a scene to be extracted. A method of creating a summary image, comprising: a scene specifying information creating step to be created; and a scene selecting step of selecting a scene specified according to the scene specifying information from the video or audio signal.
【請求項19】 請求項18に記載の要約画像作成方法
であって、 前記シーン特定情報作成手段は、複数のカテゴリに対応
して複数のシーン抽出条件を記憶する記憶手段の中か
ら、前記複数のカテゴリのうち選択されたカテゴリに対
応するシーン抽出条件に応じて前記シーン特定情報を作
成することを特徴とする要約画像作成方法。
19. The summary image creating method according to claim 18, wherein the scene specifying information creating unit stores the plurality of scene extracting conditions in association with a plurality of categories. Of the above categories, the scene specifying information is created according to a scene extraction condition corresponding to the selected category.
【請求項20】 請求項19に記載の要約画像作成方法
であって、 前記シーン抽出ステップはさらに、 前記抽出された特徴に基づいて前記複数のカテゴリのう
ち1つを選択するカテゴリ選択ステップを含むことを特
徴とする要約画像作成方法。
20. The summary image creating method according to claim 19, wherein the scene extracting step further includes a category selecting step of selecting one of the plurality of categories based on the extracted characteristics. A method for creating a summary image, which is characterized in that
【請求項21】 請求項12から請求項20のいずれか
1項に記載の要約画像作成方法であってさらに、 前記抽出された特徴に基づいて前記特徴を抽出するとき
に適用される特徴抽出条件を調整する特徴抽出条件調整
ステップを含むことを特徴とする要約画像作成方法。
21. The summary image creating method according to claim 12, further comprising a feature extraction condition applied when the feature is extracted based on the extracted feature. And a feature extraction condition adjusting step for adjusting the.
【請求項22】 請求項19に記載の要約画像作成方法
であってさらに、 前記抽出された特徴に基づいて前記シーン抽出条件を調
整するシーン抽出条件調整手段を備えることを特徴とす
る要約画像作成方法。
22. The summary image creating method according to claim 19, further comprising a scene extraction condition adjusting means for adjusting the scene extraction condition based on the extracted feature. Method.
【請求項23】 請求項12から請求項22のいずれか
1項に記載のステップをコンピュータに実行させる要約
画像作成プログラム。
23. A summary image creating program for causing a computer to execute the steps according to any one of claims 12 to 22.
【請求項24】 請求項23に記載の要約画像作成プロ
グラムを記憶したコンピュータ読取可能な記憶媒体。
24. A computer-readable storage medium storing the summary image creating program according to claim 23.
JP2002101196A 2002-04-03 2002-04-03 Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program Pending JP2003298981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002101196A JP2003298981A (en) 2002-04-03 2002-04-03 Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002101196A JP2003298981A (en) 2002-04-03 2002-04-03 Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program

Publications (1)

Publication Number Publication Date
JP2003298981A true JP2003298981A (en) 2003-10-17

Family

ID=29388614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002101196A Pending JP2003298981A (en) 2002-04-03 2002-04-03 Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program

Country Status (1)

Country Link
JP (1) JP2003298981A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006126391A1 (en) * 2005-05-26 2006-11-30 Sony Corporation Contents processing device, contents processing method, and computer program
JP2007318200A (en) * 2006-05-23 2007-12-06 Sony Corp Content reproducing apparatus and content reproducing method
JP2008283486A (en) * 2007-05-10 2008-11-20 Sony Corp Information processor, information processing method, and program
JP2009055637A (en) * 2008-11-04 2009-03-12 Hitachi Ltd Information processing apparatus and reproducing scene determination method
JP2010102393A (en) * 2008-10-21 2010-05-06 Kddi Corp Index video generation device, video image search apparatus and video image search system
JP2010226251A (en) * 2009-03-19 2010-10-07 Canon Inc Video data display apparatus and method thereof
US7822569B2 (en) 2005-04-20 2010-10-26 Sony Corporation Specific-condition-section detection apparatus and method of detecting specific condition section
JP2011101393A (en) * 2010-12-13 2011-05-19 Hitachi Ltd Moving picture recording and reproducing apparatus
US8422853B2 (en) 2004-08-10 2013-04-16 Sony Corporation Information signal processing method and apparatus, and computer program product
JP2013174965A (en) * 2012-02-23 2013-09-05 Toshiba Corp Electronic device, control system for electronic device and server
US8634699B2 (en) 2004-08-10 2014-01-21 Sony Corporation Information signal processing method and apparatus, and computer program product
US8682132B2 (en) 2006-05-11 2014-03-25 Mitsubishi Electric Corporation Method and device for detecting music segment, and method and device for recording data
US8855796B2 (en) 2005-12-27 2014-10-07 Mitsubishi Electric Corporation Method and device for detecting music segment, and method and device for recording data
US9792362B2 (en) 2013-11-07 2017-10-17 Hanwha Techwin Co., Ltd. Video search system and method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8634699B2 (en) 2004-08-10 2014-01-21 Sony Corporation Information signal processing method and apparatus, and computer program product
US8422853B2 (en) 2004-08-10 2013-04-16 Sony Corporation Information signal processing method and apparatus, and computer program product
US7822569B2 (en) 2005-04-20 2010-10-26 Sony Corporation Specific-condition-section detection apparatus and method of detecting specific condition section
JP4613867B2 (en) * 2005-05-26 2011-01-19 ソニー株式会社 Content processing apparatus, content processing method, and computer program
KR101237229B1 (en) * 2005-05-26 2013-02-26 소니 주식회사 Contents processing device and contents processing method
JP2007006454A (en) * 2005-05-26 2007-01-11 Sony Corp Contents processing device, contents processing method, and computer program
WO2006126391A1 (en) * 2005-05-26 2006-11-30 Sony Corporation Contents processing device, contents processing method, and computer program
US8855796B2 (en) 2005-12-27 2014-10-07 Mitsubishi Electric Corporation Method and device for detecting music segment, and method and device for recording data
US8682132B2 (en) 2006-05-11 2014-03-25 Mitsubishi Electric Corporation Method and device for detecting music segment, and method and device for recording data
JP2007318200A (en) * 2006-05-23 2007-12-06 Sony Corp Content reproducing apparatus and content reproducing method
JP4735413B2 (en) * 2006-05-23 2011-07-27 ソニー株式会社 Content playback apparatus and content playback method
JP2008283486A (en) * 2007-05-10 2008-11-20 Sony Corp Information processor, information processing method, and program
JP2010102393A (en) * 2008-10-21 2010-05-06 Kddi Corp Index video generation device, video image search apparatus and video image search system
JP2009055637A (en) * 2008-11-04 2009-03-12 Hitachi Ltd Information processing apparatus and reproducing scene determination method
JP2010226251A (en) * 2009-03-19 2010-10-07 Canon Inc Video data display apparatus and method thereof
US8792778B2 (en) 2009-03-19 2014-07-29 Canon Kabushiki Kaisha Video data display apparatus and method thereof
JP2011101393A (en) * 2010-12-13 2011-05-19 Hitachi Ltd Moving picture recording and reproducing apparatus
JP2013174965A (en) * 2012-02-23 2013-09-05 Toshiba Corp Electronic device, control system for electronic device and server
US9792362B2 (en) 2013-11-07 2017-10-17 Hanwha Techwin Co., Ltd. Video search system and method

Similar Documents

Publication Publication Date Title
KR100564893B1 (en) Frame information description method and apparatus, frame information generating method and apparatus, special reproducing method and apparatus, apparatus for generating a special reproduction control information, and computer-readable recording medium
JP5492087B2 (en) Content-based image adjustment
JP5589043B2 (en) Multimedia distribution system
KR20010089770A (en) Significant scene detection and frame filtering for a visual indexing system using dynamic threshold
JP2003298981A (en) Digest image generating apparatus, digest image generating method, digest image generating program, and computer-readable storage medium for storing the digest image generating program
JP4253139B2 (en) Frame information description method, frame information generation apparatus and method, video reproduction apparatus and method, and recording medium
WO2006126391A1 (en) Contents processing device, contents processing method, and computer program
CN1939054A (en) System for providing visible messages during pvr trick mode playback
JPWO2006016590A1 (en) Information signal processing method, information signal processing device, and computer program recording medium
JP2006087098A (en) Method of viewing audiovisual record on receiver, and receiver for viewing such record
WO2005086471A1 (en) Video trailer
US9749550B2 (en) Apparatus and method for tuning an audiovisual system to viewer attention level
JP3728775B2 (en) Method and apparatus for detecting feature scene of moving image
KR20200013658A (en) Temporary Placement of Rappering Events
JP2010039877A (en) Apparatus and program for generating digest content
US20110064384A1 (en) Reproduction control apparatus, reproduction control method, and program
JP4883318B2 (en) Image reproduction system, image reproduction method, and image reproduction program
JP2000023062A (en) Digest production system
US8627400B2 (en) Moving image reproducing apparatus and control method of moving image reproducing apparatus
JP2006054622A (en) Information signal processing method, information signal processor and program recording medium
CN111800663A (en) Video synthesis method and device
JP3906854B2 (en) Method and apparatus for detecting feature scene of moving image
KR101501244B1 (en) Method for generating a thumbnail
KR20220001657A (en) movie editor
KR20220001658A (en) Method for movie editting

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050913