JP2007184674A - Digest making system - Google Patents

Digest making system Download PDF

Info

Publication number
JP2007184674A
JP2007184674A JP2006000029A JP2006000029A JP2007184674A JP 2007184674 A JP2007184674 A JP 2007184674A JP 2006000029 A JP2006000029 A JP 2006000029A JP 2006000029 A JP2006000029 A JP 2006000029A JP 2007184674 A JP2007184674 A JP 2007184674A
Authority
JP
Japan
Prior art keywords
feature
feature extraction
importance
digest
calculation formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006000029A
Other languages
Japanese (ja)
Inventor
Nobuhiro Sekimoto
信博 関本
Kazuo Aisaka
一夫 相坂
Yoshibumi Fujikawa
義文 藤川
Kazue Hiroi
和重 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006000029A priority Critical patent/JP2007184674A/en
Publication of JP2007184674A publication Critical patent/JP2007184674A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means for making a digest video image efficiently for the program of a variety of genres. <P>SOLUTION: An application feature amount is calculated from the physical features of a video image by a plurality of feature extraction modules capable of plug-in. When the importance of a scene is determined from the application feature amount according to an importance calculation expression, correction of the calculation expression and alteration of parameters can be carried out easily, and the importance calculation expression is constituted interactively using a user interface where comparison before and after correction is facilitated. Information of importance calculation expression consisting of a set of the importance calculation expression thus obtained, and the feature extraction modules and parameters to be utilized is stored and distributed and reused for making the digest of a program in the same genre. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は映像を処理する映像処理技術に関し、より詳細には与えられた映像からその要約となるダイジェスト映像を自動的に作成する技術に関する。   The present invention relates to a video processing technique for processing a video, and more particularly to a technique for automatically creating a digest video as a summary from a given video.

近年、映像情報機器の性能の向上により、多数の放送チャンネルの映像を長時間記録する事が可能となってきた。また、衛星放送などの普及により放送チャンネルが増加し、視聴者に提供される番組の数は従来の倍以上に増えつつある。この結果、視聴者は多数の番組の中から自らの趣向にあった番組を効率よく選び出す必要が生じている。   In recent years, it has become possible to record videos of a large number of broadcast channels for a long time by improving the performance of video information equipment. Also, the spread of satellite broadcasting and the like has increased the number of broadcast channels, and the number of programs provided to viewers is increasing more than double the conventional number. As a result, there is a need for viewers to efficiently select programs that suit their taste from a large number of programs.

この解決策として、ダイジェスト映像作成機能を受像機あるいは録画装置に設ける事が提案されている。たとえば(特許文献1)では、番組の音量およびテロップ表示から、当該番組の重要部分を抽出してダイジェスト映像を作成する方法が開示されている。   As a solution to this, it has been proposed to provide a digest video creation function in a receiver or a recording device. For example, (Patent Document 1) discloses a method of creating a digest video by extracting an important part of a program from the volume and telop display of the program.

また、(特許文献2)では、番組に付帯して送信されるイベント情報に基づいてダイジェスト映像を作成する方法が開示されている。   (Patent Document 2) discloses a method of creating a digest video based on event information transmitted along with a program.

特開2000-23962号公報JP 2000-23962 A 特許3176893号公報Japanese Patent No. 3176893

しかしながらこれらの従来技術では、限られた放送番組に対するダイジェスト映像のみが作成できるにすぎない。すなわち前者の場合は、規定された少数の情報から重要部分を抽出する結果、特定のジャンルの番組に対してのみダイジェスト映像を作成できるに過ぎない。また後者の場合は番組にイベント情報が付帯している事を前提としているため、全ての放送番組に対してダイジェスト映像を作成できるとは限らない。   However, these conventional techniques can only create a digest video for a limited broadcast program. That is, in the former case, as a result of extracting an important part from a specified small number of information, a digest video can only be created for a program of a specific genre. In the latter case, since it is assumed that event information is attached to the program, it is not always possible to create a digest video for all broadcast programs.

本発明は前項の課題を解決するため、以下の特徴を有する構成により、より有効なダイジェスト作成装置を提供する。   In order to solve the above-mentioned problem, the present invention provides a more effective digest creation device with a configuration having the following features.

本発明の第1の特徴は、映像データおよび同データから抽出した特長量を用いて当該映像データに対するダイジェスト映像を作成する方法であって、当該映像データを記憶する映像記憶手段と、当該映像データから物理学的原理または記号処理原理を用いて算出する特徴量を記憶する基本特徴記憶手段とを有し、かつ前記映像記憶手段と前記基本特徴記憶手段の内容を入力として、映像視聴者の認知感覚に対応する応用特徴量を算出する複数の特徴抽出モジュールと、前記複数の特徴抽出モジュールから算出される応用特徴量の間で演算を行い、当該映像データに関する重要度を算出する演算制御部を備え、前記重要度に基づいてダイジェスト映像の内容を決定する事を特徴とするダイジェスト作成方法および装置を提供する。   A first feature of the present invention is a method for creating a digest video for video data using video data and a feature amount extracted from the video data, video storage means for storing the video data, and the video data A basic feature storage means for storing a feature quantity calculated from a physical principle or a symbol processing principle from the image, and receiving the contents of the video storage means and the basic feature storage means as an input A plurality of feature extraction modules for calculating an applied feature amount corresponding to a sense, and an operation control unit for performing an arithmetic operation between the applied feature amounts calculated from the plurality of feature extraction modules and calculating an importance level for the video data And a digest creation method and apparatus for determining the content of a digest video based on the importance.

本発明の第2の特徴は、第1の特徴のダイジェスト映像作成方法および装置において、前記特徴抽出モジュールは操作者の指示により外部から追加可能である事を特徴とするダイジェスト作成方法および装置を提供する。   According to a second aspect of the present invention, there is provided the digest creation method and apparatus according to the first feature, wherein the feature extraction module can be added from the outside in accordance with an operator's instruction. To do.

本発明の第3の特徴は、前記特徴抽出モジュールは、視聴者の趣向の程度に応じて前記応用特徴量の算出に用いる特徴算出パラメタ変化させる手段を有する事を特徴とするダイジェスト作成方法および装置を提供する。   A third feature of the present invention is the digest creation method and apparatus characterized in that the feature extraction module has means for changing a feature calculation parameter used for calculating the applied feature amount according to the degree of preference of the viewer. I will provide a.

本発明の第4の特徴は、前記演算制御部は、前記複数の特徴抽出モジュールから得られる複数の応用特徴量の間に、外部から入力された所定の形式の重要度算出式を適用する事により前記重要度を算出する事を特徴とするダイジェスト作成方法および装置を提供する。   According to a fourth feature of the present invention, the calculation control unit applies an importance calculation formula of a predetermined format input from the outside between a plurality of applied feature amounts obtained from the plurality of feature extraction modules. The digest creation method and apparatus are characterized in that the importance is calculated according to the above.

本発明の第5の特徴は、前記重要度算出式は、当該重要度算出式が重要度の算出のために必要とする前記複数の特徴抽出モジュールを指定する記述と、前記複数の特徴抽出モジュールで用いる特徴算出パラメタを指定する記述と、複数の特徴抽出モジュールから得られる応用特徴量を用いて前記重要度を算出する計算式の記述とを含む事を特徴とするダイジェスト作成方法および装置を提供する。   According to a fifth feature of the present invention, the importance calculation formula includes a description that specifies the plurality of feature extraction modules that the importance calculation formula requires for calculating the importance, and the plurality of feature extraction modules. Providing a digest creation method and apparatus characterized in that it includes a description for specifying a feature calculation parameter used in, and a description of a calculation formula for calculating the importance using applied feature amounts obtained from a plurality of feature extraction modules To do.

本発明の第6の特徴は、前記重要度算出式は、操作者が対話的に入力する事を特徴とするダイジェスト作成方法および装置を提供する。   According to a sixth aspect of the present invention, there is provided a digest creation method and apparatus characterized in that an operator inputs the importance calculation formula interactively.

本発明の第7の特徴は、前記重要度算出式は、通信手段を通じて外部から入力される事を特徴とするダイジェスト作成方法および装置を提供する。   According to a seventh aspect of the present invention, there is provided a digest creation method and apparatus characterized in that the importance calculation formula is inputted from the outside through communication means.

本発明の第8の特徴は、前記複数の特徴抽出モジュールおよび前記重要度算出式を、相互を関連付けて表示するユーザインタフェースを有する事を特徴とするダイジェスト作成方法および装置を提供する。   According to an eighth aspect of the present invention, there is provided a digest creation method and apparatus characterized by having a user interface for displaying the plurality of feature extraction modules and the importance calculation formula in association with each other.

本発明の第9の特徴は、第8の特徴のダイジェスト映像作成方法および装置において、 ユーザが前記特徴抽出モジュールを変更した場合、またはユーザが前記特徴抽出モジュールに与える特徴算出パラメタの値を変更した場合に、変更前後で作成されるダイジェスト映像の差異を表示するユーザインタフェースを有する事を特徴とするダイジェスト作成方法および装置を提供する。   According to a ninth feature of the present invention, in the digest video creation method and apparatus of the eighth feature, when the user changes the feature extraction module, or the value of the feature calculation parameter given to the feature extraction module by the user is changed. In such a case, a digest creation method and apparatus characterized by having a user interface for displaying a difference between digest videos created before and after the change is provided.

の様に本発明によれば、多様なジャンルにまたがる映像番組に対して効率的にダイジェスト映像を作成する事が可能になる。更に重要度算出式をインターネットなどのネットワークを通じて授受する事により、他の機関や個人が作成したダイジェストを相互に利用する事が可能になり、視聴者がより効率的に映像番組を視聴する事が可能となる。   As described above, according to the present invention, it is possible to efficiently create a digest video for a video program spanning various genres. In addition, by sending and receiving importance calculation formulas through networks such as the Internet, digests created by other institutions and individuals can be used with each other, enabling viewers to view video programs more efficiently. It becomes possible.

以下、本発明の実施例を図面を用いて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明によるダイジェスト作成方法および装置の全体を示すブロック図である。本発明の装置は、大きくは記録再生部180とダイジェスト作成部100の2つの部分に分かれる。   FIG. 1 is a block diagram showing the entirety of a digest creation method and apparatus according to the present invention. The apparatus of the present invention is roughly divided into two parts, a recording / reproducing unit 180 and a digest creating unit 100.

記録再生部180は外部からの放送映像190やメディア映像191を入力部181により入力する。入力は録画再生制御部183の制御により、映像記録手段184に記録され、あるいは復号部185に送られる。   The recording / playback unit 180 inputs the broadcast video 190 and the media video 191 from the outside through the input unit 181. The input is recorded in the video recording means 184 or sent to the decoding unit 185 under the control of the recording / playback control unit 183.

また、映像記録手段184に既に記録してある映像を復号部185に送っても良い。これらの制御はユーザが操作部182を用いた操作に従って録画再生制御部183が行う。復号部185の出力は録画再生制御部183を経由して表示装置186で映像として表示され、ユーザの視聴に供せられる。   Further, the video already recorded in the video recording means 184 may be sent to the decoding unit 185. These controls are performed by the recording / playback control unit 183 according to an operation performed by the user using the operation unit 182. The output of the decoding unit 185 is displayed as a video on the display device 186 via the recording / playback control unit 183, and used for viewing by the user.

なお、映像記録手段184に記録される映像データとは、MPEG-2(Motion Picture Experts Group)等で符号化されたデータであっても、その符号化されたデータを復号部185で復号したデータであってもよい。以上の記録再生部180の動作は、VTRやDVDレコーダなど一般の映像録画機器と何ら異なるものではない。   The video data recorded in the video recording means 184 is data obtained by decoding the encoded data by the decoding unit 185 even if it is data encoded by MPEG-2 (Motion Picture Experts Group) or the like. It may be. The operation of the recording / reproducing unit 180 is not different from that of a general video recording device such as a VTR or a DVD recorder.

本発明では以上に加えて、ダイジェスト作成部100が設けられる。ダイジェスト作成部100は映像記録手段184に記録された、あるいは、録画再生制御部183から直接得られた映像データ(付帯する動画像データ、音響データ、および、記号データを含む。また、入力部181から得られた符号化されたままのデータおよび復号部185で復号化されたデータのどちらでもよい。以下同様)110を入力とし、所定の処理を経て再生位置データ120を記録再生部180に提供する。以下にダイジェスト作成部100が行なう処理を説明する。   In the present invention, in addition to the above, a digest creation unit 100 is provided. The digest creation unit 100 includes video data (attached moving image data, audio data, and symbol data recorded in the video recording means 184 or directly obtained from the recording / playback control unit 183. Also, the input unit 181 Either the encoded data obtained from the above or the data decoded by the decoding unit 185. The same applies hereinafter) 110 is input, and the reproduction position data 120 is provided to the recording / reproducing unit 180 through a predetermined process. To do. The processing performed by the digest creation unit 100 will be described below.

映像データ110はまず基本特徴抽出部111に入力される。ここから所定の計算により、当該映像データに対する物理特徴が算出され、あるいは、記号処理に基づく記号特徴が生成されて基本特徴記憶手段112に記憶される。ここで物理特徴とは、映像データから物理学的な原理に基づいて計算される統計量である。具体的にはたとえば(図2)に示す通り、スペクトルデータなどの音響基本特徴データ201、領域情報などの画像基本特徴データ202などからなり、図示の形式で物理特徴記憶手段112に記憶される。物理特徴は当該映像データの特性を表現するが、視聴者の感覚に即した映像の重要度とは必ずしも一致しない。また、記号特徴とは映像データに含まれる記号列、例えば、字幕のような映像を説明する文字列などから、名詞や動詞等の品詞分解した新しい記号列や、文字列の読み上げ方を表すための発音記号列などである。具体的には例えば(図12)に示すとおり、映像データのうち字幕情報110から、字幕基本特徴データとして字幕品詞情報1210を、その出現時刻1220、品詞1221、および該当する単語1222を抽出する、「字幕品詞特徴抽出」が該当する。なお物理特徴および記号特徴が映像データ110に既に添付されて送られている場合は、これを基本特徴記憶手段112に直接入力、あるいは、基本特徴抽出部111に直接入力しても良い。   The video data 110 is first input to the basic feature extraction unit 111. From this, a physical feature for the video data is calculated by a predetermined calculation, or a symbol feature based on the symbol processing is generated and stored in the basic feature storage unit 112. Here, the physical feature is a statistic calculated from video data based on a physical principle. Specifically, for example, as shown in FIG. 2, it consists of basic acoustic feature data 201 such as spectrum data, basic image feature data 202 such as region information, etc., and is stored in the physical feature storage means 112 in the form shown. The physical feature expresses the characteristics of the video data, but does not necessarily match the importance of the video in accordance with the viewer's feeling. In addition, the symbol feature is a symbol string included in video data, for example, a new symbol string obtained by decomposing part-of-speech such as a noun or a verb from a character string explaining a video such as subtitles, or a method for reading a character string. Phonetic symbol string. Specifically, for example, as shown in FIG. 12, subtitle part-of-speech information 1210 as subtitle basic feature data, appearance time 1220, part-of-speech 1221, and corresponding word 1222 are extracted from subtitle information 110 in the video data. “Subtitle part-of-speech feature extraction” is applicable. When the physical feature and the symbol feature are already attached to the video data 110 and sent, they may be directly input to the basic feature storage unit 112 or directly input to the basic feature extraction unit 111.

以上の物理特徴は、複数の特徴抽出モジュール120-1〜120-nにより応用特徴量121-1〜121-nに変換される。応用特徴量とは先に述べた通り、映像視聴者の認知感覚に対応した特徴量であり、例えばあるシーンの音声が、音楽であるか、人間の発声であるか、背景雑音であるか、といった違いを表わす。例えば音楽である事を示す「音楽性特徴」検出する場合は、(図3)の流れ図に示す手順で計算を行なう事により、結果が得られる。すなわち、まず音楽性の判定基準となる閾値θを、後述の重要度算出式情報記憶手段140からパラメタの一部として取得する(ステップ301)。次に物理特徴記憶手段112の内容を参照して、ステレオ音響の左右同相パワーPsを計算する(ステップ302)。同様に左右異相パワーPaを計算し(ステップ303)、両者の比が上述の閾値θを超えるか否かを判定する(ステップ304)事により、音楽性あり(音楽性=1)または音楽性なし(音楽性=0)と結果を定める(ステップ305、306)。得られた値は後述の演算制御部130に渡され、重要度の計算に利用される。なおこの計算は演算制御部130からの要求に応じて行なわれる。   The above physical features are converted into applied feature amounts 121-1 to 121-n by a plurality of feature extraction modules 120-1 to 120-n. As described above, the applied feature amount is a feature amount corresponding to the cognitive sensation of the video viewer, for example, whether the sound of a certain scene is music, human speech, background noise, Represents the difference. For example, in the case of detecting “musical feature” indicating music, a result is obtained by performing calculation according to the procedure shown in the flowchart of FIG. That is, first, a threshold value θ, which is a criterion for determining musicality, is acquired as a part of a parameter from the importance calculation formula information storage unit 140 described later (step 301). Next, the left and right in-phase power Ps of stereo sound is calculated with reference to the contents of the physical feature storage means 112 (step 302). Similarly, the left and right different phase power Pa is calculated (step 303), and it is determined whether or not the ratio of both exceeds the above threshold value θ (step 304), so that there is music (musicality = 1) or no music. (Musicality = 0) and the result are determined (steps 305 and 306). The obtained value is passed to the arithmetic control unit 130 described later and used for calculation of importance. This calculation is performed in response to a request from the arithmetic control unit 130.

以上の例では特徴抽出モジュールがソフトウェアプログラムによって実現される場合を示したが、専用のハードウェアを用いて実現しても良い。また図1に示す通り、特徴抽出モジュールは視聴者の目的に応じて任意の個数を用いて良く、かつそれらは必要に応じて追加または削除が行われても良い。   In the above example, the feature extraction module is realized by a software program. However, the feature extraction module may be realized by using dedicated hardware. Also, as shown in FIG. 1, any number of feature extraction modules may be used according to the purpose of the viewer, and they may be added or deleted as necessary.

また以上の例では応用特徴量が真偽を表わす論理値として与えられるが、応用特徴量は物理的な次元を持った数量、あるいはファジー論理で用いられる連続的な確信度の様な値でも良い。   In the above example, the applied feature quantity is given as a logical value representing true / false, but the applied feature quantity may be a quantity having a physical dimension or a value such as continuous confidence used in fuzzy logic. .

以上で得られた応用特徴量は、演算制御部130において重要度算出式情報141に基づいて重要度を算出するために利用される。この計算はダイジェスト作成コンソール150を通してユーザと対話的に行なわれる。   The applied feature amount obtained as described above is used by the arithmetic control unit 130 to calculate the importance based on the importance calculation formula information 141. This calculation is performed interactively with the user through the digest creation console 150.

以上の様子を図4〜図7を用いて説明する。なお以下の説明において、ダイジェスト作成コンソール150の表示装置151は記録再生部180の表示装置186を物理的に兼ねても良く、またダイジェスト作成コンソール150の操作部152は記録再生部180の操作部182を物理的に兼ねても良い。   The above situation will be described with reference to FIGS. In the following description, the display device 151 of the digest creation console 150 may physically double as the display device 186 of the recording / playback unit 180, and the operation unit 152 of the digest creation console 150 is the operation unit 182 of the recording / playback unit 180. May be physically combined.

図4は、演算制御部130がダイジェスト作成コンソール150の表示装置151に表示する演算制御画面400を示したものである。画面には重要度を算出する際に用いる複数の特徴抽出モジュールが、モジュール表示部401-1〜401-nの形で表示される。ユーザは重要度算出式を入力欄411に入力する事により、各モジュールから得られる応用特徴量の間で演算を行ない、最終的な重要度を得る。   FIG. 4 shows a calculation control screen 400 that the calculation control unit 130 displays on the display device 151 of the digest creation console 150. On the screen, a plurality of feature extraction modules used for calculating the importance are displayed in the form of module display units 401-1 to 401-n. The user inputs the importance calculation formula in the input field 411, and performs an operation between the applied feature amounts obtained from each module to obtain the final importance.

ここで、重要度算出式は、読込ボタン412を用いて重要度算出式情報記憶手段140からロードする事もできる。あるいは更に、外部ネットワーク170を通じて外部サーバ171から重要度算出式をロードしても良い。また、重要度を算出するために新たな特徴抽出モジュールが必要となる場合は、モジュール追加ボタン404により追加が可能である。   Here, the importance calculation formula can also be loaded from the importance calculation formula information storage means 140 using the read button 412. Alternatively, the importance calculation formula may be loaded from the external server 171 through the external network 170. Further, when a new feature extraction module is required to calculate the importance, it can be added by a module addition button 404.

逆に、モジュールが不要となった場合は、モジュール削除ボタン403で削除が行える。個々のモジュールに対してパラメタを入力する場合は、モジュールパラメタ入力ボタン402を用いて当該モジュールのモジュール表示部401-nに対して入力を行なう。モジュール表示部401-nは(図5)に示す通り、モジュール名称表示部501と使用パラメタリスト502からなる。   Conversely, when a module is no longer needed, it can be deleted with the module deletion button 403. When inputting a parameter for each module, the module parameter input button 402 is used to input the module display section 401-n of the module. The module display unit 401-n includes a module name display unit 501 and a use parameter list 502 as shown in FIG.

ユーザはスクロールボタン504、505を用いてパラメタリスト502の中の適当なパラメタ、たとえば503、を選び、操作部152から値の入力を行なう。   The user uses the scroll buttons 504 and 505 to select an appropriate parameter in the parameter list 502, for example, 503, and inputs a value from the operation unit 152.

以上により、重要度の算出方法が確定すると、ユーザは計算ボタン413を用いて重要度を計算する。なお、入力欄414を用いて当該重要度算出式情報141に名前を付ける事が可能であり、この名前を用いて過去に作成された重要度算出式情報を再利用する事ができる。   As described above, when the importance calculation method is determined, the user uses the calculation button 413 to calculate the importance. It is possible to name the importance calculation formula information 141 using the input field 414, and the importance calculation formula information created in the past using this name can be reused.

図6は、演算制御部130で用いる重要度算出式情報141の一例を示したものである。重要度算出式情報141は、当該算出式で用いる特徴抽出モジュールリスト601、および算出式602を含む。特徴抽出モジュールリスト601においては各特徴抽出モジュールで必要なパラメタのリストが各々に与えられており、算出式602においては各々のパラメタの具体的な値を指定した上で式を記載する。   FIG. 6 shows an example of the importance degree calculation formula information 141 used in the arithmetic control unit 130. The importance calculation formula information 141 includes a feature extraction module list 601 and a calculation formula 602 used in the calculation formula. In the feature extraction module list 601, a list of parameters necessary for each feature extraction module is given to each. In the calculation formula 602, specific values of each parameter are specified and the formula is described.

図7は、演算制御部130による重要度の計算結果を表示する計算結果画面700を示したものである。同画面は前述の計算ボタン413による計算が完了すると、ダイジェスト作成コンソール150の表示装置151に表示される。計算結果画面700は時間表示エリア701、複数の特徴抽出モジュール各々に対応した応用特徴量表示エリア702-1〜702-n、これらから重要度を算出した結果を示す結果表示エリア703を有する。   FIG. 7 shows a calculation result screen 700 that displays the calculation result of importance by the arithmetic control unit 130. This screen is displayed on the display device 151 of the digest creation console 150 when the calculation by the calculation button 413 is completed. The calculation result screen 700 has a time display area 701, applied feature amount display areas 702-1 to 702-n corresponding to each of a plurality of feature extraction modules, and a result display area 703 showing the result of calculating the importance from these.

各々のエリアは、時間表示エリア701が示す時刻における各々の応用特徴量、および最終的に得られる重要度を示す。704、705は表示が画面に収まらない場合に用いるスクロールボタンである。この画面を用いてユーザは、重要度の計算が目的通りの結果となっているかどうかを確認し、結果が良好であれば当該重要度算出式情報141をダイジェスト映像の作成に利用する。   Each area indicates each applied feature amount at the time indicated by the time display area 701 and the importance obtained finally. 704 and 705 are scroll buttons used when the display does not fit on the screen. Using this screen, the user confirms whether or not the importance calculation is as intended. If the result is good, the importance calculation formula information 141 is used to create a digest video.

なお、以上の説明において、重要度の算出をどの様な時間単位に対して行なうかは特に言及しなかった。時間単位としては、映像のフレーム毎に計算する、番組を一定の時間間隔(たとえば10秒)に分割して計算する、番組を何等かの方法でいくつかのシーンに区分しておき各シーン単位で計算する、などの方法が知られているが、本発明はこれらいずれの方法に対しても適用できる。   In the above description, no particular mention was made as to what time unit the importance is calculated. The time unit is calculated for each video frame, the program is calculated by dividing the program into fixed time intervals (for example, 10 seconds), the program is divided into several scenes by some method, and each scene unit is calculated. However, the present invention can be applied to any of these methods.

また、図7において満足できる結果が得られなかった場合は、図8に示す変更シーン確認画面800を用いて、対話的に重要度算出式を修正して行っても良い。変更シーン確認画面800は時間表示エリア701の下に2通りの結果表示エリアを有する。   In addition, when satisfactory results are not obtained in FIG. 7, the importance calculation formula may be interactively corrected using the change scene confirmation screen 800 shown in FIG. The change scene confirmation screen 800 has two result display areas below the time display area 701.

すなわち、変更前結果表示エリア803は変更前の重要度算出式801による結果を表示し、変更後結果表示エリア804は変更前の重要度算出式802による結果を表示する。両者の差が生じた部分は変化部分表示エリア805に表示され、各変化部分に対応して変化部分映像806、807などが表示される。   That is, the pre-change result display area 803 displays the result based on the pre-change importance calculation formula 801, and the post-change result display area 804 displays the result based on the pre-change importance calculation formula 802. The portion where the difference between the two has occurred is displayed in the change portion display area 805, and change portion images 806, 807, etc. are displayed corresponding to each change portion.

この結果、ユーザはより効率的に重要度算出式および付帯する特徴抽出モジュール、パラメタを修正する事が可能になる。   As a result, the user can more efficiently modify the importance calculation formula, the accompanying feature extraction module, and parameters.

以上で説明したとおり、演算制御部130によって重要度が決定される。この結果は重要度記憶手段160に記憶され、必要に応じて変換手段161を経て再生位置記憶手段162の中に図9で示される再生点リスト900の形式で記憶される。再生点リスト900を再生位置データ120として与える事により、視聴者にダイジェスト映像を提供する事が可能になる。   As described above, the importance is determined by the arithmetic control unit 130. This result is stored in the importance level storage means 160, and stored in the playback position storage means 162 in the format of the playback point list 900 shown in FIG. By providing the playback point list 900 as the playback position data 120, it is possible to provide a digest video to the viewer.

なお、以上の説明では、ユーザが自ら操作者となり演算制御画面400等を用いて重要度算出式情報141を作成する場合を示したものでる。この様な作成作業は、映像情報処理に関するある程度の専門知識を必要とするため、必ずしも一般の視聴者が行いうるものではない。   In the above description, the case where the user becomes the operator himself and creates the importance calculation formula information 141 using the calculation control screen 400 or the like is shown. Such a creation operation requires a certain level of expertise regarding video information processing, and therefore cannot always be performed by a general viewer.

従って、一般の視聴者は、他人が既に作成した重要度算出式情報141を入手してそのまま用いる事によりダイジェスト映像を視聴する、という場合が多いと想定される。図10はこのための重要度算出式情報を読込む画面の一例を示したものである。図示の重要度算出式情報読込画面1000がダイジェスト作成コンソール150に表示される。その内部のサーバ名表示部1001に対してユーザが入力ボタン1002の操作により、重要度算出式情報141が格納されているサーバの名称を入力する。   Therefore, it is assumed that a general viewer often views the digest video by obtaining the importance calculation formula information 141 already created by another person and using it as it is. FIG. 10 shows an example of a screen for reading importance calculation formula information for this purpose. The importance calculation formula information reading screen 1000 shown in the figure is displayed on the digest creation console 150. The user inputs the name of the server in which the importance calculation formula information 141 is stored by operating the input button 1002 to the internal server name display unit 1001.

このサーバは、図1における当該ダイジェスト映像装置に含まれる重要度算出式情報記憶手段140であっても良く、また外部サーバ171であっても良い。後者の場合はインターネットで用いられるURLあるいはIPアドレスなどを用いて、サーバの所在を指定する。この入力の結果、画面には式名称リスト1003が表示される。   This server may be the importance calculation formula information storage means 140 included in the digest video apparatus in FIG. In the latter case, the location of the server is specified using a URL or IP address used on the Internet. As a result of this input, an expression name list 1003 is displayed on the screen.

これらの式名称は重要度算出式情報141が第三者により作成された時に、図4における入力欄414にて付されたものである。ユーザはスクロールボタン1004、1005を用いてカーソル1006を操作して所望の式名称を選択し、決定ボタン1007により当該式名称が付された重要度算出式情報を利用できるようになる。   These formula names are given in the input field 414 in FIG. 4 when the importance calculation formula information 141 is created by a third party. The user operates the cursor 1006 using the scroll buttons 1004 and 1005 to select a desired formula name, and the decision button 1007 can use the importance calculation formula information to which the formula name is attached.

この後、たとえば図11に示す様な録画再生操作画面1100を用いてダイジェストの視聴を行なう。この画面には、通常の録画再生装置で使用されるボタン群1110、すなわち巻戻しボタン1111、停止ボタン1112、静止ボタン1113、再生ボタン1114、早送りボタン1115、を有するが、これに加えてダイジェストボタン1101が備えられている。ダイジェストボタン1101を押下する事により、図10により読み込んだ重要度算出式情報141に基づき作成されたダイジェスト映像が記録再生部180の表示装置186に表示される。   Thereafter, the digest is viewed using, for example, a recording / playback operation screen 1100 as shown in FIG. This screen has a button group 1110 used in a normal recording / playback device, that is, a rewind button 1111, a stop button 1112, a still button 1113, a play button 1114, and a fast forward button 1115, but in addition to this, a digest button 1101 is provided. When the digest button 1101 is pressed, a digest video created based on the importance calculation formula information 141 read in FIG. 10 is displayed on the display device 186 of the recording / playback unit 180.

なお、ダイジェストボタン1101を押下した結果、重要度算出式情報読込画面1000が表示される様にしても良い。また重要度算出式情報読込画面1000は、図4における読込ボタン412を押下した結果表示される様にしても良い。   Note that as a result of pressing the digest button 1101, the importance calculation formula information reading screen 1000 may be displayed. Further, the importance level calculation formula information reading screen 1000 may be displayed as a result of pressing the reading button 412 in FIG.

次の実施形態として、映像データを用いて、競馬番組の中からレース部分をダイジェストとして生成する場合を説明する。なお、使用するモジュールの指定およびパラメタの指定を行うユーザインタフェースに関しては、実施形態1に準じるとしてここでは言及せず、基本特徴抽出部111-1〜111-n、演算制御部130および特徴抽出モジュール120-1〜120-n内部の処理と出力に関して説明する。   As a next embodiment, a case where a race portion is generated as a digest from a horse racing program using video data will be described. Note that the user interface for specifying the module to be used and the parameter is not referred to here as it conforms to the first embodiment, and is not referred to here. The basic feature extraction units 111-1 to 111-n, the calculation control unit 130, and the feature extraction module The processing and output in 120-1 to 120-n will be described.

基本特徴記憶手段112には、既に図13のように、音響基本特徴データ1301である音響パワー特徴データ1303が音響パワー特徴抽出部(111のひとつ)、および、画像基本特徴データ1302である画像色構図情報1304が画像色構図特徴抽出部(別の111のひとつ)、入力となる画像データ110から抽出され基本特徴記憶手段に準備されているとする。この方法を以下に説明する。   In the basic feature storage unit 112, as shown in FIG. 13, the sound power feature data 1303 as the sound basic feature data 1301 is the sound power feature extraction unit (one of 111) and the image color as the image basic feature data 1302 Assume that the composition information 1304 is extracted from the image color composition feature extraction unit (one of the other 111) and input image data 110 and prepared in the basic feature storage means. This method will be described below.

音響パワー特徴抽出部111-nでは、音響パワー特徴を図14のフローに基づき抽出する。ここで、入力される音響データは、十分に短い間隔で標本化(サンプリング)されたサンプルデータが左右それぞれに対して含まれているとし、これらを音響サンプルと呼ぶことにする。当該サンプリング間隔よりも長い時間間隔で音響パワー特徴を抽出することとし、この間隔を音響基本特徴特徴間隔として1/30秒、つまり、毎秒30個の音響パワー特徴を基本特徴として抽出する。   The acoustic power feature extraction unit 111-n extracts the acoustic power feature based on the flow of FIG. Here, it is assumed that the input acoustic data includes sample data sampled (sampled) at sufficiently short intervals for each of the left and right, and these are referred to as acoustic samples. The sound power feature is extracted at a time interval longer than the sampling interval, and this interval is used as the sound basic feature feature interval for 1/30 seconds, that is, 30 sound power features per second are extracted as the basic feature.

まず、音響時刻tを0に(ステップ1401)、個数カウンタを0に(ステップ1402)、また、総和sumLおよびsumRを0に1403それぞれ初期化する。音響時刻が1/30以内であり(ステップ1404)、かつ、音響サンプルが存在する場合(ステップ1405)、音響サンプルを入力し(ステップ1406)、自乗した値を総和に加える(ステップ1407)。音響サンプルの間隔をtに加算(ステップ1408)すると共に、cに1を加える(ステップ1409)。これらの処理が音響基本特徴特徴間隔である1/30よりも大きくなる場合には(ステップ1404)、最後に入力した音響サンプルの時刻tsを取得する(ステップ1410)。次に、総和を個数カウンタcで除算したものの平方根を取り(ステップ1411)、tsと共に基本特徴記憶手段112に出力する(ステップ1412)。これらを音響サンプルが存在するまで繰り返す(ステップ1405)。   First, the acoustic time t is initialized to 0 (step 1401), the number counter is initialized to 0 (step 1402), and the sums sumL and sumR are initialized to 0 and 1403, respectively. If the acoustic time is within 1/30 (step 1404) and an acoustic sample exists (step 1405), the acoustic sample is input (step 1406), and the squared value is added to the sum (step 1407). The interval between the acoustic samples is added to t (step 1408), and 1 is added to c (step 1409). When these processes are larger than 1/30 which is the basic acoustic feature feature interval (step 1404), the time ts of the last input acoustic sample is acquired (step 1410). Next, the square root of the sum divided by the number counter c is taken (step 1411) and output to the basic feature storage means 112 together with ts (step 1412). These are repeated until an acoustic sample exists (step 1405).

画像色構図特徴抽出部111-nでは、画像色構図特徴を(図15)のフローに基づき抽出する。ここで色構図とは一枚の画像を縦横4つずつに等分し、これら16個の領域画像に分割したそれぞれの領域の色平均を求めた集合であると定義する。   The image color composition feature extraction unit 111-n extracts image color composition features based on the flow of FIG. Here, the color composition is defined as a set in which one image is equally divided into four vertical and horizontal portions and the color average of each region obtained by dividing the image into 16 region images is obtained.

また、入力される映像データ110の動画像データはフレームと呼ばれる一枚一枚の画像の連続とし、画像色構図特徴とはそれぞれの画像1枚毎に処理を行うとする。さらに、以下では画像を構成する画素の色は、多くのデジタル放送で規定される輝度、色差から構成されるYCbCr系で説明するが、RGB系やその他の色指定の系であってもよい。   Further, it is assumed that the moving image data of the input video data 110 is a series of images called frames, and the image color composition feature is processed for each image. Furthermore, in the following, the color of the pixels constituting the image will be described as a YCbCr system composed of luminance and color difference defined in many digital broadcasts, but it may be an RGB system or other color designation system.

なお、特徴を求める間隔は、画像のフレーム同士の間隔は日本では一般的な放送のフレーム間隔である約1/30秒を用いても、それらを縮退させる処理を前段に設け1/2秒(毎秒2枚)等に削減してもよい。   In addition, even if the interval between image frames is about 1/30 second, which is a typical broadcast frame interval in Japan, a process for degenerating them is provided in the previous stage for 1/2 second ( It may be reduced to 2 sheets per second).

まず、一枚の画像のサイズ(縦横の画素数)を取得し(ステップ1501)、4×4の部分領域に分割するための限界座標を求め(ステップ1502)、輝度Bおよび色差Cb、Crをそれぞれの領域に対応するよう、16個ずつの配列として全てを0に初期化する(ステップ1503)。フレーム画像の入力がある場合には(ステップ1504)、そのフレーム画像を取得する(ステップ1505)。座標カウンタx、yを0に初期化し(ステップ1506)、xおよびyを増加させながら、画像フレーム中の画素毎に色情報(輝度値、色差)を取得していく(ステップ1510)。xおよびyより対応する分割領域番号rが求まるため(ステップ1511)、その領域の色情報に(x,y)での画素の色情報を加算する(ステップ1512)。全ての画素に関してこれら処理を行った後、フレーム画像の時刻tfを取得し(ステップ1513)、加算を行っていた輝度配列B[r]および色差配列Cb[r]、Cr[r]の平均値を求めて、それぞれをMb[r]、Mcb[r]、Mcr[r]とする(ステップ1514)。これらの値は0〜255の値をとるが、本色構図特徴抽出においては、輝度Mb[r]を4段階(2ビット)、色差Mcb[r]およびMcr[r]をそれぞれ2段階(1ビット)の値に縮退させ、ひとつの領域に対して4ビットで表すこととする。これにより、16領域全ては4×16=64ビットで表現できるため、領域の順番に注意しながら64ビットのビット列として色構図を表現する(ステップ1515)。   First, the size (number of vertical and horizontal pixels) of one image is acquired (step 1501), the limit coordinates for dividing into 4 × 4 partial areas are obtained (step 1502), and the luminance B and color differences Cb and Cr are calculated. All are initialized to 0 as an array of 16 so as to correspond to each region (step 1503). If a frame image is input (step 1504), the frame image is acquired (step 1505). The coordinate counters x and y are initialized to 0 (step 1506), and color information (luminance value and color difference) is acquired for each pixel in the image frame while increasing x and y (step 1510). Since the corresponding divided region number r is obtained from x and y (step 1511), the color information of the pixel at (x, y) is added to the color information of that region (step 1512). After performing these processes for all the pixels, the time tf of the frame image is obtained (step 1513), and the average value of the luminance array B [r] and the color difference arrays Cb [r] and Cr [r] that have been added Are determined as Mb [r], Mcb [r], and Mcr [r], respectively (step 1514). These values range from 0 to 255. In this color composition feature extraction, the luminance Mb [r] has 4 levels (2 bits), and the color differences Mcb [r] and Mcr [r] have 2 levels (1 bit). ) And is represented by 4 bits for one area. As a result, since all 16 areas can be expressed by 4 × 16 = 64 bits, the color composition is expressed as a 64-bit bit string while paying attention to the order of the areas (step 1515).

この色構図と先に求めたフレーム画像の時刻tsを基本特徴抽出記憶手段に出力し(ステップ1516)、フレーム画像が入力されなくなるまで処理を行う(ステップ1504)。   This color composition and the time ts of the frame image obtained previously are output to the basic feature extraction storage means (step 1516), and processing is performed until no frame image is input (step 1504).

次に、これまでに求めた基本特徴を基に、複数の特徴抽出モジュールの処理を組合わせて、具体的に競馬のレース部分を抽出する方法を説明する。競馬番組中のレース部分は次の3条件に従う抽出を組合わせることとする。   Next, a method for specifically extracting a race portion of a horse race will be described by combining the processing of a plurality of feature extraction modules based on the basic features obtained so far. The race part in the horse racing program is combined with extraction according to the following three conditions.

まず、レース部分である条件(1)として、音響パワーが一定時間以上にわたって、一定値以上を持続することとする。ただし、完全に一定値以上を持続するのではなく、ときどきその一定値以下に下がることも許容するとする。   First, as condition (1) which is a race portion, it is assumed that the acoustic power is maintained at a certain value or more for a certain time or more. However, it is assumed that it does not completely maintain a certain value or more, but sometimes allows it to fall below the certain value.

この条件(1)は、レース部分では番組制作の特徴として、レース中の臨場感を醸し出すために馬群が出す走行音および観客の歓声を用いることに着目している。この走行音および歓声は、多くの馬および人によりそのタイミングおよび周波数特性がまったく異なる音が複雑に混合されているため、音響パワーとしては一定値以上の値を採りやすいことが調査により判明した。   This condition (1) focuses on the use of running sounds and cheering of the spectators produced by the horse group to create a sense of realism during the race as a feature of program production in the race part. The traveling sound and cheering have been found by investigations that many horses and people have complicated mixing of sounds with completely different timing and frequency characteristics, so that the sound power tends to take a value above a certain value.

また、レースはそれらの距離が複数存在するものの、少なくとも1分程度の時間がかかること、また、せいぜい5分程度でレースが終了することが分かっている。レース以外の番組内に複数個存在するコーナーでは、アナウンサーの音声やBGM音楽も存在するが、多くの場合1人、多くてもせいぜい2〜3人が同時に発話すること、その時間としては1分未満であることが多いためこの条件(1)を満たさず、ある程度除外できることが分かっている。   In addition, it is known that although there are a plurality of such distances, the race takes at least about 1 minute and the race is completed in about 5 minutes at most. There are announcer voices and BGM music in corners that exist in programs other than races, but in many cases one person, at most two to three people speak at the same time, the time is 1 minute. It is known that this condition (1) is not satisfied and can be excluded to some extent because it is often less.

レース部分であることの条件(2)として、画面上の色が馬場特有の芝生の色(緑色〜黄色〜茶色)やダート(砂、土)の色(灰色〜黒色)を、特に画面の下部に出すこととする。   As conditions (2) for being a race part, the colors on the screen should be a lawn color (green to yellow to brown) or a dirt (sand, earth) color (gray to black), especially at the bottom of the screen. Suppose that

ただし、画面全体を完全に芝・ダートが占めているとは限らないため、画面の上部を評価しないこと、および、そのほかの部分に一部分現れることを加味して、画面上に占める割合として評価する。   However, because the entire screen is not completely occupied by grass and dirt, it is evaluated as a percentage of the screen, taking into account the fact that the upper part of the screen is not evaluated and that it appears partially in other parts. .

レース部分であることの条件(3)として、ひとつのレースの中ではゴール直前で観客の気分が盛り上り歓声が高まることから、レースの中の音響盛上りにより単位時間毎に重要度をつけることとする。この音響盛り上がりの検出方法は、条件(1)と似ているが、音響パワーが一定値以上続くうち、含まれる実況音声(一人)の声でパワーが上下するが最低部分は歓声や走行音があることから、連続する一定個数の音響パワーの中で最低の音響パワーを評価することとする。   As a condition (3) for being a race part, in one race, the audience feels excited just before the goal and cheers are raised. And This method of detecting the sound excitement is similar to the condition (1). However, while the sound power continues for a certain value or more, the power increases and decreases with the voice of the included live voice (one person), but the cheer and the running sound are at the lowest part. For this reason, the lowest acoustic power is evaluated among a certain number of continuous acoustic powers.

これら3つの条件を判断したり評価するために、それぞれの条件を特徴抽出モジュールで特徴量として抽出する。以下に、それぞれのモジュールでの処理を説明する。   In order to judge and evaluate these three conditions, each condition is extracted as a feature quantity by the feature extraction module. Hereinafter, processing in each module will be described.

まず条件(1)を評価する音響連続区間特徴抽出に関して説明する。図16は特徴抽出モジュール群120-nの1つとして存在する、音響連続区間特徴抽出モジュールでの処理概要、図17はその動作フローである。   First, acoustic continuous section feature extraction for evaluating the condition (1) will be described. FIG. 16 shows an outline of processing in the acoustic continuous section feature extraction module existing as one of the feature extraction module group 120-n, and FIG. 17 shows an operation flow thereof.

概要としては、入力となる基本特徴のひとつである音響パワーの時系列1303を、パラメタを用いて条件に該当するかどうかの2値(該当を1、非該当を0とする)となる応用特徴量121-nを出力する。まず、重要度算出式情報記憶手段140からパラメタ情報として音響閾値θと、猶予区間τa、最短区間長τmin、および、最長区間長τmaxを取得する(ステップ1701)。次に音響時刻tを0に初期化する(ステップ1702)。次に音響時刻tの音響パワー値pを取得し(ステップ1704)、このpがθよりも大きい場合(ステップ1705)、区間開始時刻sと区間終了時刻eにtを代入する(ステップ1707)と共に、閾値よりも下回った区間のカウンタcを0にする(ステップ1708)。音響パワー基本特徴として記憶されている最大時刻よりも小さい間(ステップ1703)、これらの処理を繰り返す。tを1増加させ(ステップ1709)、音響パワーが存在するかを比較し(ステップ1710)、時刻tの音響パワーpを取得する(ステップ1711)。   As an overview, the application features that make the time series 1303 of the acoustic power, which is one of the basic features to be input, become a binary value (applicable is 1 and non-applicable is 0) as to whether the condition is met using parameters. Outputs the quantity 121-n. First, the acoustic threshold θ, the grace period τa, the shortest section length τmin, and the longest section length τmax are acquired as parameter information from the importance calculation formula information storage means 140 (step 1701). Next, the acoustic time t is initialized to 0 (step 1702). Next, an acoustic power value p at the acoustic time t is acquired (step 1704). If p is larger than θ (step 1705), t is substituted for the section start time s and the section end time e (step 1707). The counter c in the section below the threshold is set to 0 (step 1708). These processes are repeated while the time is smaller than the maximum time stored as the sound power basic feature (step 1703). t is increased by 1 (step 1709), and whether or not there is sound power is compared (step 1710), and the sound power p at time t is obtained (step 1711).

pがθよりも大きい場合には(ステップ1712)区間終了時刻eにtを代入し(ステップ1713)カウンタcを0にする(ステップ1714)しかし、pがθよりも小さい場合にはカウンタcを1増加させ(ステップ1715)、もし猶予区間τaよりも大きい場合には(ステップ1716)、区間長e-sが最短区間長τminと最長区間長τmaxの間にあれば(ステップ1720)区間s〜eの応用特徴値を1に(ステップ1721)、ない場合には0として(ステップ1722)、次の音響時刻から新しい連続音響部分を見つける処理を続ける(ステップ1723)。音響時刻tが音響パワーの最大の時刻より大きい、すなわち、全ての音響パワーに対しての処理が終了した場合には(ステップ1703)、応用特徴データである音響連続区間特徴値を演算制御部へ渡して終了する(ステップ1730)。   If p is larger than θ (step 1712), t is substituted for the section end time e (step 1713) and the counter c is set to 0 (step 1714). However, if p is smaller than θ, the counter c is 1 (step 1715), if it is larger than the grace period τa (step 1716), if the section length es is between the shortest section length τmin and the longest section length τmax (step 1720) The applied feature value is set to 1 (step 1721), and if not (0) (step 1722), the process of finding a new continuous sound portion from the next sound time is continued (step 1723). When the acoustic time t is larger than the maximum acoustic power time, that is, when the processing for all the acoustic powers is completed (step 1703), the acoustic continuous section feature value as applied feature data is sent to the arithmetic control unit. Then, the process ends (step 1730).

なお、これらの処理フローは全ての音響時刻が完了した場合に音響連続区間特徴値を演算制御部130へ渡して終了するとしたが、各音響時刻ごとに音響連続区間特徴値を演算制御部130へ渡し、各時刻での演算を終了させた後に、再度本フローの処理を継続するようにしてもよい。   Note that these processing flows end when the sound continuous section feature value is passed to the calculation control unit 130 when all the sound times are completed, but the sound continuous section feature value is sent to the calculation control unit 130 for each sound time. After passing and finishing the calculation at each time, the processing of this flow may be continued again.

次に、条件(2)を評価する画像色構図特徴抽出に関して説明する。図18は特徴抽出モジュール群120-nの1つとして存在する、色構図特徴抽出モジュールでの処理概要、図19はその動作フローである。概要としては、入力となる基本特徴のひとつである画像色構図の時系列1304を、評価対象となるマスク行列Mと、指定する複数の色Cおよびその色数Nをパラメタとして、評価対象の数に対して指定色のいずれかが存在している部分の割合を応用特徴量121-nとして出力する。   Next, image color composition feature extraction for evaluating condition (2) will be described. FIG. 18 shows an outline of processing in the color composition feature extraction module existing as one of the feature extraction module group 120-n, and FIG. 19 shows an operation flow thereof. As an overview, the time series 1304 of the image color composition, which is one of the basic features to be input, is the number of evaluation objects, using the mask matrix M to be evaluated, the specified multiple colors C and the number of colors N as parameters. The ratio of the portion where any one of the specified colors exists is output as the applied feature amount 121-n.

まず、重要度算出式情報記憶手段140からパラメタ情報として領域マスク配列M[16]と、指定色数Nおよび指定色配列C[N]を取得する(ステップ1901)。次に、画像時刻tを0に初期化し(ステップ1902)、先に作成した基本特徴記憶手段112内の画像基本特徴データのうち画像色構図特徴1304の時系列の中から時刻tにおける、画像色構図特徴f[16]を取得する(ステップ1904)。   First, the area mask array M [16], the specified number of colors N, and the specified color array C [N] are acquired as parameter information from the importance calculation formula information storage means 140 (step 1901). Next, the image time t is initialized to 0 (step 1902), and the image color at time t is selected from the time series of the image color composition feature 1304 among the image basic feature data in the basic feature storage means 112 created earlier. The composition feature f [16] is acquired (step 1904).

カウンタi、s、および、Aを0に初期化し(ステップ1905)、画像領域の数(16領域)(ステップ1910)全てに対して、領域マスク配列が1である部分について(ステップ1911)その領域の数Aを加算し(ステップ1940)、指定された数Nの指定色配列C[N]のいずれかがある場合(ステップ1913、1914、1916)、カウンタsに1を加えて(ステップ1914)次の領域を評価する(ステップ1915)。16領域全てに対して評価完了した場合には(ステップ1910)、指定された領域の総数に対して指定した色のいずれかが存在した割合s/Aを求めてこれを時刻tの画像における色構図特徴値を応用特徴とする(ステップ1920)。   The counters i, s, and A are initialized to 0 (step 1905), and the area mask array is 1 for all the number of image areas (16 areas) (step 1910) (step 1911). The number A is added (step 1940), and if there is any of the specified number N of the specified color array C [N] (steps 1913, 1914, 1916), 1 is added to the counter s (step 1914) The next area is evaluated (step 1915). When the evaluation is completed for all 16 areas (step 1910), the ratio s / A in which any of the specified colors existed with respect to the total number of the specified areas is obtained, and this is the color in the image at time t. The composition feature value is used as an applied feature (step 1920).

全ての画像時刻に対しての処理が終了した場合には(ステップ1921、1903)色構図特徴値を演算制御部130へ渡して処理を終了する(ステップ1930)。なお、これらの処理フローは全ての画像時刻が完了した場合に色構図特徴値を演算制御部130へ渡して終了するとしたが、各画像時刻ごとに色構図特徴値を演算制御部130へ渡し、各時刻での演算を終了させた後に、再度本フローの処理を継続するようにしてもよい。   When processing for all image times is completed (steps 1921 and 1903), the color composition feature value is passed to the arithmetic control unit 130, and the processing is ended (step 1930). Note that these processing flows end when all the image times are completed, passing the color composition feature value to the calculation control unit 130, but pass the color composition feature value to the calculation control unit 130 for each image time, You may make it continue the process of this flow again after finishing the calculation at each time.

次に、条件(3)を評価する音響盛上り特徴抽出に関して説明する。(図20)は特徴抽出モジュール群120-nの1つとして存在する、音響盛上り特徴抽出モジュールでの処理概要、(図21)はその動作フローである。   Next, acoustic excitement feature extraction for evaluating the condition (3) will be described. (FIG. 20) is an outline of processing in the sound excitement feature extraction module existing as one of the feature extraction module group 120-n, and (FIG. 21) is an operation flow thereof.

概要としては、入力となる基本特徴のひとつである音響パワーの時系列1303を、パラメタτを用いて音響の盛上り度合いを0〜1の間でとる応用特徴量121-nを出力する。   As an overview, an applied feature value 121-n that outputs a sound climax degree between 0 and 1 using a parameter τ is output as a time series 1303 of acoustic power, which is one of the basic features to be input.

まず、重要度算出式情報記憶手段140からパラメタ情報として移動区間長τを取得する(ステップ2101)。次に、音響時刻tを0から音響パワーの最大の時刻となるまで時刻をずらしながら、tからt+τまでの区間の音響パワー値のうち最低値を与えるPminを時刻tにおける値として選択する(ステップ2102)。   First, the movement section length τ is acquired as parameter information from the importance calculation formula information storage means 140 (step 2101). Next, while shifting the sound time t from 0 until the sound power reaches the maximum sound power time, Pmin that gives the lowest value among the sound power values in the section from t to t + τ is selected as the value at time t (step 2102).

この値は音響パワーの最小値〜最大値の間をとるが、これを0〜1に対応させるように正規化し、これを時刻tにおける音響盛上り値とする。(ステップ2103)。すべての音響時刻において(正確には(最大値−τ)の時刻まで)の音響盛上り値を演算制御部130へ渡して処理を終了する(ステップ2104)。   This value is between the minimum value and the maximum value of the sound power, but is normalized so as to correspond to 0 to 1, and this is set as the sound rise value at time t. (Step 2103). The acoustic climax value at all acoustic times (to be exact, up to the time of (maximum value−τ)) is passed to the arithmetic control unit 130 and the process is terminated (step 2104).

なお、これらの処理フローは全て音響時刻が完了した場合に音響盛上り値を演算制御部130へ渡して終了するとしたが、各音響時刻ごとに音響盛上り値を演算制御部130へ渡し、各時刻での演算を終了させた後に、再度本フローの処理を継続するようにしてもよい。   Note that these processing flows are all finished when the acoustic climax value is passed to the arithmetic control unit 130 when the acoustic time is completed, but the acoustic climax value is passed to the arithmetic control unit 130 for each acoustic time. After completing the calculation at the time, the processing of this flow may be continued again.

図22は、競馬レースを抽出するために演算制御部130で用いる重要度算出式情報141の一例を示したものである。重要度算出式情報141は、当該算出式で用いる特徴抽出モジュールリスト2201、および算出式2202を含む。特徴抽出モジュールリスト2201においては各特徴抽出モジュールで必要なパラメタのリストが各々に与えられており、算出式2202においては各々のパラメタの具体的な値を指定した上で式を記載する。   FIG. 22 shows an example of the importance calculation formula information 141 used by the arithmetic control unit 130 to extract a horse race. The importance level calculation formula information 141 includes a feature extraction module list 2201 and a calculation formula 2202 used in the calculation formula. In the feature extraction module list 2201, a list of parameters necessary for each feature extraction module is given to each. In the calculation formula 2202, formulas are described after specifying specific values of the respective parameters.

これまでに説明した3つの特徴抽出モジュール、すなわち、音響連続区間特徴抽出モジュール、色構図特徴抽出モジュール、および、音響盛上り特徴抽出モジュールを、それぞれモジュールA、B、および、Cとして、それぞれの名称と必要なパラメタ名が列挙しておく。   The three feature extraction modules described so far, namely the acoustic continuous section feature extraction module, the color composition feature extraction module, and the acoustic swell feature extraction module, are named modules A, B, and C, respectively. And necessary parameter names are listed.

算出式には、各モジュールから出力されるそれぞれの応用特徴値を四則演算子や定数を用いてそれらの特徴値出力を時刻ごとに計算する。   In the calculation formula, each applied feature value output from each module is calculated for each time using the four arithmetic operators and constants.

なお、式中には、「sat」という記述があるがこれはこれに続く数値を閾値として応用特徴値を2値化する内部処理を示すこととする。具体的には、モジュールB、すなわち、色構図特徴抽出モジュール(図18,19)の出力する応用特徴データ120-nに対して、0.6を閾値としてこれ以上を1、これ未満を0とする値を返すこととする。このようにして、上述のそれぞれのパラメタに対して適当なパラメタおよび応用特徴値を用いて重要度を計算することができる。   In the formula, there is a description of “sat”, which indicates internal processing for binarizing the applied feature value using the subsequent numerical value as a threshold value. Specifically, with respect to the application feature data 120-n output from module B, that is, the color composition feature extraction module (FIGS. 18 and 19), 0.6 is a threshold value, 1 is greater than this, and 0 is less than this Will be returned. In this way, importance can be calculated using appropriate parameters and applied feature values for each of the above parameters.

図23は、演算制御部130による重要度の計算結果を表示する計算結果画面700を示したものである。同画面は前述の計算ボタン413による計算が完了すると、ダイジェスト作成コンソール150の表示装置151に表示される。計算結果画面700は時間表示エリア2301、複数の特徴抽出モジュール各々に対応した応用特徴量表示エリア2302-1〜2302-3、これらから重要度を算出した結果を示す結果表示エリア2303を有する。各々のエリアは、時間表示エリア2301が示す時刻における各々の応用特徴量、および最終的に得られる重要度を示す。704、705は表示が画面に収まらない場合に用いるスクロールボタンである。この画面を用いてユーザは、重要度の計算が目的通りの結果となっているかどうかを確認し、結果が良好であれば当該重要度算出式情報141をダイジェスト映像の作成に利用する。   FIG. 23 shows a calculation result screen 700 that displays the calculation result of importance by the arithmetic control unit 130. This screen is displayed on the display device 151 of the digest creation console 150 when the calculation by the calculation button 413 is completed. The calculation result screen 700 has a time display area 2301, applied feature amount display areas 2302-1 to 2302-3 corresponding to each of a plurality of feature extraction modules, and a result display area 2303 showing the result of calculating the importance from these. Each area shows each applied feature amount at the time indicated by the time display area 2301 and the importance obtained finally. 704 and 705 are scroll buttons used when the display does not fit on the screen. Using this screen, the user confirms whether or not the importance calculation is as intended. If the result is good, the importance calculation formula information 141 is used to create a digest video.

なお、以上の説明において、重要度の算出をどの様な時間単位に対して行なうかは特に言及しなかった。時間単位としては、映像のフレーム毎に計算する、番組を一定の時間間隔(たとえば10秒)に分割して計算する、番組を何等かの方法でいくつかのシーンに区分しておき各シーン単位で計算する、などの方法が知られているが、本発明はこれらいずれの方法に対しても適用できる。   In the above description, no particular mention was made as to what time unit the importance is calculated. The time unit is calculated for each video frame, the program is calculated by dividing the program into fixed time intervals (for example, 10 seconds), the program is divided into several scenes by some method, and each scene unit is calculated. However, the present invention can be applied to any of these methods.

次の実施形態として、映像データを用いて、囲碁・将棋番組の中から対局盤面をダイジェストとして生成する場合を説明する。なお、使用するモジュールの指定およびパラメタの指定を行うユーザインタフェースに関しては、実施形態1に準じるとしてここでは言及せず、基本特徴抽出部111-1〜111-n、演算制御部130および特徴抽出モジュール120-1〜120-n内部の処理と出力に関して説明する。   As a next embodiment, a case where a game board surface is generated as a digest from a Go / Shogi program using video data will be described. Note that the user interface for specifying the module to be used and the parameter is not referred to here as it conforms to the first embodiment, and is not referred to here. The basic feature extraction units 111-1 to 111-n, the calculation control unit 130, and the feature extraction module The processing and output in 120-1 to 120-n will be described.

基本特徴記憶手段112には、実施形態2と同様に、既に図13のように、音響基本特徴データ1301である音響パワー特徴データ1303が音響パワー特徴抽出部(111のひとつ)、および、画像基本特徴データ1302である画像色構図情報1304が画像色構図特徴抽出部(別の111のひとつ)、入力となる画像データ110から抽出され基本特徴記憶手段に準備されているとする。この取得方法は実施形態2と同様であるため説明を省略する。   As in the second embodiment, the basic feature storage unit 112 already has the acoustic power feature data 1303, which is the basic acoustic feature data 1301, as shown in FIG. Assume that image color composition information 1304 as feature data 1302 is extracted from an image color composition feature extraction unit (another 111) and input image data 110 and prepared in basic feature storage means. Since this acquisition method is the same as that of the second embodiment, description thereof is omitted.

囲碁・将棋の場合は、対局している盤面、特に長考後の盤面がダイジェストとして重要であるとする。番組中、盤面はほとんど動きが無く、また、動きの無い絵柄の中で、盤面は最も多く出現する絵柄である。棋士が考えている間は解説画面となるため、盤面の表示間隔がほぼ、棋士が考えている時間となる。よって、表示間隔が長いところがより重要なダイジェスト部分として再生することとする。   In the case of Go / Shogi, it is assumed that the playing board, especially the board after the long review, is important as the digest. During the program, the board has almost no movement, and the board has the most appearance among the pictures with no movement. Since the explanation screen is displayed while the player is thinking, the display interval of the board is almost the time that the player thinks. Therefore, a portion having a long display interval is reproduced as a more important digest portion.

以上の特徴から、次の3つの特徴抽出モジュールを定義し、組み合わせて囲碁将棋の重要度を求める。すなわち、条件(1)静止画区間特徴、条件(2)最頻画像特徴、条件(3)出現間隔特徴のそれぞれの特徴抽出モジュールを以下に説明するように定義し組み合わせる。   From the above features, the following three feature extraction modules are defined and combined to determine the importance of Go shogi. That is, the feature extraction modules of condition (1) still image section feature, condition (2) mode image feature, and condition (3) appearance interval feature are defined and combined as described below.

まず、条件(1)の静止画区間特徴抽出モジュールの処理は次のとおりである。図24は、特徴抽出モジュール群120-nの1つとして存在する、静止画区間特徴抽出モジュールでの処理概要、図25はその動作フローである。   First, the processing of the still image section feature extraction module under the condition (1) is as follows. FIG. 24 shows an outline of processing in the still image section feature extraction module that exists as one of the feature extraction module group 120-n, and FIG. 25 shows its operation flow.

概要としては、入力となる基本特徴のひとつである画像色構図の時系列1304を、静止画として判定するための色構図のノルム(差分距離)の閾値θstillと、静止画として持続する最小時間τmin、および、マスク行列Mをパラメタとして、静止状態の画像を1、静止画ではない画像を0となるよう応用特徴量121-nとして出力する。   As an outline, the time series 1304 of the image color composition which is one of the basic features to be input is a threshold value θstill of the norm (difference distance) of the color composition for determining as a still image, and the minimum time τmin that continues as a still image , And the mask matrix M as a parameter, a still state image is output as 1 and an image that is not a still image is output as an applied feature amount 121-n to be 0.

処理フローは、まず、パラメタとして、θstill、τmin、行列Mを取得する(ステップ2501)。画像時刻tを0に初期化し(ステップ2502)、基本特徴情報記憶手段112より最初の画像フレームの画像色構図情報F[16]を取得する(ステップ2504)。   In the processing flow, first, θstill, τmin, and matrix M are acquired as parameters (step 2501). The image time t is initialized to 0 (step 2502), and the image color composition information F [16] of the first image frame is acquired from the basic feature information storage means 112 (step 2504).

区間開始時刻sと区間終了時刻eにtを代入し(ステップ2505)直前の色構図情報P[16]をF[16]で初期化する(ステップ2506)。また時刻tを進めて(ステップ2507)次の画像フレームの画像色構図情報F[16]を取得し(ステップ2509)、カウンタdおよびiを0で初期化する(ステップ2510)。次にiを色構図の16領域すべてに対してカウントしながら(ステップ2511、2515)、マスクM[i]が1である場合に(ステップ2512)F[i]とP[i]を比較し(ステップ2513)異なる場合にはdを1増加させる(ステップ2514)。dが一画面あたりθstill以下の場合(ステップ2516)には区間終了時刻eにtを代入し(ステップ2517)直前の色構図情報P[16]を現在のF[16]に更新して(ステップ2518)次の時刻へ進む(ステップ2507)。   T is substituted into the section start time s and the section end time e (step 2505), and the immediately preceding color composition information P [16] is initialized with F [16] (step 2506). Further, the time t is advanced (step 2507), the image color composition information F [16] of the next image frame is acquired (step 2509), and the counters d and i are initialized with 0 (step 2510). Next, i is counted for all 16 areas of the color composition (steps 2511 and 2515), and when mask M [i] is 1 (step 2512), F [i] and P [i] are compared. (Step 2513) If different, d is increased by 1 (Step 2514). If d is equal to or less than θstill per screen (step 2516), t is substituted for the section end time e (step 2517), and the immediately preceding color composition information P [16] is updated to the current F [16] (step 2516). 2518) Proceed to the next time (step 2507).

dが一画面あたりθstillよりも大きい場合には(ステップ2516)、静止画状態が終了したとして、区間長e-sがτmin以上の場合(ステップ2520)は画像時刻s〜eまでの区間の特徴量を1とし(ステップ2521)、そうでない場合には0にして(ステップ2522)、新しい静止画区間を見つけるためにループを最初に戻す(ステップ2503)。   If d is larger than θstill per screen (step 2516), it is determined that the still image state has ended, and if the section length es is τmin or more (step 2520), the feature amount of the section from image time s to e is calculated. It is set to 1 (step 2521), otherwise it is set to 0 (step 2522), and the loop is returned to the beginning to find a new still image section (step 2503).

これらをすべての画像時刻に対して行い、静止画区間特徴値を演算制御部へ渡し(ステップ2530)処理を終了する。   These are performed for all the image times, and the still image section feature value is passed to the calculation control unit (step 2530), and the process is terminated.

条件(2)の最頻画像特徴抽出モジュールの処理は次のとおりである。図26は特徴抽出モジュール群120-nの1つとして存在する、最頻画像特徴抽出モジュールでの処理概要、図27はその動作フローである。   The processing of the mode image feature extraction module under condition (2) is as follows. FIG. 26 shows an outline of processing in the most frequent image feature extraction module existing as one of the feature extraction module group 120-n, and FIG. 27 shows an operation flow thereof.

概要としては、入力となる基本特徴のひとつである画像色構図の時系列1304と、ほかモジュールの応用特徴値121-nである処理対象とする画像フレーム選択のための特徴値を入力とし、また、領域マスクM[16]およびノルム閾値θdicと抽出絵柄数Nをパラメタとして、内部で持つ絵柄辞書を用いながら、応用特徴データ121-nの一つである、最も多く出現する色特徴を持つ区間を最頻画像特徴値として出力する。   As an overview, the time series 1304 of the image color composition, which is one of the basic features to be input, and the feature value for selecting the image frame to be processed, which is the application feature value 121-n of the other module, are input. , Which is one of the application feature data 121-n and has the most frequently appearing color features, using the internal mask dictionary with the region mask M [16], the norm threshold θdic and the number N of extracted symbols as parameters Are output as the most frequent image feature values.

処理フローは、まず、M[16]、θdic、Nを重要度算出式情報記憶手段140から取得する(ステップ2701)。次に、絵柄辞書を初期化するとともに絵柄辞書エントリ数DNを0に初期化する(ステップ2702)。   In the processing flow, first, M [16], θdic, and N are acquired from the importance calculation formula information storage unit 140 (step 2701). Next, the design dictionary is initialized and the design dictionary entry number DN is initialized to 0 (step 2702).

ここで、絵柄辞書は、DN:エントリ数、Did[DN]:辞書エントリid(ソートの時に元のインデックスが分かるように)、および、DL[DN]:絵柄の総出現時間、の1つの変数と2つの配列から構成される。画像時刻tを0に初期化し(ステップ2703)、時刻を増加させながら(ステップ2706)、絵柄辞書登録処理を行う(ステップ2705)。絵柄辞書登録処理は以下のステップを行う。まず、時刻tにおける選択情報2601を取得しこれをSとする(ステップ2731)。   Here, the pattern dictionary has one variable: DN: number of entries, Did [DN]: dictionary entry id (so that the original index can be understood at the time of sorting), and DL [DN]: total appearance time of the pattern And two arrays. The image time t is initialized to 0 (step 2703), and the picture dictionary registration process is performed (step 2705) while increasing the time (step 2706). The pattern dictionary registration process performs the following steps. First, selection information 2601 at time t is acquired and set as S (step 2731).

Sが1の場合、時刻tのフレーム画像の絵柄を対象に絵柄辞書を作成するため、基本特徴記憶手段112から色構図情報f[16]を取得する(ステップ2733)。一方現在時刻よりも過去の時刻jにおける色構図情報g[16]を取得し、色構図情報のすべての領域のうちマスクMが1でありf[16]とg[16]の各領域の色が異なる領域数dを求める(ステップ2741〜2746)ことで同じ色構図のフレームが過去に存在したか検索する(ステップ2735、2747、2748)。   When S is 1, color composition information f [16] is acquired from the basic feature storage means 112 in order to create a picture dictionary for the picture of the frame image at time t (step 2733). On the other hand, the color composition information g [16] at a time j that is earlier than the current time is acquired, and the mask M is 1 among all the areas of the color composition information, and the colors of the respective areas f [16] and g [16] By obtaining the number of regions d different from each other (steps 2741 to 2746), it is searched whether frames having the same color composition existed in the past (steps 2735, 2747, and 2748).

存在した、すなわち、dがθdic以下の場合には(ステップ2747)、Fid[j]:時刻jの絵柄に対する辞書エントリidを値kに代入し(ステップ2754)、該当絵柄辞書の総出現時間を1増加させる(ステップ2755)。存在しなかった場合には辞書エントリを追加し(ステップ2751)エントリを設定する(ステップ2752)。時刻tのFid[t]には該当する辞書エントリを示すようにする(ステップ2753)。一方、Sが1でない場合(ステップ2732)には対象のフレーム画像ではないとしてFid[t]には-1を設定しておく(ステップ2750、2753)。   If it exists, that is, d is equal to or smaller than θdic (step 2747), Fid [j]: Substitute the dictionary entry id for the pattern at time j into the value k (step 2754), and set the total appearance time of the corresponding pattern dictionary Increase by 1 (step 2755). If it does not exist, a dictionary entry is added (step 2751) and an entry is set (step 2752). The corresponding dictionary entry is indicated in Fid [t] at time t (step 2753). On the other hand, if S is not 1 (step 2732), -1 is set to Fid [t] because it is not the target frame image (steps 2750 and 2753).

すべての画像時刻に対した処理を行い辞書が完成した後(ステップ2704、2705)、DL[DN]をキーに、(Did[DN]、DL[DN])を降順にソートする(ステップ2710)。最後に、辞書エントリの最初の(DL[DN]が大きい)方から抽出絵柄数N 個のエントリのDid[DN]と同じFid[t]をもつ時刻tにおける最頻画像特徴量を1とし(ステップ2717)、そのほかを0とする(ステップ2718)。その後、完成した最頻画像特徴値121-nを演算制御部130に渡し(ステップ2720)処理を終了する。   After completing the dictionary for all image times (steps 2704, 2705), sort (Did [DN], DL [DN]) in descending order using DL [DN] as a key (step 2710) . Finally, the most frequent image feature quantity at time t having the same Fid [t] as Did [DN] of the extracted N entries from the first dictionary entry (with larger DL [DN]) is set to 1 ( Step 2717) and the others are set to 0 (Step 2718). Thereafter, the completed mode image feature value 121-n is passed to the arithmetic control unit 130 (step 2720), and the process is terminated.

最後に、条件(3)の出現間隔特徴抽出モジュールの処理は次のとおりである。(図28)は特徴抽出モジュール群120-nの1つとして存在する、出現間隔特徴抽出モジュールでの処理概要、(図29)はその動作フローである。概要としては、入力して他のモジュールの応用特徴値121-nである処理対象とする画像フレーム選択のための特徴値を入力として、また、最大連続再生時間τplayをパラメタとして与えて、画像フレーム選択の終了時刻が直前の選択時刻の終了時刻からの時間が大きいほど出現間隔特徴値が大きくなるように応用特徴データ121-nを出力する。   Finally, the processing of the appearance interval feature extraction module for condition (3) is as follows. (FIG. 28) is an outline of processing in the appearance interval feature extraction module that exists as one of the feature extraction module group 120-n, and (FIG. 29) is its operation flow. As an outline, an input feature value for selecting an image frame to be processed that is an applied feature value 121-n of another module is input, and a maximum continuous playback time τplay is given as a parameter to obtain an image frame. The application feature data 121-n is output so that the appearance interval feature value increases as the selection end time increases from the end time of the immediately preceding selection time.

処理フローは。まずτplayを重要度算出式情報記憶手段140から取得する(ステップ2801)。次に、直前出現時刻tpおよび画像時刻tを0に初期化する(ステップ2902、2903)。入力である画像時刻tでの画像フレームの選択情報をSとし(ステップ2905)、Sが1ではないときには(ステップ2906)画像時刻tでの応用特徴値を0とし(ステップ2907)、次の時刻へ進む(ステップ2908)。   What is the processing flow? First, τplay is acquired from the importance calculation formula information storage means 140 (step 2801). Next, the immediately preceding appearance time tp and image time t are initialized to 0 (steps 2902 and 2903). The selection information of the image frame at the input image time t is set to S (step 2905), and when S is not 1 (step 2906), the applied feature value at the image time t is set to 0 (step 2907), and the next time Proceed to step 2908.

Sが1の時は処理対象選択されているとして(ステップ2906)区間開始時刻sと区間終了時刻eをtに初期化する(ステップ2910)。次に、画像時刻tを進めながら(ステップ2911)、フレーム画像の選択情報Sを取得し(ステップ2913)、S=1(選択)の場合には区間終了時刻eをtに更新する(ステップ2915)。Sが1以外の場合にはループを抜けて(ステップ2914)、区間長e-sがτplayより長い場合には画像時刻s〜(e-τplay)の応用特徴値を0にし、画像時刻(e-τplay)〜eまでの応用特徴値をe-tpとする。   When S is 1, it is assumed that the processing target is selected (step 2906), and the section start time s and section end time e are initialized to t (step 2910). Next, while advancing the image time t (step 2911), the frame image selection information S is acquired (step 2913). If S = 1 (selection), the section end time e is updated to t (step 2915). ). When S is other than 1, the process goes out of the loop (step 2914). When the section length es is longer than τplay, the applied feature value of the image time s to (e-τplay) is set to 0, and the image time (e-τplay ) To e are applied feature values.

区間長e-sがτplay以下の場合には区間s〜eまでの応用特徴値をe-tpとする(ステップ2923)。そして直前出現時刻tpをeで更新する(ステップ2924)。すべての画像時刻での処理が完了した場合には(ステップ2904、2912)、必要な場合には最後の部分の処理を行った後(ステップ2920〜2923)、応用特徴値121-nとしての出現間隔特徴値を演算制御部130に渡し(ステップ2930)終了する。   When the section length e-s is equal to or shorter than τplay, the applied feature value from the section s to e is set to e-tp (step 2923). Then, the previous appearance time tp is updated with e (step 2924). When processing at all image times has been completed (steps 2904 and 2912), if necessary, after the last part has been processed (steps 2920 to 2923), it appears as an applied feature value 121-n The interval feature value is passed to the arithmetic control unit 130 (step 2930), and the process ends.

図30は、囲碁・将棋番組の対局盤面を抽出するために演算制御部130で用いる重要度算出式情報141の一例を示したものである。重要度算出式情報141は、当該算出式で用いる特徴抽出モジュールリスト3001、および算出式3002を含む。特徴抽出モジュールリスト3001においては各特徴抽出モジュールで必要なパラメタのリストが各々に与えられており、算出式3002においては各々のパラメタの具体的な値を指定した上で式を記載する。   FIG. 30 shows an example of the importance calculation formula information 141 used by the arithmetic control unit 130 to extract the game board surface of the Go / Shogi program. The importance calculation formula information 141 includes a feature extraction module list 3001 and a calculation formula 3002 used in the calculation formula. In the feature extraction module list 3001, a list of parameters necessary for each feature extraction module is given to each. In the calculation formula 3002, a specific value of each parameter is specified and the formula is described.

これまでに説明した3つの特徴抽出モジュール、すなわち、静止画区間特徴抽出モジュール、最頻画像特徴抽出モジュール、および、出現間隔特徴抽出モジュールを、それぞれモジュールA、B、および、Cとして、それぞれの名称と必要なパラメタ名を列挙しておく。算出式は各モジュールへ与えるパラメタの実際の値を示すとともに、Aの出力がBの入力になり、Bの出力がCの入力となるように構成することができることを示している。   The three feature extraction modules described so far, that is, the still image section feature extraction module, the mode image feature extraction module, and the appearance interval feature extraction module are named modules A, B, and C, respectively. And the necessary parameter names. The calculation formula indicates an actual value of a parameter to be given to each module, and indicates that the output of A can be configured as an input of B and the output of B can be configured as an input of C.

最後Cの出力が重要度となっている。このようにして、上述のそれぞれのパラメタに対して適当なパラメタおよび応用特徴値を用いて重要度を計算することができる。   The output of the last C is the importance. In this way, importance can be calculated using appropriate parameters and applied feature values for each of the above parameters.

図30は、演算制御部130による重要度の計算結果を表示する計算結果画面700を示したものである。   FIG. 30 shows a calculation result screen 700 that displays the calculation result of importance by the arithmetic control unit 130.

同画面は前述の計算ボタン413による計算が完了すると、ダイジェスト作成コンソール150の表示装置151に表示される。計算結果画面700は時間表示エリア3101、複数の特徴抽出モジュール各々に対応した応用特徴量表示エリア3102-1〜3102-3、これらから重要度を算出した結果を示す結果表示エリア3103を有する。各々のエリアは、時間表示エリア3101が示す時刻における各々の応用特徴量、および最終的に得られる重要度を示す。704、705は表示が画面に収まらない場合に用いるスクロールボタンである。   This screen is displayed on the display device 151 of the digest creation console 150 when the calculation by the calculation button 413 is completed. The calculation result screen 700 includes a time display area 3101, applied feature amount display areas 3102-1 to 3102-3 corresponding to each of a plurality of feature extraction modules, and a result display area 3103 indicating the result of calculating the importance from these. Each area indicates each applied feature amount at the time indicated by the time display area 3101 and the importance obtained finally. 704 and 705 are scroll buttons used when the display does not fit on the screen.

この画面を用いてユーザは、重要度の計算が目的通りの結果となっているかどうかを確認し、結果が良好であれば当該重要度算出式情報141をダイジェスト映像の作成に利用する。   Using this screen, the user confirms whether or not the importance calculation is as intended. If the result is good, the importance calculation formula information 141 is used to create a digest video.

なお、以上の説明において、重要度の算出をどの様な時間単位に対して行なうかは特に言及しなかった。時間単位としては、映像のフレーム毎に計算する、番組を一定の時間間隔(たとえば10秒)に分割して計算する、番組を何等かの方法でいくつかのシーンに区分しておき各シーン単位で計算する、などの方法が知られているが、本発明はこれらいずれの方法に対しても適用できる。   In the above description, no particular mention was made as to what time unit the importance is calculated. The time unit is calculated for each video frame, the program is calculated by dividing the program into fixed time intervals (for example, 10 seconds), the program is divided into several scenes by some method, and each scene unit is calculated. However, the present invention can be applied to any of these methods.

以上のように、いくつかの特徴抽出モジュールを必要に応じて搭載し、それぞれのパラメタおよび接続構成、算術演算を重要度算出式情報140を経由してで与えることで、適切なダイジェストを再生するための重要度を適切な時刻を単位として生成しシーン重要度記憶手段160に記憶させることができる。これをもとに、再生位置指示手段161にて指定した重要度以上の部分を選択し、再生位置情報120を録画再生制御部183に与えることで、映像記録手段184に記録された映像の一部を再生するダイジェスト再生を行うことが可能となる。   As described above, several feature extraction modules are installed as necessary, and each parameter, connection configuration, and arithmetic operation are given via the importance calculation formula information 140 to reproduce an appropriate digest. Therefore, the importance level can be generated in units of appropriate time and stored in the scene importance level storage means 160. On the basis of this, a portion having a degree of importance or higher designated by the playback position instruction means 161 is selected, and the playback position information 120 is given to the recording / playback control section 183, so that one of the videos recorded in the video recording means 184 is obtained. It is possible to perform digest reproduction for reproducing a part.

本発明による仮想機器構成方法は、映像や音響のコンテンツを中心に利用する説明を行ったが、汎用のデータを処理する機能モジュールを用いた構成とすることが可能で、通信部を搭載したあらゆる産業用機器に対しても適用可能である。したがって、多くの産業で汎用的に用いられる可能性がある。   The virtual device configuration method according to the present invention has been described mainly using video and audio content. However, the configuration using a functional module that processes general-purpose data can be used, and any configuration equipped with a communication unit can be used. It can also be applied to industrial equipment. Therefore, it may be used for many industries.

本発明によるダイジェスト映像作成方法および装置の全体を示すブロック図1 is a block diagram showing an overall digest video creation method and apparatus according to the present invention. 物理特徴記憶手段112の用法を示した図The figure which showed the usage of the physical feature memory | storage means 112 特徴抽出モジュール120-nの実施例を示すフローチャートFlow chart showing an embodiment of the feature extraction module 120-n 演算制御部130による演算制御画面400の実施例を示す図The figure which shows the Example of the calculation control screen 400 by the calculation control part 130 演算制御画面400中のモジュール表示部401-nの実施例を示す図The figure which shows the Example of the module display part 401-n in the calculation control screen 400 重要度算出式情報141の構成例を示す図The figure which shows the structural example of the importance calculation formula information 141 演算制御部130による計算結果画面700の実施例を示す図The figure which shows the Example of the calculation result screen 700 by the arithmetic control part 130 演算制御部130による変更シーン確認画面800の実施例を示す図The figure which shows the Example of the change scene confirmation screen 800 by the arithmetic control part 130 再生点リスト900の実施例を示す図The figure which shows the Example of the reproduction | regeneration point list | wrist 900 重要度算出式情報読込画面1000の実施例を示す図The figure which shows the Example of importance calculation formula information reading screen 1000 録画再生操作画面1100の実施例を示す図The figure which shows the Example of the recording / reproducing operation screen 1100 基本特徴抽出部111-nの実施例を示す図(字幕品詞特徴抽出)The figure which shows the Example of the basic feature extraction part 111-n (caption part-of-speech feature extraction) 基本特徴抽出部111-nの実施例を示す図(音響パワー特徴、画像色構図特徴)The figure which shows the Example of the basic feature extraction part 111-n (acoustic power feature, image color composition feature) 基本特徴抽出部111-nの実施例のフローチャート(音響パワー特徴)Flow chart of embodiment of basic feature extraction unit 111-n (acoustic power feature) 基本特徴抽出部111-nの実施例のフローチャート(画像色構図特徴)Flowchart of embodiment of basic feature extraction unit 111-n (image color composition feature) 特徴抽出モジュール120-nの実施例の処理概要図(音響連続区間特徴抽出モジュール)Processing outline diagram of the embodiment of the feature extraction module 120-n (acoustic continuous section feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(音響連続区間特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (acoustic continuous section feature extraction module) 特徴抽出モジュール120-nの実施例の処理概要図(色構図特徴抽出モジュール)Processing outline diagram of the embodiment of the feature extraction module 120-n (color composition feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(色構図特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (color composition feature extraction module) 特徴抽出モジュール120-nの実施例の処理概要図(音響盛上り特徴抽出モジュール)Processing outline diagram of the embodiment of the feature extraction module 120-n (sound swell feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(音響盛上り特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (acoustic swell feature extraction module) 重要度算出式情報141の構成例を示す図(競馬)The figure which shows the structural example of the importance calculation formula information 141 (horse racing) 演算制御部130による計算結果画面700の実施例を示す図(競馬)The figure which shows the Example of the calculation result screen 700 by the arithmetic control part 130 (horse racing) 特徴抽出モジュール120-nの実施例の処理概要図(静止画区間特徴抽出モジュール)Processing outline diagram of embodiment of feature extraction module 120-n (still image section feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(静止画区間特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (still image section feature extraction module) 特徴抽出モジュール120-nの実施例の処理概要図(最頻画像特徴抽出モジュール)Processing outline diagram of embodiment of feature extraction module 120-n (mode image feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(最頻画像特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (mode image feature extraction module) 特徴抽出モジュール120-nの実施例の処理概要図(出現間隔特徴抽出モジュール)Process outline diagram of embodiment of feature extraction module 120-n (appearance interval feature extraction module) 特徴抽出モジュール120-nの実施例のフローチャート(出現間隔特徴抽出モジュール)Flow chart of embodiment of feature extraction module 120-n (appearance interval feature extraction module) 重要度算出式情報141の構成例を示す図(囲碁・将棋)The figure which shows the structural example of the importance calculation formula information 141 (Go and Shogi) 演算制御部130による計算結果画面700の実施例を示す図(囲碁・将棋)The figure which shows the Example of the calculation result screen 700 by the arithmetic control part 130 (Go and Shogi)

符号の説明Explanation of symbols

121-1〜121-n 応用特徴量、 400 演算制御画面、 401-1〜401-n モジュール表示部、700 計算結果画面、800 変更シーン確認画面、900 再生点リスト、 1000 重要度算出式情報読込画面、
1101 録画再生操作画面
121-1 to 121-n Applied features, 400 Computation control screen, 401-1 to 401-n Module display, 700 Calculation result screen, 800 Change scene confirmation screen, 900 Playback point list, 1000 Importance information of importance calculation formula screen,
1101 Recording / playback operation screen

Claims (9)

映像データおよび同データから抽出した特徴量を用いて当該映像データに対するダイジェストを作成装置であって、
当該映像データを記憶する映像記憶手段と、
当該映像データから物理学的原理または記号処理原理を用いて算出する特徴量を記憶する基本特徴記憶手段とを有し、
前記映像記憶手段と前記基本特徴記憶手段の内容を入力として、
映像視聴者の認知感覚に対応する応用特徴量を算出する複数の特徴抽出モジュールと、
前記複数の特徴抽出モジュールから算出される応用特徴量の間で演算を行い、
当該映像データに関する重要度を算出する演算制御部を備え、
前記重要度に基づいてダイジェスト映像の内容を決定する事を特徴とするダイジェスト作成装置。
An apparatus for creating a digest for the video data using the video data and the feature amount extracted from the data,
Video storage means for storing the video data;
Basic feature storage means for storing feature amounts calculated from the video data using a physical principle or a symbol processing principle;
Using the contents of the video storage means and the basic feature storage means as inputs,
A plurality of feature extraction modules for calculating applied features corresponding to the cognitive sensation of the video viewer;
Performing an operation between applied feature amounts calculated from the plurality of feature extraction modules;
Computation control unit that calculates the importance of the video data,
A digest creation device that determines the content of a digest video based on the importance.
請求項1記載のダイジェスト作成装置において、
前記特徴抽出モジュールは操作者の指示により外部から追加可能である事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 1,
The digest extraction apparatus characterized in that the feature extraction module can be added from the outside in accordance with an operator's instruction.
請求項1記載のダイジェスト作成装置において、
前記特徴抽出モジュールは、視聴者の趣向の程度に応じて前記応用特徴量の算出に用いる特徴算出パラメタ変化させる手段を有する事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 1,
The feature extraction module has a means for changing a feature calculation parameter used for calculating the applied feature amount according to a degree of preference of a viewer.
請求項1記載のダイジェスト作成装置において、
前記演算制御部は、前記複数の特徴抽出モジュールから得られる複数の応用特徴量の間に、外部から入力された所定の形式の重要度算出式を適用する事により前記重要度を算出する事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 1,
The calculation control unit calculates the importance by applying an importance calculation formula of a predetermined format input from the outside between a plurality of applied feature amounts obtained from the plurality of feature extraction modules. A digest creation device.
請求項4記載のダイジェスト作成装置において、
前記重要度算出式は、当該重要度算出式が重要度の算出のために必要とする前記複数の特徴抽出モジュールを指定する記述と前記複数の特徴抽出モジュールで用いる特徴算出パラメタを指定する記述と複数の特徴抽出モジュールから得られる応用特徴量とを用いて前記重要度を算出する計算式の記述を含むことを特徴とするダイジェスト作成装置。
The digest creation device according to claim 4,
The importance calculation formula includes a description that specifies the plurality of feature extraction modules that the importance calculation formula requires for calculating the importance, and a description that specifies feature calculation parameters used in the plurality of feature extraction modules. A digest creation device including a description of a calculation formula for calculating the importance using applied feature amounts obtained from a plurality of feature extraction modules.
請求項5記載のダイジェスト作成装置において、
前記重要度算出式は、操作者が対話的に入力する事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 5,
The digest creation apparatus, wherein the importance calculation formula is interactively input by an operator.
請求項5記載のダイジェスト作成装置において、
前記重要度算出式は、通信手段を通じて外部から入力される事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 5,
The digest creation apparatus is characterized in that the importance calculation formula is input from the outside through communication means.
請求項4に記載のダイジェスト作成装置において、
前記複数の特徴抽出モジュールおよび前記重要度算出式を、相互を関連付けて表示するユーザインタフェースを有する事を特徴とするダイジェスト作成装置。
In the digest preparation apparatus of Claim 4,
A digest creation apparatus comprising a user interface for displaying the plurality of feature extraction modules and the importance calculation formula in association with each other.
請求項8記載のダイジェスト作成装置において、
ユーザが前記特徴抽出モジュールを変更した場合、またはユーザが前記特徴抽出モジュールに与える特徴算出パラメタの値を変更した場合に、変更前後で作成されるダイジェスト映像の差異を表示するユーザインタフェースを有する事を特徴とするダイジェスト作成装置。
The digest creation device according to claim 8,
When the user changes the feature extraction module, or when the user changes the value of the feature calculation parameter given to the feature extraction module, it has a user interface that displays a difference between digest videos created before and after the change. A digest creation device.
JP2006000029A 2006-01-04 2006-01-04 Digest making system Pending JP2007184674A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006000029A JP2007184674A (en) 2006-01-04 2006-01-04 Digest making system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006000029A JP2007184674A (en) 2006-01-04 2006-01-04 Digest making system

Publications (1)

Publication Number Publication Date
JP2007184674A true JP2007184674A (en) 2007-07-19

Family

ID=38340397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006000029A Pending JP2007184674A (en) 2006-01-04 2006-01-04 Digest making system

Country Status (1)

Country Link
JP (1) JP2007184674A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226251A (en) * 2009-03-19 2010-10-07 Canon Inc Video data display apparatus and method thereof
JP2011095425A (en) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd Climax detector and program
US9189545B2 (en) 2010-09-27 2015-11-17 Kabushiki Kaisha Toshiba Content summarizing apparatus and content summarizing displaying apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226251A (en) * 2009-03-19 2010-10-07 Canon Inc Video data display apparatus and method thereof
US8792778B2 (en) 2009-03-19 2014-07-29 Canon Kabushiki Kaisha Video data display apparatus and method thereof
JP2011095425A (en) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd Climax detector and program
US9189545B2 (en) 2010-09-27 2015-11-17 Kabushiki Kaisha Toshiba Content summarizing apparatus and content summarizing displaying apparatus

Similar Documents

Publication Publication Date Title
JP5010292B2 (en) Video attribute information output device, video summarization device, program, and video attribute information output method
US8121462B2 (en) Video edition device and method
JP5322550B2 (en) Program recommendation device
US6964021B2 (en) Method and apparatus for skimming video data
CN102265609A (en) Program data processing device, method, and program
EP1067800A1 (en) Signal processing method and video/voice processing device
JP3615195B2 (en) Content recording / playback apparatus and content editing method
JP4692775B2 (en) Video content playback support method, video content playback support system, and information distribution program
JP2009171622A (en) Method of describing hint information
JP2009100314A (en) Electronic device, content categorizing method, and program therefor
JPWO2007029489A1 (en) Content replay device, content playback device, content replay method, content playback method, program, and recording medium
JP4925938B2 (en) Digest video information creation method, digest video information creation program, and video apparatus
JP2009118168A (en) Program recording/reproducing apparatus and program recording/reproducing method
JP3923932B2 (en) Video summarization apparatus, video summarization method and program
JP4732418B2 (en) Metadata processing method
JP2006139408A (en) Apparatus and method of generating feature vector, device and method of retrieving and program
JP3592210B2 (en) Recording device and recording method
JP2007184674A (en) Digest making system
JP2000023062A (en) Digest production system
KR20080080198A (en) Image reproduction system, image reproduction method, and image reproduction program
WO2014002728A1 (en) Recording device, television receiver, and recording method
JP2002300518A (en) Method and device for generating digest program and storage medium
JP2005167456A (en) Method and device for extracting interesting features of av content
JP2008099012A (en) Content reproduction system and content storage system
Cremer et al. Machine-assisted editing of user-generated content