JP2009004994A - Digest picture information creating method, digest picture information creating program, and picture apparatus - Google Patents

Digest picture information creating method, digest picture information creating program, and picture apparatus Download PDF

Info

Publication number
JP2009004994A
JP2009004994A JP2007162741A JP2007162741A JP2009004994A JP 2009004994 A JP2009004994 A JP 2009004994A JP 2007162741 A JP2007162741 A JP 2007162741A JP 2007162741 A JP2007162741 A JP 2007162741A JP 2009004994 A JP2009004994 A JP 2009004994A
Authority
JP
Japan
Prior art keywords
information
video
digest
scene
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007162741A
Other languages
Japanese (ja)
Other versions
JP4925938B2 (en
Inventor
Nobuhiro Sekimoto
信博 関本
Yoshitaka Hiramatsu
義崇 平松
Masayuki Chikamatsu
昌幸 親松
Minako Toba
美奈子 鳥羽
Kazue Hiroi
和重 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007162741A priority Critical patent/JP4925938B2/en
Publication of JP2009004994A publication Critical patent/JP2009004994A/en
Application granted granted Critical
Publication of JP4925938B2 publication Critical patent/JP4925938B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically generate digest information of the digest picture suited to users by interpreting taste of users without input of suggesting method and parameters. <P>SOLUTION: Characteristic information is extracted from picture data in accordance with level of the acoustic surround and keywords. Manipulation information of users is recorded and manipulation importance is obtained for the time of the relevant picture by evaluating the scoring points. A scene importance information is generated for the scene to regenerate the digest picture that is determined with parameters for designating the regeneration time of the digest from the picture. Next, correlation between the manipulation importance information and scene importance information is evaluated to determine combination of parameters for increasing a degree of correlation. The optimum scene importance information is generated by generating the scene importance information and tentative update of parameters. Finally, digest regenerating position information is generated in accordance with the scene importance information generated and the regeneration time of digest. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ダイジェスト映像情報作成方法、ダイジェスト映像情報作成プログラム、映像装置に係り、テレビ放映映像等の与えられた映像データからその要約となるダイジェスト映像を表示するためのダイジェスト映像情報を作成するに際して、ユーザが複雑な操作をしなくても、ユーザの視聴嗜好に合うダイジェストのためのダイジェスト映像情報を作成することができるダイジェスト映像情報作成方法、ダイジェスト映像情報作成プログラム、および、映像装置に関する。   The present invention relates to a digest video information creation method, a digest video information creation program, and a video apparatus. When creating digest video information for displaying a digest video as a summary from given video data such as a televised video. The present invention relates to a digest video information creation method, a digest video information creation program, and a video apparatus that can create digest video information for a digest that matches a user's viewing preference without complicated operations by the user.

近年、映像情報機器の性能の向上により、多数の放送チャンネルの映像を長時間記録する事が可能となってきた。また、衛星放送などの普及により放送チャンネルが増加し、視聴者に提供される映像の数は従来の倍以上に増えつつある。この結果、視聴者は多数の映像の中から自らの嗜好にあった映像を効率よく選び出す必要が生じている。   In recent years, it has become possible to record videos of a large number of broadcast channels for a long time by improving the performance of video information equipment. In addition, the spread of satellite broadcasting and the like has increased the number of broadcast channels, and the number of videos provided to viewers is increasing more than doubled. As a result, there is a need for viewers to efficiently select a video that suits their preference from among a large number of videos.

この解決策として、ダイジェスト映像作成機能を受像機あるいは録画装置に設ける事が提案されている。例えば、特許文献1では、映像の音量およびテロップ表示から、当該映像の重要部分を抽出してダイジェスト映像を作成する方法が開示されている。   As a solution to this, it has been proposed to provide a digest video creation function in a receiver or a recording device. For example, Patent Document 1 discloses a method of creating a digest video by extracting an important part of the video from the video volume and telop display.

また、特許文献2では、ユーザの嗜好によって作成するルール情報に基づいて、数値化し、その数値評価によりダイジェスト映像を作成する方法が開示されている。   Further, Patent Document 2 discloses a method of digitizing based on rule information created according to user's preference and creating a digest video based on the numerical evaluation.

さらに、作成されるダイジェスト映像に対して、ユーザ毎に嗜好が異なることは明らかであり、ユーザそれぞれに異なる部分がダイジェスト映像を構成する映像部分の組み合わせになるよう作成する必要がある。この方法としては従来、ユーザにより明示される記号系列(文字列や音声特徴時系列、映像特徴時系列などやそれらを符号化した記号列)から映像内の映像や音声、および、属性データ内に存在する記号列を検索したり、前述のイベント情報を検索したりすることで、検索結果の周辺をそのユーザが所望するダイジェストとして再生することがおこなわれてきた。   Further, it is clear that the preference for the digest video to be created is different for each user, and it is necessary to create so that a different part for each user is a combination of video parts constituting the digest video. Conventionally, this method is based on a symbol sequence (character string, audio feature time series, video feature time series, etc. or a symbol sequence obtained by encoding them) specified by the user in the video and audio in the video and the attribute data. The search result has been reproduced as a digest desired by the user by searching for an existing symbol string or searching for the event information described above.

特開2000−23062号公報JP 2000-23062 A 特開2000−261754号公報JP 2000-261754 A

しかしながらこれらの従来技術では、ユーザそれぞれの嗜好を自動的に解釈し、ダイジェスト作成を行うことが困難である。すなわち、特許文献1では、単にダイジェストの対象をテロップや音響情報によりダイジェストを作成するものであるから、スポーツの実況中継などの分野にはある程度いいが、その他の分野については、必ずしもユーザの嗜好適した適切なダイジェストを作成することができるとは限らない。また、特許文献2では、野球のゲームでの状況の重要度を評価するためにルールとパラメタを導入して、数値映像情報を作成して最終的にダイジェスト映像を作成している。しかしながら、このようなルールは、汎用性に欠けるため、その映像の種類ごとに用意せねばならず、必ずしも、それによってできたダイジェスト映像がユーザの嗜好にあっているという保証はない。また、検索によるダイジェスト生成ではユーザが明示的に嗜好を表現する記号列やパラメタを入力する必要がある。   However, with these conventional techniques, it is difficult to automatically interpret each user's preference and create a digest. That is, in Patent Document 1, since a digest is simply created by using telop or acoustic information as a digest target, it is good to some extent in fields such as live sports broadcasting, but in other fields, it is not necessarily suitable for the user. It is not always possible to create an appropriate digest. In Patent Document 2, rules and parameters are introduced to evaluate the importance of the situation in a baseball game, numerical video information is created, and a digest video is finally created. However, since such a rule lacks versatility, it must be prepared for each type of video, and there is no guarantee that the digest video created by the video will match the user's preference. In addition, digest generation by search requires the user to input a symbol string or parameter that expresses the preference explicitly.

本発明のダイジェスト映像情報作成方法においては、先ず、映像の映像データから特徴情報を抽出する。特徴情報は、映像データの音響盛上がりの大きさや映像のテロップなどに表示されるキーワードなどが考えられる。   In the digest video information creation method of the present invention, first, feature information is extracted from video data of a video. As the feature information, the size of the sound excitement of the video data, a keyword displayed in the video telop, and the like are considered.

一方、ユーザが映像に対して指示した再生、早送りなどの操作情報を記録して、そのような操作に対してされる得点付けの評価により、その映像の時刻に対して、操作重要度を求める。   On the other hand, by recording operation information such as playback and fast-forwarding that the user has instructed on the video, the importance of the operation is obtained with respect to the time of the video by scoring evaluation for such operation. .

また、演算内容情報として映像からダイジェストの再生時刻を指定するためのパラメタを導入する。これは、例えば、音響盛上がりの閾値、キーワードの評価個数、再生の開始時刻、終了時刻を調節する値である。これらは、ユーザ共通、ユーザ毎、ジャンル共通、ジャンル毎の区別を設けてもよい。   Also, a parameter for designating the digest playback time from the video is introduced as calculation content information. This is, for example, a value that adjusts the threshold of sound excitement, the number of keyword evaluations, the start time of playback, and the end time. These may be provided for each user, for each user, for each genre, and for each genre.

そして、ダイジェストとして再生される再生時刻のシーンに対して前記特徴情報によって評価される各再生時刻のシーンにおける重要度であるシーン重要度情報を生成する。   Then, scene importance level information that is the importance level of each scene at the playback time evaluated by the feature information is generated with respect to the scene at the playback time to be played back as a digest.

次に、操作重要度情報とシーン重要度情報との相関度を評価し、前記相関度を高めるパラメタの組み合わせを決定する。   Next, the degree of correlation between the operation importance level information and the scene importance level information is evaluated, and a combination of parameters for increasing the correlation level is determined.

そして、シーン重要度情報を生成とパラメタを暫時更新して、最適なシーン重要度情報を生成する。   Then, scene importance information is generated and parameters are updated for a while to generate optimum scene importance information.

最後に、生成されたシーン重要度情報と、ダイジェスト再生の時間とにより、ダイジェスト再生位置情報を生成する。   Finally, digest playback position information is generated based on the generated scene importance level information and digest playback time.

上記手段によれば、映像のダイジェスト作成する際に、明示的な方法やパラメタの入力なく、ユーザの嗜好を解釈し、ユーザの嗜好にあったダイジェストのためのダイジェスト映像情報を自動的に作成できるようなダイジェスト映像情報作成方法を提供することができる。   According to the above means, when creating a video digest, it is possible to automatically create digest video information for a digest suitable for the user's preference by interpreting the user's preference without inputting an explicit method or parameters. A digest video information creation method can be provided.

以下、各実施形態を、図1ないし図36を用いて説明する。   Hereinafter, each embodiment will be described with reference to FIGS. 1 to 36.

〔実施形態1〕
以下、第一の実施形態を、図1ないし図27を用いて説明する。
Embodiment 1
Hereinafter, a first embodiment will be described with reference to FIGS.

本実施形態では、ユーザの操作履歴を用い、ユーザ嗜好に即したダイジェストのダイジェスト映像情報を作成して、ダイジェストとして映像データを再生する手順までの方法を説明する。なお、本実施形態では、映像に含まれる音響データから音響的な盛上り度を基にダイジェスト映像情報を作成する場合において説明する。この音響的な盛上り度は、TVのスポーツ映像のように観客の歓声を音響データに含む映像に対するダイジェスト映像作成には効果的な方法である。例えばサッカーの試合で得点(ゴール)したシーン付近や、好プレーが起こった際に、観客の自然な反応として歓声を上げることに焦点を当てて起用することが多い。このような盛上り度の高い部分を選択して映像を切り取ることにより、ダイジェスト映像情報を作成する。また、ユーザは、同様の盛上がるシーン部分を特に視聴することと仮定する。この視聴の仕方は、一般的に録画後に視聴する場合に映像の全部を視聴するのではなく、重要ではない部分を早送りしたりスキップするなどして、重要な部分を視聴して時間を短縮して視聴する場合に自然な方法である。すなわち、このようにスポーツ映像のダイジェスト映像情報を作成するときには、音響盛上りを特に重視すること観点が有効であるが、本実施形態では、さらにそのユーザの特性、嗜好に適したダイジェスト映像を提供する。そのため本実施形態では、ユーザが視聴を繰り返したときに、その視聴行動を評価し、その視聴の癖を解析することにより嗜好パターンを考慮して、音響の盛り上がり度の閾値や再生区間のパラメタを微調整することにより、最適なダイジェストの再生区間を求めようとするものである。
(I)ダイジェスト映像を再生する映像装置の構成
先ず、図1および図2を用いて第一の実施形態に係るダイジェスト映像を再生する映像装置の構成について説明する。
In the present embodiment, a method is described up to the procedure of creating digest video information of a digest according to user preferences using a user's operation history and reproducing video data as a digest. In the present embodiment, a description will be given in the case where digest video information is created based on the acoustic climax from the audio data included in the video. This acoustic excitement is an effective method for creating a digest video for a video that includes the cheer of the audience in the audio data, such as a sports video on TV. For example, in the vicinity of a scene scored (goal) in a soccer game or when a good play occurs, it is often used with a focus on raising cheers as a natural reaction of the audience. Digest video information is created by selecting a portion with such a high degree of excitement and cutting the video. It is also assumed that the user specifically views a similar exciting scene part. This way of viewing is generally not to watch the whole video when watching after recording, but to shorten the time by watching the important part by fast-forwarding or skipping the unimportant part. This is a natural way to watch. In other words, when creating digest video information of sports video in this way, it is effective to place special emphasis on sound excitement. However, in this embodiment, a digest video suitable for the characteristics and preferences of the user is provided. To do. Therefore, in this embodiment, when the user repeats viewing, the viewing behavior is evaluated, and the viewing habits are analyzed, the preference pattern is taken into consideration by analyzing the viewing habits, and the parameters of the sound excitement level and the playback section are set. By fine-tuning, an optimum digest playback section is sought.
(I) Configuration of Video Device that Plays Digest Video First, the configuration of the video device that plays the digest video according to the first embodiment will be described with reference to FIGS. 1 and 2.

図1および図2は、第一の実施形態に係るダイジェスト映像を再生する映像装置の全体の構成を示すブロック図である。
図1に示されるダイジェスト映像を再生する映像装置は、録画再生部180とダイジェスト映像情報作成部100から構成される。
FIG. 1 and FIG. 2 are block diagrams showing the overall configuration of a video apparatus that reproduces a digest video according to the first embodiment.
The video device for reproducing the digest video shown in FIG. 1 includes a recording / playback unit 180 and a digest video information creation unit 100.

録画再生部180は、外部からの放送映像190やメディア映像191を入力部181により入力する。入力は、録画再生制御部183の制御により、映像情報記録部184に記録され、あるいは復号部185に送られる。また、映像情報記録部184に既に記録してある映像を復号部185に送ってもよい。これらの制御はユーザが操作部182を用いた操作に従って録画再生制御部183がおこなう。このユーザの操作は、後に説明する操作情報187として録画再生制御部から出力することができるものとする。この際、操作とほぼ同時に逐次的に出力しても、映像情報記録部184に記録された後、まとめて出力してもよい。復号部185の出力は、録画再生制御部183を経由して表示装置186に映像として表示され、ユーザの視聴に供せられる。なお、映像情報記録部184に記録する映像情報110中の映像データとは、付帯する動画像データ、音響データ、および、記号データを含むものである。また、映像情報には映像データのジャンルやタイトル等、映像データを説明するための属性情報を含んでいる。映像データは、入力部181から得られた符号化されたままのデータおよび復号部185で復号化されたデータのいずれでもよいものとし、以下の説明でも同様とする。さらに、ユーザを識別して表示したりや映像データの管理をおこなうために、認証部188を設けて管理してもよい。   The recording / playback unit 180 inputs an external broadcast video 190 and media video 191 via the input unit 181. The input is recorded in the video information recording unit 184 or sent to the decoding unit 185 under the control of the recording / playback control unit 183. Further, the video already recorded in the video information recording unit 184 may be sent to the decoding unit 185. These controls are performed by the recording / playback control unit 183 according to an operation performed by the user using the operation unit 182. This user operation can be output from the recording / playback control unit as operation information 187 described later. At this time, the signals may be sequentially output almost simultaneously with the operation or may be output collectively after being recorded in the video information recording unit 184. The output of the decoding unit 185 is displayed as a video on the display device 186 via the recording / playback control unit 183 and provided for viewing by the user. The video data in the video information 110 recorded in the video information recording unit 184 includes accompanying moving image data, audio data, and symbol data. The video information includes attribute information for explaining the video data such as the genre and title of the video data. The video data may be either the encoded data obtained from the input unit 181 or the data decoded by the decoding unit 185, and the same applies to the following description. Furthermore, an authentication unit 188 may be provided and managed in order to identify and display a user and manage video data.

さらに、交換部120を設けて、映像データや各部で管理される各種情報を、ネットワーク170や外部メディア160を経由して、外部と交換してもよい。以上の録画再生部180の動作は、VTR(Video Tape Recorder)やDVD(Digital Versatile Disc)レコーダ、HDD(Hard Disk Drive)レコーダ、およびPCなどを含む一般の映像録画機器と何ら異なるものではない。   Furthermore, an exchange unit 120 may be provided to exchange video data and various types of information managed by each unit with the outside via the network 170 or the external medium 160. The operation of the recording / playback unit 180 is not different from that of a general video recording device including a VTR (Video Tape Recorder), a DVD (Digital Versatile Disc) recorder, an HDD (Hard Disk Drive) recorder, and a PC.

ダイジェスト映像情報作成部100は、図1に示されるように、演算内容管理部101、操作情報解析部102、比較評価部103、特徴抽出部111、シーン重要度演算部114、再生位置情報作成部115、ダイジェスト作成制御部120の各部を有し、アクションスコアテーブル104、演算内容情報105、操作重要度情報106、特徴情報112、シーン重要度情報114、再生位置情報116のデータを取り扱う。   As shown in FIG. 1, the digest video information creation unit 100 includes a calculation content management unit 101, an operation information analysis unit 102, a comparative evaluation unit 103, a feature extraction unit 111, a scene importance calculation unit 114, and a reproduction position information generation unit. 115 and digest creation control unit 120, and handles data of action score table 104, calculation content information 105, operation importance level information 106, feature information 112, scene importance level information 114, and reproduction position information 116.

演算内容管理部101は、演算内容情報105を管理しており、演算内容情報105にアクセスして更新する部分である。   The calculation content management unit 101 manages the calculation content information 105 and is a part that accesses and updates the calculation content information 105.

操作情報解析部102は、録画再生部180から送られる操作情報187と、アクションスコアテーブル104を参照して、操作重要度106を設定・更新する部分である。   The operation information analysis unit 102 is a part for setting / updating the operation importance 106 with reference to the operation information 187 sent from the recording / playback unit 180 and the action score table 104.

比較評価部103は、操作重要度情報106とシーン重要度情報114を参照して、現在のパラメタの下における相関度を更新する部分である。   The comparative evaluation unit 103 is a part that refers to the operation importance level information 106 and the scene importance level information 114 and updates the correlation level under the current parameters.

特徴抽出部111は、録画再生部180から送られる映像情報110の特徴を中質して特徴情報112として取り出す部分である。
シーン重要度演算部114は、各パラメタの条件下でシーン重要度情報114を演算する部分である。
The feature extraction unit 111 is a part that extracts the feature information 112 from the features of the video information 110 sent from the recording / playback unit 180.
The scene importance level calculation unit 114 is a part that calculates the scene importance level information 114 under the condition of each parameter.

再生位置情報作成部115は、シーン重要度情報114から再生位置情報116を生成する部分である。   The playback position information creation unit 115 is a part that generates playback position information 116 from the scene importance level information 114.

制御部120は、ダイジェスト映像情報作成部100の各部を制御し、指示を与える部分である。   The control unit 120 is a part that controls each unit of the digest video information creation unit 100 and gives an instruction.

ダイジェスト映像情報作成部100で扱うデータ構造、各部の処理の詳細については、後に詳説する。   The data structure handled by the digest video information creation unit 100 and the details of the processing of each unit will be described in detail later.

また、図2に示されるダイジェスト映像を再生する映像装置は、ダイジェスト映像情報の作成をソフトウェアにより作成していることを意図している。ここでの映像装置3801は、例えば、TV機能付きのPCである。また、図1のダイジェスト映像情報作成部100は、DVD/HDDレコーダ、テレビ等の一般的装置により実現してもよい。   In addition, the video device that reproduces the digest video shown in FIG. 2 is intended to create digest video information by software. The video device 3801 here is, for example, a PC with a TV function. 1 may be realized by a general device such as a DVD / HDD recorder or a television.

図2に示されるように、この例でのダイジェスト映像を再生する映像装置は、CPU3812、メモリ3810、記憶部3824から構成されている。そして、図1のダイジェスト映像情報作成部100と同様の機能をCPU3812のプログラムを実行させることにより実行させてもよい。   As shown in FIG. 2, the video apparatus that reproduces the digest video in this example includes a CPU 3812, a memory 3810, and a storage unit 3824. Then, the same function as the digest video information creation unit 100 of FIG. 1 may be executed by causing the CPU 3812 to execute a program.

この際、ダイジェスト映像情報作成する際の各種の情報、すなわち、アクションスコアテーブル104、操作重要度情報106、演算内容情報105、特徴量情報112、シーン重要度情報114、および、再生位置情報116を記憶部3824に蓄積してもよい。   At this time, various kinds of information for creating the digest video information, that is, the action score table 104, the operation importance level information 106, the calculation content information 105, the feature amount information 112, the scene importance level information 114, and the reproduction position information 116 are stored. The data may be stored in the storage unit 3824.

なお、さらに録画再生部180も装置内に構成し、すなわち、表示部3813、入力部3820、認証部3822、操作部3823、操作入力部3830、操作パネル330、および、交換部3825の各部で実行される映像の録画再生や表示、ユーザ操作情報を作成する各処理プログラムをCPU上で動作させてもよい。この際、記憶部3824には、映像情報110および操作情報187を蓄積させてもよい。また、操作入力部から、リモコン341やキーボード342、マウス343等のデバイスからの入力を行ったり、交換部から記憶手段に蓄積した各種情報を外部と交換してもよい。
(II)ダイジェスト映像に関する情報とデータ構造
次に、図3ないし図10を用いて第一の実施形態に係るダイジェスト映像に関する情報とデータ構造を説明する。
図3は、映像情報記録部184に格納されるデータの一例を示す図である。
Further, the recording / playback unit 180 is also configured in the apparatus, that is, executed by the display unit 3813, the input unit 3820, the authentication unit 3822, the operation unit 3823, the operation input unit 3830, the operation panel 330, and the exchange unit 3825. Each processing program for recording and reproducing and displaying the video to be generated and creating user operation information may be operated on the CPU. At this time, the video information 110 and the operation information 187 may be stored in the storage unit 3824. In addition, input from devices such as the remote controller 341, the keyboard 342, and the mouse 343 may be performed from the operation input unit, or various types of information stored in the storage unit from the exchange unit may be exchanged with the outside.
(II) Information and Data Structure Related to Digest Video Next, information and data structure related to the digest video according to the first embodiment will be described with reference to FIGS.
FIG. 3 is a diagram illustrating an example of data stored in the video information recording unit 184.

図3に示される例では、映像管理表201と個々の映像i情報210…が格納されている。これらは、図1では、映像情報110として示されているものである。映像管理表201は、管理する映像の識別子であるID、録画日時、録画の開始時刻と終了時刻、映像の取得先からなるとする。ここで映像の取得先は、放送の場合には、TVのチャンネルや事業者、外部メディアであればその旨を記述する。また、ID毎に録画映像を管理し、映像データおよび映像属性を映像i情報210,220,…として記録する。映像データ211は、例えば、TVのデジタル放送であればMPEG−2 TS(Transport Stream)形式の、動画像や音響や文字情報等を含むデジタルデータである。映像属性212は、対応する映像を説明する情報で、例えば、TV放送向けに一般的に流通しているEPG(Electric Program Guide:電子映像表)や、映像データに含まれる当該映像を説明する情報等である。このコンテンツ属性には、例えば、映像が属するジャンル、映像のタイトル、映像に含まれる音声モード、字幕のあるなし、映像内容の説明等が含まれる。これら映像情報は映像毎にIDを参照して取得可能とする。   In the example shown in FIG. 3, a video management table 201 and individual video i information 210... Are stored. These are shown as video information 110 in FIG. The video management table 201 includes an ID that is an identifier of a video to be managed, a recording date and time, a recording start time and an end time, and a video acquisition destination. Here, in the case of broadcasting, the acquisition destination of the video is described as such if it is a TV channel, a provider, or an external medium. Also, the recorded video is managed for each ID, and video data and video attributes are recorded as video i information 210, 220,. The video data 211 is digital data including moving images, sound, character information, and the like in the MPEG-2 TS (Transport Stream) format, for example, for TV digital broadcasting. The video attribute 212 is information that describes the corresponding video, for example, EPG (Electric Program Guide: electronic video table) that is generally distributed for TV broadcasting, and information that describes the video included in the video data. Etc. This content attribute includes, for example, the genre to which the video belongs, the title of the video, the audio mode included in the video, the presence or absence of subtitles, the description of the video content, and the like. These pieces of video information can be acquired with reference to the ID for each video.

次に、図4を用いて操作情報187について説明する。
図4は、操作情報187の一例を示す図である。
Next, the operation information 187 will be described with reference to FIG.
FIG. 4 is a diagram illustrating an example of the operation information 187.

操作情報187は、ユーザが映像装置に対してコンテンツの操作をした履歴情報である。ここではユーザ毎に管理可能であるとし、それぞれの操作が履歴として蓄積できるものとする。それぞれの操作情報は、例えば、当該操作をおこなった日にちや時刻、操作の種類を示すアクション、コンテンツID、それらのアクションのパラメタや、その操作をおこなった際に表示していた映像の時間的位置(例えば、映像の開始を0とした相対時間を示す)が含まれる。   The operation information 187 is history information that the user has operated the content on the video apparatus. Here, it is assumed that each user can manage and each operation can be accumulated as a history. Each operation information includes, for example, the date and time when the operation was performed, the action indicating the type of operation, the content ID, the parameters of those actions, and the temporal position of the video displayed when the operation was performed. (For example, the relative time when the start of the video is 0) is included.

次に、図5を用いて特徴情報112について説明する。
図5は、第一の実施形態に係る特徴情報112の一例を示す図である。
Next, the feature information 112 will be described with reference to FIG.
FIG. 5 is a diagram illustrating an example of the feature information 112 according to the first embodiment.

特徴情報112は、ダイジェスト映像情報を作成するために、映像情報111から抽出される情報であり、本実施形態では、音響データよりそのパワーを基に盛上りデータを抽出する。   The feature information 112 is information extracted from the video information 111 in order to create digest video information. In this embodiment, the climax data is extracted from the acoustic data based on its power.

この例では、映像1特徴情報601の番組特徴管理表610の中に、番組IDが1の番組に対して音響盛上り情報611が記録されていることが示されている。音響盛上り情報611は、管理表には開始時刻および終了時刻と盛上り度を組として、映像全体をカバーするように登録するようにしてもよいし、特に、盛上がり度が大きい所のみを抜き出して、エントリしてもよい。   In this example, the program feature management table 610 of the video 1 feature information 601 indicates that the sound excitement information 611 is recorded for the program whose program ID is 1. The sound climax information 611 may be registered in the management table as a set of the start time and end time and the climax degree so as to cover the entire video, and in particular, only the place where the climax degree is large is extracted. You may enter.

次に、図6を用いて操作重要度情報106について説明する。
図6は、操作重要度情報106の一例を示す図である。
Next, the operation importance level information 106 will be described with reference to FIG.
FIG. 6 is a diagram illustrating an example of the operation importance information 106.

操作重要度とは、各ユーザの映像の区間ごとにおこなった操作に基づいてその重要度を評価したものである。操作重要度情報106は、映像の各ユーザ毎に、ユーザi操作重要度910,920,…として管理され、また、各ユーザでは映像データ単位で、映像i重要度911…として管理される。図中のユーザ1、映像1の操作重要度情報911で説明すると、まず全体に映像1のジャンル(この図では「スポーツ(サッカー)」)情報が記録される。また、項番と、開始時刻、終了時刻、そして重要度を組として、映像の時間全体をカバーするようにしてもよいし、特に、重要度が大きい所のみを抜き出して、エントリしてもよい。   The operation importance level is an evaluation of the importance level based on an operation performed for each video segment of each user. The operation importance information 106 is managed as user i operation importance 910, 920,... For each user of the video, and is managed as video i importance 911. If the operation importance level information 911 of the user 1 and the video 1 in the figure is described, first, the genre of the video 1 (in this figure, “sport (soccer)”) information is recorded. Further, the entire time of the video may be covered by combining the item number, the start time, the end time, and the importance, and in particular, only the place with the higher importance may be extracted and entered. .

次に、図7を用いてアクションスコアテーブル104について説明する。
図7は、第一の実施形態に係るアクションスコアテーブル104の一例を示す図である。
Next, the action score table 104 will be described with reference to FIG.
FIG. 7 is a diagram illustrating an example of the action score table 104 according to the first embodiment.

アクションスコアテーブル104は、操作重要度を計算するために、各操作に対して得点付けを定めたものである。ここでは、ユーザが操作する内容として、「ロード」、「再生」、「ジャンプ」、「早送り」、「早戻し」等があり、それそれに対しての得点がマップとして登録してある。図7に示される例では、「再生」をおこなった場合に1点、その他は0点としている。   The action score table 104 defines scoring for each operation in order to calculate the operation importance. Here, the contents operated by the user include “load”, “play”, “jump”, “fast forward”, “fast reverse”, etc., and the score for each is registered as a map. In the example shown in FIG. 7, 1 point is given when “reproduction” is performed, and 0 points are given otherwise.

また、他の例としては、例えば、「再生」をおこなった場合に1点、「早送り」が−0.3点、「早戻し」が0.3点、その他は0点としてもよい。このスコアは、映像の再生をおこなった場合は、ユーザは、特にその再生部分に興味があるものとし、映像の早送りをおこなったときには、その再生部分には興味がなく、早送りの操作をしたものと仮定したものである。   As another example, for example, 1 point may be set for “playback”, −0.3 point for “fast forward”, 0.3 point for “fast reverse”, and 0 point for others. This score is based on the assumption that the user is particularly interested in the playback part when the video is played back, and is not interested in the playback part when the video is fast-forwarded and the fast-forward operation is performed. It is assumed.

次に、図8A、図8Bを用いて演算内容情報105について説明する。
図8Aは、演算内容情報105のパラメタ情報1501を示す図である。
図8Bは、第一の実施形態に係る演算内容情報105の各パラメタ値の一例を示す図である。
Next, the calculation content information 105 will be described with reference to FIGS. 8A and 8B.
FIG. 8A is a diagram showing parameter information 1501 of the calculation content information 105.
FIG. 8B is a diagram illustrating an example of each parameter value of the calculation content information 105 according to the first embodiment.

演算内容情報105は、ダイジェスト映像情報を作成するための演算に関する情報であり、例えば、本実施形態では、シーン重要度を計算するためのパラメタ情報がある。図8Aに示されるパラメタ情報1501中には、演算方法に関する分類として、本実施形態の「音響盛上り」と、他に「キーワード」によるパラメタが示されている。   The calculation content information 105 is information related to calculation for creating digest video information. For example, in the present embodiment, there is parameter information for calculating scene importance. In the parameter information 1501 shown in FIG. 8A, “acoustic excitement” of the present embodiment and other parameters based on “keyword” are shown as classifications related to the calculation method.

「音響盛上り」によるパラメタとしては、変数として、音響盛上がりの閾値thと閾値を超える区間を広げるように再生区間を規定するオフセット時刻であるtsおよびteがある。それぞれには、最小値および最大値そして変化させて最適値を探るためのステップが存在しているとする。それらについては、後に詳述する。   As parameters by “sound climax”, there are a threshold value th of sound swell and ts and te which are offset times that define a playback section so as to widen a section exceeding the threshold. It is assumed that there are steps for searching for the optimum value by changing the minimum value and the maximum value respectively. These will be described in detail later.

また、「キーワード」によるパラメタは、次の第二の実施形態の中で説明する。   The parameter by “keyword” will be described in the following second embodiment.

さらに、演算内容情報105は、図8Bに示されるように、個々のパラメタの値も設定される。パラメタの値は、パラメタ全体の共通基本演算内容2601、ジャンル別の情報である共通ジャンル別演算内容と、個々のユーザの持つ演算内容情報がある。個々のユーザの持つ演算内容情報も、基本部分の情報とジャンル別部分の情報に分けられている。   Furthermore, as shown in FIG. 8B, the calculation content information 105 is also set with values of individual parameters. The parameter values include common basic calculation contents 2601 for the entire parameters, calculation contents for each common genre, which is information for each genre, and calculation contents information for each user. The calculation content information of each user is also divided into basic part information and genre-specific information.

個々のユーザの持つ演算内容情報は、ユーザ依存の部分であり、すなわちユーザ1(2010)、ユーザ2(2020)、ユーザ3(2030)…などそれぞれに向けたユーザi演算内容情報が存在する。   The calculation content information held by each user is a user-dependent part, that is, there is user i calculation content information for each of the user 1 (2010), the user 2 (2020), the user 3 (2030), etc.

それぞれがジャンル別の演算内容と、ジャンルに依存しない基本演算内容に分けられて記録されているのは、これらは既に録画された映像あるいはこれから新規に入力されるであろう映像のダイジェスト映像情報作成に用いられものであり、ジャンルとして属性が得られた場合は、ジャンル別の演算内容を用い、それ以外の場合には基本演算内容を用いてダイジェスト映像情報を作成するという趣旨である。   Each of them is divided into genre-based calculation contents and genre-independent basic calculation contents, and these are recorded video images that have already been recorded or newly input video information. If the attribute is obtained as a genre, the content of calculation for each genre is used, and in other cases, the digest video information is created using the content of basic calculation.

これらのパラメタの値から、シーン重要度情報114を生成する処理については、後に、説明する。   Processing for generating the scene importance level information 114 from the values of these parameters will be described later.

パラメタは、ある映像により作成しておき、後に、別の映像についてダイジェスト映像情報の作成に用いることもできる。このとき、新たな映像を用いてユーザ操作をして、映像を再生する場合には、これらのパラメタを再度解析するなどして、できるだけ多くの映像に適したユーザの嗜好をパラメタとして抽出しておくことが望ましい。   The parameter can be created from a certain video and used later to create digest video information for another video. At this time, when the user operates using a new video and plays the video, the user's preference suitable for as many videos as possible is extracted as a parameter by analyzing these parameters again. It is desirable to keep it.

次に、図9を用いてシーン重要度情報114について説明する。
図9は、シーン重要度情報114の一例を示す図である。
Next, the scene importance level information 114 will be described with reference to FIG.
FIG. 9 is a diagram illustrating an example of the scene importance level information 114.

シーン重要度は、最終的なダイジェストを再生する位置を評価するための指標であり、映像の再生単位(開始時刻、終了時刻)(シーン)ごとに、シーン重要度が定義されている。   The scene importance level is an index for evaluating the position where the final digest is played back. The scene importance level is defined for each video playback unit (start time, end time) (scene).

次に、図10を用いて再生位置情報116について説明する。
図10は、再生位置情報116の一例を示す図である。
Next, the reproduction position information 116 will be described with reference to FIG.
FIG. 10 is a diagram illustrating an example of the reproduction position information 116.

再生位置情報116は、シーン重要度情報114に基づいて最終的にダイジェストで映像の再生する場合の映像の再生位置を示したものであり、録画再生部180に渡されて映像の再生がおこなわれるデータである。
(III)ユーザの映像視聴イメージと操作情報187
次に、図11を用いてユーザの映像視聴イメージについて説明する。
図11は、ユーザの映像視聴をしているときのイメージを示した図である。
The playback position information 116 indicates the playback position of the video when the video is finally played back by digest based on the scene importance information 114, and is passed to the recording / playback unit 180 to play back the video. It is data.
(III) User's video viewing image and operation information 187
Next, a user's video viewing image will be described with reference to FIG.
FIG. 11 is a diagram illustrating an image when the user is viewing a video.

ユーザが映像を視聴するときには、映像装置301は、図1に示されるように、表示部186上によりユーザに提示する画像を生成して、表示装置190に表示する。この表示装置上190には、動画像の映像表示領域302、映像の選択を可能とする映像選択領域320、再生中の映像時刻を把握するためのロケーター領域303、および、ユーザが再生操作入力をおこなうための操作ボタン領域310、ダイジェスト再生に関する指示をおこなうためのダイジェスト機能指示領域350等が表示されているとする。   When the user views the video, the video device 301 generates an image to be presented to the user on the display unit 186 and displays it on the display device 190 as shown in FIG. On the display device 190, a video display area 302 for moving images, a video selection area 320 that enables video selection, a locator area 303 for grasping the video time being played back, and a user inputs a playback operation. It is assumed that an operation button area 310 for performing an operation, a digest function instruction area 350 for performing an instruction regarding digest reproduction, and the like are displayed.

また、図11に示される映像装置301は、図1に示された録画再生部180およびダイジェスト映像情報作成部100を有しており、装置パネル330には、操作スイッチがある。この映像装置301は、リモートコントローラ(以下、「リモコン」と略す)341や、キーボード342、マウス343が接続可能であり、これらは、図1の操作部182に該当するものであり、ユーザの操作情報を入力可能であるとする。   Further, the video device 301 shown in FIG. 11 has the recording / playback unit 180 and the digest video information creation unit 100 shown in FIG. 1, and the device panel 330 has an operation switch. The video apparatus 301 can be connected to a remote controller (hereinafter abbreviated as “remote controller”) 341, a keyboard 342, and a mouse 343, which correspond to the operation unit 182 in FIG. It is assumed that information can be input.

ダイジェスト機能指示領域350には、通常再生からダイジェスト再生に変更するための再生方法変更ボタン350、映像をダイジェスト作成する場合のジャンルを変えるジャンル変更入力ボタン351、ダイジェストを作成する方法を変更する方法変更入力ボタン352、あるいは、ダイジェスト映像の概算時間を変更するダイジェスト時間入力ボタン353の各部品が表示されている。また、これら各部品をリモコン341上に配置してもよい。図11では、リモコン341上に、再生方法変更ボタン345が配されている。   In the digest function instruction area 350, a playback method change button 350 for changing from normal playback to digest playback, a genre change input button 351 for changing a genre when creating a video digest, and a method change for changing the method of creating a digest. Each component of the input button 352 or the digest time input button 353 for changing the approximate time of the digest video is displayed. Further, these components may be arranged on the remote controller 341. In FIG. 11, a playback method change button 345 is arranged on the remote controller 341.

ユーザが映像情報記録部184に既に録画してある映像データを視聴する場合には、まず所望するコンテンツを指定する。例えば、映像データの一部である静止画像あるいは動画像の縮小表示画像と映像管理表の一部、および、映像属性の一部を映像単位321,322,323、映像選択領域320に表示する。ユーザは、リモコン341や装置本体の操作パネル330上のスイッチ等の操作部182を用いて、この中から所望する映像をひとつ選択する。また、キーボード342やマウス343からも指示を入力することができ、これらを用いて表示装置中の画面中に表示するポインタ316を用いて所望する部分を選択し、決定してもよい。このように選択された映像は、動画像は映像表示領域302に表示され、図示しないが音響データはスピーカから提示されることでユーザ視聴が可能となる。映像は前述と同様な操作部182を用いて映像の視聴方法を操作する。例えば、図3の表示内の操作ボタン310を選択することにより、早戻し311、停止312、一時停止313、再生314、早送り315の操作をおこなうことにより、再生の状態を変化させることができる。なお、表示している再生中の全体位置を視覚化しユーザに提示するため、図に示されるように、ロケータ領域303に表示したロケータ304といわれる表示対象をシークバー305と呼ぶ部品の近くに表示しても良い。図11に示されるシークバー305の場合には、一番左が映像の開始時刻、一番右を映像の終了時刻に対応し、ロケータはこの間を移動することによって、ユーザが再生中の時刻を認識可能である。また、前述の操作部からのユーザ指示により、ロケータを手動で移動させることで、再生位置をジャンプさせることが可能であるとする。さらに、映像の総録画時間と現在の再生中の時刻を表示し(306)、指示部によりこの再生中の時刻を変更することで再生位置をジャンプ可能とさせてもよい。   When the user views video data that has already been recorded in the video information recording unit 184, first, the desired content is designated. For example, a reduced display image of a still image or moving image that is a part of video data, a part of a video management table, and a part of video attributes are displayed in the video units 321, 322, 323 and the video selection area 320. The user uses the operation unit 182 such as a switch on the remote control 341 or the operation panel 330 of the apparatus main body to select one desired video from the operation unit 182. In addition, an instruction can be input from the keyboard 342 or the mouse 343, and a desired portion may be selected and determined using the pointer 316 displayed on the screen in the display device. As for the video selected in this manner, a moving image is displayed in the video display area 302, and although not shown, audio data is presented from a speaker, so that the user can view the video. The video is operated by using the same operation unit 182 as described above. For example, by selecting the operation button 310 in the display of FIG. 3, fast playback 311, stop 312, pause 313, playback 314, and fast forward 315 can be performed to change the playback state. In addition, in order to visualize and present to the user the entire position during playback, the display object called the locator 304 displayed in the locator area 303 is displayed near a part called a seek bar 305 as shown in the figure. May be. In the case of the seek bar 305 shown in FIG. 11, the leftmost corresponds to the start time of the video and the rightmost corresponds to the end time of the video, and the locator moves between them to recognize the time when the user is playing back. Is possible. In addition, it is assumed that the playback position can be jumped by manually moving the locator according to the user instruction from the operation unit. Further, the total video recording time and the current playback time may be displayed (306), and the playback position may be jumped by changing the playback time using the instruction unit.

これらのユーザの操作は、前述の通り操作部182から録画再生制御部180に入力され表示状態を変更するが、この内容は、図4に示した操作情報187としてダイジェスト映像情報作成部100に出力される。なお、この出力は、ユーザ操作の際に逐次出力しても、記録し後に、まとめて出力してもよい。   As described above, these user operations are input from the operation unit 182 to the recording / playback control unit 180 and the display state is changed. This content is output to the digest video information creation unit 100 as the operation information 187 shown in FIG. Is done. This output may be sequentially output at the time of user operation, or may be output collectively after recording.

以下、出力される操作情報の具体例について既に示した図4を用いて説明する。   Hereinafter, a specific example of the output operation information will be described with reference to FIG.

図4に示されるユーザ1操作履歴410によれば、ユーザ1は、[#1]2006年12月18日の22時01分頃、映像IDが1の映像を選択し(図11の映像単位321を選択した)映像をロード(映像情報記録部104より読出し、再生可能な状態にする)した。次に、[#2]22時01分頃、再生指示をおこない再生を開始した。この際、コンテンツ位置は、開始位置である”00:00:00.000”からであり、その速度は1.0、すなわち、通常再生であった。次に、[#3]22時02分頃、すなわち、46秒ほど再生してから(”00:00:46.822”)ロケータを操作するなどして位置”0:10:43.024”にジャンプ、すなわち、「0分46秒822」から「10分43秒024」の時刻へ再生位置を移動した。さらに、[#4]” 0:10:43.024”から再生を開始した。次に、[#5] 22時07分頃、位置” 0:16:01.130”を再生中に早戻しして、その際の再生速度は−5、すなわち、通常の5倍の速度で再生しながら映像の開始方向へ移動を開始した。これらのように、ユーザ1がID1の映像に対して一連の操作をしながら視聴をおこなった履歴を操作情報として出力される。
(IV)ダイジェスト映像情報作成処理
次に、図12ないし図25を用いて第一の実施形態に係るダイジェスト映像情報作成処理について説明する。
According to the user 1 operation history 410 shown in FIG. 4, the user 1 selects the video with the video ID 1 at around 22:01 on [# 1] December 18, 2006 (the video unit in FIG. 11). 321) was selected (read from the video information recording unit 104 and put into a reproducible state). Next, at [# 2] 22:01, a playback instruction was given and playback was started. At this time, the content position starts from “00: 00: 00.000” which is the start position, and the speed is 1.0, that is, normal reproduction. Next, at [# 3] 22:02, that is, after playing for about 46 seconds (“00: 00: 46.822”), the position “0: 10: 43.024” is operated by operating the locator. In other words, the playback position was moved from “0 minute 46 seconds 822” to “10 minutes 43 seconds 024”. Furthermore, the reproduction was started from [# 4] "0: 10: 43.024". Next, at [# 5] 22:07, the position “0: 16: 01.130” is rewinded during playback, and the playback speed at that time is −5, that is, 5 times the normal speed. It started moving in the start direction of the image while playing. As described above, the history of viewing while the user 1 performed a series of operations on the video of ID1 is output as operation information.
(IV) Digest Video Information Creation Processing Next, digest video information creation processing according to the first embodiment will be described with reference to FIGS.

(IV−1)ダイジェスト映像情報作成処理の概要
先ず、ダイジェスト映像情報作成処理の概要について、図12および図13を用いて説明する。
図12は、ダイジェスト映像情報作成処理のシーン重要度情報を作成するまでの処理を示すゼネラルチャートである。
図13は、ダイジェスト映像情報作成処理の再生位置情報を作成する処理を示すフローチャートである。
(IV-1) Overview of Digest Video Information Creation Processing First, an overview of digest video information creation processing will be described with reference to FIGS. 12 and 13.
FIG. 12 is a general chart showing processing up to creation of scene importance information in digest video information creation processing.
FIG. 13 is a flowchart showing processing for creating reproduction position information in digest video information creation processing.

先ず、図12によりダイジェスト映像情報作成処理のシーン重要度情報を作成するまでの処理について説明する。   First, processing up to creation of scene importance information in digest video information creation processing will be described with reference to FIG.

全体の制御処理は、ダイジェスト制御部120の制御の下におこなわれる。   The entire control process is performed under the control of the digest control unit 120.

先ず、後に説明する相関度変化の終了閾値Lをあらかじめ決定しておく(ステップ501)。   First, an end threshold value L for a correlation change, which will be described later, is determined in advance (step 501).

次に、録画中や録画後に映像データが入力されると(ステップ502)、特徴抽出処理をおこなう(ステップ503)。   Next, when video data is input during or after recording (step 502), feature extraction processing is performed (step 503).

特徴抽出処理は、特徴抽出部111により映像データから、図5に示される特徴情報111を取り出す処理である。この特徴抽出処理は、後に詳説する。   The feature extraction process is a process in which the feature extraction unit 111 extracts the feature information 111 shown in FIG. 5 from the video data. This feature extraction processing will be described in detail later.

次に、ユーザが視聴中の間は(ステップ504)、操作履歴解析処理をおこなう(ステップ505)。   Next, while the user is viewing (step 504), an operation history analysis process is performed (step 505).

操作履歴解析処理は、ユーザの映像装置に対する操作に応じて、操作重要度情報106を更新する処理である。この操作履歴解析処理は、後に詳説する。   The operation history analysis process is a process for updating the operation importance level information 106 according to the user's operation on the video apparatus. This operation history analysis process will be described in detail later.

次に、ダイジェスト映像情報を作成するための特徴情報の種類を決定する(ステップ506)。本実施形態では、特徴情報の種類としては、音響盛上り情報によるものであった。   Next, the type of feature information for creating digest video information is determined (step 506). In the present embodiment, the type of feature information is based on the sound excitement information.

次に、ダイジェスト映像情報を作成するためのパラメタの値を初期化しておく(ステップ507)。パラメタに関する処理については後に詳述するが、ここではN個あるとして説明する。   Next, a parameter value for creating digest video information is initialized (step 507). The processing related to the parameters will be described later in detail, but here, it is assumed that there are N.

また、図8Aの所でも説明したように「音響盛上り」によるパラメタとしては、変数として、音響盛上がりの閾値thと閾値を超える区間を広げるように再生区間を規定するオフセット時刻であるtsおよびteを用いる。   Further, as described in FIG. 8A, as the parameters due to “sound climax”, the threshold value th of sound swell and the offset time ts and te that define the playback section so as to widen the section exceeding the threshold as variables. Is used.

次に、ユーザが良く再生した部分により合致するパラメータをシミュレーションにより調整する際の相関度の最大値Cmaxを0として初期化する(ステップ508)。   Next, the maximum value Cmax of the degree of correlation when the parameter that matches the portion reproduced well by the user is adjusted by simulation is initialized to 0 (step 508).

そして、パラメタを一つ一つ決定していくループに入る(ステップ509)。   Then, a loop for determining parameters one by one is entered (step 509).

次に、演算内容管理部101に、パラメタ指定処理として、現在のパラメタとのその値を設定する(ステップ520)。パラメタ指定処理については、後に詳説する。   Next, the value of the current parameter is set in the calculation content management unit 101 as parameter designation processing (step 520). The parameter specification process will be described in detail later.

そして、現在設定されたパラメタに基づき、シーン重要度演算部113は、シーン重要度情報作成処理をおこなう(ステップ521)。シーン重要度情報作成処理は、後に詳説する。   Then, based on the currently set parameters, the scene importance calculation unit 113 performs scene importance information creation processing (step 521). The scene importance level information creation process will be described in detail later.

次に、比較評価部103は、比較評価処理をおこなう(ステップ522)。   Next, the comparative evaluation unit 103 performs a comparative evaluation process (step 522).

比較評価処理は、現時点でのシーン重要度と操作重要度を評価しながら、相関度を求める処理である。この比較評価処理については、後に詳説する。   The comparative evaluation process is a process for obtaining the correlation degree while evaluating the current scene importance level and operation importance level. This comparison evaluation process will be described in detail later.

そして、ダイジェスト映像情報制御部120は、ステップ522の比較評価処理により計算された相関度をcとして取得し(ステップ523)、相関度の最大値であるCmaxと比較して(ステップ524)、相関度cがCmaxよりも小さくない場合には、そこで、相関度cとCmaxとの差分を相関度変化の終了閾値Lと比較し(ステップ525)、相関度cとCmaxとの差分が、相関度変化の終了閾値Lよりも大きくなった場合には、この時点でのパラメタ更新処理をおこない(ステップ526)、終了する。パラメタ更新処理は、後に詳説する。   Then, the digest video information control unit 120 acquires the correlation degree calculated by the comparison evaluation process in step 522 as c (step 523), compares it with Cmax that is the maximum value of the correlation degree (step 524), and performs correlation. If the degree c is not smaller than Cmax, the difference between the correlation degree c and Cmax is compared with the end threshold L of the correlation degree change (step 525), and the difference between the correlation degree c and Cmax is the correlation degree. If it is greater than the change end threshold L, the parameter update process at this point is performed (step 526), and the process ends. The parameter update process will be described in detail later.

また、相関度cがCmaxよりも小さい場合、あるいは、相関度cとCmaxとの差分が、相関度変化の終了閾値Lよりも大きい場合には、差分が打ち切り閾値よりも大きい場合には、演算内容管理部101におけるパラメタのパラメタ変更処理をおこない(ステップ530)、現在解析中の当該パラメタ解析が完了していれば(ステップ531)、次のパラメタを解析するために、次のループに行き(ステップ509)、当該パラメタ解析が完了していない場合には、パラメタ変更処理により、変更したパラメタにより、再度、シーン重要度情報作成処理(ステップ521)から解析を継続する。パラメタ変更処理は、後に詳説する。   Also, when the correlation c is smaller than Cmax, or when the difference between the correlation c and Cmax is larger than the correlation change end threshold L, the calculation is performed when the difference is larger than the cutoff threshold. When the parameter change processing of the parameter in the content management unit 101 is performed (step 530) and the parameter analysis currently being analyzed is completed (step 531), the next loop is taken to analyze the next parameter ( Step 509) If the parameter analysis is not completed, the analysis is continued again from the scene importance level information creation process (step 521) by the parameter change process and the changed parameter. The parameter change process will be described in detail later.

次に、図13により映像情報作成処理の再生位置情報を作成するまでの処理について説明する。   Next, processing until creation of reproduction position information in the video information creation processing will be described with reference to FIG.

再生位置情報を作成する処理は、再生位置情報作成部115が、上記の図12のチャートに示した処理に、基づいて再生位置情報116を生成する処理である。   The process of creating the reproduction position information is a process in which the reproduction position information creating unit 115 generates the reproduction position information 116 based on the process shown in the chart of FIG.

先ず、どれくらいの再生時間を持つダイジェストを作成するかという再生時間が設定される(ステップ3600)。この再生時間は、ダイジェストを視聴するユーザが指定する場合もあるし、装置の標準値を定めておいてもよい。   First, a playback time is set as to how long a digest is to be created (step 3600). The playback time may be specified by a user who views the digest, or a standard value of the apparatus may be determined.

次に、シーン重要度情報114を取得し(ステップ3601)、これを重要度の高い順に並び替える(ステップ3602)。   Next, the scene importance level information 114 is acquired (step 3601), and is rearranged in descending order of importance (step 3602).

次に、再生位置情報と、再生の合計時間を記録する変数Tを0に初期化し(ステップ3603)、並び替えたシーン重要度情報の順に、項目であるシーンの終了時刻と開始時刻を得る(ステップ3604)。これらの差はそれぞれのシーン長であり、現在のTとシーン長の和が指定された再生時間と比較し(ステップ3610)、指定再生時間よりも短い間、再生箇所として再生位置情報に追加し(ステップ3611)、合計時間Tにシーン長を加える(ステップ3612)。このように重要度順にシーン評価と追加を指定再生時間を越えない範囲で再生位置情報116を作成し、これを再生に便利なように、開始時刻順に項目を並び替えて(ステップ3605)、再生情報情報116に登録する(ステップ3605)。このようにして、シーン重要度情報が高く評価されたシーンの順に、かつ、再生時間を超えない範囲で再生位置情報116を作成することができる。   Next, the playback position information and the variable T for recording the total playback time are initialized to 0 (step 3603), and the scene end time and start time are obtained in the order of the rearranged scene importance information ( Step 3604). These differences are the respective scene lengths, and the sum of the current T and the scene length is compared with the specified playback time (step 3610), and is added to the playback position information as a playback location for a time shorter than the specified playback time. (Step 3611), the scene length is added to the total time T (Step 3612). As described above, the reproduction position information 116 is created within the range in which the evaluation and addition of the scene evaluation and addition do not exceed the designated reproduction time, and the items are rearranged in the order of the start time so as to be convenient for reproduction (step 3605). Registration is made in the information information 116 (step 3605). In this way, the playback position information 116 can be created in the order of scenes whose scene importance level information is highly evaluated and within a range that does not exceed the playback time.

録画再生制御部183は、このようにして生成された再生位置情報116に基づいて、当該映像を開始位置から終了位置までのシーンを単位に項目を追って再生することより、ダイジェスト映像を再生、図1の表示部186、表示装置187を通じてユーザが視聴することができる。   Based on the playback position information 116 generated in this way, the recording / playback control unit 183 plays back the digest video by playing back the video in units of scenes from the start position to the end position. The user can view and listen through the one display unit 186 and the display device 187.

(IV−2)特徴抽出処理の詳細
次に、既に採り上げた図5と、図14および図15を用いて特徴抽出処理503の詳細について説明する。
図14は、特徴抽出処理の一例として、音響盛上り情報を生成するときの概念図である。
図15は、特徴抽出処理の一例として、音響盛上り情報を生成するときの処理を示すフローチャートである。
(IV-2) Details of Feature Extraction Processing Next, details of the feature extraction processing 503 will be described with reference to FIGS. 5, 14 and 15 already taken up.
FIG. 14 is a conceptual diagram when generating sound excitement information as an example of feature extraction processing.
FIG. 15 is a flowchart illustrating a process for generating sound excitement information as an example of the feature extraction process.

特徴抽出処理は、特徴抽出部111により映像データから、図5に示される特徴情報111を取り出す処理であり、これにより取り出される特徴情報111は、映像情報記録部184に記録された、あるいは、録画再生制御部183から直接得られた映像データ(付帯する動画像データ、音響データ、および、記号データを含むものである。また、特徴情報111は、入力部181から得られた符号化されたままのデータおよび復号部185で復号化されたデータのいずれでもよい。   The feature extraction processing is processing for extracting the feature information 111 shown in FIG. 5 from the video data by the feature extraction unit 111. The feature information 111 extracted by this processing is recorded in the video information recording unit 184 or recorded. Video data obtained directly from the reproduction control unit 183 (including accompanying moving image data, sound data, and symbol data. The feature information 111 is encoded data obtained from the input unit 181. Any of the data decoded by the decoding unit 185 may be used.

特徴抽出処理を実行するために、映像情報110を、先ず、特徴抽出部111に入力する。この映像情報中の映像データ211(図3)から所定の計算により、当該映像データに対する物理特徴が算出され、あるいは、記号処理に基づく記号特徴が生成されて特徴情報112として記憶される。ここで物理特徴とは、映像データから物理学的な原理に基づいて計算される統計量である。物理特徴は、当該映像データの特性を表現するが、視聴者の感覚に即した映像の重要度とは必ずしも一致しない。また、記号特徴とは映像データに含まれる記号列、例えば、字幕のような映像を説明する文字列などから、名詞や動詞等の品詞分解した新しい記号列や、文字列の読み上げ方を表すための発音記号列などである。   In order to execute the feature extraction process, the video information 110 is first input to the feature extraction unit 111. A physical feature for the video data is calculated from the video data 211 (FIG. 3) in the video information, or a symbol feature based on symbol processing is generated and stored as the feature information 112. Here, the physical feature is a statistic calculated from video data based on a physical principle. The physical feature expresses the characteristics of the video data, but does not necessarily match the importance of the video in accordance with the viewer's feeling. In addition, the symbol feature is a symbol string included in video data, for example, a new symbol string obtained by decomposing part-of-speech such as a noun or a verb from a character string explaining a video such as subtitles, or a method for reading a character string. Phonetic symbol string.

本実施形態で扱う映像の音響盛上がりによる特徴は、この内の物理特徴に属する。記号特徴の例は、次の第二の実施形態で取り扱うものとする。   The feature by the sound rise of the image handled in the present embodiment belongs to the physical feature. Examples of symbol features are to be dealt with in the following second embodiment.

なお、物理特徴および記号特徴が映像データ110に既に添付されて送られている場合は、これを特徴情報112として、直接保存、あるいは、特徴抽出部111に直接入力してもよい。   If the physical feature and the symbol feature are already attached to the video data 110 and sent, they may be stored directly as feature information 112 or input directly to the feature extraction unit 111.

次に、特徴抽出部111でおこなう、特徴として音響データよりそのパワーを基に盛上りデータを抽出し適用する場合を例にとって具体的に説明する。
特徴情報112は、図5に既に示したように、映像1特徴情報601の番組特徴管理表610の中に、番組IDが1の番組に対して音響盛上り情報611が記録されている
ここで、特徴抽出のために、入力される音響データは、図14に示されるように、十分に短い間隔で標本化(サンプリング)されたサンプルデータが左右それぞれに対して含まれている(音響サンプル)とし、これらの値を2乗平均を求めておく。これを、音響パワー情報701と呼ぶことにする。この際、データ量削減のため、所定の長いサンプリング期間へ、移動平均法等の方式で変換(ダウンサンプル)する処理をおこなってもよい。
Next, the case where the feature extraction unit 111 extracts and applies the climax data based on the power of the acoustic data as the feature will be specifically described as an example.
As already shown in FIG. 5, the feature information 112 is recorded in the program feature management table 610 of the video 1 feature information 601 with the sound excitement information 611 for the program whose program ID is 1. As shown in FIG. 14, the input acoustic data for feature extraction includes sample data sampled (sampled) at sufficiently short intervals (acoustic samples). And the mean square of these values is obtained in advance. This is called acoustic power information 701. At this time, in order to reduce the data amount, a process of converting (down-sampling) into a predetermined long sampling period by a method such as a moving average method may be performed.

以下、図15により音響盛上り情報を生成するときの処理を説明する。   Hereinafter, the processing when generating the sound excitement information will be described with reference to FIG.

具体的には、図15は、図14に示された音響パワー701から盛上り度710を作成する処理を示している。この処理では、入力となる音響パワーの時系列から、パラメタτ(図7の702)を用いて音響の盛上り度合いを0〜1の間でとる特徴として出力する。なお、移動区間長τは、予め決められているものとする。   Specifically, FIG. 15 shows a process of creating the degree of climax 710 from the acoustic power 701 shown in FIG. In this processing, from the time series of the input acoustic power, a parameter τ (702 in FIG. 7) is used to output as a feature that takes a degree of climax of sound between 0 and 1. Note that the movement section length τ is determined in advance.

先ず、音響時刻tを0から音響パワーの最大の時刻となるまで時刻をずらしながら、tからt+τまでの区間の音響パワー値のうち最低値を与えるPminを時刻tにおける値として選択する(ステップ801)。   First, while shifting the sound time t from 0 until the sound power reaches its maximum time, Pmin that gives the lowest value among the sound power values in the section from t to t + τ is selected as the value at time t (step 801). ).

この値は音響パワーの最小値〜最大値の間をとるが、これを0〜1に対応させるように正規化し、これを時刻tにおける音響盛上り値とする。(ステップ802)。この値を時刻tにおける音響盛上り度と、すべての音響時刻において(正確には(最大値−τ)の時刻まで)、音響盛上り情報611(図6)の項目に設定して、処理を終了する(ステップ803)。なお、これらの処理フローは全て音響時刻が完了した場合に音響盛上り値を音響盛上り情報611(図6)へ渡して終了するとしたが、各音響時刻ごとに音響盛上り値を音響盛上り情報611(図6)へ渡し、各時刻での演算を終了させた後に、再度、図15のフローチャートに示される処理を継続するようにしてもよい。   This value is between the minimum value and the maximum value of the sound power, but is normalized so as to correspond to 0 to 1, and this is set as the sound rise value at time t. (Step 802). This value is set in the item of the sound climax information 611 (FIG. 6) at the time of the sound climax at time t and all sound times (to be exact, the time of (maximum value−τ)). The process ends (step 803). Note that these processing flows are all finished when the acoustic peak value is passed to the acoustic peak information 611 (FIG. 6) when the acoustic time is completed. The processing shown in the flowchart of FIG. 15 may be continued again after passing to the information 611 (FIG. 6) and finishing the calculation at each time.

(IV−3)操作履歴解析処理の詳細
次に既に採り上げた図4、図6、図11と、図16ないし図18を用いて操作履歴解析処理の詳細について説明する。
図16は、操作履歴解析処理505の処理の詳細を示すフローチャートである。
図17は、操作重要度情報の構築していく過程を説明する図である。
図18は、操作重要度情報を構築した結果例を示す図である。
(IV-3) Details of Operation History Analysis Processing Next, details of the operation history analysis processing will be described with reference to FIGS. 4, 6, and 11 and FIGS.
FIG. 16 is a flowchart showing details of the operation history analysis processing 505.
FIG. 17 is a diagram illustrating a process of constructing operation importance information.
FIG. 18 is a diagram illustrating an example of a result of constructing operation importance information.

操作履歴解析処理505は、図4に示した操作情報187の各操作を、図7に示したアクションスコアテーブル104に基づいて得点付けをして、各時刻ごとの映像に対して計算される図6に示される操作重要度情報106を説明するためのものである。   The operation history analysis process 505 is a figure calculated for the video at each time by scoring each operation of the operation information 187 shown in FIG. 4 based on the action score table 104 shown in FIG. 6 is for explaining the operation importance level information 106 shown in FIG.

以下の操作履歴解析処理505により操作重要度情報106を作成する処理では、ユーザの変更はないことを前提にして説明するが、ユーザ変更があった場合に対応できるように処理をおこなってもよい。   The process of creating the operation importance level information 106 by the following operation history analysis process 505 will be described on the assumption that there is no change by the user. However, the process may be performed so as to cope with the change of the user. .

以下、図4のユーザ1操作履歴410が、操作情報解析部102に入力されるものとして説明する。   In the following description, it is assumed that the user 1 operation history 410 in FIG. 4 is input to the operation information analysis unit 102.

また、入力されるユーザの操作情報187(図4のユーザ1操作履歴410)がまとめて入力されることを前提に説明するが、操作ごとに逐次入力されてもよい。   In addition, although description will be made on the assumption that the input user operation information 187 (the user 1 operation history 410 in FIG. 4) is input collectively, it may be input sequentially for each operation.

先ず、既に当該映像1の操作重要度情報106がある場合には(ステップ1001)、その操作重要度情報106を取得する(ステップ1002)。なお、当該映像に対する操作重要度情報がない場合には、メモリ確保等の初期化をおこなう(ステップ1003)。ユーザの再生操作がある間(ステップ1004)、その操作情報を取得し(ステップ1005)、先ず、項番1の操作「ロード」を取得する。   First, when the operation importance level information 106 of the video 1 is already present (step 1001), the operation importance level information 106 is acquired (step 1002). If there is no operation importance level information for the video, initialization such as memory reservation is performed (step 1003). While there is a user's playback operation (step 1004), the operation information is acquired (step 1005). First, the operation “load” of item number 1 is acquired.

取得できないまたは終了ではない場合(ステップ1006)には、記録してある映像IDに変更がないか確認する(初回は除く)(ステップ1007)。これにより、IDに変更がある、すなわち、異なる映像がロードされた場合には、現状の操作重要度情報を更新し(ステップ1020)、最初の処理に戻る。同じ映像である(または初回)の場合には、アクションスコアテーブル104から当該操作での得点を取得する(ステップ1008)。   If it cannot be acquired or is not finished (step 1006), it is checked whether the recorded video ID has been changed (except for the first time) (step 1007). As a result, when the ID is changed, that is, when a different video is loaded, the current operation importance level information is updated (step 1020), and the process returns to the first process. If the images are the same (or the first time), the score for the operation is acquired from the action score table 104 (step 1008).

以下では、図7に示したアクションスコアテーブル104の具体例に従って説明する。   Below, it demonstrates according to the specific example of the action score table 104 shown in FIG.

図7では、「再生」をおこなった場合に1点、その他は0点となっている。   In FIG. 7, 1 point is given when “reproduction” is performed, and 0 points are given otherwise.

したがって、図4のユーザ1操作履歴410での項番1の「ロード」では得点が0である。前回の内容は存在しないため(ステップ1009)、今回の内容しては開始時刻と得点を記録しておき、それぞれ“0:00:00.000”,“0”として前回の内容を更新し(ステップ1010)、次の操作取得をおこなう。   Therefore, the score is 0 for “load” of item number 1 in the user 1 operation history 410 of FIG. Since the previous content does not exist (step 1009), the start time and the score are recorded as the current content, and the previous content is updated as “0: 00: 0.0000” and “0”, respectively ( Step 1010), the next operation acquisition is performed.

次の項番2「再生」を取得して(ステップ1005)映像位置は“0:00:00.000”、得点は1点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「ロード」であり、得点は0点であったから得点付けは不要であり(ステップ1009)、今回の「再生」に関して、前回の位置を映像位置“0:00:00.000”とし、および前回の得点“1”として、前回の内容を更新し(ステップ1010)、次の操作取得をおこなう。   The next item number 2 “play” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0: 00: 00.000” and the score is 1 (step 1008). Since the previous content is “load” and the score is 0, no scoring is necessary (step 1009), and for the current “playback”, the previous position is set to the video position “0: 00: 0.0000”. As the previous score “1”, the previous content is updated (step 1010), and the next operation is acquired.

次の項番3「ジャンプ」を取得して(ステップ1005)、映像位置は“0:00:046.822”、得点は0点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「再生」であり、得点は1点であったから得点付けは必要である(ステップ1009)ことがわかる。ここで、前回の内容から“0:00:00.000”を得て、現在の映像位置(ジャンプをおこなった位置)が“0:00:046.822”であることから、前回の「再生」をおこなった区間は、開始位置が“0:00:00.000”終了位置が“0:00:046.822”であることがわかる。したがって、この区間を得点“1”とし、映像の位置関係を比較する。前回の再生の以前には操作重要度がなかったことから関連重要度情報なし(ステップ1030)で、分割の必要なし(ステップ1031)として得点付けをおこなう。   The next item number 3 “jump” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0: 00: 046.822” and the score is 0 (step 1008). Since the previous content was “reproduction” and the score was one point, it is understood that scoring is necessary (step 1009). Here, “0: 00: 00.000” is obtained from the previous contents, and the current video position (jumped position) is “0: 00: 046.822”. It can be seen that the section where “” has been executed has a start position of “0: 00: 0.00.000” and an end position of “0: 00: 046.822”. Therefore, this section is scored “1”, and the positional relationship of the images is compared. Since there was no operation importance before the previous playback, scoring is performed with no relevant importance information (step 1030) and no division necessary (step 1031).

このように前回の操作に関する操作重要度の評価を、今回の操作が分かった時点で評価するのは、上記のように、「再生」の場合でも終了位置がわかるのは、「再生」の操作の次の操作であるためである。また、操作重要度を与える映像の区間を分割するのは、後に出てくるが、「再生」が累積された場合に、その区間の操作重要度を高く評価するためである。   As described above, the evaluation of the importance of the operation related to the previous operation is evaluated when the current operation is known. As described above, the end position is known even in the case of “play”. This is because the next operation. Also, the segment of the video giving the operation importance level is divided in order to evaluate the operation importance level of the section highly when “playback” is accumulated.

そして、図17(a)に示されるように、開始“0:00:00.000”、終了“0:00:046.822”、得点“1”の部分1210を作成する。そして、前回の内容として、前回の位置を映像位置“0:00:046.822”、得点を「ジャンプ」の得点“0”として更新する。   Then, as shown in FIG. 17A, a portion 1210 having a start “0: 00: 0.0000”, an end “0: 00: 046.822”, and a score “1” is created. Then, as the previous contents, the previous position is updated as the video position “0: 00: 046.822” and the score is “jump” score “0”.

次の項番4「再生」を取得して(ステップ1005)、映像位置は“0:10:43.024”、得点は1点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「ジャンプ」であり、得点は0点であったから得点付けは不要であり(ステップ1009)、今回の「再生」に関して、前回の位置を映像位置“0:10:43.024”とし、および前回の得点“1”として、前回の内容を更新し(ステップ1010)、次の操作取得をおこなう。   The next item number 4 “play” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0: 10: 43.024” and the score is 1 point (step 1008). Since the previous content is “jump” and the score was 0, no scoring is necessary (step 1009), and for the current “playback”, the previous position is the video position “0: 10: 43.024”. As the previous score “1”, the previous content is updated (step 1010), and the next operation is acquired.

次の項番5「早戻し」を取得して(ステップ1005)、映像位置は“0:16:01.130”、得点は0点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「再生」であり、得点は1点であったから得点付けは必要である(ステップ1009)ことがわかる。ここで、前回の内容から位置“0:10:43.024”を得て、現在の映像位置(早戻しをおこなった位置)が“0:16:01.130”であることから、前回の「再生」をおこった区間は、開始位置が“0:10:43.024”終了位置が“0:16:01.130”であることがわかる。したがって、この区間を得点“1”映像位置関係する。前回の再生の以前には操作重要度がなかったことから関連重要度情報を取得するが(ステップ1030)、この時刻との関係で重複する部分がないため分割の必要なし(ステップ1031)として得点付けをおこなう。   The next item number 5 “fast reverse” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0: 16: 01.130” and the score is 0 (step 1008). Since the previous content was “reproduction” and the score was one point, it is understood that scoring is necessary (step 1009). Here, the position “0: 10: 43.024” is obtained from the previous contents, and the current video position (the position where the fast reverse operation has been performed) is “0: 16: 01.130”. It can be seen that the section where “reproduction” is performed has a start position of “0: 10: 43.024” and an end position of “0: 16: 01.130”. Therefore, this section is related to the video position of the score “1”. Related importance information is acquired since there was no operation importance before the previous playback (step 1030), but there is no overlapping part in relation to this time, so there is no need for division (step 1031). I will do it.

そして、図17(b)のように、開始“0:10:43.024”、終了“0:16:01.130”、得点“1”の部分1211を作成する。そして、前回の内容として、前回の位置を映像位置“0:16:01.130”、得点を「早戻し」の得点“0”として更新する(ステップ1010)。   Then, as shown in FIG. 17B, a portion 1211 having a start “0: 10: 43.024”, an end “0: 16: 01.130”, and a score “1” is created. Then, as the previous contents, the previous position is updated as the video position “0: 16: 01.130”, and the score is updated as the score “0” of “fast reverse” (step 1010).

次の項番6「再生」を取得して(ステップ1005)、映像位置は“0:01:12.824”、得点は1点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「早戻し」であり、得点は0点であったから得点付けは不要であり(ステップ1009)、今回の「再生」に関して、前回の位置を映像位置“0:01:12.824”とし、および前回の得点“1”として、前回の内容を更新し(ステップ1010)、次の操作取得をおこなう。   The next item number 6 “play” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0: 01: 12.824” and the score is 1 point (step 1008). Since the previous content is “fast rewind” and the score is 0, no scoring is necessary (step 1009), and for the current “playback”, the previous position is set to the video position “0: 01: 12.824”. "And the previous score" 1 ", the previous content is updated (step 1010), and the next operation is acquired.

次の項番7「ジャンプ」を取得して(ステップ1005)、映像位置は“0:03:10.311”、得点は0点であることがアクションスコアテーブル104からわかる(ステップ1008)。前回の内容は「再生」であり、得点は1点であったから得点付けは必要である(ステップ1009)ことがわかる。ここで、前回の内容から位置“0:01:12.824”を得て、現在の映像位置(早戻しをおこった位置)が“0:03:10.311”であることから、前回の「再生」を行った区間は開始位置が“0:01:12.824”終了位置が“0:03:10.311”であることがわかる。したがって、この区間を得点“1”とし、映像の位置関係を比較し、関連する重要度情報を取得する(ステップ1030)。   The next item number 7 “jump” is acquired (step 1005), and it can be seen from the action score table 104 that the video position is “0:03: 10.3111” and the score is 0 point (step 1008). Since the previous content was “reproduction” and the score was one point, it is understood that scoring is necessary (step 1009). Here, the position “0: 01: 12.824” is obtained from the previous contents, and the current video position (the position where the rewinding is performed) is “0: 03: 10.311”. It can be seen that the section where “reproduction” is performed has a start position of “0: 01: 12.824” and an end position of “0: 03: 10.311”. Therefore, this section is scored as “1”, the positional relationship of the video is compared, and related importance information is acquired (step 1030).

ここで、図17(b)に示され重複する部分1210が存在するの区間の操作重要度を取得し、今回の部分と重複する部分を考慮して分割し(ステップ1031)得点付けをおこなう。その結果、図17(c)に示されるように、区間“0:00:00.000”〜“0:01:12.824”は得点“1”の部分1220、区間“0:01:12.824”〜“0:02:46.822”は、得点“2”の部分1221、区間“0:02:46.822”〜“0:03:10.311”は、得点“1”の部分1220として、操作重要度情報を与える区間を分割する。そして、前回の内容として、前回の位置を映像位置“0:16:01.130”、得点を「早戻し」の得点“0”として更新する(ステップ1010)。   Here, the operation importance of the section where the overlapping part 1210 exists as shown in FIG. 17B is acquired, and it is divided in consideration of the overlapping part with the current part (step 1031) and scored. As a result, as shown in FIG. 17 (c), the section “0: 00: 00.000” to “0: 01: 12.824” is the portion 1220 of the score “1” and the section “0:01:12”. .824 ”to“ 0: 02: 46.822 ”is the portion 1221 of the score“ 2 ”, and the interval“ 0: 02: 46.822 ”to“ 0: 03: 10.311 ”is the score“ 1 ”. As a portion 1220, a section giving operation importance information is divided. Then, as the previous contents, the previous position is updated as the video position “0: 16: 01.130”, and the score is updated as the score “0” of “fast reverse” (step 1010).

このようにしてユーザ操作情報を次々と解析することで映像ごとの操作重要度情報を構成し、最終的に再生した区間がより得点の高い、そのユーザが所望したと考える区間として重要と考える部分として構築されていく。図18は、このようにして映像の時刻ごとに操作重要度を与えた一例を示したものである。   In this way, by analyzing user operation information one after another, the operation importance level information for each video is constructed, and the section that is finally reproduced has a higher score, and is considered as important as the section that the user thinks is desired Will be built as. FIG. 18 shows an example in which operation importance is given for each video time in this way.

(IV−4)シーン重要度情報作成処理の詳細
次に既に採り上げた図9と、図19および図20を用いてシーン重要度情報作成処理の詳細について説明する。
図19は、シーン重要度情報114の作成する方法の概念図である。
図20は、第一の実施形態に係るシーン重要度情報114を作成する方法の処理を示すフローチャートである。
(IV-4) Details of Scene Importance Information Creation Processing Next, details of the scene importance information creation processing will be described with reference to FIGS. 9, 19 and 20 already taken up.
FIG. 19 is a conceptual diagram of a method for creating the scene importance level information 114.
FIG. 20 is a flowchart showing processing of a method for creating scene importance information 114 according to the first embodiment.

シーン重要度情報114は、図9に示したように、最終的なダイジェストを再生する位置を評価するための指標であり、映像の再生単位(開始時刻、終了時刻)ごとに、シーン重要度が定義されているものであった。   As shown in FIG. 9, the scene importance level information 114 is an index for evaluating the position where the final digest is played back. The scene importance level is calculated for each video playback unit (start time, end time). It was what was defined.

シーン重要度演算部113は、映像データから抽出した特徴として音響盛上り情報からシーン重要度情報を作成する。   The scene importance calculation unit 113 creates scene importance information from the sound excitement information as a feature extracted from the video data.

例えば、図19の左部分で説明すると、映像の時間軸1702に対する音響盛上がり情報の盛上がり度1701が、閾値th(1720)を越える時刻1722と再びthを下回る時刻1723を求めておき、それを基本区間とし、その前後に時間ts(1721)およびte(1724)を加えて区間を広げた開始時刻s1(1731)と終了時刻e1(1732)を求め、この区間についての盛上がり度q1を盛上がり情報の最大値を1となるように正規化した値をシーン重要度M1(1750)とする。   For example, as described in the left part of FIG. 19, a time 1722 when the degree of climax 1701 of the sound climax information with respect to the time axis 1702 of the video exceeds the threshold th (1720) and a time 1723 again below th are obtained. A start time s1 (1731) and an end time e1 (1732) are obtained by adding a time ts (1721) and te (1724) before and after the interval, and obtaining an end time e1 (1732). A value normalized so that the maximum value becomes 1 is set as a scene importance level M1 (1750).

以下、このシーン重要度生成処理を、図20のフローチャートにより説明する。   Hereinafter, this scene importance level generation processing will be described with reference to the flowchart of FIG.

先ず、演算内容管理部101より管理されている演算内容情報105のパラメタ情報1501(図8A)の既に説明した処理により規定されている閾値thおよび再生区間を規定するオフセット時刻であるtsおよびteを得る(ステップ1801)。   First, the threshold value th defined by the processing already described in the parameter information 1501 (FIG. 8A) of the computation content information 105 managed by the computation content management unit 101 and the offset times ts and te that define the playback section are set. Obtain (step 1801).

また、特徴情報112より、音響盛上がり情報611(図5)を取得する(ステップ1802)。音響盛上がり情報は時刻の昇順に並べられているとして、項番の総数Eに関して順に(ステップ1803)盛上がり度を取得しthと比較し(ステップ1810)、超えている場合には変数Mにその盛上がり度を記録し(ステップ1811)、そのときの開始時刻を変数sに記録する(ステップ1812)。その次の項番より(ステップ1813)、盛上がり度がMを超える場合には(ステップ1820)、Mを更新し(ステップ1821)、thを下回らない間中(ステップ1822)、次々と比較する。盛上がり度がthを下回った場合には、変数eにそのときの開始時刻(直前の終了時刻に等しい)を記録する(ステップ1823)。そして、s−tsを開始時刻、e+teを終了時刻、Mを重要度としたシーン重要度情報を追加し(ステップ1824)、ループを終えるが、この時点で解析が終わった音響盛上がり情報の項番(このフローではj)を上位ループの項番(同じくi)に代入し(ステップ1825)、解析を継続する。すべての項番の音響盛上がり情報の処理を終えた後、シーン重要度の最大値を元に正規化(ステップ1804)したシーン重要度情報を作成し(ステップ1725)、処理を終了する。   Also, the sound excitement information 611 (FIG. 5) is acquired from the feature information 112 (step 1802). Assuming that the acoustic climax information is arranged in ascending order of time, the degree of climax is acquired in order with respect to the total number E of item numbers (step 1803) and compared with th (step 1810). The degree is recorded (step 1811), and the start time at that time is recorded in the variable s (step 1812). From the next item number (step 1813), when the degree of swell exceeds M (step 1820), M is updated (step 1821), and while not falling below th (step 1822), comparison is made one after another. If the climax is less than th, the start time at that time (equal to the previous end time) is recorded in the variable e (step 1823). Then, scene importance level information with s-ts as the start time, e + te as the end time, and M as the importance level is added (step 1824), and the loop is completed. (In this flow, j) is assigned to the item number (also i) of the upper loop (step 1825), and the analysis is continued. After finishing the processing of the sound excitement information for all the item numbers, the scene importance level information normalized (step 1804) based on the maximum value of the scene importance level is created (step 1725), and the process ends.

シーン重要度の最大値を元に正規化するとは、例えば、その最大値で各シーン重要度を割って、0から1までの値に収まるようにすることである。   The normalization based on the maximum value of the scene importance is, for example, that each scene importance is divided by the maximum value so that it falls within the range of 0 to 1.

(IV−5)比較評価処理の詳細
次に、図21および図22を用いて比較評価処理522ついて説明する。
図21は、比較評価処理522の概念を説明する図である。
図22は、比較評価処理522を示すフローチャートである。
比較評価処理は、現時点でのシーン重要度と操作重要度を評価しながら、相関度を求める処理である。相関度は、シーン重要度と操作重要度との相関度の意味であり、この値が大きくなるように、パラメタを調節するための指標でもある。
(IV-5) Details of Comparison Evaluation Process Next, the comparison evaluation process 522 will be described with reference to FIGS. 21 and 22.
FIG. 21 is a diagram for explaining the concept of the comparative evaluation process 522.
FIG. 22 is a flowchart showing the comparative evaluation process 522.
The comparative evaluation process is a process for obtaining the correlation degree while evaluating the current scene importance level and operation importance level. The correlation degree means the correlation degree between the scene importance degree and the operation importance degree, and is also an index for adjusting the parameter so that this value becomes large.

先ず、図21により、比較評価処理522の概念で説明すると、図21(a)のグラフ1711は、シーン重要度演算部113で作成されたシーン重要度情報114であり、図21(b)のグラフ1301は、操作情報解析部102で作成された操作重要度情報106であり、映像の時間軸は、上下で対比している。   First, the concept of the comparative evaluation process 522 will be described with reference to FIG. 21. The graph 1711 in FIG. 21A is the scene importance level information 114 created by the scene importance level calculation unit 113, and is shown in FIG. A graph 1301 is the operation importance level information 106 created by the operation information analysis unit 102, and the time axis of the video is compared vertically.

このとき、両図の左部分で説明すると、ダイジェスト映像の一区間として検出された開始時刻s1(1731)から終了時刻e1(1732)で囲まれた区間T1(2021)に関して、その区間での最大の操作重要度I1(2011)とT1を掛け合わせた矩形領域に対して、操作重要度のグラフが作る黒い部分p1(2001)、すなわちこの区間に含まれる操作重要度の項番の一部で重要度と時間の積の総和を求める。これを全てのシーン重要度情報に関連して、前述の矩形領域の総和に対する操作重要度部分の総和と、シーン重要度情報の総和との比を求め、これを相関度とする。この相関度は、以下の(式1)により求められる。   At this time, as explained in the left part of both figures, regarding the section T1 (2021) surrounded by the end time e1 (1732) from the start time s1 (1731) detected as one section of the digest video, the maximum in the section For the rectangular area obtained by multiplying the operation importance I1 (2011) and T1 by the black portion p1 (2001) created by the operation importance graph, that is, a part of the operation importance item number included in this section Find the sum of products of importance and time. In relation to all the scene importance level information, a ratio between the total of the operation importance level part and the total of the scene importance level information with respect to the total sum of the rectangular areas is obtained, and this is used as the correlation level. This degree of correlation is obtained by the following (Formula 1).

Figure 2009004994
ここで、シーン重要度情報は、N個あるものとしている。
Figure 2009004994
Here, it is assumed that there are N pieces of scene importance information.

以下、図22により比較評価処理522を説明する。   Hereinafter, the comparative evaluation process 522 will be described with reference to FIG.

先ず、操作重要度情報106を取得し(ステップ2101)、次に、シーン重要度情報114を取得する(ステップ2102)。   First, the operation importance level information 106 is acquired (step 2101), and then the scene importance level information 114 is acquired (step 2102).

次に、変数CとPを0に初期化する(ステップ2103)。全てのシーン重要度情報114の項番に対して(ステップ2104)、開始時刻sと終了時刻eを取得する(ステップ2120)。次に、操作重要度情報106から時刻sを含む項番xを検索し(ステップ2122)、また時刻eを含む項番yを検索する(ステップ2122)。次に、操作重要度情報(x)と操作重要度情報(y)、および、はさまれる操作重要度Iを用いて、時刻sからeまでの時刻と重要度の積和pを計算し(ステップ2123)、Pに積算していく(ステップ2124)。さらに、前述の矩形領域としてI*(e−s)をCに積算していく(ステップ2125)。これらを全てのシーン重要度情報の項番に関して求め、Cが0であれば(ステップ2111)相関度を0に(ステップ2142)、それ以外であればP/Cを相関度として出力(ステップ2112)して、処理を終了する。   Next, variables C and P are initialized to 0 (step 2103). For all item numbers of the scene importance level information 114 (step 2104), start time s and end time e are acquired (step 2120). Next, the item number x including the time s is searched from the operation importance information 106 (step 2122), and the item number y including the time e is searched (step 2122). Next, using the operation importance information (x), the operation importance information (y), and the sandwiched operation importance I, the product sum p of the time and the importance from time s to e is calculated ( Step 2123) is added to P (Step 2124). Further, I * (es) is added to C as the aforementioned rectangular area (step 2125). These are obtained with respect to the item numbers of all the scene importance information, and if C is 0 (step 2111), the correlation degree is set to 0 (step 2142), otherwise P / C is output as the correlation degree (step 2112). ) To finish the process.

(IV−5)パラメタに関する処理と相関度の調整
次に、図23ないし図26を用いてパラメタに関する処理と相関度の調整に関して説明する。
図23は、パラメタを調節して相関度を調整することを説明する図である。
図24は、パラメタ指定処理520を示すフローチャートである。
図25は、パラメタ変更処理530を示すフローチャートである。
図26は、パラメタ更新処理526を示すフローチャートである。
(IV-5) Parameter-related processing and correlation degree adjustment Next, parameter-related processing and correlation degree adjustment will be described with reference to FIGS.
FIG. 23 is a diagram for explaining adjustment of a correlation degree by adjusting a parameter.
FIG. 24 is a flowchart showing the parameter specifying process 520.
FIG. 25 is a flowchart showing the parameter change process 530.
FIG. 26 is a flowchart showing the parameter update process 526.

先ず、図23によりパラメタを調節して相関度を調整することの意義について説明する。   First, the significance of adjusting the degree of correlation by adjusting parameters will be described with reference to FIG.

図23に示されるパラメタrとは、本実施形態では、具体的には、「音響盛上り」によるパラメタである音響盛上がりの閾値th、再生区間を規定するオフセット時刻であるtsおよびteである。   Specifically, in the present embodiment, the parameter r shown in FIG. 23 is a threshold value th of a sound excitement that is a parameter due to “acoustic excitement”, and ts and te that are offset times that define a playback section.

この図23に示されるように、パラメタr(2402)を最小値r_min(2413)から最大値r_max(2415)までを変化量Δr(2414)で相関度c(2401)を求めていくと、相関度を最大にするr(2412)が存在した場合、これを用いて、このrに関してユーザ嗜好に対し適した値として更新して、シーン重要度情報114を求めるものである。そして、これを他の全てのパラメタに関して求めることで、より最適なシーン重要度情報114をパラメタ群を選定する。 As shown in FIG. 23, when the parameter r (2402) is calculated from the minimum value r_min (2413) to the maximum value r_max (2415) with the change amount Δr (2414), the correlation degree c (2401) is obtained. When r * (2412) that maximizes the degree exists, it is updated as a value suitable for the user preference with respect to r, and the scene importance degree information 114 is obtained. Then, by obtaining this with respect to all other parameters, a parameter group is selected for more optimal scene importance level information 114.

次に、図24によりパラメタ指定処理520について説明する。   Next, the parameter designation process 520 will be described with reference to FIG.

パラメタ指定処理520は、パラメタの値の初期化処理である。   The parameter designation process 520 is a parameter value initialization process.

先ず、演算内容管理部101に、処理内容と、調整するパラメタが与えられると、図8Aに示される演算内容情報105のパラメタ情報1501から該当するパラメタの変数を取得し(ステップ1601)、最小値、最大値、変化量の値を取得する(ステップ1602)。そして、パラメタの値を最小値に設定する(ステップ1603)。   First, when the processing content and the parameter to be adjusted are given to the operation content management unit 101, the variable of the corresponding parameter is acquired from the parameter information 1501 of the operation content information 105 shown in FIG. 8A (step 1601), and the minimum value is obtained. The maximum value and the amount of change are acquired (step 1602). Then, the parameter value is set to the minimum value (step 1603).

次に、図25によりパラメタ変更処理530について説明する。   Next, the parameter changing process 530 will be described with reference to FIG.

パラメタ変更処理530は、パラメタの値を変更する処理である。   The parameter change process 530 is a process for changing a parameter value.

演算内容管理部101は、現在のパラメタの値に変化量を加算して、新たなパラメタの値とする(ステップ2501)。   The calculation content management unit 101 adds the amount of change to the current parameter value to obtain a new parameter value (step 2501).

そして、そのパラメタの値が定められている最大値を超えた場合には(ステップ2502)、当該パラメタは解析完了とした旨を設定し(ステップ2504)、それ以外は、そのパラメタを値を格納する(ステップ2503)。   If the parameter value exceeds the predetermined maximum value (step 2502), the parameter is set to be analyzed (step 2504). Otherwise, the parameter value is stored. (Step 2503).

次に、図26によりパラメタ更新処理530について説明する。   Next, the parameter update processing 530 will be described with reference to FIG.

パラメタ更新処理530は、現在のパラメタの値を演算内容情報105にフィードバックする処理である。   The parameter update process 530 is a process of feeding back the current parameter value to the calculation content information 105.

このパラメタ更新処理530のルートに行くときは、相関度cが最大となっているので、現在のパラメタ値を取得して(ステップ2301)、ユーザ/カテゴリ別の演算内容として演算内容情報105に記録する(ステップ2302)。   When going to the route of this parameter update processing 530, since the correlation c is the maximum, the current parameter value is acquired (step 2301) and recorded in the calculation content information 105 as the calculation content for each user / category. (Step 2302).

なお、パラメタ同士に関連がある場合には、パラメタ群一通りの解析を1単位として、何単位もまとめて、シーン重要度情報114の生成と、相関度による最適なパラメタ調節をおこなってもよい。   When parameters are related to each other, the analysis of the entire parameter group is regarded as one unit, and many units may be collected to generate the scene importance level information 114 and perform optimum parameter adjustment based on the correlation degree. .

また、本実施形態では音響盛上りによりダイジェスト作成映像情報作成方法に関してのみの解析であったが、他の作成方法との組み合わせて総合的に最適な作成方法、あるいは複数の組み合わせと、それらをおこなうためのパラメタ群を求めてもよい。そのときには、図8Bに示した演算内容情報に示されるように、それら求めたパラメタを、演算内容情報105中に、ユーザ毎、映像が属するジャンルごとに分類して保存する。
(V)ダイジェスト映像再生処理
次に、図27を用いてダイジェスト映像再生処理について説明する。
図27は、ダイジェスト映像再生をおこなうときのシークバーの表示例を示す図である。
Further, in this embodiment, the analysis was only for the digest creation video information creation method due to the sound excitement. However, in combination with other creation methods, a comprehensively optimal creation method or a plurality of combinations are performed. A parameter group may be obtained. At that time, as shown in the calculation content information shown in FIG. 8B, the obtained parameters are classified and stored in the calculation content information 105 for each user and each genre to which the video belongs.
(V) Digest Video Reproduction Process Next, the digest video reproduction process will be described with reference to FIG.
FIG. 27 is a diagram illustrating a display example of a seek bar when digest video playback is performed.

このように、本実施形態では、ユーザ操作を解析し、それを定量化して評価することにより、明示的なユーザからの指示無く、シーン重要度を求めて、パラメタを調整しつつ、ダイジェスト映像情報を作成する。そのため、ユーザ嗜好を自動的に抽出したダイジェスト映像情報が作成可能となる。ダイジェスト映像を再生する場合には、図10に示された再生位置情報116を、録画再生部180の録画再生制御部183に渡して再生させる。   As described above, in the present embodiment, the digest video information is obtained by analyzing the user operation, quantifying and evaluating the user operation, obtaining the scene importance level, and adjusting the parameters without an explicit instruction from the user. Create Therefore, digest video information in which user preferences are automatically extracted can be created. When playing back the digest video, the playback position information 116 shown in FIG. 10 is transferred to the recording / playback control unit 183 of the recording / playback unit 180 for playback.

ダイジェスト映像を再生ときに、例えば、図11の表示装置190上の映像視聴において、ダイジェスト再生ボタン350をユーザが操作した場合のダイジェスト映像再生をした場合、再生中の全体位置を視覚化しユーザに提示するロケータ領域303に表示したシークバー305で再生する部分を表示してもよい。図27に示されるダイジェスト映像再生をおこなうときのシークバー表示の例は、同一映像で異なるダイジェスト方式、パラメタを用いた場合の、再生部分が異なる二つの例が示されている(2701,2702)。ここで、一番左が映像の開始時刻、一番右を映像の終了時刻に対応し、黒い帯(2710〜2714,2721〜2728)は、その中でダイジェストとして抽出され再生がおこなわれる区間であるとしている。例えば「スポーツ(サッカー)」のジャンルに属する映像を視聴した場合、本実施形態を実施した場合、ユーザ操作前にはユーザごとの演算内容(2010〜2030)が存在しないとすれば、図8Bの共通ジャンル別演算内容2002の「スポーツ(サッカー)」のパラメタを用いて、ダイジェスト映像区間2701を次々と再生していくとする。その後、ダイジェスト再生か否かに関係なく、ユーザ1が再生操作をおこなうと、ユーザ1演算内容情報2010のジャンル別演算内容2012が作成されて行く。そして、本実施形態によるダイジェスト映像情報作成方法を用いて、ユーザ1の操作に応じてパラメタが変化し結果として、ジャンル別演算内容2012の項番1のような項目と、パラメタが作成される。したがって、ユーザ1が「スポーツ(サッカー)」をダイジェスト再生する場合にはこのパラメタを用いた視聴前のダイジェスト映像区間(2701)とは異なり、それぞれの区間が変化したり、異なる区間を再生することが可能となる(2702)。また、他のジャンル、あるいは、他のユーザごとに演算方法やパラメタを管理しているので、それぞれに適した演算によるダイジェスト映像情報が作成可能となる。
(V)本実施形態の特徴
本実施形態によれば、ユーザの嗜好を対象となる映像に対するこれまでの再生操作情報を解析することで、ユーザからの明示的なダイジェスト生成の方法やパラメタに対する指示入力を必要とせず、映像のダイジェストの再生位置を自動的に調整することができる。
When playing back a digest video, for example, when viewing the video on the display device 190 of FIG. 11 and playing back the digest video when the user operates the digest playback button 350, the entire position during playback is visualized and presented to the user. A portion to be played back by the seek bar 305 displayed in the locator area 303 to be displayed may be displayed. The example of the seek bar display when performing digest video playback shown in FIG. 27 shows two examples in which the playback part is different when different digest methods and parameters are used in the same video (2701, 2702). Here, the leftmost corresponds to the start time of the video, and the rightmost corresponds to the end time of the video, and the black bands (2710 to 2714, 2721 to 2728) are sections that are extracted and reproduced as digests therein. There is. For example, when viewing a video belonging to the genre of “sports (soccer)”, when the present embodiment is implemented, if there is no calculation content (2010 to 2030) for each user before the user operation, FIG. It is assumed that the digest video section 2701 is reproduced one after another using the “sport (soccer)” parameter of the calculation content 2002 by common genre. Thereafter, regardless of whether digest playback is performed or not, when user 1 performs a playback operation, genre-based calculation content 2012 of user 1 calculation content information 2010 is created. Then, using the digest video information creation method according to the present embodiment, the parameter changes according to the operation of the user 1 and, as a result, an item such as item number 1 in the genre calculation content 2012 and the parameter are created. Therefore, when the user 1 performs the digest playback of “sports (soccer)”, the digest video section before viewing using this parameter (2701) is different from each other, or a different section is played back. Becomes possible (2702). In addition, since the calculation method and parameters are managed for other genres or other users, it is possible to create digest video information by calculation suitable for each.
(V) Features of the present embodiment According to the present embodiment, an instruction to an explicit digest generation method and parameters from the user is analyzed by analyzing the playback operation information so far on the video that is subject to user preference. It is possible to automatically adjust the playback position of the video digest without requiring input.

特に、本実施形態では、特徴情報として音声による盛上がりを採用しているために、映像の分野としてスポーツの実況中継などに適している。   In particular, in the present embodiment, since the upsurge by voice is adopted as the feature information, it is suitable for live broadcasting of sports as a video field.

また、解析方法としてくり返し視聴した区間や再生速度、再生方法により嗜好を評価することが可能となる。また、アクションスコアテーブルを精密なものにすることにより、嗜好の高い区間をしっかり視聴したか再生速度を速めて嗜好の低い区間を飛ばして視聴するなど、再生速度の変化や、再生方法の変化により嗜好を詳細に評価することが可能となる。   In addition, it is possible to evaluate the preference according to the section that has been viewed repeatedly, the playback speed, and the playback method as an analysis method. In addition, by making the action score table precise, due to changes in playback speed or changes in playback method, such as watching a section with high preference or watching with a high playback speed and skipping a section with low preference It becomes possible to evaluate the preference in detail.

また、再生操作情報から解析した対象となる映像だけではなく、他の映像に対しても解析により得られた作成方法を利用したダイジェスト映像情報の作成をおこなうことが可能となる。   Also, it is possible to create digest video information using the creation method obtained by analysis not only for the video to be analyzed from the reproduction operation information but also for other video.

さらに、ユーザ毎に異なる嗜好をそれぞれの再生操作情報を解析することにより、それぞれのユーザに適したダイジェスト映像情報の作成が可能となる。   Furthermore, by analyzing each reproduction operation information with different preferences for each user, it is possible to create digest video information suitable for each user.

また、映像が属するジャンル毎に再生操作情報を解析することにより、それぞれのジャンル特有のユーザ嗜好を反映させることが可能となる。   In addition, by analyzing the reproduction operation information for each genre to which the video belongs, it becomes possible to reflect the user preference specific to each genre.

〔実施形態2〕
以下、第二の実施形態を、図28ないし図34を用いて説明する。
[Embodiment 2]
Hereinafter, the second embodiment will be described with reference to FIGS. 28 to 34.

第一の実施形態では、映像データに対して音響の盛上がりに着目して、特徴情報として抽出するものであった。   In the first embodiment, attention is paid to the rise of sound with respect to video data, and it is extracted as feature information.

これに対して、本実施形態では、映像に含まれる動画像中のテロップや字幕データ等の文字データから人名部分を抜き出し、所望する人名が登場する映像データの部分を検索し、その前後を含む区間の映像をダイジェスト映像を構成する区間として、ダイジェスト映像情報を作成するものである。この人名検索によって、ダイジェスト映像情報を作成するのは、TVのスポーツ映像のように選手が入れ替わり表示されたり、登場人物が複数存在する場合に、特定の人物が登場する部分をダイジェスト映像として視聴したい場合に効果的な方法である。例えば、野球の試合での打者毎に登場するシーン付近や、バラエティ等コーナーごとに登場人物が替わる場合に有効である。本実施形態の仮定とし、ユーザは、特に特定人物が登場する部分を視聴することとする。この視聴の仕方は、一般的に録画後に視聴する場合に映像全部を視聴するのではなく、重要な部分を視聴して時間を短縮して視聴する場合に自然な方法である。すなわち、このように登場人物が多い映像に関してのダイジェスト映像情報の作成方法としては、人物名が表示される部分を重視することで可能であるが、本実施形態では、ユーザが視聴を繰り返すことによってさらにそのユーザの視聴方法に適したダイジェスト映像を作成することが目的である。なお、以下の説明では、文字列情報が映像データ内に動画像とは別に保持され必要に応じて動画像上に重ねて文字が視認できるように表示するための字幕(またはクローズドキャプション)であるとして説明するが、動画像内にコンピュータグラフィクスなどの手法で埋め込まれたテロップ(または、スーパーインポーズ)であってもよい。この場合には、画像処理手法を用いた一般的なOCR(Optical Character Recognition:光学文字認識)技術等を用いることで、字幕と同様の扱いをすることが可能となる。同様に、音響から一般的な音声認識技術等を用いることで得られる文字列を扱ってもよい。   On the other hand, in the present embodiment, a personal name part is extracted from text data such as telop and subtitle data in a moving image included in a video, a part of video data in which a desired personal name appears is searched, and before and after Digest video information is created by using the video of the section as a section constituting the digest video. Digest video information is created by this person name search. When a player is switched and displayed as in a sports video on TV, or when there are multiple characters, you want to watch the part where a specific person appears as a digest video. This is an effective method. For example, it is effective when the characters are changed in the vicinity of a scene appearing for each batter in a baseball game or for each corner such as variety. Assuming this embodiment, it is assumed that the user views a part where a specific person appears. This viewing method is generally a natural method when not viewing the entire video when viewing after recording, but viewing the important part to shorten the time. That is, as a method of creating digest video information for a video with many characters as described above, it is possible to place importance on the portion where the person name is displayed, but in this embodiment, the user repeats viewing. A further object is to create a digest video suitable for the viewing method of the user. In the following description, character string information is subtitles (or closed captions) for displaying the character string information separately from the moving image in the video data so that the characters can be visually recognized by being superimposed on the moving image as necessary. However, it may be a telop (or superimpose) embedded in a moving image by a technique such as computer graphics. In this case, by using a general OCR (Optical Character Recognition) technique or the like using an image processing method, it is possible to handle the same as subtitles. Similarly, you may handle the character string obtained by using a general voice recognition technique etc. from an acoustic.

ここで、図2の映像情報記録部184における映像情報110の例、図11のユーザの映像視聴をしているときのイメージの例、図4の操作情報の例は、第一の実施形態と同様のものであるとする。   Here, the example of the video information 110 in the video information recording unit 184 of FIG. 2, the example of the image when the user watches the video of FIG. 11, and the example of the operation information of FIG. 4 are the same as the first embodiment. Assume that they are similar.

また、ユーザが映像データを視聴する場合の操作情報187を取得する処理についても、第一の実施形態と同様である。   Further, the process of acquiring the operation information 187 when the user views the video data is the same as that in the first embodiment.

さらに、図12に示した、ダイジェスト映像情報作成処理のシーン重要度情報を作成するまでの処理については、第一の実施形態と同様であり、各々の処理における異なる部分のみを詳細に説明し、それ以外の所は簡単に触れるものとする。   Furthermore, the process up to creating the scene importance information of the digest video information creation process shown in FIG. 12 is the same as in the first embodiment, and only different parts in each process will be described in detail. The rest is easy to touch.

第一の実施形態と特に処理が異なる部分は、すなわち、特徴抽出処理503、パラメタ初期化処理507、および、シーン重要度情報作成処理521であり、以下、これらに関して詳細に説明する。
(I)ダイジェスト映像に関する情報とデータ構造
先ず、既に示した図8A、図8Bと、図28および図29を用いて第二の実施形態に係るダイジェスト映像に関する情報とデータ構造を説明する。
先ず、図28により第二の実施形態に係る特徴情報112について説明する。
図28は、第二の実施形態に係る特徴情報112の一例を示す図である。
The parts that are different from the first embodiment in particular are the feature extraction process 503, the parameter initialization process 507, and the scene importance level information creation process 521, which will be described in detail below.
(I) Information and Data Structure Related to Digest Video First, information and data structure related to the digest video according to the second embodiment will be described with reference to FIGS. 8A and 8B and FIGS. 28 and 29 already described.
First, the feature information 112 according to the second embodiment will be described with reference to FIG.
FIG. 28 is a diagram illustrating an example of the feature information 112 according to the second embodiment.

図28に示される例では、特徴情報112として字幕人名特徴情報を有することが示されている。   In the example shown in FIG. 28, it is indicated that the feature information 112 includes caption person name feature information.

映像1中に、映像データ中にある字幕、例えば「佐藤がボールをキープして田中にフィード」という文字列が区間「0:00:05.255〜0:00:08.822」に表示するといった字幕データがあった場合に、その情報が取り出され、図28に示されるように、字幕人名特徴情報3011の項番1に格納される
映像特徴管理表3010の字幕人名情報のエントリは、その字幕人名特徴情報3011をポイントしている。
In the video 1, a subtitle in the video data, for example, a character string “Sato keeps the ball and feeds to Tanaka” is displayed in the section “0: 00: 05.255 to 0: 00: 08.822”. When there is subtitle data such as that, the information is extracted, and as shown in FIG. 28, the subtitle personal name information entry of the video feature management table 3010 stored in item number 1 of the subtitle personal feature information 3011 is Pointing to the subtitle personal name characteristic information 3011.

字幕人名特徴情報3011には、時間順に抽出された人名に関して、開始時刻、終了時刻、および、人名が登録されている。   In the caption personal name feature information 3011, the start time, the end time, and the personal name are registered with respect to the personal names extracted in time order.

次に、図8A、図8B、および、図29を用いて第二の実施形態に係る演算内容情報105について説明する。   Next, the calculation content information 105 according to the second embodiment will be described with reference to FIGS. 8A, 8B, and 29. FIG.

本実施形態で用いられるパラメタ情報1501は、項番2の演算方法が、「キーワード」のパラメタである。キーワードによる処理のパラメタとしては、順序付けされて登録されているキーワード数のうちダイジェスト作成に用いるキーワードの上位からの個数であるnumKwd、登録キーワードを保持する配列としてkwd[]、再生範囲を規定するオフセット時刻であるtsおよびteがあるとする。   The parameter information 1501 used in this embodiment is a parameter for which the calculation method of item number 2 is “keyword”. As parameters for processing by keywords, among the number of keywords registered in order, numKwd is the number of keywords from the top of the digest used for digest creation, kwd [] is an array that holds registered keywords, and an offset that defines the playback range Suppose that there are ts and te which are time.

そして、numKwd、tsおよびteに対しては、それぞれ、最大値、最小値、変化量が決められている。   For numKwd, ts, and te, a maximum value, a minimum value, and a change amount are determined, respectively.

次に、図29を用いて第二の実施形態に係る演算内容情報105について説明する。
図29は、第二の実施形態に係る演算内容情報105の各パラメタ値の一例を示す図である。
Next, the calculation content information 105 according to the second embodiment will be described with reference to FIG.
FIG. 29 is a diagram illustrating an example of each parameter value of the calculation content information 105 according to the second embodiment.

本実施形態で新たに加わる演算内容情報105は、キーワード毎に、重要度を定めたキーワード重要度情報である。これは、図8Bに示した演算内容情報105と共に記録されるものである。キーワード重要度情報は、ユーザ毎にさらにジャンルごとに保持され、ユーザがそれぞれのジャンルにおいて嗜好すると思われるキーワードを保持する。また、キーワード重要度情報は、ジャンル非依存のキーワード群を共通キーワード情報3111として記録されていてもよい。また、ユーザが独自に内容を変更したり追加、削除してもよく、その方法に関して本実施形態では、特に、限定しない。この、キーワード重要度には、項番とキーワード、および重要度が記録される。キーワードには重複が無く重要度の高い順に項番付きで管理されているものとして説明する。
(I)特徴抽出処理の詳細
先ず、図30および図31を用いて特徴抽出処理503の詳細について説明する。
図30は、映像データ中の字幕データから字幕人名情報を抽出するときの概念図である。
図31は、特徴抽出処理の一例として、字幕人名情報を抽出するときの処理を示すフローチャートである。
The calculation content information 105 newly added in the present embodiment is keyword importance information that defines importance for each keyword. This is recorded together with the calculation content information 105 shown in FIG. 8B. The keyword importance information is held for each genre for each user, and holds keywords that the user seems to like in each genre. The keyword importance information may be recorded as genre-independent keyword groups as common keyword information 3111. In addition, the user may change, add, or delete contents independently, and the method is not particularly limited in this embodiment. In the keyword importance, item numbers, keywords, and importance are recorded. It is assumed that the keywords are not duplicated and are managed with item numbers in descending order of importance.
(I) Details of Feature Extraction Processing First, details of the feature extraction processing 503 will be described with reference to FIGS. 30 and 31.
FIG. 30 is a conceptual diagram when subtitle person name information is extracted from subtitle data in video data.
FIG. 31 is a flowchart illustrating a process for extracting caption person name information as an example of the feature extraction process.

本実施形態の特徴抽出処理503は、映像データ中の字幕データから字幕人名情報を抽出して、図28に示される特徴情報112の映像毎の字幕人名特徴情報を生成する処理である。   The feature extraction processing 503 of this embodiment is processing for extracting caption person name information from caption data in video data and generating caption person name feature information for each video in the feature information 112 shown in FIG.

図30に示されるように、映像データ中にある字幕、例えば「佐藤がボールをキープして田中にフィード」という文字列が区間「0:00:05.255〜0:00:08.822」に表示するといった字幕データがあった場合(ステップ2901)、特徴抽出部にてこの文字列を一般的な形態素(言語の中で意味を持つ最小単位)解析により単語に分解する(ステップ2902)。これにより、動詞や助詞、名詞などに分離され、特に人名に分類できる(ステップ2903)。これを元に、出現する区間と抽出された人名(ステップ2904)を映像データの一つの特徴として、字幕人名情報に登録する(ステップ2905)。これらステップを映像データすべてに関して蓄積することで、字幕人名情報をダイジェスト作成に用いることができる。
(II)操作重要度情報の生成
ユーザが映像を視聴するときの再生操作に基づいて、第一の実施形態の操作履歴解析処理505をおこなうことにより、操作重要度情報105を生成することができる。
(III)パラメタ初期化処理の詳細
次に、図32を用いてパラメタ初期化処理について説明する。
図32は、第二の実施形態に係るパラメタ初期化処理507を示すフローチャートである。
As shown in FIG. 30, a subtitle in the video data, for example, a character string “Sato keeps the ball and feeds to Tanaka” is a section “0: 00: 05.255-0: 00: 08.822”. If there is subtitle data to be displayed on the screen (step 2901), the feature extraction unit decomposes the character string into words by analyzing a general morpheme (the smallest unit having meaning in the language) (step 2902). Thereby, it is separated into verbs, particles, nouns, etc., and can be classified into personal names in particular (step 2903). Based on this, the appearing section and the extracted person name (step 2904) are registered in the caption person name information as one feature of the video data (step 2905). By accumulating these steps for all the video data, it is possible to use subtitle personal name information for digest creation.
(II) Generation of Operation Importance Level Information Operation importance level information 105 can be generated by performing the operation history analysis process 505 of the first embodiment based on a playback operation when a user views a video. .
(III) Details of Parameter Initialization Process Next, the parameter initialization process will be described with reference to FIG.
FIG. 32 is a flowchart showing parameter initialization processing 507 according to the second embodiment.

以下、採り上げる映像として映像1、ユーザがユーザ1、ジャンルが「スポーツ(サッカー)」として説明する。   In the following description, it is assumed that the video to be picked is video 1, the user is user 1, and the genre is “sports (soccer)”.

先ず、字幕人名特徴情報3011(図28)、操作重要度情報1011(図6))、キーワード重要度情報3113(図29)を取得する(ステップ3201〜3203)。この際、ユーザ、現在の映像ID、映像の属するジャンルがわかっている場合にはそれぞれに適するジャンルの情報を取得し、そうでない場合にはそれぞれの共通情報3111を取得する。   First, caption person name feature information 3011 (FIG. 28), operation importance information 1011 (FIG. 6)), and keyword importance information 3113 (FIG. 29) are acquired (steps 3201 to 2033). At this time, if the user, the current video ID, and the genre to which the video belongs are known, the genre information suitable for each is acquired, and if not, the respective common information 3111 is acquired.

そして、字幕人名特徴情報3011のすべての人名情報それぞれに関して(ステップ3204)、その区間にかかる操作重要度情報を求めその中で最大の重要度をzとする(ステップ3210)。例えば、図30の映像1の字幕人名特徴情報(2904)の項番1「佐藤」に関しての区間“0:00:05.255”(開始時刻)〜“0:00:08.822”(終了時刻)であれば、図6のユーザ1、映像1重要度911では、項番3および項番4がこの区間にかかるため、この二つのうちで最大の重要度“5”をzに代入する。   Then, with respect to all the personal name information of the subtitle personal name feature information 3011 (step 3204), the operation importance information relating to the section is obtained, and the maximum importance is set to z (step 3210). For example, the section “00: 00: 05.255” (start time) to “00: 00: 08.822” (end) for item number 1 “Sato” in the caption name feature information (2904) of video 1 in FIG. 6), in the user 1 and video 1 importance 911 in FIG. 6, the item number 3 and the item number 4 are related to this section, and the maximum importance “5” of the two is substituted for z. .

キーワード重要度情報3113にキーワードがまだ登録されていない場合(ステップ3221)、現在の人名をキーワードとして登録しキーワード数Wを1とし(ステップ3215)、重要度をzとし(ステップ3216)、次の人名へ処理を移す。   If no keyword has been registered in the keyword importance information 3113 (step 3221), the current person name is registered as a keyword, the number of keywords W is set to 1 (step 3215), the importance is set to z (step 3216), Move processing to the name of the person.

登録済みのキーワードが存在し、Wが1以上の場合には(ステップ3211)、重複キーワードを探す。すなわち、登録済みのキーワード重要度情報に関して、現在の人名とキーワードを比較し(ステップ3220)、同じであれば現在登録されている重要度よりもzが大きい場合には(ステップ3221)、zを重要度として更新し(ステップ3222)、次の人名へ処理を移す。   If there is a registered keyword and W is 1 or more (step 3211), a duplicate keyword is searched. That is, with respect to the registered keyword importance information, the current person name and the keyword are compared (step 3220), and if they are the same, if z is greater than the currently registered importance (step 3221), z is set. The importance level is updated (step 3222), and the process moves to the next person name.

すべてのキーワードと比較しても同じではなかった場合には、現在の人名を新しくキーワードとして登録し、キーワード数を1増加させ(ステップ3213)、重要度をzにして(ステップ3214)、次の人名に処理を移す。   If it is not the same even when compared with all keywords, the current person name is newly registered as a keyword, the number of keywords is increased by 1 (step 3213), the importance is set to z (step 3214), and the next Move processing to the name of the person.

すべての人名を処理し終わった場合には、でき上がったキーワード重要度情報の重要度が高い順に内容を並び替え(ステップ3205)、演算内容情報中にキーワード重要度情報を更新し(ステップ3206)、処理を終了する。なお、同じジャンルの別の番組に関しても、このパラメタ初期化処理により、キーワードおよび重要度を更新することができる。
(IV)シーン重要度作成処理の詳細
次に、図33および図34を用いてシーン重要度作成処理の詳細について説明する。
図33は、第二の実施形態に係るシーン重要度情報114を作成する方法の処理を示すフローチャートである。
図34は、第二の実施形態に係るシーン重要度情報114を作成する方法の概念を説明する図である。
When all the names have been processed, the contents are rearranged in descending order of importance of the completed keyword importance information (step 3205), and the keyword importance information is updated in the operation content information (step 3206). The process ends. It should be noted that the keyword and the importance can be updated by this parameter initialization process for another program of the same genre.
(IV) Details of Scene Importance Creation Processing Next, details of the scene importance creation processing will be described using FIG. 33 and FIG.
FIG. 33 is a flowchart showing processing of a method for creating scene importance information 114 according to the second embodiment.
FIG. 34 is a view for explaining the concept of a method for creating scene importance information 114 according to the second embodiment.

本実施形態のシーン重要度情報114を作成する場合のパラメタは、検索に用いるキーワード重要度情報の上位からの個数numKwdと、再生となる時間区分を調整するための開始時刻オフセットtsと終了時刻オフセットteである。   Parameters for creating the scene importance level information 114 of the present embodiment include the number numKwd from the top of the keyword importance level information used for the search, the start time offset ts and the end time offset for adjusting the time segment for playback. te.

先ず、シーン重要度情報114を作成する処理では、演算内容管理部101より当該ユーザおよび当該映像のジャンルに対応したnumKwd,ts,teを取得する(ステップ3301)、および、キーワード重要度情報を取得する。ここで、取得されるパラメタは、図8Bのジャンル別演算内容2612の項番3に示されるものである。また、キーワード重要度情報は、図29のジャンル別キーワード重要度情報である。   First, in the process of creating the scene importance information 114, numKwd, ts, te corresponding to the user and the genre of the video is acquired from the calculation content management unit 101 (step 3301), and the keyword importance information is acquired. To do. Here, the acquired parameter is shown in item number 3 of the genre calculation content 2612 in FIG. 8B. The keyword importance level information is the genre-specific keyword importance level information in FIG.

また、ダイジェスト映像情報を作成しようとしている該当の映像に関しての字幕人名特徴情報を取得する。字幕人名特徴情報は、図28の3011に示されるものである。   In addition, the subtitle personal name feature information regarding the corresponding video for which digest video information is to be created is acquired. The caption personal name feature information is shown by 3011 in FIG.

次に、numKwdの個数だけキーワード重要度情報の上位個数に関して、字幕人名特徴情報の人名から該当するキーワードを検索する(ステップ3304)。そこでは、まず字幕人名特徴より現在のキーワードを検索する(ステップ3310)。そこで検索されたすべての字幕人名情報それぞれに対して(ステップ3311)、当該字幕人名の開始時刻−tsを変数sに、終了時刻+teを変数eに、当該キーワードの重要度を変数qに代入し(ステップ3321)、追加する新しいシーン重要度要素を準備する。次に、シーン重要度情報中、区間sからeにかかる要素を取得し(ステップ3321)、それぞれに対して(ステップ3322)、準備したシーン重要度要素(s,e,q)を追加する場合に、要素の分割または変更が必要であるか否かを判断する。時刻が重なっているとして分割あるいは変更が必要である場合、開始時刻や終了時刻のどちらかが新しい要素にかかる場合には、これらを調整し時刻軸上で重なりが無いようにする。また、開始時刻と終了時刻に新しい要素がはさまれる場合には二つに分割しそれぞれの時刻を変更することにより、新しい要素を挟み込むように調整可能である。また、新しい要素の区間中に以前からある開始時刻と終了時刻が含まれる場合には、(1)新しい要素の開始〜以前の要素の開始、(2)以前の要素の開始〜以前の要素の終了、(3)以前の要素の終了〜新しい要素の終了に分けて調整可能である。ただし、これらは重要度が高い方になるよう、適宜調整することとする(ステップ3331)。すなわち、以前の要素中に新しい要素が含まれ、かつ、以前の要素の重要度の方が高い場合には、以前の要素をそのまま残し、新しい要素としては追加する必要は無い。このようにして、新しい要素が必要の場合は当該要素を登録する(ステップ3332)。   Next, with respect to the upper number of keyword importance information by the number of numKwd, the corresponding keyword is searched from the personal names of the caption personal name feature information (step 3304). First, the current keyword is searched from the subtitle personal name feature (step 3310). For each of the subtitle person information searched there (step 3311), the start time -ts of the subtitle person name is substituted for the variable s, the end time + te is substituted for the variable e, and the importance of the keyword is substituted for the variable q. (Step 3321), a new scene importance element to be added is prepared. Next, in the scene importance level information, elements relating to the section s to e are acquired (step 3321), and the prepared scene importance level elements (s, e, q) are added to each of them (step 3322). Then, it is determined whether the element needs to be divided or changed. When division or change is necessary because the times overlap, when either the start time or the end time is applied to a new element, these are adjusted so that there is no overlap on the time axis. In addition, when a new element is sandwiched between the start time and the end time, it can be adjusted so as to sandwich the new element by dividing it into two and changing each time. In addition, when the start time and end time are included in the section of the new element, (1) start of the new element to start of the previous element, (2) start of the previous element to the start of the previous element The adjustment can be divided into the end, (3) the end of the previous element to the end of the new element. However, these are adjusted as appropriate so as to have a higher importance (step 3331). That is, when a new element is included in the previous element and the importance of the previous element is higher, it is not necessary to leave the previous element as it is and add it as a new element. In this way, when a new element is necessary, the element is registered (step 3332).

図34により具体的に説明すると、例えば、重要度q1(3410)のキーワード「佐藤」を検索し発見した場合(3440,3441)、場合3440に関しては、人名特徴の開始時刻3412と終了時刻3413にそれぞれオフセットts(3411)とte(3414)をその区間を広げるようにs1(3431)とe1(3432)を求める。この部分では重複する既存シーン重要度がないとすると(s1,e1,q1)を要素としてシーン重要度を登録する(3405)。場合3441の「佐藤」部分に関しては、同様の項目を要素(s2,e2,q1)として準備するが、既に重要度q2(3415)の「鈴木」(3442)が図のように開始部分が新しい部分に重なるよう登録されているとした場合、重要度の高い「佐藤」を残すように、既にあったシーン重要度の項目(3407)の開始時刻をe2(3434)に変更し、新しい要素(s2,e2,q1)を登録する。このように、重要度の高い部分が残るようにシーン重要度が登録されていくようにする。最後に、重要度が最大1になるように正規化し(ステップ3305)、シーン重要度情報を更新して(ステップ3306)、処理を終了する。
(IV)パラメタに関する情報の保存
このように、映像に関する字幕人名の特徴抽出処理、キーワード重要度を求めるパラメタ初期化処理、および、これらを用いた人名検索によるシーン重要度情報作成処理を、図12に示されたダイジェスト映像情報作成処理の各処理に適応させることにより、ユーザの再生操作に基づき所望する人名が登場する映像データの部分を中心とするダイジェスト映像情報作成のためのパラメタを設定可能となる。これらパラメタおよびキーワード重要度情報は、演算内容情報105中に、ユーザ毎、映像が属するジャンルごとに分類して保存する(図8B、加えて、図29)。
(V)本実施形態の特徴
本実施形態では、特徴情報としてテロップなどに流れるキーワードを採用している。そのため、キーワードとして人名を取ることにより、ユーザが興味を持つ選手のスポーツの映像のダイジェスト再生に適している。また、キーワードとして人名を芸能人にすると、芸能関係の映像のダイジェストの再生にも用いることができる。また、キーワードを特定のトピックにすると、ニュースなどにも適用可能である。
More specifically, referring to FIG. 34, for example, when the keyword “Sato” with importance q1 (3410) is searched for and found (3440, 3441), the start time 3412 and the end time 3413 of the personal name feature are related to the case 3440. Each of offset ts (3411) and te (3414) is obtained as s1 (3431) and e1 (3432) so as to widen the section. If there is no overlapping existing scene importance in this part, the scene importance is registered with (s1, e1, q1) as elements (3405). For the “Sato” part of the case 3441, the same item is prepared as the element (s2, e2, q1), but “Suzuki” (3442) having the importance q2 (3415) is already new as shown in the figure. If it is registered so as to overlap, the start time of the existing scene importance item (3407) is changed to e2 (3434) so as to leave “Sato” having high importance, and a new element ( s2, e2, q1) are registered. In this way, the scene importance level is registered so that a part with a high importance level remains. Finally, normalization is performed so that the importance becomes 1 at the maximum (step 3305), the scene importance information is updated (step 3306), and the process is terminated.
(IV) Storage of information about parameters In this way, the feature extraction processing of caption personal names related to video, the parameter initialization processing for obtaining keyword importance, and the scene importance information creation processing by human name search using these are shown in FIG. By adapting to each process of the digest video information creation process shown in, it is possible to set parameters for digest video information creation centering on the part of the video data where the desired person name appears based on the user's playback operation Become. These parameters and keyword importance information are classified and stored in the calculation content information 105 for each user and for each genre to which the video belongs (FIG. 8B, in addition, FIG. 29).
(V) Features of the present embodiment In the present embodiment, keywords flowing in a telop or the like are employed as feature information. Therefore, taking a person's name as a keyword is suitable for digest reproduction of sports videos of players interested in the user. Also, if the name of a person is a celebrity, it can also be used to play a digest of an entertainment-related video. In addition, if a keyword is a specific topic, it can be applied to news and the like.

〔実施形態3〕
以下、第三の実施形態を、図35を用いて説明する。
図35は、第三の実施形態に係るアクションスコアテーブル104の一例を示す図である。
[Embodiment 3]
Hereinafter, the third embodiment will be described with reference to FIG.
FIG. 35 is a diagram showing an example of the action score table 104 according to the third embodiment.

第一の実施形態のアクションスコアテーブル104は、図7に示されるように、一つの操作に対して独立して得点付けをおこなったものであったが、本実施形態のアクションスコアテーブル104は、前回の操作と今回の操作の遷移を基に構成した例である。第一の実施形態の図7のアクションスコアテーブル104では、再生の場合に得点付けをした例を示したが、その前にどのような操作をしたかは不問で得点1点を付けていた。本実施形態のアクションスコアテーブル104は、操作の遷移を考慮しており、例えば、再生の後に早送りやジャンプをおこなった場合には再生中の最後に興味のない部分を視聴したと考えて得点を下げる(1401)ことや、早送り・早戻しの速度によりどれだけユーザが飛ばしたく感じたか(1402)や、これらの中で速度の変化をした場合を考慮すること(1403)を得点付けに対応させることが可能となり、よりユーザの嗜好を正確に考慮した操作の評価をおこなうことが可能となる。   The action score table 104 of the first embodiment was scored independently for one operation, as shown in FIG. 7, but the action score table 104 of the present embodiment is This is an example configured based on the transition between the previous operation and the current operation. In the action score table 104 of FIG. 7 of the first embodiment, an example in which a score is given in the case of reproduction is shown, but one point is given regardless of what operation was performed before that. The action score table 104 of this embodiment considers the transition of operations. For example, when fast-forwarding or jumping is performed after playback, it is considered that the user has watched an uninteresting part at the end of playback. Decrease (1401), how much the user feels to fly by the speed of fast forward / reverse (1402), and consider the case where the speed has changed among them (1403) Therefore, it is possible to evaluate the operation more accurately considering the user's preference.

〔実施形態4〕
以下、第四の実施形態を、図36を用いて説明する。
図36は、再生位置決定処理を示すフローチャートである。
[Embodiment 4]
Hereinafter, the fourth embodiment will be described with reference to FIG.
FIG. 36 is a flowchart showing the playback position determination process.

第一の実施形態では、パラメタを調節しながらシーン重要度情報114を作成する例を説明したが、本実施形態では、単に、与えられたパラメタにより、シーン重要度情報114と、再生位置情報116を作成して、ダイジェスト映像を再生する処理について説明する。   In the first embodiment, the example in which the scene importance level information 114 is generated while adjusting the parameters has been described. However, in the present embodiment, the scene importance level information 114 and the reproduction position information 116 are simply determined based on the given parameters. A process of creating a digest video and playing back a digest video will be described.

ここでのパラメタは、これまでの実施例にて決定した演算内容情報(105)中にある、図8Bの演算内容情報105のジャンル別演算内容や、図29のキーワード重要度情報である。また、これらの演算内容情報105は、図1に示される交換部120を介して、ネットーク170、および、メモリやCD−ROM等をはじめとする外部メディア160を経由し、外部サーバ171や他の装置からの取得してもよい。これらにより、一般的に流行するダイジェスト作成のパラメタや、他の映像装置のユーザとのダイジェスト映像情報を作成するパラメタの共有、あるいは、他の映像装置においても、普段使用しているダイジェスト映像情報により、ダイジェスト再生が可能になる。   The parameters here are the calculation content by genre of the calculation content information 105 in FIG. 8B and the keyword importance information in FIG. 29 in the calculation content information (105) determined in the above embodiments. Further, the calculation content information 105 is transmitted via the exchange unit 120 shown in FIG. 1 via the network 170 and the external medium 160 such as a memory or a CD-ROM, to the external server 171 or other You may acquire from an apparatus. This makes it possible to share digest creation parameters that are generally popular, parameters to create digest video information with users of other video devices, or the digest video information that is normally used in other video devices. , Digest playback becomes possible.

この再生位置決定処理では、先ず、ユーザから操作部182を通じて処理内容やダイジェスト再生を完了する再生時間を取得する(ステップ3501、3502)。処理内容とは、どの映像のダイジェスト映像情報を作成するかという指示などである。   In this playback position determination process, first, the processing content and playback time for completing digest playback are acquired from the user through the operation unit 182 (steps 3501 and 3502). The processing content is an instruction of which video digest video information is to be created.

次に、ユーザや再生予定の映像、属するジャンルに関するパラメタを取得し(ステップ3503)、選択された方法を用いてシーン重要度情報を作成するために、シーン重要度演算部113により、シーン重要度情報作成処理(図20または図33)をおこなう。次に、得られたシーン重要度情報114(図19の1901)を用いて、再生位置情報作成部115において、図13に示される映像情報作成処理(再生位置情報生成処理)をおこなう(ステップ3505)。   Next, parameters relating to the user, the video to be played back, and the genre to which the user belongs are acquired (step 3503), and the scene importance calculation unit 113 uses the scene importance calculation unit 113 to create scene importance information using the selected method. Information creation processing (FIG. 20 or FIG. 33) is performed. Next, using the obtained scene importance level information 114 (1901 in FIG. 19), the playback position information creation unit 115 performs the video information creation process (playback position information generation process) shown in FIG. 13 (step 3505). ).

本実施形態では、外部の映像装置やコンピュータで作成したダイジェスト映像情報の作成のためのパラメタを、ネットワークまたは外部メディアを介して受信し、それを用いることにより、外部で最適化されたパラメタより、ダイジェスト映像情報が作成できる。そのため、受け取った側の装置では、ダイジェスト映像情報作成のための処理が軽減される。   In this embodiment, a parameter for creating digest video information created by an external video device or computer is received via a network or external media, and by using it, the parameter optimized externally is used. Digest video information can be created. For this reason, the apparatus on the receiving side reduces processing for creating digest video information.

第一の実施形態に係るダイジェスト映像を再生する映像装置の全体の構成を示すブロック図である(その一)。It is a block diagram which shows the whole structure of the video device which reproduces | regenerates the digest image | video which concerns on 1st embodiment (the 1). 第一の実施形態に係るダイジェスト映像を再生する映像装置の全体の構成を示すブロック図である(その二)。It is a block diagram which shows the whole structure of the video device which reproduce | regenerates the digest image | video which concerns on 1st embodiment (the 2). 映像情報記録部184に格納されるデータの一例を示す図である。5 is a diagram illustrating an example of data stored in a video information recording unit 184. FIG. 操作情報187の一例を示す図である。It is a figure which shows an example of the operation information 187. 第一の実施形態に係る特徴情報112の一例を示す図である。It is a figure which shows an example of the characteristic information 112 which concerns on 1st embodiment. 操作重要度情報106の一例を示す図である。6 is a diagram illustrating an example of operation importance information 106. FIG. 第一の実施形態に係るアクションスコアテーブル104の一例を示す図である。It is a figure which shows an example of the action score table 104 which concerns on 1st embodiment. 演算内容情報105のパラメタ情報1501を示す図である。It is a figure which shows the parameter information 1501 of the calculation content information 105. FIG. 第一の実施形態に係る演算内容情報105の各パラメタ値の一例を示す図である。It is a figure which shows an example of each parameter value of the calculation content information 105 which concerns on 1st embodiment. シーン重要度情報114の一例を示す図である。It is a figure which shows an example of the scene importance information 114. FIG. 再生位置情報116の一例を示す図である。6 is a diagram illustrating an example of reproduction position information 116. FIG. ユーザの映像視聴をしているときのイメージを示した図である。It is the figure which showed the image when the user is viewing video. ダイジェスト映像情報作成処理のシーン重要度情報を作成するまでの処理を示すゼネラルチャートである。It is a general chart which shows a process until the scene importance information of a digest video information creation process is created. ダイジェスト映像情報作成処理の再生位置情報を作成する処理を示すフローチャートである。It is a flowchart which shows the process which produces the reproduction | regeneration position information of a digest video information creation process. 特徴抽出処理の一例として、音響盛上り情報を生成するときの概念図である。It is a conceptual diagram when producing | generating sound excitement information as an example of a feature extraction process. 特徴抽出処理の一例として、音響盛上り情報を生成するときの処理を示すフローチャートである。It is a flowchart which shows a process when producing | generating sound excitement information as an example of a feature extraction process. 操作履歴解析処理505の処理の詳細を示すフローチャートである。10 is a flowchart showing details of operation history analysis processing 505; 操作重要度情報の構築していく過程を説明する図である。It is a figure explaining the process of constructing operation importance information. 操作重要度情報を構築した結果例を示す図である。It is a figure which shows the example of a result which constructed | assembled operation importance information. シーン重要度情報114の作成する方法の概念図である。It is a conceptual diagram of the method of creating the scene importance information 114. 第一の実施形態に係るシーン重要度情報114を作成する方法の処理を示すフローチャートである。It is a flowchart which shows the process of the method which produces the scene importance information 114 which concerns on 1st embodiment. 比較評価処理522の概念を説明する図である。It is a figure explaining the concept of the comparative evaluation process 522. 比較評価処理522を示すフローチャートである。It is a flowchart which shows the comparative evaluation process 522. パラメタを調節して相関度を調整することを説明する図である。It is a figure explaining adjusting a parameter and adjusting a correlation. パラメタ指定処理520を示すフローチャートである。It is a flowchart which shows the parameter designation | designated process 520. パラメタ変更処理530を示すフローチャートである。It is a flowchart which shows the parameter change process 530. パラメタ更新処理526を示すフローチャートである。It is a flowchart which shows the parameter update process 526. ダイジェスト映像再生をおこなうときのシークバーの表示例を示す図である。It is a figure which shows the example of a display of a seek bar when performing digest image | video reproduction | regeneration. 第二の実施形態に係る特徴情報112の一例を示す図である。It is a figure which shows an example of the characteristic information 112 which concerns on 2nd embodiment. 第二の実施形態に係る演算内容情報105の各パラメタ値の一例を示す図である。It is a figure which shows an example of each parameter value of the calculation content information 105 which concerns on 2nd embodiment. 映像データ中の字幕データから字幕人名情報を抽出するときの概念図である。It is a conceptual diagram when subtitle person name information is extracted from subtitle data in video data. 特徴抽出処理の一例として、字幕人名情報を抽出するときの処理を示すフローチャートである。It is a flowchart which shows a process when extracting subtitle person name information as an example of a feature extraction process. 第二の実施形態に係るパラメタ初期化処理507を示すフローチャートである。It is a flowchart which shows the parameter initialization process 507 which concerns on 2nd embodiment. 第二の実施形態に係るシーン重要度情報114を作成する方法の処理を示すフローチャートである。It is a flowchart which shows the process of the method which produces the scene importance information 114 which concerns on 2nd embodiment. 第二の実施形態に係るシーン重要度情報114を作成する方法の概念を説明する図である。It is a figure explaining the concept of the method of producing the scene importance level information 114 concerning 2nd embodiment. 第三の実施形態に係るアクションスコアテーブル104の一例を示す図である。It is a figure which shows an example of the action score table 104 which concerns on 3rd embodiment. 再生位置決定処理を示すフローチャートである。It is a flowchart which shows a reproduction position determination process.

Claims (10)

映像装置で再生される映像のダイジェストを再生するためのダイジェスト映像情報作成方法において、
(1)特徴情報部が、映像の映像データから特徴情報を抽出するステップと、
(2)操作部が、ユーザが視聴する映像に対する操作の操作情報を取得するステップと、
(3)操作情報解析部が、前記操作情報の各操作の得点付けによって、操作情報によって評価される前記映像の各時刻における重要度である操作重要度情報を生成するステップと、
(4)シーン重要度演算部が、一つ以上のパラメタによって、ダイジェストとして再生するための前記映像における再生の時刻の区間であるシーンを決定して、前記シーンに対して前記特徴情報によって評価される各シーンにおける重要度であるシーン重要度情報を生成するステップと、
(5)ダイジェスト制御部が、前記操作重要度情報と前記シーン重要度情報との相関度を評価し、前記相関度を高めるパラメタの組み合わせを決定するステップとを有し、
前記ダイジェスト制御部が、前記(4)と前記(5)のステップを繰り返すことにより、ダイジェスト再生のための最適なシーン重要度情報を生成し、
再生位置情報生成部が、前記生成された前記シーン重要度情報と、ダイジェスト再生の時間とにより、ダイジェスト再生位置情報を生成することを特徴とするダイジェスト映像情報作成方法。
In a digest video information creation method for playing back a video digest played on a video device,
(1) a feature information section extracting feature information from video data of video;
(2) a step in which the operation unit obtains operation information of an operation on the video viewed by the user;
(3) The operation information analysis unit generates operation importance information that is importance at each time of the video evaluated by the operation information by scoring each operation of the operation information;
(4) The scene importance calculation unit determines a scene that is a playback time interval in the video for playback as a digest by using one or more parameters, and the scene is evaluated by the feature information. Generating scene importance information, which is the importance in each scene,
(5) The digest control unit includes a step of evaluating a correlation between the operation importance information and the scene importance information, and determining a combination of parameters for increasing the correlation.
The digest control unit generates optimal scene importance information for digest playback by repeating the steps (4) and (5),
A digest video information creation method, wherein a playback position information generation unit generates digest playback position information based on the generated scene importance information and digest playback time.
前記映像の特徴情報は、音響盛上がり情報であり、
前記パラメタは、前記音響盛上がりのシーンを判断する閾値と、ダイジェストとして再生されるシーンの開始時刻、終了時刻を調整する値との組み合わせであることを特徴とする請求項1記載のダイジェスト映像情報作成方法。
The feature information of the video is sound excitement information,
2. The digest video information creation according to claim 1, wherein the parameter is a combination of a threshold value for judging the scene of the sound excitement and a value for adjusting a start time and an end time of a scene reproduced as a digest. Method.
前記映像の特徴情報は、前記映像に関するキーワード情報であり、
前記パラメタは、登録されたキーワードを前記シーン重要度の計算のために用いる個数と、ダイジェストとして再生されるシーンの開始時刻、終了時刻を調整する値との組み合わせであることを特徴とする請求項1記載のダイジェスト映像情報作成方法。
The video feature information is keyword information about the video,
The parameter is a combination of a number of registered keywords used for calculating the scene importance and a value for adjusting a start time and an end time of a scene reproduced as a digest. The digest video information creation method according to 1.
前記(3)のステップの前記操作情報の各操作の得点付けは、映像に対する視聴方法、視聴回数、視聴速度、または、視聴方法、視聴速度の遷移によって評価付けされたアクションスコアテーブルによっておこなうことを特徴とする請求項1記載のダイジェスト映像情報作成方法。   The scoring of each operation of the operation information in the step (3) is performed using an action score table evaluated by a viewing method, viewing frequency, viewing speed, or viewing method, transition of viewing speed for a video. The digest video information creation method according to claim 1, wherein: 前記第一の映像により、前記パラメタを決定し、
前記第一の映像により、決定されたパラメタにより、前記第一の映像とは異なる第二の映像に対するシーン重要度情報を作成することを特徴とする請求項1記載のダイジェスト映像情報作成方法。
The parameter is determined by the first video,
2. The digest video information creation method according to claim 1, wherein scene importance level information for a second video different from the first video is created by the first video according to a determined parameter.
前記パラメタは、ユーザ毎に保持し、
前記(4)のステップで前記シーン重要度情報を生成するに際し、ユーザを特定して、ユーザ毎のシーン重要度情報を生成することを特徴とする請求項1記載のダイジェスト映像情報作成方法。
The parameter is stored for each user,
2. The digest video information creation method according to claim 1, wherein when the scene importance information is generated in the step (4), a user is specified and scene importance information for each user is generated.
さらに、前記映像の属性情報から、または、ユーザから入力される情報から前記映像が属するジャンルを取得するステップを有し、
前記パラメタを、前記映像のジャンル毎に保持することを特徴とする請求項1記載のダイジェスト映像情報作成方法。
Further, the method includes a step of acquiring a genre to which the video belongs from attribute information of the video or information input from a user,
The digest video information creation method according to claim 1, wherein the parameter is held for each genre of the video.
前記パラメタは、ネットワークまたは外部メディアを介して伝送されるものであることを特徴とする請求項1のダイジェスト映像作成方法。   The digest video creation method according to claim 1, wherein the parameter is transmitted via a network or an external medium. 映像のダイジェストを再生するため映像装置において、
前記映像の録画再生をおこなう録画再生部と、
前記ダイジェストを再生するためのダイジェスト映像情報作成部とを備え、
前記録画再生部は、
前記映像に関するデータを記憶する映像記憶部と、
ユーザからの装置に対する動作の指示を入力するための操作部と、
前記映像の録画再生の動作の制御をおこなう録画再生制御部と、
前記映像をユーザに表示する表示部とを有し、
前記ダイジェスト映像情報作成部は、
各部の制御をおこなうダイジェスト制御部と、
前記ユーザの操作情報を解析する操作情報解析部と、
前記映像の映像データから特徴を抽出する特徴抽出部と、
ダイジェストとして再生するための前記映像における再生の時刻の区間であるシーンに対して前記特徴情報によって評価される各シーンにおける重要度であるシーン重要度情報を生成するシーン重要度演算部と、
前記操作重要度情報の操作重要度と前記シーン重要度情報のシーン重要度の相関度を評価する比較評価部と、
前記シーン重要度情報と再生時間とにより、映像のダイジェストの再生のための再生情報を生成する再生位置情報作成部とを有し、
前記ダイジェスト制御部は、前記シーン重要度演算部と前記比較評価部を繰り返し呼び出して、前記映像の再生時刻からダイジェストとして再生するための再生時刻が決定するためのパラメタの組合せを、前記比較評価部が評価する相関度が大きくなるようにすることを特徴とする映像装置。
In a video device to play a video digest,
A recording / playback unit for recording / playback the video;
A digest video information creation unit for reproducing the digest,
The recording / playback unit
A video storage unit for storing data relating to the video;
An operation unit for inputting an operation instruction to the device from the user;
A recording / playback control unit for controlling the recording / playback operation of the video;
A display unit for displaying the video to the user,
The digest video information creation unit
A digest control unit for controlling each unit;
An operation information analysis unit for analyzing the operation information of the user;
A feature extraction unit for extracting features from video data of the video;
A scene importance calculation unit that generates scene importance information that is importance in each scene evaluated by the feature information with respect to a scene that is a playback time interval in the video to be played back as a digest;
A comparative evaluation unit that evaluates the correlation between the operation importance of the operation importance information and the scene importance of the scene importance information;
A playback position information creating unit that creates playback information for playback of a video digest based on the scene importance level information and playback time;
The digest control unit repeatedly calls the scene importance calculation unit and the comparison evaluation unit to determine a combination of parameters for determining a reproduction time for reproduction as a digest from the reproduction time of the video. A video apparatus characterized in that the degree of correlation evaluated by is increased.
コンピュータまたは映像装置上で実行され、映像装置で再生される映像のダイジェストを再生するためのダイジェスト映像情報作成するプログラムにおいて、
(1)映像の映像データから特徴情報を抽出する機能と、
(2)ユーザが視聴する映像に対する操作の操作情報を取得する機能と、
(3)前記操作情報の各操作の得点付けによって、操作情報によって評価される前記映像の各時刻における重要度である操作重要度情報を生成する機能と、
(4)シーン重要度演算部が、一つ以上のパラメタによって、ダイジェストとして再生するための前記映像における再生の時刻の区間であるシーンを決定して、前記シーンに対して前記特徴情報によって評価される各シーンにおける重要度であるシーン重要度情報を生成する機能と、
(5)前記操作重要度情報と前記シーン重要度情報との相関度を評価し、前記相関度を高めるパラメタの組み合わせを決定する機能とを有し、
前記(4)と前記(5)の機能の実行を繰り返すことにより、ダイジェスト再生のための最適なシーン重要度情報を生成し、
前記生成された前記シーン重要度情報と、ダイジェスト再生の時間とにより、ダイジェスト再生位置情報を生成することを特徴とするプログラム。
In a program for creating digest video information for playing back a digest of a video executed on a computer or video device and played back on the video device,
(1) a function of extracting feature information from video data of a video;
(2) a function of acquiring operation information of an operation for video viewed by the user;
(3) a function of generating operation importance information that is importance at each time of the video evaluated by the operation information by scoring each operation of the operation information;
(4) The scene importance calculation unit determines a scene that is a playback time interval in the video for playback as a digest by using one or more parameters, and the scene is evaluated by the feature information. A function for generating scene importance information, which is the importance in each scene,
(5) a function of evaluating a correlation between the operation importance information and the scene importance information and determining a combination of parameters for increasing the correlation;
By repeating the execution of the functions (4) and (5), optimal scene importance information for digest playback is generated,
A program for generating digest playback position information based on the generated scene importance level information and digest playback time.
JP2007162741A 2007-06-20 2007-06-20 Digest video information creation method, digest video information creation program, and video apparatus Active JP4925938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007162741A JP4925938B2 (en) 2007-06-20 2007-06-20 Digest video information creation method, digest video information creation program, and video apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007162741A JP4925938B2 (en) 2007-06-20 2007-06-20 Digest video information creation method, digest video information creation program, and video apparatus

Publications (2)

Publication Number Publication Date
JP2009004994A true JP2009004994A (en) 2009-01-08
JP4925938B2 JP4925938B2 (en) 2012-05-09

Family

ID=40320915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007162741A Active JP4925938B2 (en) 2007-06-20 2007-06-20 Digest video information creation method, digest video information creation program, and video apparatus

Country Status (1)

Country Link
JP (1) JP4925938B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220089A (en) * 2009-03-18 2010-09-30 Sony Corp Digest reproducing apparatus, digest reproducing method and program
JP2011130279A (en) * 2009-12-18 2011-06-30 Sony Corp Content providing server, content reproducing apparatus, content providing method, content reproducing method, program and content providing system
JP2011193300A (en) * 2010-03-15 2011-09-29 Omron Corp Image processing apparatus, image processing method, image processing system, control program, and recording medium
JP2012074759A (en) * 2010-09-27 2012-04-12 Toshiba Corp Content summarizing device and content summary display device
WO2014027475A1 (en) * 2012-08-14 2014-02-20 三菱電機株式会社 Recording playback device, recording playback method, recording device, and playback device
JP2014053874A (en) * 2012-09-10 2014-03-20 Toshiba Corp Scene reproduction device, and scene reproduction method
US8819033B2 (en) 2010-09-15 2014-08-26 Kabushiki Kaisha Toshiba Content processing device
WO2015080212A1 (en) * 2013-11-29 2015-06-04 マチオリ株式会社 Content evaluation method, device, system, server device and terminal device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065185A (en) * 2003-08-20 2005-03-10 Sony Corp Information signal processing apparatus, information signal processing method, information signal processing system, information signal processing method, information signal reproducing apparatus and information signal reproducing method
JP2005064561A (en) * 2003-08-11 2005-03-10 Hitachi Ltd Video reproducing method and system
JP2005117541A (en) * 2003-10-10 2005-04-28 Sony Corp Editing device and editing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064561A (en) * 2003-08-11 2005-03-10 Hitachi Ltd Video reproducing method and system
JP2005065185A (en) * 2003-08-20 2005-03-10 Sony Corp Information signal processing apparatus, information signal processing method, information signal processing system, information signal processing method, information signal reproducing apparatus and information signal reproducing method
JP2005117541A (en) * 2003-10-10 2005-04-28 Sony Corp Editing device and editing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220089A (en) * 2009-03-18 2010-09-30 Sony Corp Digest reproducing apparatus, digest reproducing method and program
JP2011130279A (en) * 2009-12-18 2011-06-30 Sony Corp Content providing server, content reproducing apparatus, content providing method, content reproducing method, program and content providing system
JP2011193300A (en) * 2010-03-15 2011-09-29 Omron Corp Image processing apparatus, image processing method, image processing system, control program, and recording medium
US8819033B2 (en) 2010-09-15 2014-08-26 Kabushiki Kaisha Toshiba Content processing device
JP2012074759A (en) * 2010-09-27 2012-04-12 Toshiba Corp Content summarizing device and content summary display device
WO2014027475A1 (en) * 2012-08-14 2014-02-20 三菱電機株式会社 Recording playback device, recording playback method, recording device, and playback device
JP2014053874A (en) * 2012-09-10 2014-03-20 Toshiba Corp Scene reproduction device, and scene reproduction method
WO2015080212A1 (en) * 2013-11-29 2015-06-04 マチオリ株式会社 Content evaluation method, device, system, server device and terminal device

Also Published As

Publication number Publication date
JP4925938B2 (en) 2012-05-09

Similar Documents

Publication Publication Date Title
JP5322550B2 (en) Program recommendation device
KR101001172B1 (en) Method and apparatus for similar video content hopping
JP4611209B2 (en) Content playback device
JP4925938B2 (en) Digest video information creation method, digest video information creation program, and video apparatus
DK2418594T3 (en) Visualization and grouping method of maintaining the order of the assets in a playlist.
JP4224095B2 (en) Information processing apparatus, information processing program, and information processing system
US20110320471A1 (en) Movie Recommendation System and Movie Recommendation Method
US8103149B2 (en) Playback system, apparatus, and method, information processing apparatus and method, and program therefor
US20080109415A1 (en) Preference extracting apparatus, preference extracting method and preference extracting program
JP4556752B2 (en) Recording / playback apparatus having commercial viewing control function
WO2000040011A1 (en) Method for editing video information and editing device
JP2007336283A (en) Information processor, processing method and program
JP2002281449A (en) Video device
JP2010514302A (en) Method for creating a new summary for an audiovisual document that already contains a summary and report and receiver using the method
JP2010246000A (en) Video search reproduction device
KR101397331B1 (en) System and method for summary collection and playing of scenes and recording medium thereof
KR100370249B1 (en) A system for video skimming using shot segmentation information
JP2008099012A (en) Content reproduction system and content storage system
JP2012089186A (en) Content management device and content reproduction device
JP5266981B2 (en) Electronic device, information processing method and program
JP2005167456A (en) Method and device for extracting interesting features of av content
JP2007184674A (en) Digest making system
JP2005328329A (en) Picture reproducer, picture recording-reproducing device and method of reproducing picture
KR100678895B1 (en) Apparatus and method for creating model-based segment metadata
JP2008205621A (en) Apparatus and method for recommending program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4925938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250