JP2005109566A - Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program - Google Patents

Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program Download PDF

Info

Publication number
JP2005109566A
JP2005109566A JP2003336212A JP2003336212A JP2005109566A JP 2005109566 A JP2005109566 A JP 2005109566A JP 2003336212 A JP2003336212 A JP 2003336212A JP 2003336212 A JP2003336212 A JP 2003336212A JP 2005109566 A JP2005109566 A JP 2005109566A
Authority
JP
Japan
Prior art keywords
video
information
event
explanatory
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003336212A
Other languages
Japanese (ja)
Other versions
JP3923932B2 (en
Inventor
Koji Yamamoto
晃司 山本
Takashi Ida
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003336212A priority Critical patent/JP3923932B2/en
Publication of JP2005109566A publication Critical patent/JP2005109566A/en
Application granted granted Critical
Publication of JP3923932B2 publication Critical patent/JP3923932B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide video image summary equipment forming a summary video image where an explanation is added to a video section interesting for a user by a telop or voice narration. <P>SOLUTION: A significance calculating section 106 calculates the significance of each event included in a video image. A video section selecting section 107 selects a video section used as a summary video image from that video image. An event selecting section 108 for an explanation note selects an event becoming an object for forming the explanation note from an event included in the video image, and a stipulation forming section 109 forms a stipulation. An integrating section 110 creates summary video information based on a selected video section and the explanation note thus formed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、映像情報から要約映像情報を作成する映像要約装置及び方法、映像情報から説明文を生成する説明文生成装置及び方法、並びにプログラムに関する。   The present invention relates to a video summarization apparatus and method for creating summary video information from video information, an explanatory text generation apparatus and method for generating explanatory text from video information, and a program.

近年、ディジタル衛星放送による放送の多チャンネル化等、情報インフラの発展により、多くの映像コンテンツが流通するようになっている。一方で、計算機の処理能力の向上やADSL、FTTHなどのブロードバンド・ネットワークの普及に伴い、映像をパソコンや携帯端末上の記憶装置に録画して視聴したり、ネットワークを通じて配信された映像を視聴したりすることが一般的になっている。そのため、ユーザは今までと同じ時間でより多くのコンテンツを視聴するために自分の興味ある部分だけを視聴したり、パソコンで録画した映像を携帯端末向けに短く要約して、外出先で視聴したりするなど、視聴形態も多様化していくと考えられる。   In recent years, with the development of information infrastructure such as multi-channel broadcasting by digital satellite broadcasting, a large amount of video content has been distributed. On the other hand, with the improvement of computer processing capacity and the spread of broadband networks such as ADSL and FTTH, video can be recorded and viewed on a storage device on a personal computer or portable terminal, or video distributed over the network can be viewed. It has become common to do. As a result, users can watch only their part of interest in order to view more content in the same amount of time as before, or briefly summarize videos recorded on a personal computer for viewing on the go. The viewing style is expected to diversify.

また、映像コンテンツの製作者側からの視点に立つと、ユーザの視聴環境の多様化は同じ内容のコンテンツであっても、テレビ放送向け、ブロードバンド放送向け、携帯端末向けと視聴環境に応じて、複数のバリエーションを作成する必要が生じ、製作コストが増大する。   Also, from the viewpoint of the producer of video content, even if the content of the viewing environment of users is the same content, depending on the viewing environment for TV broadcasting, broadband broadcasting, and mobile devices, It becomes necessary to create a plurality of variations, and the manufacturing cost increases.

そこで、映像の中のイベントをイベント列として記述し、ユーザの嗜好とのマッチングに応じて自動的に要約する装置や方法が提案されている。例えば、イベントごとの重要度を求め、該当するイベントの区間を要約映像として選択する方法(例えば、特許文献1参照)や、要約映像そのものに対する説明を生成する方法(例えば、特許文献2参照)がある。
特許第3176893号公報 特開2001−275058号公報
In view of this, there have been proposed devices and methods for describing events in a video as an event sequence and automatically summarizing them according to matching with user preferences. For example, there is a method of obtaining importance for each event and selecting a section of the corresponding event as a summary video (for example, see Patent Document 1) or a method for generating an explanation for the summary video itself (for example, see Patent Document 2). is there.
Japanese Patent No. 3176893 JP 2001-275058 A

元映像から、ユーザの興味のあるシーンを集めた要約映像は、コンテンツの内容を知る上で、重要なシーンを必ずしも含むとは限らない。例えば、スポーツの試合において、味方チームの映像を中心にした要約映像を作成する場合、相手チームの得点シーンなどが含まれずに、試合展開が分からなくなる場合がある。   A summary video obtained by collecting scenes of interest of the user from the original video does not necessarily include an important scene in order to know the content. For example, when creating a summary video centering on a video of a teammate in a sport game, the game development may not be known because the scoring scene of the opponent team is not included.

また、試合全体の要約を作成したい場合、全体のシーン構成を考慮して、重要でないシーンもいくらか含めたい場合がある。しかし、先の提案では必ずしもこのようなシーン構成を考慮したコンテンツを生成できる要約方法とはなっていなかった。例えば、試合の後半にばかり重要なシーンがある場合、前半のシーンが全く含まれない要約映像が作成される場合がある。   Also, if you want to create a summary of the entire game, you may want to include some unimportant scenes, taking into account the overall scene structure. However, in the previous proposal, it has not necessarily been a summarizing method capable of generating content in consideration of such a scene configuration. For example, if there is an important scene only in the second half of the game, a summary video that does not include the first half scene may be created.

本発明は、上記事情を考慮してなされたものであり、ユーザの興味のある映像区間に対して、テロップや音声ナレーションなどによる説明を付加した要約映像を作成する映像要約装置、映像要約方法及びプログラムを提供することを目的とする。   The present invention has been made in consideration of the above circumstances, and a video summarization apparatus, a video summarization method, and a video summarization method for creating a summary video in which a description by a telop or voice narration is added to a video section of interest to a user The purpose is to provide a program.

また、本発明は、より効果的に説明文を生成する説明文生成装置、説明文生成方法及びプログラムを提供することを目的とする。   Moreover, an object of this invention is to provide the explanatory note production | generation apparatus, the explanatory note production | generation method, and program which produce an explanatory note more effectively.

本発明は、映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出し、前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択し、前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択し、選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成し、選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成することを特徴とする。   The present invention calculates the importance of each event based on the first information regarding the contents of the event included in the video, and calculates the second information regarding the video section of the event included in the video and the importance. Based on the video, a video section to be used as a summary video is selected, an event to be created as an explanatory text is selected from events included in the video, and the event related to the selected event is selected. An explanatory text relating to the event is generated based on the first information, and summary video information is generated based on the selected video section and the generated explanatory text.

また、本発明は、映像内に含まれるイベントに関係する遷移状態を保持し、前記映像内に含まれるイベントの内容に関するイベント情報を入力し、入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新し、前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択し、選択された前記説明文テンプレート情報を用いて説明文を生成することを特徴とする。   Further, the present invention holds a transition state related to an event included in the video, inputs event information regarding the content of the event included in the video, and inputs the event information and a predetermined transition condition The transition state to be retained is updated based on the transition state, and based on the transition related to the transition state update, the explanatory note template information to be used for the creation of the explanatory note is selected from the plurality of explanatory note template information. An explanatory note is generated using the selected explanatory note template information.

本発明によれば、ユーザの興味のある映像区間に対して、テロップや音声ナレーションなどによる説明を付加した要約映像を作成することができる。   According to the present invention, it is possible to create a summary video to which a description by telop, voice narration, or the like is added to a video section in which the user is interested.

以下、図面を参照しながら本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る映像要約装置の基本構成例を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a basic configuration example of a video summarizing apparatus according to the first embodiment of the present invention.

図1に示されるように、本映像要約装置は、重要度算出部106、映像区間選択部107、説明文用イベント選択部108、説明文作成部109、統合部110を備えている。   As shown in FIG. 1, the video summarization apparatus includes an importance level calculation unit 106, a video segment selection unit 107, an explanatory text event selection unit 108, an explanatory text creation unit 109, and an integration unit 110.

元映像情報101は、例えばテレビの番組やユーザが撮影した映像など、様々な映像コンテンツがこれに該当する。   The original video information 101 corresponds to various video contents such as TV programs and videos taken by users.

本実施形態では、元映像情報101は、デジタルデータとする。デジタルデータの形式は、どのような形式でもよい(例えば、MPEG−1やMPEG−2などの圧縮データ形式を用いるのが一般的である)。もちろん、ソース映像がアナログデータでもよいが、この場合には、予め外部でデジタルデータに変換するか、または、本映像要約装置がアナログ・デジタル変換を備える。   In the present embodiment, the original video information 101 is digital data. The format of the digital data may be any format (for example, a compressed data format such as MPEG-1 or MPEG-2 is generally used). Of course, the source video may be analog data, but in this case, the video is converted into digital data externally in advance, or the video summarization apparatus includes analog-digital conversion.

映像コンテンツは、1つでも複数でもかまわなく、タイトルやIDなど映像コンテンツを一意に特定できる情報と、再生を開始する時間またはフレーム番号をと与えれば、任意の映像コンテンツを任意の位置から再生可能である。   The video content can be one or more, and any video content can be played from any position, given the information that uniquely identifies the video content, such as title and ID, and the playback start time or frame number. It is.

映像属性情報102は、映像コンテンツに関する様々な属性情報(メタデータ)である。図2に、属性情報の一例を示す。属性情報には、映像コンテンツ内で起きた事象をイベントとして列挙したイベント列が含まれる。イベントは、人物や物体の名称や動き(サッカーの場合、「○○選手のシュート」など)や、時間的な区切り(「試合開始」、「試合終了」など)などの情報がその発生時間と共に記述される。発生時刻の記述は、シーン情報のように区間の始点・終点を記述する形式でもよいし、イベントが発生した瞬間の時刻を記述する形式でもよい。その他、属性情報には、スポーツの種目、対戦チーム名、日時、場所、出場選手、試合結果など、映像コンテンツ中の特定の時間に関連しない情報も含んでよい。また、ここでは具体例としてスポーツを挙げたが、属性情報はコンテンツに応じて適宜記述することができる。例えば、ドラマや情報番組についても登場人物やトピックのタイトルを用いることで、同様に記述することができる。   The video attribute information 102 is various attribute information (metadata) related to the video content. FIG. 2 shows an example of attribute information. The attribute information includes an event sequence listing events that occurred in the video content as events. The event includes information such as names and movements of people and objects (such as “XX player's shot” in the case of soccer) and time breaks (such as “match start” and “match end”) along with the time of occurrence. Described. The description of the occurrence time may be a format describing the start point / end point of the section as in the scene information, or may be a format describing the time when the event occurs. In addition, the attribute information may include information not related to a specific time in the video content, such as a sport item, a battle team name, a date, a place, a participating player, and a game result. In addition, although a sport is given here as a specific example, the attribute information can be appropriately described according to the content. For example, drama and information programs can be described in the same manner by using characters and topic titles.

要約作成情報103は、要約を作成するときのユーザの嗜好や、要約映像の時間、要約アルゴリズムのパラメータなどを含む情報である。ユーザの嗜好とは、ユーザが優先的に視聴したい部分を求めるためのキーワードなどの情報である。スポーツの試合であれば、好みのチームや好みの選手などの情報がこれに該当する。キーワードは、見たい対象だけ記述してもよいし、見たい対象だけではなく、見たくない対象についての記述をも可能にしてもよい。これらの情報は、直接入力してもよいし、毎回同じような条件を入力する手間を省くために予め内部あるいは外部の記憶装置上に保持しておいてもよい。   The summary creation information 103 is information including user preferences when creating a summary, summary video time, summary algorithm parameters, and the like. The user's preference is information such as a keyword for obtaining a portion that the user wants to watch preferentially. In the case of a sporting game, information such as a favorite team and a favorite player corresponds to this. The keyword may be described only for the object that the user wants to see, or it may be possible to describe not only the object that the user wants to see but also the object that the user does not want to see. These pieces of information may be input directly, or may be stored in advance on an internal or external storage device in order to save the trouble of inputting the same condition every time.

説明文作成情報104は、映像属性情報102に含まれるイベントから、説明文を作成するときに用いるテンプレート(雛形)を含む情報である。ここで用いるテンプレートとは、例えば、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
のように、固定された文字列と可変の文字列の組み合わせによって与えられる文字列である。この例では、「(時間)」など()によって示された文字列が可変の文字列を表している。
The explanatory note creation information 104 is information including a template (template) used when creating an explanatory note from an event included in the video attribute information 102. The template used here is, for example,
"(Time), (Team) chance. (Player) (Play)!"
In this way, the character string is given by a combination of a fixed character string and a variable character string. In this example, the character string indicated by () such as “(time)” represents a variable character string.

要約映像情報105は、本映像要約装置によって生成させる要約映像である。要約映像情報は、元映像コンテンツの一部と、生成された文字等の可視的情報や音声等の可聴的情報による説明文(例えばテロップやナレーションなど)を含む。また、元映像コンテンツとは別に用意されたコンテンツ(例えば、タイトル画面など)を含めてもかまわない。また、要約映像情報の形態は、元映像とは別の映像コンテンツとして、それ単体で再生できる情報であってもよいし、元映像コンテンツを参照して再生しながら、文字や音声による説明文を表示・再生するものであってもよい。後者には、SMILなど複数のメディアを同期して表示することのできる記述言語を用いることができる。音声の再生には、例えば、音声合成を用いることができる。   The summary video information 105 is summary video generated by the video summary device. The summary video information includes a part of the original video content and an explanatory text (eg, telop or narration) using visible information such as generated characters and audible information such as audio. Also, content prepared separately from the original video content (for example, a title screen) may be included. In addition, the summary video information may be information that can be played back independently as video content different from the original video, or a text or audio description may be provided while playing back with reference to the original video content. It may be displayed / reproduced. For the latter, a description language such as SMIL that can display a plurality of media synchronously can be used. For speech reproduction, for example, speech synthesis can be used.

重要度算出部106は、入力された映像属性情報102および要約作成情報103に基づいて、映像属性情報102に含まれるイベントごとにその重要度を算出する。イベントの重要度の算出方法は、当該イベントに含まれる文字列と要約作成情報103に含まれるキーワードとの一致の具合の評価値を求めることによって行う。例えば、重要度をwとし、キーワードの総数をNとして、次に例示する式により重要度wを求めることができる。ただし、次式においてαkは、要約作成情報103に含まれるk番目のキーワードの重み値を示すパラメータである。
w=ΣakM(χ)
ここで、Σはk=1〜Nの範囲を総和の対象とする。
また、χ番目のキーワードが一致する場合には、M(χ)=1とし、
χ番目のキーワードが一致しない場合には、M(χ)=0とする。
The importance calculation unit 106 calculates the importance for each event included in the video attribute information 102 based on the input video attribute information 102 and summary creation information 103. The event importance level is calculated by obtaining an evaluation value of the degree of matching between the character string included in the event and the keyword included in the summary creation information 103. For example, if the importance is w and the total number of keywords is N, the importance w can be obtained by the following example. In the following expression, α k is a parameter indicating the weight value of the k-th keyword included in the summary creation information 103.
w = Σa k M (χ)
Here, Σ is a summation target in the range of k = 1 to N.
If the χ th keyword matches, M (χ) = 1,
If the χ th keyword does not match, M (χ) = 0.

なお、キーワードとして見たくない対象についての記述をも可能にする構成においては、M(χ)について、
χ番目のキーワードが一致し、χ番目のキーワードが見たい映像に係るキーワードである場合には、M(χ)=1とし、
χ番目のキーワードが一致し、χ番目のキーワードが見たくない映像に係るキーワードである場合には、M(χ)=−1とし、
χ番目のキーワードが一致しない場合には、M(χ)=0とする。
In addition, in the configuration that allows the description of the object that you do not want to see as a keyword, for M (χ),
If the χ th keyword matches and the χ th keyword is a keyword related to the video that you want to see, set M (χ) = 1,
If the χ th keyword matches and the χ th keyword is a keyword related to a video that you do not want to see, set M (χ) = − 1,
If the χ th keyword does not match, M (χ) = 0.

映像区間選択部107は、算出された重要度に従って、要約映像に含める元映像コンテンツの区間を選択する。   The video segment selection unit 107 selects a segment of the original video content to be included in the summary video according to the calculated importance.

図3に、個々のイベントに対応する区間(開始時間と終了時間)が求まっている場合(本実施形態では映像属性情報102に記述されている場合)の区間選択手順の一例(第1の区間選択方法)を示す。   FIG. 3 shows an example of the section selection procedure (first section) when sections (start time and end time) corresponding to individual events are obtained (in the present embodiment, described in the video attribute information 102). Selection method).

ステップS11では、イベント列の中から、まだ要約映像に含まれていない映像で、重要度が最大のイベントを検索し、これをイベントiとする。   In step S11, an event having the highest importance level is searched from the event sequence for videos not yet included in the summary video, and this is set as event i.

ステップS12では、既に要約映像に含まれるイベントの合計時間とイベントiの時間とを加算し、これを要約作成情報103で指定される要約映像の時間と比較する。越えない場合は、ステップS13へ進み、このイベントiを、要約映像を構成するイベントの1つとして追加する。そして、ステップS11へ戻り、次のイベントの検索を行う。   In step S12, the total time of the events already included in the summary video and the time of event i are added, and this is compared with the time of the summary video specified by the summary creation information 103. If not, the process proceeds to step S13, and this event i is added as one of the events constituting the summary video. Then, the process returns to step S11 to search for the next event.

しかして、ステップS12において、選択済みイベントの時間とイベントiの時間との合計が、要約映像時間を越える場合には、処理を終了する。   Thus, in step S12, if the sum of the time of the selected event and the time of event i exceeds the summary video time, the process ends.

この手順は、指定された時間に合うように、時間をしきい値として要約映像を生成するものであったが、生成される要約映像の時間が重要でないような場合には、例えば、重要度をしきい値とし、しきい値以上の重要度を持つイベントを選択してもよい。   This procedure was to generate a summary video using the time as a threshold to match the specified time. However, if the time of the generated summary video is not important, for example, the importance level may be changed. An event having an importance level equal to or higher than the threshold value may be selected as the threshold value.

また、しきい値以上の重要度を持つイベントのみを対象として、図3の手順を行う方法も可能である。   Further, a method of performing the procedure of FIG. 3 for only events having an importance level equal to or higher than a threshold value is also possible.

その他、イベントの重要度のしきい値や、要約映像の時間のしきい値などを用いた区間選択手順には、種々のバリエーションが可能である。   In addition, various variations are possible for the section selection procedure using the threshold value of the importance level of the event and the threshold value of the time of the summary video.

図4に、区間選択手順の他の例(第2の区間選択方法)を示す。この手順例では個々のイベントを時間に対する重要度の関数として表現して、要約映像の区間を選択する方法である。以下、本手順の概要を説明する(本手順の詳細について例えば特願2002−287861号公報参照)。   FIG. 4 shows another example of the section selection procedure (second section selection method). In this example procedure, each event is expressed as a function of importance with respect to time, and a section of the summary video is selected. Hereinafter, the outline of this procedure will be described (see Japanese Patent Application No. 2002-287861 for details of this procedure).

ステップS21では、イベントの重要度と重要度関数からイベント重要度曲線を算出する。   In step S21, an event importance curve is calculated from the event importance and the importance function.

イベント重要度関数とは、イベント区間の時間による重要度の変化を表す関数である。関数の式はイベントごとに自由に決めることができる。この関数式を重要度に基づいて変化させ、イベント重要度曲線を求める。   The event importance function is a function that represents a change in importance according to the time of an event section. The function expression can be freely determined for each event. This function formula is changed based on the importance to obtain an event importance curve.

一例としては、イベント重要度関数にイベントの重要度を乗ずる。i番目のイベントの関数式をfi(t)とすると、イベント重要度曲線の式は、
i=(wi+ei)fi(t)
となる。ただし、wiはi番目のイベントの重要度である。また、eiは、補正項であり、wi以外の要因を反映させたいときに用いる。
As an example, the event importance function is multiplied by the event importance. If the function formula of the i-th event is f i (t), the formula of the event importance curve is
E i = (w i + e i ) f i (t)
It becomes. Here, w i is the importance of the i-th event. E i is a correction term and is used when a factor other than w i is to be reflected.

ステップS22では、図5(a)に例示するように、イベント重要度曲線201と時間重要度曲線202とを加算し、コンテンツ全体の時間ごとの重要度変化を示す重要度曲線203を算出する。   In step S22, as illustrated in FIG. 5A, the event importance curve 201 and the time importance curve 202 are added to calculate an importance curve 203 indicating the change in importance of the entire content over time.

ここで、時間重要度曲線とは、イベントの発生とは独立に、コンテンツ全体の時間による重要度の変化を示す。   Here, the time importance curve indicates a change in importance with time of the entire content, independently of the occurrence of an event.

時間重要度曲線の式をT(t)とすると、コンテンツ全体の重要度曲線は、
ER(t)=Max(Ei(t))+T(t)
となり、イベントの重要度と時間による重要度の両者の合計となる。ただし、Max(Ei(t))は時間tにおけるEi(t)の最大値である。
If the time importance curve equation is T (t), the importance curve for the entire content is
ER (t) = Max (E i (t)) + T (t)
It becomes the sum of both the importance of the event and the importance by time. However, Max (E i (t)) is the maximum value of E i (t) at time t.

なお、上記の代わりに、ER(t)=ΣEi(t)+T(t)としてもよい。ここで、Σ(Ei(t))は全イベントについてのEi(t)の総和である。 Instead of the above, ER (t) = ΣE i (t) + T (t) may be used. Here, Σ (E i (t)) is the sum of E i (t) for all events.

ステップS23では、図5(b)に例示するように、重要度曲線がしきい値を超える区間を要約映像に含まれる区間として選択し、映像区間情報を得る。図5(b)のように、しきい値を小さくするほど、選択される映像区間は長時間になる。なお、区間の選択に用いるしきい値は、例えば、直接指定してもよいし、指定された時間に合うようにしきい値を求めて、その値を用いてもよい。   In step S23, as illustrated in FIG. 5B, a section where the importance curve exceeds the threshold is selected as a section included in the summary video, and video section information is obtained. As shown in FIG. 5B, the smaller the threshold value, the longer the video section selected. Note that the threshold value used for selecting the section may be directly specified, for example, or may be obtained by obtaining the threshold value so as to meet the specified time.

なお、区間選択手順には、上記の第1や第2の区間選択方法以外にも、種々のバリエーションが可能である。   In addition to the first and second section selection methods described above, various variations are possible for the section selection procedure.

説明文用イベント選択部108は、要約映像に用いる文字や音声による説明文(テロップやナレーションなど)の生成に用いるイベントを、イベント列から選択する。基本的には、要約映像の全部に対してのみ説明文を生成する処理と、要約映像の一部に対してのみ説明文を生成する処理と、要約映像の全部又は一部及び要約映像以外の所定の部分に対して説明文を生成する処理と、要約映像以外の所定の部分に対してのみ説明文を生成する処理が考えられる。これらのイベント選択処理は、映像区間選択部107とは独立して処理してもよいし、映像区間選択部107のデータを利用してもよい。   The explanatory note event selection unit 108 selects an event to be used for generating an explanatory sentence (telop, narration, etc.) using characters and sounds used for the summary video from the event sequence. Basically, a process for generating an explanatory text only for the entire summary video, a process for generating an explanatory text for only a part of the summary video, A process for generating an explanatory text for a predetermined part and a process for generating an explanatory text only for a predetermined part other than the summary video are conceivable. These event selection processes may be performed independently of the video segment selection unit 107, or data of the video segment selection unit 107 may be used.

説明文用イベント選択部108で用いられるアルゴリズムは、基本的には、映像区間選択部107で用いられるアルゴリズムと同様の考えに基づくものでよい。例えば、第1の区間選択方法と同様にイベントごとの重要度をもとに、しきい値以上の重要度を持つイベントを選択する方法(第1のイベント選択方法)や、第2の区間選択方法と同様にコンテンツ全体の重要度曲線を求め、しきい値以上の重要度である区間に含まれるイベントを選択する方法(第2のイベント選択方法)がある。もちろん、その他の方法も可能である。   The algorithm used in the explanatory note event selection unit 108 may basically be based on the same idea as the algorithm used in the video section selection unit 107. For example, as in the first section selection method, a method for selecting an event having an importance level equal to or higher than a threshold based on the importance level for each event (first event selection method), or a second section selection Similar to the method, there is a method (second event selection method) of obtaining an importance curve of the entire content and selecting an event included in a section having an importance level equal to or higher than a threshold value. Of course, other methods are possible.

説明文用イベント選択部108が映像区間選択部107のデータを利用する場合には、一例として、区間選択方法とイベント選択方法との間で、しきい値だけを変更して同じ選択方法を用いるものがある。その際、例えば、映像区間の中でも特に重要な一部イベントに対して、重点的に説明文を生成したい場合は、しきい値をより高く設定し、特に重要なイベントだけが選択されるようにすればよい。また、映像区間に含まれないやや重要度の低いイベントに対しても説明文を生成して、詳細な情報を提供したい場合は、しきい値を低く設定し、より広範なイベントが選択されるようにすればよい。イベント選択に用いるしきい値は1つである必要はなく、文字で表現される説明文や音声で表現される説明文など、用途に応じて複数のしきい値を用いてもよい。   When the explanatory text event selector 108 uses the data of the video segment selector 107, as an example, the same selection method is used by changing only the threshold between the segment selection method and the event selection method. There is something. At that time, for example, if you want to generate a descriptive text with priority on some particularly important events in the video section, set a higher threshold so that only the most important events are selected. do it. Also, if you want to provide detailed information by generating a descriptive text for events that are not included in the video section, and you want to provide more detailed information, set a lower threshold and select a wider range of events. What should I do? The threshold value used for event selection does not need to be one, and a plurality of threshold values may be used depending on the application, such as an explanatory text expressed in characters or an explanatory text expressed in speech.

また、映像区間選択部107のデータを利用する他の例としては、先に選択された映像区間に含まれるイベントの中から、説明文作成に用いるイベントを選択する。このときのイベント選択方法は、映像区間の選択方法と同じでもよいし、異なっていてもよい。異なる例としては、第2の区間選択方法で映像区間を選択し、その映像区間に含まれるイベントの中から、第1のイベント選択方法を用いてイベントを選択する。   As another example of using the data of the video section selection unit 107, an event used for creating an explanatory note is selected from events included in the previously selected video section. The event selection method at this time may be the same as or different from the video section selection method. As a different example, a video section is selected by the second section selection method, and an event is selected from events included in the video section by using the first event selection method.

一方、映像区間選択部107とは独立してイベントを選択する例としては、イベント列から第1の区間選択方法で映像区間を、第2のイベント選択方法で説明文用イベントを選択するなど、異なる選択方法を組み合わせて用いる。また、同じ選択方法の組み合わせであっても、重要度算出部106の重み値などのパラメータが異なる場合が例として挙げられる。   On the other hand, as an example of selecting an event independently of the video section selection unit 107, a video section is selected from the event sequence by the first section selection method, an explanatory text event is selected by the second event selection method, etc. Use a combination of different selection methods. Moreover, even when the same selection method is combined, a case where parameters such as the weight value of the importance calculation unit 106 are different is an example.

さらに、例えば、文字等の可視的情報で表現される説明文(以下、文字説明文)と音声等の可聴的情報で表現される説明文(以下、音声説明文)とを併用する場合に、1つのイベント選択方法によって選択された個々のイベントについて、文字説明文を生成するか、音声説明文を生成するか、両者を生成するかを、所定の基準(例えば、当該イベントについて重要度が高く映像区間も選択されている場合には両者、重要度は高くないが映像区間が選択されている場合には音声説明文のみ、映像区間が選択されていない場合には文字説明文のみ、といった基準)によって自動的に決定するか、あるいはユーザがイベントごとに直接指示して決定する方法も可能である。このとき、説明文用イベント選択部108は、選択された各イベントについて、上記の決定内容を特定できる情報を、説明文作成部109へ通知するようにする。なお、この決定処理は、説明文作成部109で行っても構わない。   Furthermore, for example, in the case where an explanatory text expressed by visual information such as characters (hereinafter referred to as text explanatory text) and an explanatory text expressed by audible information such as speech (hereinafter referred to as audio explanatory text) are used together, For each event selected by one event selection method, whether to generate a text explanation, a voice explanation, or both is determined according to a predetermined criterion (for example, the importance of the event is high). If the video section is also selected, both criteria are not high importance, but only the audio description when the video section is selected, and only the text description when the video section is not selected ), Or a method in which the user directs and determines each event directly is also possible. At this time, the explanatory note event selecting unit 108 notifies the explanatory note creating unit 109 of information that can specify the above-described determination content for each selected event. This determination process may be performed by the explanatory note creation unit 109.

また、文字説明文と音声説明文とを併用する場合に、文字説明文に用いるイベントを選択する処理と、文字説明文に用いるイベントを選択する処理とを、独立して行う方法も可能である。   In addition, when a text explanation and a voice explanation are used in combination, a method for selecting an event used for the text explanation and a process for selecting an event used for the text explanation are also possible. .

また、1つのイベント選択方法によって選択された全てのイベントについて、文字説明文と音声説明文の両者を生成しておき、ユーザが、説明文を、文字のみで出力するか、音声のみで出力するか、両者を出力するかを、選択できるようにしてもよい。   In addition, for all events selected by one event selection method, both a text explanation and a voice explanation are generated, and the user outputs the explanation with only letters or with only voice. Alternatively, it may be possible to select whether to output both.

説明文作成部109は、説明文用イベント選択部108で選択された説明文用イベントと説明文作成情報104とから、(文字等の可視的情報や音声等の可聴的情報による)説明文を生成する。   The explanatory note creating unit 109 generates an explanatory sentence (by visual information such as characters or audible information such as voice) from the explanatory note event selected by the explanatory note event selecting unit 108 and the explanatory note creation information 104. Generate.

前述したように、説明文作成情報は、説明文を生成するためのテンプレートを含む情報である。テンプレートとは、例えば、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
のように、固定された文字列と可変の文字列の組み合わせによって、与えられる文字列である。この例では、「(時間)」など()によって示された文字列が可変の文字列を表している。
As described above, the explanatory note creation information is information including a template for generating an explanatory note. A template is, for example,
"(Time), (Team) chance. (Player) (Play)!"
In this way, the character string is given by a combination of a fixed character string and a variable character string. In this example, the character string indicated by () such as “(time)” represents a variable character string.

可変の文字列には、映像属性情報102や要約作成情報103から、直接的あるいは間接的に得ることができる文字列が入る。このようなテンプレートがイベントの種類などによって複数用意される。例えば、イベント列から、
「時間:前半12分、チーム:チームA、選手:X選手、プレイ:シュート」
の情報が得られた場合に、先に例示したテンプレート、すなわち、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
に当てはめて、
「前半12分、チームAのチャンス。X選手のシュート!」
と、説明文が生成される。
The variable character string includes a character string that can be obtained directly or indirectly from the video attribute information 102 and the summary creation information 103. A plurality of such templates are prepared depending on the type of event. For example, from the event sequence:
“Time: First 12 minutes, Team: Team A, Player: Player X, Play: Shoot”
If the information is obtained, the template exemplified above, that is,
"(Time), (Team) chance. (Player) (Play)!"
Apply to
“First half 12 minutes, chance of Team A. X player's shot!”
An explanatory note is generated.

また、2つ以上のイベント列の情報と1つのテンプレートを用いて説明文を生成してもよい。例えば、第1イベントがセンタリングで、第2イベントがシュート、第3イベントがゴールのように、関連するイベントが連続する場合に、これを「(センタリングした選手)が上げたボールを(シュートした選手)がシュート。ゴール!」などと、1つの説明文にまとめることもできる。   Moreover, you may produce | generate description using the information of two or more event sequences, and one template. For example, if the first event is centering, the second event is a shot, the third event is a goal, and the related events are continuous, this is indicated as “the player who shot (the player who shot the center) ) Is a shoot, a goal! ”And so on.

イベントの関連性を判断するには、関連イベントとするイベントの種類を列挙した情報を作成し、入力されてくるイベント列との間で比較を行えばよい。例えば、前述の例の場合、「センタリング、シュート、ゴール」とイベントの種類を列挙した情報を作成しておく。イベントの種類以外に時間的に近いイベントのみをまとめるためにイベント発生時刻の間隔などを記述しておいてもよい。   In order to determine the relevance of an event, information that enumerates the types of events that are related events may be created and compared with an input event sequence. For example, in the case of the above example, “centering, shoot, goal” and information listing the event types are created. In order to collect only events that are close in time other than the event type, an interval of event occurrence times may be described.

なお、説明文作成部109は、例えば、文字説明文と音声説明文との両方を作成する可能性がある場合には、文字説明文を作成するための部分と、音声説明文を作成するための部分とを兼ね備えるものとする。もちろん、文字説明文のみ作成する場合には、文字説明文を作成するための部分のみ備えればよい。音声説明文のみ作成する場合についても同様である。   For example, when there is a possibility of creating both a text explanation and a voice explanation, the explanation creation unit 109 creates a part for creating a text explanation and a voice explanation. It shall be combined with this part. Of course, when only the text description is created, only the part for creating the text description needs to be provided. The same applies to the case where only the audio description is created.

統合部110は、映像区間情報と文字テロップや音声ナレーションによる説明文とを統合し、両方の情報を含んだ要約映像情報を作成する。文字の表示や音声の発話のタイミングは、イベントの発生時刻や映像区間に合わせて行う。発生時刻に合わせる場合、発生時刻の前に適当な間隔をおいて表示、発話したり、発話区間の特定の位置(例えば中間点)がイベントの発生時刻となるように表示、発話したりするようにタイミングを調整すればよい。また、映像区間に合わせる場合は、その区間の開始点や終了点から適当な間隔をとって表示、発話すればよい。もちろん、これらの複数の手法を組み合わせて、例えば、文字テロップは映像区間に合わせ、音声ナレーションはイベントの発生時刻に合わせて用いるなどしてもよい。   The integration unit 110 integrates the video section information and the explanatory text by the character telop or voice narration, and creates summary video information including both pieces of information. The display timing of the characters and the voice utterance are performed in accordance with the event occurrence time and the video section. When adjusting to the occurrence time, display and speak at an appropriate interval before the occurrence time, or display and speak so that a specific position in the utterance section (for example, the midpoint) becomes the event occurrence time. The timing may be adjusted. In addition, when adjusting to the video section, display and speaking may be performed with an appropriate interval from the start point and end point of the section. Of course, by combining these methods, for example, the character telop may be used in accordance with the video section, and the voice narration may be used in accordance with the event occurrence time.

統合時には、テロップのオーバーレイ表示や、音声合成による音声ナレーションを作成して、要約映像に含めてもよいし、テキストの状態で要約映像情報として記述して、再生装置側で、オーバーレイ表示音声合成を行ってもよい。   At the time of integration, telop overlay display and voice narration by voice synthesis may be created and included in the summary video, or described as summary video information in the text state, and overlay display voice synthesis is performed on the playback device side. You may go.

なお、上記では、統合部11は、選択された映像区間情報と生成された説明文情報とを単純に重ね合わせて、1つの映像要約情報として出力する例を示したが、映像区間や音量の調整を含むようにしてもよい。   In the above description, the integration unit 11 simply superimposes the selected video section information and the generated explanatory text information and outputs the information as one video summary information. Adjustments may be included.

図6に、この場合の統合部110の処理手順例を示す。なお、本処理手順において、ステップS31及びステップS32は、不要であれば、どちらかを省略してもよい。   FIG. 6 shows a processing procedure example of the integration unit 110 in this case. In this processing procedure, either step S31 or step S32 may be omitted if unnecessary.

ステップS31では、映像区間情報を説明文情報の表示(テロップ)、再生(音声ナレーション)のタイミングに合わせて調整する。   In step S31, the video section information is adjusted according to the timing of display (telop) and reproduction (voice narration) of the explanatory text information.

例えば、音声ナレーションの発話時間に対して映像区間が短すぎる場合に、音声ナレーションが収まるように映像区間を拡張する。拡張した部分の時間は、他の区間(ナレーションの短い区間など)を短縮することで、吸収してもよいし、そのままにしておいてもよい。なお、発話時間の代わりに文字数や単語数を用いてもよい。   For example, when the video section is too short with respect to the speech narration speech time, the video section is extended so that the voice narration can be accommodated. The extended time may be absorbed by shortening other sections (such as sections with short narration), or may be left as it is. Note that the number of characters and the number of words may be used instead of the speech time.

また、例えば、図7の調整前の映像の或る映像区間301に対して、ナレーション303a,303bを挿入したい場合を考える。この場合、イベントの発生時刻の近傍の区間302にはナレーションは入れずに、歓声だけを利用し、その前後にナレーションを挿入するようにしてもよい。図7において、斜線で表されているのがナレーションの時間長である。図7の例では、ナレーション303aは問題ないが、ナレーション303bは挿入先の区間に対して長すぎるため、そのまま挿入すると映像区間301の終端を越えてしまう。そこで、映像区間を301から304のように、後方へずらすことで、両方のナレーションが収まるように調整することができる。   For example, consider a case where narrations 303a and 303b are to be inserted into a certain video section 301 of the video before adjustment in FIG. In this case, the narration may be inserted before and after the cheering without using the narration in the section 302 near the event occurrence time. In FIG. 7, the time length of the narration is represented by the oblique lines. In the example of FIG. 7, there is no problem with the narration 303a, but since the narration 303b is too long for the insertion destination section, if inserted as it is, the end of the video section 301 is exceeded. Therefore, the video section can be adjusted so that both narrations can be accommodated by shifting backward from 301 to 304.

ステップS32では、映像に含まれる音声の音量を調節する。例えば、音声ナレーションを再生する部分の映像の音量を、音声ナレーションが聞き取りやすくなるように小さくしたり、ゴールなどのイベントが発生した部分の歓声などを大きくしたりする。   In step S32, the volume of the audio included in the video is adjusted. For example, the volume of the video for reproducing the voice narration is reduced so that the voice narration can be easily heard, or the cheer of the part where an event such as a goal occurs is increased.

ステップS33では、調整された映像とテロップやナレーションをまとめた要約映像情報を作成する。   In step S33, summary video information in which the adjusted video is combined with the telop and narration is created.

以上のように本実施形態によれば、映像情報の中から、ユーザの入力したキーワードや時間などの条件やユーザの好みに基づいて、ユーザの興味のある映像区間のみを選択し、それにテロップや音声ナレーションを付加した要約映像を作成することができる。また、省略されてしまった重要なシーンを説明文で補うことで、より内容を理解しやすい要約映像を作成することができる。   As described above, according to the present embodiment, from the video information, only the video section in which the user is interested is selected based on the conditions such as the keyword and time input by the user and the user's preference, and a telop or A summary video with voice narration can be created. Also, by supplementing important scenes that have been omitted with explanatory texts, it is possible to create a summary video that makes it easier to understand the contents.

したがって、本実施形態によれば、ユーザは1つの番組をまるごと再生することなく、自分の興味のある部分だけを含む要約を作成して、再生することが可能である。その際に、テロップや音声ナレーションによる説明を映像に現れない部分を含めて、ユーザの嗜好に合った文章や口調で受けることができる。   Therefore, according to the present embodiment, the user can create and reproduce a summary including only a portion of his / her interest without reproducing one whole program. At that time, it is possible to receive explanations based on telops and voice narrations in sentences and tone that match the user's preference, including portions that do not appear in the video.

(第2の実施形態)
図8は、本発明の第2の実施形態に係る説明文生成装置の基本構成例を示す図である。
(Second Embodiment)
FIG. 8 is a diagram illustrating an example of a basic configuration of an explanatory note generating apparatus according to the second embodiment of the present invention.

図8に示されるように、本説明文生成装置は、遷移制御部406、テンプレート選択部407、説明文生成部408を備えている。   As illustrated in FIG. 8, the explanatory note generation apparatus includes a transition control unit 406, a template selection unit 407, and an explanatory note generation unit 408.

本説明文生成装置は、第1の実施形態の説明文作成部として用いることができる。   This explanatory note generation device can be used as an explanatory note creation unit of the first embodiment.

イベント情報401は、説明文生成に用いるイベント情報である。このイベント情報は、生成する説明文によって、元映像に付けられた全イベント情報である場合もあるし、選択された一部のイベントに関する情報のみの場合もある。   The event information 401 is event information used for description sentence generation. This event information may be all event information attached to the original video or may be only information related to some selected events depending on the explanatory text to be generated.

遷移状態情報402は、説明文生成過程における遷移状態を保持した情報である。   The transition state information 402 is information that holds the transition state in the description sentence generation process.

遷移条件情報403は、イベントの発生により、あるノード(状態)から別のノードに遷移するときの遷移条件と遷移先ノードを示す情報である。   The transition condition information 403 is information indicating a transition condition and a transition destination node when transitioning from a certain node (state) to another node due to occurrence of an event.

説明文用テンプレート情報404は、イベント情報を当てはめて説明文を生成するためのテンプレート(雛形)となる情報である。   The description sentence template information 404 is information serving as a template (model) for generating an explanatory sentence by applying event information.

説明文情報405は、生成される説明文(文字テロップや音声ナレーションなど)である。   The description text information 405 is a generated description text (such as character telop or voice narration).

遷移制御部406は、イベント情報を受け取り、遷移条件情報に従って、遷移状態情報の更新を行う。   The transition control unit 406 receives the event information and updates the transition state information according to the transition condition information.

テンプレート選択部407は、説明文用テンプレート情報から、直前の遷移に対応した説明文テンプレートを選択する。   The template selection unit 407 selects an explanatory note template corresponding to the immediately preceding transition from the explanatory note template information.

説明文生成部408は、選択されたテンプレートに対して、イベント情報を当てはめた説明文情報を生成する。   The explanatory note generation unit 408 generates explanatory note information in which event information is applied to the selected template.

次に、各部の処理を、図9を参照しながら説明する。図9は、イベント発生時の状態遷移の一例を表す。   Next, processing of each unit will be described with reference to FIG. FIG. 9 shows an example of state transition when an event occurs.

図9において、現ノード(501)が現在の状態に対応し、イベントの発生により、ノードA(502)やノードB(503)で表される状態に遷移する。具体例を挙げると、スポーツの試合において、現在が同点の状態で、現ノードにあるとする。また、Aチームのリードした状態をノードA、Bチームのリードした状態をノードBとする。得点イベントの発生により、現ノードからAチームのリードした状態(ノードA)あるいはBチームのリードした状態(ノードB)に遷移する。   In FIG. 9, the current node (501) corresponds to the current state, and transitions to a state represented by node A (502) or node B (503) when an event occurs. As a specific example, in a sporting game, it is assumed that the current node is the same and the current node is the same. Further, a state in which team A has taken the lead is node A, and a state in which team B has taken the lead is node B. Due to the occurrence of a scoring event, a transition is made from the current node to a state led by Team A (Node A) or a state led by Team B (Node B).

1つのノードは複数の遷移先ノードを持つことができ、どのノードに遷移するかは遷移条件によって決まる。例えば、遷移条件Aは「Aチームの得点」、遷移条件Bは「Bチームの得点」と定める。もちろん、遷移条件の記述は「Aチームの得点」である必要はなく、「チーム=Aチーム、かつ、行動=得点」のように、イベントの項目ごとのマッチングでもよい。また、意味が同じであれば、単語を羅列するだけでもよいし、XMLなどの記述言語を用いてもよい。   One node can have a plurality of transition destination nodes, and which node is to be transitioned is determined by a transition condition. For example, the transition condition A is defined as “Score for Team A”, and the transition condition B is defined as “Score for Team B”. Of course, the description of the transition condition does not have to be “Score of Team A”, but may be matching for each event item, such as “Team = A Team and Action = Score”. If the meanings are the same, the words may be enumerated or a description language such as XML may be used.

遷移条件は、チームや選手名などのイベントから直接得られる情報や、得点経過や試合時間などの間接的に得られる情報、要約作成条件として与えられた情報、映像データを解析することによって得られる動きベクトルや色などの特徴量、ノードの通過回数や遷移元ノードなどの状態遷移から得られる情報など、様々な情報を用いて記述することができる。   Transition conditions are obtained by analyzing information obtained directly from events such as team and player names, information obtained indirectly such as score progress and game time, information provided as summary creation conditions, and video data It can be described using various information such as feature quantities such as motion vectors and colors, information obtained from state transitions such as the number of times nodes have passed and state nodes.

遷移制御部406は、発生したイベントと遷移条件を比較し、遷移状態情報に含まれる現ノード位置を更新する。前述の具体例を用いると、発生したイベントがAチームの得点イベントである場合には、現ノードをノードAに遷移させ、Bチームの得点イベントである場合には、現ノードをノードBに遷移させる。また、本例では当てはまらないが、遷移条件Cのように現ノードが更新されない場合もあり得る。   The transition control unit 406 compares the event that has occurred with the transition condition, and updates the current node position included in the transition state information. Using the specific example described above, if the event that occurred is a scoring event for team A, the current node is transitioned to node A, and if it is a scoring event for team B, the current node is transitioned to node B. Let Further, although not applicable in this example, the current node may not be updated as in the transition condition C.

個々の状態遷移には対応する説明文テンプレートが存在する。ただし、説明文の生成を必要としない場合は、省略してもよい。例えば、遷移条件Aに従ってノードAに遷移するときにはテンプレートAを、遷移条件Bに従ってノードBに遷移するときにはテンプレートBを用いる。異なるノード間の状態遷移に対して、同じテンプレートを用いてもかまわない。前述の具体例の場合、「(時間)、(チーム)のチャンス、(選手名)のシュート。ゴール!」などとなる。ただし、()内はイベントによって決まる変数である。   There is a corresponding explanatory text template for each state transition. However, if it is not necessary to generate an explanatory note, it may be omitted. For example, template A is used when transitioning to node A according to transition condition A, and template B is used when transitioning to node B according to transition condition B. The same template may be used for state transition between different nodes. In the case of the above-mentioned specific example, “(time), (team) chance, (player name) shoot, goal!” However, the values in parentheses are variables determined by the event.

説明文生成部408では、イベント情報やコンテンツ全体の情報などから、直接的あるいは間接的に得られる情報を前述の説明文テンプレートに当てはめ、説明文情報を生成する。間接的に得られる情報というのは、例えば、映像に対応する時間情報から、試合の時間情報を得る場合などである。前述の具体例の場合、時間:前半30分、チーム:Aチーム、選手名:Xとすると、「前半30分、Aチームのチャンス、Xのシュート。ゴール!」となる。   The explanatory note generation unit 408 applies the information obtained directly or indirectly from the event information and the information on the entire content to the aforementioned explanatory note template to generate the explanatory note information. The information obtained indirectly is, for example, when obtaining time information of a game from time information corresponding to a video. In the case of the above-mentioned specific example, if time: first half 30 minutes, team: Team A, player name: X, “first half 30 minutes, A team chance, X shot. Goal!”

図10に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールの一例を示す。この例では、開始、Aリード、同点A、Bリード、同点Bの5つのノードが存在する。開始ノードが初期の状態である。また、Aリード:チームAがリードしている状態、Bリード:チームBがリードしている状態、同点A:チームAがリードしている状態から同点になった状態、同点B:チームBがリードしている状態から同点になった状態を示す。状態遷移を示す矢印のうち、実線は「チームAの得点」、破線は「チームBの得点」が遷移条件であることを示す。また、「」内の文章はそれぞれの遷移に対応する説明文テンプレートである。なお、Aリード及びBリードより同一遷移条件で2つの遷移が出ているが、これらは、遷移条件としてチーム以外に得点差を考慮したものである。   FIG. 10 shows an example of a state transition rule used for generating narration at the time of scoring in a sports game. In this example, there are five nodes: start, A lead, tie A, B lead, and tie B. The starting node is in the initial state. In addition, A lead: Team A is in a lead state, B lead: Team B is in a lead state, A tie A: A state in which Team A is in a tie and a tie B: Team B The state where the tie is made from the lead state is shown. Among the arrows indicating the state transition, the solid line indicates that “team A score” and the broken line indicates that “team B score” is the transition condition. The text in “” is an explanatory text template corresponding to each transition. Note that two transitions appear from the A lead and the B lead under the same transition condition, but these take into account the score difference other than the team as the transition condition.

本手法により、同じ得点イベントであっても、その状況に応じて適切な説明文を選択することができることが分かる。例えば、同点からの得点イベントが発生した場合、開始ノード601からの遷移であるときは先制点であり、テンプレート602を用いる。同点に追いついた後(ノード603)であれば逆転であり、テンプレート604を用いる。同点に追いつかれた後(ノード605)であれば再び勝ち越したことを示す説明文をテンプレート606により、生成できる。   By this method, it can be seen that even if the scoring event is the same, an appropriate explanation can be selected according to the situation. For example, when a scoring event from the same point occurs, if it is a transition from the start node 601, it is a preemptive point and the template 602 is used. After catching up with the same point (node 603), it is the reverse, and the template 604 is used. After catching up with the same point (node 605), an explanatory note indicating that the team has won again can be generated from the template 606.

図11に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールの他の例を示す。この例ではチームAが好きなユーザ向けに、チームAを主役にした説明文を生成する。例えば、チームBの得点であっても、チームAを主役にし、テンプレート701「逆転された」やテンプレート702「追いつかれた」など、チームAを中心にしたテンプレートを用いる。このように、同じ状態遷移に対して、異なる説明文テンプレートのセットを用意することにより、ユーザの嗜好や用途に応じた説明文を生成することが可能である。   FIG. 11 shows another example of the state transition rule used for generating narration at the time of scoring in a sport game. In this example, for a user who likes team A, an explanatory note with team A as the main role is generated. For example, even for the score of team B, a template centered on team A, such as template 701 “reversed” and template 702 “catch up”, is used, with team A as the leading role. Thus, by preparing different sets of explanatory text templates for the same state transition, it is possible to generate explanatory texts according to the user's preference and usage.

図12に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールのさらに他の例を示す。この例では、テンプレート801のように1つの遷移に対して、複数の説明文テンプレートが対応付けられている。これらのテンプレートは遷移条件とは別の説明文条件によって、選択が行われる。説明文条件は、遷移条件と同様にチームや選手名などのイベントから直接得られる情報や、得点経過や試合時間などの間接的に得られる情報、要約作成条件として与えられた情報、映像データを解析することによって得られる動きベクトルや色などの特徴量、ノードの通過回数や遷移元ノードなどの状態遷移から得られる情報など、様々な情報により記述される。   FIG. 12 shows still another example of the state transition rule used for generating a narration at the time of scoring in a sport game. In this example, a plurality of explanatory text templates are associated with one transition like a template 801. These templates are selected according to an explanatory sentence condition different from the transition condition. As with the transition conditions, the explanatory sentence conditions include information obtained directly from events such as teams and player names, information obtained indirectly such as score progress and game time, information given as summary creation conditions, and video data. It is described by various information such as feature quantities such as motion vectors and colors obtained by analysis, information obtained from state transitions such as the number of times a node has passed and the transition source node.

説明文条件を用いることにより、ノード数を削減し、状態遷移図を簡略化することができる。例えば、図12の場合、開始、同点A、同点Bの状態を1つの同点ノードにまとめ、直前が0対0であれば、先制点、相手チームのリードから追いついた同点であれば、逆転というふうに、テンプレートを切り替える。なお、図12中の条件の表記は一例として、if (条件)then「テンプレート」のif−thenルールの表記を用いているが、もちろん、他の表記方法を用いてもかまわない。   By using the explanatory sentence conditions, the number of nodes can be reduced and the state transition diagram can be simplified. For example, in the case of FIG. 12, the start, tie point A, and tie point B states are combined into one tie point node. Like, switch templates. Note that the notation of the condition in FIG. 12 uses, as an example, the not-then rule notation of if (condition) then “template”, but other notation methods may of course be used.

図13に、複数の状態遷移ルールを用いる方法の一例を示す。上記では、得点経過の状態遷移を例に状態遷移ルールを説明したが、実際のスポーツの試合では得点以外にも複数の状態遷移が存在する。例えば、野球を例にすると、回やその表裏の遷移があり、1つの回の表あるいは裏は3つのアウトの遷移がある。さらにその下に、打者や投球ごとの細かい階層の遷移が存在する。   FIG. 13 shows an example of a method using a plurality of state transition rules. In the above description, the state transition rule has been described by taking the state transition of the score progress as an example, but there are a plurality of state transitions other than the score in an actual sports game. For example, taking baseball as an example, there are times and front and back transitions, and there are three out transitions on the front and back of one time. Below that, there is a detailed hierarchical transition for each batter and pitch.

これらの状態遷移をすべて1つの状態遷移ルールとして記述することもできるが、非常に煩雑になってしまう。そこで、状態遷移ルールを複数用いる。図13で、状態遷移ルール1(901)と状態遷移ルール2(902)は同じ階層の状態遷移に対応し、同時並行的に処理が行われる。これに対し、状態遷移ルール3(903)は状態遷移ルール1がノード4(904)の状態にある場合に適用される。状態遷移ルール1において、ノード4からの遷移条件が成立すれば、状態遷移ルール3の状態に関わらず、次のノードに遷移する。このとき、ノード4からの遷移条件として、状態遷移ルール3の状態を用いてもかまわない。   Although all of these state transitions can be described as one state transition rule, it becomes very complicated. Therefore, a plurality of state transition rules are used. In FIG. 13, state transition rule 1 (901) and state transition rule 2 (902) correspond to state transitions in the same hierarchy and are processed in parallel. On the other hand, the state transition rule 3 (903) is applied when the state transition rule 1 is in the state of the node 4 (904). In the state transition rule 1, if the transition condition from the node 4 is satisfied, the state transitions to the next node regardless of the state of the state transition rule 3. At this time, the state of the state transition rule 3 may be used as a transition condition from the node 4.

図14に、状態遷移ルールを記述するデータ構造の一例を示す。   FIG. 14 shows an example of a data structure describing a state transition rule.

ノード情報1001は、1つのノードに関する情報を記述する。ノード情報にはそのノードの識別情報を示すノードID1002と遷移先ノードについての情報を記した遷移先情報1003を含む。遷移先情報は遷移先ノードの数に応じて、複数存在してもよい。遷移先情報には、遷移先ノードのノードIDを示す遷移先ノードID1004、遷移先ノードへ遷移するための遷移条件1005、この遷移ときに用いられる説明文テンプレートについて記述する説明文情報1006を含む。遷移先が1つで、必ず遷移する場合など、遷移条件が不要な場合は省略してもよい。説明文情報は説明文テンプレートの数に応じて、複数存在してもよい。個々の説明文情報は、説明文条件1007と説明文テンプレート1008の情報を含み、複数のテンプレートを用いる場合は説明文条件に応じて切り替える。また、説明文情報が1つで、切り替えの必要がない場合の説明文条件は省略してもよい。   Node information 1001 describes information about one node. The node information includes a node ID 1002 indicating identification information of the node and transition destination information 1003 describing information about the transition destination node. A plurality of pieces of transition destination information may exist depending on the number of transition destination nodes. The transition destination information includes a transition destination node ID 1004 indicating the node ID of the transition destination node, a transition condition 1005 for transitioning to the transition destination node, and explanatory text information 1006 describing the explanatory text template used at this transition. If there is no transition condition, such as when there is only one transition destination and there is a transition, it may be omitted. There may be a plurality of pieces of explanatory note information depending on the number of explanatory note templates. Each piece of explanatory text information includes information on an explanatory text condition 1007 and an explanatory text template 1008. When a plurality of templates are used, switching is performed according to the explanatory text condition. Further, the description sentence condition when there is one piece of description information and there is no need to switch may be omitted.

図15に、複数の状態遷移ルールを記述するデータ構造の一例を示す。ここでは、図14との相違点についてのみ説明する。   FIG. 15 shows an example of a data structure describing a plurality of state transition rules. Here, only differences from FIG. 14 will be described.

状態遷移ルール1101は、状態遷移ルールについて記述する情報で、状態遷移ルールの識別情報を示すルールID1102とノード情報1103を含む。ノード情報には前述のノードIDや遷移先情報に加えて、そのノードのもとで適用される別の状態遷移ルール1104を保持する。この状態遷移ルールのデータ構造は、状態遷移ルールと同じものである。なお、状態遷移ルールの記述は、図15のように実体を記述してもよいし、他の場所で定義された状態遷移ルールをルールIDにより参照してもよい。特に、同じ状態遷移ルールを複数回使う場合は、1箇所で状態遷移ルールを定義し、それをルールIDで参照すれば効率がよい。このような参照を行わず、ルールIDが不要ならばルールIDを省略してもかまわない。   The state transition rule 1101 is information describing the state transition rule, and includes a rule ID 1102 and node information 1103 indicating identification information of the state transition rule. In the node information, in addition to the above-described node ID and transition destination information, another state transition rule 1104 applied under the node is held. The data structure of this state transition rule is the same as that of the state transition rule. The description of the state transition rule may describe an entity as shown in FIG. 15, or may refer to a state transition rule defined at another place by a rule ID. In particular, when the same state transition rule is used a plurality of times, it is efficient to define the state transition rule in one place and refer to it by the rule ID. If such a reference is not performed and the rule ID is unnecessary, the rule ID may be omitted.

ところで、複数の状態遷移ルールを用いると、1つのイベント情報の入力に対して、個々の状態遷移ルールに対応した複数の説明文が生成される場合がある。これらの説明文を整理して表示(文字テロップなどの場合)あるいは再生(音声ナレーションなどの場合)するために、個々の説明文をどのように表示あるいは再生するかを示す位置情報を付加してもよい。この位置情報は、表示位置の座標や大きさなどを示す空間的な情報、または、再生時間を示す時間的な情報である。これらの空間的あるいは時間的な位置情報は、状態遷移ルールとともに記述することができる。例えば、1つの状態遷移ルールで共通した位置を用いる場合は、状態遷移ルール1105の要素として、記述すればよい。また、遷移ごとあるいは説明文ごとに位置を変更する場合は、遷移先情報1003や説明文情報1006の要素として記述すればよい。   By the way, when a plurality of state transition rules are used, a plurality of explanatory texts corresponding to individual state transition rules may be generated for one event information input. In order to organize and display these explanatory texts (in the case of character telops) or playback (in the case of voice narration), position information indicating how individual explanatory texts are displayed or added is added. Also good. This position information is spatial information indicating the coordinates and size of the display position, or temporal information indicating the reproduction time. These spatial or temporal position information can be described together with the state transition rule. For example, when a common position is used in one state transition rule, it may be described as an element of the state transition rule 1105. Moreover, what is necessary is just to describe as an element of the transition destination information 1003 or the explanatory note information 1006 when changing a position for every transition or every explanatory note.

図16に、時間的な位置情報として、イベントを中心とした相対的な位置を記述する方法の一例を示す。イベントの時刻を中心にし、それよりも前に再生するか、後に再生するかを記述する。図16の斜線部分が説明文(音声ナレーション)の挿入される区間である。また、前あるいは後ろに複数の説明文が存在する場合のために、イベント時刻からの順序を記述する。この順序は連番である必要はない。この前後情報と順序情報を時間的な位置情報として記述しておくことで、1つのイベントに対して、複数の音声ナレーションが生成された場合でも、自然なナレーションとなるように統合することができる。   FIG. 16 shows an example of a method for describing a relative position centered on an event as temporal position information. Describes whether to play before or after the event time. The hatched portion in FIG. 16 is a section where an explanatory text (voice narration) is inserted. In addition, the order from the event time is described in the case where a plurality of explanatory texts exist before or after. This order need not be sequential. By describing the front and rear information and the order information as temporal position information, even when a plurality of voice narrations are generated for one event, they can be integrated so as to be natural narration. .

なお、上記では、前後位置を示す情報(本例では、前又は後)と、イベント時刻からみた順序を示す情報(本例では、1又は2)で、イベントを中心とした相対的な位置を記述する方法の一例を示したが、もちろん、これに限定されるものではない。   In the above, information indicating the front and back positions (in this example, before or after) and information indicating the order from the event time (in this example, 1 or 2) An example of the description method has been shown, but the present invention is not limited to this.

例えば、時間的な位置情報を正負の数で表すことも可能である。この場合、例えば、イベント時刻を起点とし、これを0で表し、イベント時刻より前の位置を負の数(絶対値は、上記のイベント時刻からみた順序を示す情報と同じ)、イベント時刻より後の位置を正の数(絶対値は、上記のイベント時刻からみた順序を示す情報と同じ)で表すことができる。この方法によれば、図16の具体例の場合、先の方法による(前,2),(前,1),(後,1),(後,2)は、それぞれ、−2,−1,1,2で表すことができる。   For example, temporal position information can be expressed by positive and negative numbers. In this case, for example, starting from the event time, this is represented by 0, the position before the event time is a negative number (the absolute value is the same as the information indicating the order viewed from the event time), and after the event time. Can be represented by a positive number (the absolute value is the same as the information indicating the order viewed from the event time). According to this method, in the specific example of FIG. 16, (front, 2), (front, 1), (back, 1), and (back, 2) according to the previous method are respectively -2, -1 , 1 and 2.

以下、状態遷移による説明文生成の応用例を示す。   Hereinafter, an application example of description sentence generation by state transition will be shown.

図17に、状態遷移をもとに、試合を優勢に進めているチームや劣勢にあるチームなどの優劣情報を得るための基本的な書手順の一例を示す。優劣情報は、チームごとに数値などで表してもよいし、どちらのチームが優勢あるいは劣勢という情報でもよい。この優劣情報は遷移条件や説明文条件などの内部情報として用いてもよいし、ユーザに分かるような情報として用いてもよい。   FIG. 17 shows an example of a basic writing procedure for obtaining superiority / inferiority information such as a team that is playing a dominant game or an inferior team based on the state transition. The superiority / inferiority information may be expressed by a numerical value for each team, or may be information indicating which team is superior or inferior. This superiority / inferiority information may be used as internal information such as transition conditions and explanatory text conditions, or may be used as information that can be understood by the user.

ステップS41では、状態遷移ルールに基づく遷移状態の現ノード位置の優劣値を全体の優劣値に加算する。   In step S41, the superior / inferior value of the current node position in the transition state based on the state transition rule is added to the overall superior / inferior value.

ステップS42では、他に処理対象となる状態遷移ルールが存在するか判定し、存在する場合はステップS41に戻り、その状態遷移ルールに基づく遷移状態の現ノード位置の優劣値を加算する。これを処理対象となる状態遷移ルールがなくなくまで繰り返し、ステップS43へと進む。   In step S42, it is determined whether there is another state transition rule to be processed. If there is, the process returns to step S41, and the superior / inferior value of the current node position of the transition state based on the state transition rule is added. This is repeated until there is no state transition rule to be processed, and the process proceeds to step S43.

ステップS43では全体の優劣値から、優劣情報を得る。   In step S43, superiority information is obtained from the overall superiority value.

ここで、優劣値は、例えば、優勢チームの優勢度合を0〜1の間の連続的に変化する数値で表現してもよいし、どちらのチームが優勢かだけをあらわしてもよい。後者の場合、0か1の離散的な値をとると考えることができる。   Here, the superiority / inferiority value may be expressed, for example, by a numerical value that continuously changes between 0 and 1 or may indicate only which team is superior. In the latter case, it can be considered to take discrete values of 0 or 1.

(第3の実施形態)
図18は、本発明の第3の実施形態に係る映像要約装置の基本構成例を示す図である。
(Third embodiment)
FIG. 18 is a diagram illustrating a basic configuration example of a video summarizing apparatus according to the third embodiment of the present invention.

図18に示されるように、本映像要約装置は、全体説明作成部1202、重要度算出部1203、映像区間選択部1204、説明文用イベント選択部108、説明文作成部109、統合部110を備えている。   As shown in FIG. 18, the video summarizing apparatus includes an overall description creating unit 1202, an importance level calculating unit 1203, a video section selecting unit 1204, an explanatory text event selecting unit 108, an explanatory text creating unit 109, and an integrating unit 110. I have.

本実施形態は第1又は第2の実施形態の拡張であるため、第1又は第2の実施形態との相違点についてのみ述べる。   Since this embodiment is an extension of the first or second embodiment, only differences from the first or second embodiment will be described.

要約映像構成情報1201は、生成される要約映像のシーン構成と、それに付帯する情報を記した情報である。要約映像には、試合展開の要約、特定の選手に注目した要約など様々な要約がある。また、本編を視聴するための判断材料にするときには、ゴールシーンや試合結果は知りたくない場合もある。特定の選手に注目するときは、1つの試合の要約ではなく、複数の試合からまとめて要約を作成する場合もある。要約映像構成情報は、このような要約のシーン構成を記したものである。   The summary video configuration information 1201 is information describing the scene configuration of the generated summary video and information attached thereto. The summary video includes various summaries such as a summary of game development and a summary focused on a specific player. In addition, there are cases where it is not desired to know the goal scene or the game result when using the main part as a judgment material for viewing. When paying attention to a specific player, a summary may be created from a plurality of matches instead of a summary of one match. The summary video configuration information describes such a summary scene configuration.

図19に、要約映像構成情報の一例を示す。図19においては、シーンごとの時間と内容を含んでいる。時間は、そのシーンの長さやその最大値、最小値である。内容は、そのシーンのタイプ(映像、要約映像、合成映像など)に応じて、そのシーンを作成するために必要なパラメータが記述される。映像を抽出するのであれば、その場所や範囲を示すパラメータ、テロップやナレーションを用いるのであれば、そのテンプレートや位置を示すパラメータを記述する。   FIG. 19 shows an example of summary video configuration information. In FIG. 19, the time and contents for each scene are included. The time is the length of the scene and its maximum and minimum values. The contents describe parameters necessary for creating the scene according to the type of the scene (video, summary video, composite video, etc.). If a video is to be extracted, a parameter indicating the location or range is described. If a telop or narration is used, a template or a parameter indicating the position is described.

全体説明作成部1202は、要約映像構成情報に基づき、コンテンツ全体に関わる説明を作成する。作成される説明は、要約映像構成情報に記述されたテロップやナレーション、あるいはそれらを用いた合成映像などである。また、先の例のタイトルシーンのように特定の映像が指定されている場合には、その検索も行う。テロップやナレーションのテンプレートに当てはめるデータは、映像属性情報や映像作成情報から得られるデータを用いる。   The overall description creating unit 1202 creates a description related to the entire content based on the summary video configuration information. The created description is a telop or narration described in the summary video configuration information, or a composite video using the telop or narration. Further, when a specific video is designated as in the title scene of the previous example, the search is also performed. Data obtained from video attribute information or video creation information is used as data to be applied to a telop or narration template.

重要度算出部1203や映像区間選択部1204は、要約映像構成情報に含まれる要約映像シーンに関するパラメータを受け取り、その内容を満足する要約映像を作成する。具体的には、要約映像を抽出する範囲を要約映像構成情報で指定された範囲に限定したり、作成される要約映像の時間が指定された時間に合致するようにしきい値を設定したりする。また、本編を視聴するための判断材料にするときなど、結果を知りたくない場合には、得点シーンが入らないようにシュート以降の重要度を下げたり、その区間を除いた範囲から要約を作成したりする。   The importance level calculation unit 1203 and the video segment selection unit 1204 receive parameters related to the summary video scene included in the summary video configuration information, and create a summary video that satisfies the content. Specifically, the range for extracting the summary video is limited to the range specified by the summary video configuration information, or the threshold is set so that the time of the summary video to be created matches the specified time. . Also, if you do not want to know the results, such as when you want to use the main part as a reference for viewing, you can reduce the importance after the shot so that the scoring scene does not enter, or create a summary from the range excluding that section To do.

本実施形態によれば、ユーザの嗜好に依存するだけではなく、予め決められたシーン構成を満足する要約映像を作成することができる。   According to the present embodiment, it is possible to create a summary video that not only depends on the user's preference but also satisfies a predetermined scene configuration.

(第4の実施形態)
図20は、本発明の第4の実施形態に係る映像要約装置の基本構成例を示す図である。
(Fourth embodiment)
FIG. 20 is a diagram illustrating a basic configuration example of a video summarizing apparatus according to the fourth embodiment of the present invention.

図20に示されるように、本映像要約装置は、図18の構成に加えて、要約映像構成情報選択部1304、説明文作成情報選択部1305を備えている。   As shown in FIG. 20, the video summarization apparatus includes a summary video configuration information selection unit 1304 and an explanatory note creation information selection unit 1305 in addition to the configuration of FIG. 18.

本実施形態は第3実施形態の拡張であるため、第3実施形態との相違点についてのみ述べる。   Since the present embodiment is an extension of the third embodiment, only differences from the third embodiment will be described.

ユーザプリファレンス1301とは、ユーザの嗜好に関する情報を記述したものである。   The user preference 1301 describes information related to user preferences.

要約映像構成情報データベース1302は、複数の要約映像構成情報を格納したデータベースである。第3の実施形態で述べたように、要約映像構成情報には様々なシーン構成が存在する。これらの様々なバリエーションが本データベース1302に格納されている。   The summary video configuration information database 1302 is a database that stores a plurality of summary video configuration information. As described in the third embodiment, various scene configurations exist in the summary video configuration information. These various variations are stored in the database 1302.

説明文作成情報データベース1303は、様々な説明文テンプレートや状態遷移ルール(状態遷移による説明文生成を行う場合)などの情報を格納したデータベースである。同じ内容を示すテンプレートであっても、口調や方言の違いにより複数のバリエーションがあり得る。   The explanatory note creation information database 1303 is a database that stores information such as various explanatory note templates and state transition rules (when an explanatory note is generated by state transition). Even templates that show the same content can have multiple variations due to differences in tone and dialect.

要約映像構成情報選択部1304は、要約映像構成情報データベースから、ユーザプリファレンスに合致する要約映像構成情報を選択する。   The summary video configuration information selection unit 1304 selects summary video configuration information that matches the user preferences from the summary video configuration information database.

説明文作成情報選択部1305は、説明文作成情報データベースから、ユーザプリファレンスに合致する説明文作成情報を選択する。   The explanatory note creation information selection unit 1305 selects the explanatory note creation information that matches the user preference from the explanatory note creation information database.

本実施形態の要約映像装置を用いることにより、ユーザはユーザプリファレンスに自分の好みのシーン構成や説明文の様式を記述しておくことで、キーワードと時間を指定するだけの場合と比べて、より自分の好みに合った要約映像を得ることができる。   By using the summary video device of the present embodiment, the user describes his / her favorite scene configuration and description format in the user preferences, compared to the case of simply specifying the keyword and time, You can get a summary video that suits your taste.

なお、以上の各機能は、ソフトウェアとして実現可能である。また、本実施形態は、コンピュータに所定の手段を実行させるための(あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるための)プログラムとして実施することもでき、該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。   Each function described above can be realized as software. The present embodiment can also be implemented as a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions), The present invention can also be implemented as a computer-readable recording medium on which the program is recorded.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の第1の実施形態に係る映像要約装置の基本構成例を示すブロック図1 is a block diagram showing a basic configuration example of a video summarization apparatus according to a first embodiment of the present invention. 映像属性の一例を示す図Diagram showing an example of video attributes 第1の選択方法の処理手順の一例を示すフローチャートThe flowchart which shows an example of the process sequence of a 1st selection method. 第2の選択方法の処理手順の一例を示すフローチャートThe flowchart which shows an example of the process sequence of a 2nd selection method. 第2の選択方法について説明するための図The figure for demonstrating the 2nd selection method 統合部の処理手順の一例を示すフローチャートThe flowchart which shows an example of the process sequence of an integration part 映像区間調整の例について説明するための図Diagram for explaining an example of video section adjustment 本発明の第2の実施形態に係る説明文生成装置の基本構成例を示すブロック図The block diagram which shows the basic structural example of the explanatory note production | generation apparatus which concerns on the 2nd Embodiment of this invention. イベント発生時の状態遷移について説明するための図Diagram for explaining state transition when an event occurs 状態遷移ルールの一例を示す図Diagram showing an example of state transition rules 状態遷移ルールの他の例を示す図The figure which shows the other example of the state transition rule 状態遷移ルールのさらに他の例を示す図The figure which shows the other example of a state transition rule 複数の状態遷移ルールを用いる場合について説明する図The figure explaining the case where a plurality of state transition rules are used 状態遷移ルールのデータ構造の一例を示す図The figure which shows an example of the data structure of a state transition rule 複数の状態遷移ルールを用いる場合の状態遷移ルールのデータ構造の一例を示す図The figure which shows an example of the data structure of the state transition rule in the case of using a several state transition rule 複数の説明文を統合する方法について説明するための図Diagram for explaining how to integrate multiple explanations 遷移状態から優劣情報を得る基本的な処理手順の一例を示すフローチャートA flowchart showing an example of a basic processing procedure for obtaining superiority information from a transition state 本発明の第3の実施形態に係る映像要約装置の基本構成例を示すブロック図The block diagram which shows the basic structural example of the image | video summarization apparatus which concerns on the 3rd Embodiment of this invention. 要約映像構成情報の一例を示す図A figure showing an example of summary video composition information 本発明の第4の実施形態に係る映像要約装置の基本構成例を示すブロック図The block diagram which shows the basic structural example of the image | video summarization apparatus which concerns on the 4th Embodiment of this invention.

符号の説明Explanation of symbols

106…重要度算出部、107…映像区間選択部、108…説明文用イベント選択部、109…説明文作成部、110…統合部、406…遷移制御部、407…テンプレート選択部、408…説明文生成部、1202…全体説明作成部、1203…重要度算出部、1204…映像区間選択部、1304…要約映像構成情報選択部、1305…説明文作成情報選択部   DESCRIPTION OF SYMBOLS 106 ... Importance calculation part, 107 ... Image | video section selection part, 108 ... Explanation text event selection part, 109 ... Explanation sentence creation part, 110 ... Integration part, 406 ... Transition control part, 407 ... Template selection part, 408 ... Explanation Sentence generation unit 1202 ... Overall description creation unit 1203 ... Importance calculation unit 1204 ... Video section selection unit, 1304 ... Summary video configuration information selection unit, 1305 ... Description sentence creation information selection unit

Claims (24)

映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出する算出手段と、
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択する第1の選択手段と、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択する第2の選択手段と、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成する第1の生成手段と、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成する第2の生成手段とを備えたことを特徴とする映像要約装置。
Calculation means for calculating the importance of each event based on the first information regarding the content of the event included in the video;
First selection means for selecting a video section to be used as a summary video from the video based on second information on the video section of the event included in the video and the importance;
A second selecting means for selecting an event for which an explanatory note is to be created from events included in the video;
First generation means for generating an explanatory text relating to the event based on the first information relating to the selected event;
A video summarization apparatus comprising: second generation means for generating summary video information based on the selected video section and the created explanatory text.
前記第2の選択手段は、前記映像内に含まれるイベントのうち、前記第1の選択手段により選択された前記映像区間に含まれるイベント以外のイベントを少なくとも一つ選択することを特徴とする請求項1に記載の映像要約装置。   The second selection unit selects at least one event other than an event included in the video section selected by the first selection unit from among events included in the video. Item 2. The video summarization apparatus according to Item 1. 前記第2の選択手段は、前記第1の選択手段により選択された前記映像区間に含まれるイベントをすべて選択することを特徴とする請求項1に記載の映像要約装置。   2. The video summarizing apparatus according to claim 1, wherein the second selection unit selects all events included in the video section selected by the first selection unit. 前記第1の選択手段において映像区間を選択する方法と前記第2の選択手段においてイベントを選択する方法とは、同一の選択アルゴリズムのしきい値を変えて用いるか、又は異なる選択アルゴリズムを組み合わせて用いることを特徴とする請求項1に記載の映像要約装置。   The method of selecting a video section in the first selection means and the method of selecting an event in the second selection means are used by changing the threshold value of the same selection algorithm, or by combining different selection algorithms. The video summarization apparatus according to claim 1, wherein the video summarization apparatus is used. 前記選択アルゴリズムは、イベントの重要度の高い順に、しきい値を満たす範囲でイベント若しくはそのイベントに係る映像区間を選択するものか、又はイベントの重要度を時間に対する関数として、しきい値以上の重要度である映像区間若しくはその映像区間に含まれるイベントを選択するものであることを特徴とする請求項4に記載の映像要約装置。   The selection algorithm selects an event or a video section related to the event in a range satisfying the threshold in descending order of the importance of the event, or the importance of the event as a function of time 5. The video summarization apparatus according to claim 4, wherein the video summarization apparatus selects a video section of importance or an event included in the video section. 前記第1の生成手段は、前記第2の選択手段により選択された関連する複数のイベントを取り纏めて、1つの説明文を生成することを特徴とする請求項1に記載の映像要約装置。   The video summarizing apparatus according to claim 1, wherein the first generation unit generates a single explanatory sentence by collecting a plurality of related events selected by the second selection unit. 前記第2の生成手段は、前記説明文と前記映像区間とが同時に再生又は表示される場合に、前記説明文の再生又は表示に要する時間が、前記映像区間に係る時間に収まるように、前記映像区間を調整することを特徴とする請求項1に記載の映像要約装置。   The second generation means, when the explanatory text and the video section are played back or displayed at the same time, so that the time required for playback or display of the explanatory text falls within the time related to the video section. The video summarization apparatus according to claim 1, wherein the video section is adjusted. 前記第2の生成手段は、前記説明文と前記映像区間とが同時に再生又は表示され、かつ、前記説明文と前記映像区間とのいずれも音声を伴うものである場合に、前記映像区間に伴う音声の音量を調整することを特徴とする請求項1に記載の映像要約装置。   The second generation means accompanies the video section when the explanatory text and the video section are reproduced or displayed at the same time and both the explanatory text and the video section are accompanied by audio. The video summarization apparatus according to claim 1, wherein the volume of the audio is adjusted. 前記算出手段は、前記第1の情報として与えられたイベントの内容を示す文字列と、ユーザ情報として与えられたユーザの嗜好を示す文字列とを比較した結果に基づいて、前記重要度を算出することを特徴とする請求項1に記載の映像要約装置。   The calculation means calculates the importance based on a result of comparing a character string indicating the content of the event given as the first information with a character string showing the user's preference given as user information. The video summarizing apparatus according to claim 1, wherein: 前記第1の選択手段は、前記要約映像情報に含まれる映像に係る時間の総和が、予め指定された制限時間の範囲内に収まるように、前記映像区間を選択することを特徴とする請求項1に記載の映像要約装置。   The first selection means selects the video section so that a sum of times related to videos included in the summary video information falls within a predetermined time limit range. The video summarizing apparatus according to 1. 前記要約映像情報全体に関する説明文及び又は映像を生成する第3の生成手段を更に備え、
前記要約映像情報に持たせるべきシーン構成に関する情報と各シーンに含めるべき映像及び説明文に関する情報とを含む要約映像構成情報に基づいて、前記映像区間の選択及び前記イベントの選択、前記イベントに関する説明文の生成及び前記要約映像情報全体に関する説明文及び又は映像の生成、並びに前記要約映像情報の生成を行うことを特徴とする請求項1に記載の映像要約装置。
Further comprising a third generation means for generating an explanatory text and / or video relating to the entire summary video information,
Based on the summary video configuration information including information on the scene configuration to be included in the summary video information and information on the video to be included in each scene and information on the description, the selection of the video section, the selection of the event, and the description of the event 2. The video summarization apparatus according to claim 1, wherein the video summarization apparatus generates a sentence and a description of the entire summary video information and / or video, and generates the summary video information.
複数の前記要約映像構成情報のうちから、ユーザの嗜好に関する情報を記述したユーザプリファレンス情報に合致する要約映像構成情報を選択する手段を更に備え、
この手段により選択された要約映像構成情報を用いて、前記要約映像情報を生成することを特徴とする請求項1に記載の映像要約装置。
Means for selecting summary video configuration information that matches user preference information describing information related to user preferences from among the plurality of summary video configuration information;
2. The video summarization apparatus according to claim 1, wherein the summary video information is generated using the summary video configuration information selected by the means.
映像内に含まれるイベントに関係する遷移状態を保持する保持手段と、
前記映像内に含まれるイベントの内容に関するイベント情報を入力する入力手段と、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新する更新手段と、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択する選択手段と、
選択された前記説明文テンプレート情報を用いて説明文を生成する生成手段とを備えたことを特徴とする説明文生成装置。
Holding means for holding a transition state related to an event included in the video;
Input means for inputting event information related to the content of the event included in the video;
Updating means for updating the transition state to be held based on the input event information and a predetermined transition condition;
Based on the transition related to the update of the transition state, selection means for selecting the explanatory note template information to be used for the creation of the explanatory note from among a plurality of explanatory note template information,
An explanatory note generating apparatus comprising: generating means for generating an explanatory note using the selected explanatory note template information.
前記遷移条件は、イベント情報を含む前記映像に関する属性情報から得られる情報、前記映像の要約情報を作成するにあたっての条件に関する情報、前記映像を解析することによって得られる情報、若しくは前記遷移状態に関係する情報、又はそれらの情報のうちのいずれかの情報を処理することによって得られる情報を用いて記述されることを特徴とする請求項13に記載の説明文生成装置。   The transition condition is related to information obtained from attribute information about the video including event information, information about conditions for creating summary information of the video, information obtained by analyzing the video, or the transition state 14. The explanatory note generating device according to claim 13, wherein the description generating device is described using information obtained by processing any one of the pieces of information or the information to be processed. 前記遷移条件及び前記説明文テンプレート情報を状態遷移ルールとして記述することを特徴とする請求項13に記載の説明文生成装置。   14. The explanatory note generation device according to claim 13, wherein the transition condition and the explanatory note template information are described as a state transition rule. 前記状態遷移ルールとして、各遷移状態に対応するノードを一意に識別する識別情報、同ノードから他ノードへ遷移する条件、他ノードへ遷移する場合の遷移先ノードの識別情報、及び他ノードへ遷移する場合の当該遷移に対応する説明文情報を記述することを特徴とする請求項15に記載の説明文生成装置。   As the state transition rule, identification information for uniquely identifying a node corresponding to each transition state, a condition for transition from the same node to another node, identification information of a transition destination node when transitioning to another node, and transition to another node The explanatory note generation device according to claim 15, wherein explanatory note information corresponding to the transition in the case of performing is described. 前記状態遷移ルールとして、さらに前記説明文情報より生成される説明文を挿入すべき時間又は空間的位置情報をも記述することを特徴とする請求項16に記載の説明文生成装置。   17. The explanatory note generation device according to claim 16, wherein the state transition rule further describes time or spatial position information into which an explanatory note generated from the explanatory note information is to be inserted. 前記時間的位置情報は、前記映像内のイベントに対する時間的な前後位置及び順序を示す情報であることを特徴とする請求項17に記載の説明文生成装置。   18. The explanatory note generating apparatus according to claim 17, wherein the temporal position information is information indicating a temporal position and order in time with respect to an event in the video. 前記遷移状態における付加的な属性情報を記述することを特徴とする請求項13に記載の説明文生成装置。   14. The explanatory note generation device according to claim 13, wherein additional attribute information in the transition state is described. 前記付加的な属性情報として、勝敗の優劣を示す情報を記述することを特徴とする請求項19に記載の説明文生成装置。   The explanatory note generation device according to claim 19, wherein information indicating superiority or inferiority of a win or loss is described as the additional attribute information. 映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出するステップと、
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択するステップと、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択するステップと、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成するステップと、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成するステップとを有することを特徴とする映像要約方法。
Calculating the importance of each event based on the first information regarding the content of the event included in the video;
Selecting a video segment to be used as a summary video from the video based on second information regarding the video segment of the event included in the video and the importance; and
Selecting an event to create a description from among the events included in the video;
Generating an explanatory text relating to the event based on the first information relating to the selected event;
A video summarization method comprising: generating summary video information based on the selected video section and the created explanatory text.
映像内に含まれるイベントに関係する遷移状態を保持するステップと、
前記映像内に含まれるイベントの内容に関するイベント情報を入力するステップと、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新するステップと、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択するステップと、
選択された前記説明文テンプレート情報を用いて説明文を生成するステップとを有することを特徴とする説明文生成方法。
Maintaining a transition state related to an event included in the video;
Inputting event information relating to the content of the event included in the video;
Updating the transition state to be held based on the input event information and a predetermined transition condition;
Selecting explanatory text template information to be used for creation of explanatory text from a plurality of explanatory text template information based on the transition relating to the update of the transition state;
And a step of generating an explanatory text using the selected explanatory text template information.
映像要約装置としてコンピュータを機能させるためのプログラムであって、
映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出する機能と、
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択する機能と、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択する機能と、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成する機能と、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成する機能とを実現させるためのプログラム。
A program for causing a computer to function as a video summarization device,
A function for calculating the importance of each event based on the first information regarding the content of the event included in the video;
A function for selecting a video segment to be used as a summary video from the video based on the second information regarding the video segment of the event included in the video and the importance;
A function of selecting an event to be a target for creating a description from among the events included in the video;
A function for generating an explanatory text relating to the event based on the first information relating to the selected event;
A program for realizing a function of generating summary video information based on the selected video section and the created explanatory text.
映像要約装置としてコンピュータを機能させるためのプログラムであって、
映像内に含まれるイベントに関係する遷移状態を保持する機能と、
前記映像内に含まれるイベントの内容に関するイベント情報を入力する機能と、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新する機能と、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択する機能と、
選択された前記説明文テンプレート情報を用いて説明文を生成する機能とを実現させるためのプログラム。
A program for causing a computer to function as a video summarization device,
A function to maintain a transition state related to an event included in the video;
A function of inputting event information related to the content of the event included in the video;
A function of updating the transition state to be held based on the input event information and a predetermined transition condition;
Based on the transition relating to the update of the transition state, a function of selecting the explanatory note template information to be used for the creation of the explanatory note from among a plurality of explanatory note template information,
A program for realizing a function of generating an explanatory text using the selected explanatory text template information.
JP2003336212A 2003-09-26 2003-09-26 Video summarization apparatus, video summarization method and program Expired - Fee Related JP3923932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003336212A JP3923932B2 (en) 2003-09-26 2003-09-26 Video summarization apparatus, video summarization method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003336212A JP3923932B2 (en) 2003-09-26 2003-09-26 Video summarization apparatus, video summarization method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007011824A Division JP2007193820A (en) 2007-01-22 2007-01-22 Descriptive text forming device, descriptive text forming method and program

Publications (2)

Publication Number Publication Date
JP2005109566A true JP2005109566A (en) 2005-04-21
JP3923932B2 JP3923932B2 (en) 2007-06-06

Family

ID=34532419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003336212A Expired - Fee Related JP3923932B2 (en) 2003-09-26 2003-09-26 Video summarization apparatus, video summarization method and program

Country Status (1)

Country Link
JP (1) JP3923932B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080148A (en) * 2005-09-16 2007-03-29 Sony Corp Display control apparatus and method and program
JP2007148904A (en) * 2005-11-29 2007-06-14 Toshiba Corp Method, apparatus and program for presenting information
JP2007189343A (en) * 2006-01-11 2007-07-26 Toshiba Corp Video summary system, video summary method, and video summary program
JP2007208651A (en) * 2006-02-01 2007-08-16 Sharp Corp Content viewing apparatus
JP2011193300A (en) * 2010-03-15 2011-09-29 Omron Corp Image processing apparatus, image processing method, image processing system, control program, and recording medium
US8103107B2 (en) 2007-01-18 2012-01-24 Kabushiki Kaisha Toshiba Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method
US8315507B2 (en) 2006-01-05 2012-11-20 Nec Corporation Video generation device, video generation method, and video generation program
WO2016032287A1 (en) * 2014-08-29 2016-03-03 Samsung Electronics Co., Ltd. Method for providing additional functions based on information
JP2017503394A (en) * 2014-12-14 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
US9973728B2 (en) 2014-12-14 2018-05-15 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
JP2018196076A (en) * 2017-05-22 2018-12-06 株式会社ラムダシステムズ Telop display system, telop display program, and telop display method
JP2019062357A (en) * 2017-09-26 2019-04-18 株式会社日立国際電気 Video server system
WO2020137371A1 (en) * 2018-12-28 2020-07-02 株式会社ラムダシステムズ Information processing device, information processing method, and information processing program
JP2020137075A (en) * 2019-02-25 2020-08-31 株式会社ラムダシステムズ Information processing device, information processing method and information processing program
WO2022074788A1 (en) * 2020-10-08 2022-04-14 ソニーグループ株式会社 Information processing device, information processing method and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080148A (en) * 2005-09-16 2007-03-29 Sony Corp Display control apparatus and method and program
JP2007148904A (en) * 2005-11-29 2007-06-14 Toshiba Corp Method, apparatus and program for presenting information
US8315507B2 (en) 2006-01-05 2012-11-20 Nec Corporation Video generation device, video generation method, and video generation program
JP2007189343A (en) * 2006-01-11 2007-07-26 Toshiba Corp Video summary system, video summary method, and video summary program
JP2007208651A (en) * 2006-02-01 2007-08-16 Sharp Corp Content viewing apparatus
US8103107B2 (en) 2007-01-18 2012-01-24 Kabushiki Kaisha Toshiba Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method
JP2011193300A (en) * 2010-03-15 2011-09-29 Omron Corp Image processing apparatus, image processing method, image processing system, control program, and recording medium
WO2016032287A1 (en) * 2014-08-29 2016-03-03 Samsung Electronics Co., Ltd. Method for providing additional functions based on information
CN106796702A (en) * 2014-08-29 2017-05-31 三星电子株式会社 The method that additional function is provided based on information
JP2017503394A (en) * 2014-12-14 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
US9973728B2 (en) 2014-12-14 2018-05-15 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US20180227539A1 (en) 2014-12-14 2018-08-09 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US10771734B2 (en) 2014-12-14 2020-09-08 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US11095847B2 (en) 2014-12-14 2021-08-17 SZ DJI Technology Co., Ltd. Methods and systems of video processing
US10284808B2 (en) 2014-12-14 2019-05-07 SZ DJI Technology Co., Ltd. System and method for supporting selective backtracking data recording
US10567700B2 (en) 2014-12-14 2020-02-18 SZ DJI Technology Co., Ltd. Methods and systems of video processing
JP2018196076A (en) * 2017-05-22 2018-12-06 株式会社ラムダシステムズ Telop display system, telop display program, and telop display method
JP2019062357A (en) * 2017-09-26 2019-04-18 株式会社日立国際電気 Video server system
JP2020107189A (en) * 2018-12-28 2020-07-09 株式会社ラムダシステムズ Information processor, information processing method, and information processing program
WO2020137371A1 (en) * 2018-12-28 2020-07-02 株式会社ラムダシステムズ Information processing device, information processing method, and information processing program
TWI752395B (en) * 2018-12-28 2022-01-11 日商浪達系統股份有限公司 Message processing device, message processing method, and message processing program
US11809818B2 (en) 2018-12-28 2023-11-07 Lambda Systems, Inc. Information processing apparatus, information processing method, and information processing program
JP2020137075A (en) * 2019-02-25 2020-08-31 株式会社ラムダシステムズ Information processing device, information processing method and information processing program
WO2020174933A1 (en) * 2019-02-25 2020-09-03 株式会社ラムダシステムズ Information processing device, information processing method and information processing program
US11330340B2 (en) 2019-02-25 2022-05-10 Lambda Systems Inc. Information processing apparatus, information processing method, and information processing program
WO2022074788A1 (en) * 2020-10-08 2022-04-14 ソニーグループ株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP3923932B2 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
JP3923932B2 (en) Video summarization apparatus, video summarization method and program
US8121462B2 (en) Video edition device and method
US20110161348A1 (en) System and Method for Automatically Creating a Media Compilation
TWI474200B (en) Scene clip playback system, method and recording medium
JP5488475B2 (en) Topic transition analysis system, topic transition analysis method and program
JP5706718B2 (en) Movie synthesis system and method, movie synthesis program and storage medium thereof
JP2008176538A (en) Video attribute information output apparatus, video summarizing device, program, and method for outputting video attribute information
JP2007511154A (en) Program recommendation system
QUEEN Working with performed language: Movies, television, and music
JP2006287319A (en) Program digest generation apparatus and program digest generation program
JP4568144B2 (en) Information presentation device and information presentation program
JP2002335473A (en) Retrieval information extraction system for moving image contents, retrieved information extraction means, retrieved information storage system, and method for distributing streaming of moving image contents
JP4925938B2 (en) Digest video information creation method, digest video information creation program, and video apparatus
WO2023047658A1 (en) Information processing device and information processing method
JP2005157463A (en) Data classifying method, summary data generating method, data classifying device, summary data generating device, data classifying program, summary data generating program and information recording medium
JP2010268195A (en) Video content editing program, server, apparatus and method
JP2004159192A (en) Video image summarizing method, program, and storage medium for storing video image summarizing program
US20050069282A1 (en) Information reproducing method, recording medium on which information reproducing program is computer-readably recorded, and information reproducing apparatus
JP2008059383A (en) Content presentation device and computer program
JP2007193820A (en) Descriptive text forming device, descriptive text forming method and program
JP3926756B2 (en) Video summarization apparatus and video summarization method
Sexton Excavating Authenticity: Surveying the Indie-Rock Doc
WO2021240644A1 (en) Information output program, device, and method
JP4137007B2 (en) Video content description generation apparatus and computer-readable recording medium
KR101512890B1 (en) Media scene playing system, method and recording medium thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070222

LAPS Cancellation because of no payment of annual fees