JP2005109566A - Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program - Google Patents
Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program Download PDFInfo
- Publication number
- JP2005109566A JP2005109566A JP2003336212A JP2003336212A JP2005109566A JP 2005109566 A JP2005109566 A JP 2005109566A JP 2003336212 A JP2003336212 A JP 2003336212A JP 2003336212 A JP2003336212 A JP 2003336212A JP 2005109566 A JP2005109566 A JP 2005109566A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- event
- explanatory
- transition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、映像情報から要約映像情報を作成する映像要約装置及び方法、映像情報から説明文を生成する説明文生成装置及び方法、並びにプログラムに関する。 The present invention relates to a video summarization apparatus and method for creating summary video information from video information, an explanatory text generation apparatus and method for generating explanatory text from video information, and a program.
近年、ディジタル衛星放送による放送の多チャンネル化等、情報インフラの発展により、多くの映像コンテンツが流通するようになっている。一方で、計算機の処理能力の向上やADSL、FTTHなどのブロードバンド・ネットワークの普及に伴い、映像をパソコンや携帯端末上の記憶装置に録画して視聴したり、ネットワークを通じて配信された映像を視聴したりすることが一般的になっている。そのため、ユーザは今までと同じ時間でより多くのコンテンツを視聴するために自分の興味ある部分だけを視聴したり、パソコンで録画した映像を携帯端末向けに短く要約して、外出先で視聴したりするなど、視聴形態も多様化していくと考えられる。 In recent years, with the development of information infrastructure such as multi-channel broadcasting by digital satellite broadcasting, a large amount of video content has been distributed. On the other hand, with the improvement of computer processing capacity and the spread of broadband networks such as ADSL and FTTH, video can be recorded and viewed on a storage device on a personal computer or portable terminal, or video distributed over the network can be viewed. It has become common to do. As a result, users can watch only their part of interest in order to view more content in the same amount of time as before, or briefly summarize videos recorded on a personal computer for viewing on the go. The viewing style is expected to diversify.
また、映像コンテンツの製作者側からの視点に立つと、ユーザの視聴環境の多様化は同じ内容のコンテンツであっても、テレビ放送向け、ブロードバンド放送向け、携帯端末向けと視聴環境に応じて、複数のバリエーションを作成する必要が生じ、製作コストが増大する。 Also, from the viewpoint of the producer of video content, even if the content of the viewing environment of users is the same content, depending on the viewing environment for TV broadcasting, broadband broadcasting, and mobile devices, It becomes necessary to create a plurality of variations, and the manufacturing cost increases.
そこで、映像の中のイベントをイベント列として記述し、ユーザの嗜好とのマッチングに応じて自動的に要約する装置や方法が提案されている。例えば、イベントごとの重要度を求め、該当するイベントの区間を要約映像として選択する方法(例えば、特許文献1参照)や、要約映像そのものに対する説明を生成する方法(例えば、特許文献2参照)がある。
元映像から、ユーザの興味のあるシーンを集めた要約映像は、コンテンツの内容を知る上で、重要なシーンを必ずしも含むとは限らない。例えば、スポーツの試合において、味方チームの映像を中心にした要約映像を作成する場合、相手チームの得点シーンなどが含まれずに、試合展開が分からなくなる場合がある。 A summary video obtained by collecting scenes of interest of the user from the original video does not necessarily include an important scene in order to know the content. For example, when creating a summary video centering on a video of a teammate in a sport game, the game development may not be known because the scoring scene of the opponent team is not included.
また、試合全体の要約を作成したい場合、全体のシーン構成を考慮して、重要でないシーンもいくらか含めたい場合がある。しかし、先の提案では必ずしもこのようなシーン構成を考慮したコンテンツを生成できる要約方法とはなっていなかった。例えば、試合の後半にばかり重要なシーンがある場合、前半のシーンが全く含まれない要約映像が作成される場合がある。 Also, if you want to create a summary of the entire game, you may want to include some unimportant scenes, taking into account the overall scene structure. However, in the previous proposal, it has not necessarily been a summarizing method capable of generating content in consideration of such a scene configuration. For example, if there is an important scene only in the second half of the game, a summary video that does not include the first half scene may be created.
本発明は、上記事情を考慮してなされたものであり、ユーザの興味のある映像区間に対して、テロップや音声ナレーションなどによる説明を付加した要約映像を作成する映像要約装置、映像要約方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of the above circumstances, and a video summarization apparatus, a video summarization method, and a video summarization method for creating a summary video in which a description by a telop or voice narration is added to a video section of interest to a user The purpose is to provide a program.
また、本発明は、より効果的に説明文を生成する説明文生成装置、説明文生成方法及びプログラムを提供することを目的とする。 Moreover, an object of this invention is to provide the explanatory note production | generation apparatus, the explanatory note production | generation method, and program which produce an explanatory note more effectively.
本発明は、映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出し、前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択し、前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択し、選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成し、選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成することを特徴とする。 The present invention calculates the importance of each event based on the first information regarding the contents of the event included in the video, and calculates the second information regarding the video section of the event included in the video and the importance. Based on the video, a video section to be used as a summary video is selected, an event to be created as an explanatory text is selected from events included in the video, and the event related to the selected event is selected. An explanatory text relating to the event is generated based on the first information, and summary video information is generated based on the selected video section and the generated explanatory text.
また、本発明は、映像内に含まれるイベントに関係する遷移状態を保持し、前記映像内に含まれるイベントの内容に関するイベント情報を入力し、入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新し、前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択し、選択された前記説明文テンプレート情報を用いて説明文を生成することを特徴とする。 Further, the present invention holds a transition state related to an event included in the video, inputs event information regarding the content of the event included in the video, and inputs the event information and a predetermined transition condition The transition state to be retained is updated based on the transition state, and based on the transition related to the transition state update, the explanatory note template information to be used for the creation of the explanatory note is selected from the plurality of explanatory note template information. An explanatory note is generated using the selected explanatory note template information.
本発明によれば、ユーザの興味のある映像区間に対して、テロップや音声ナレーションなどによる説明を付加した要約映像を作成することができる。 According to the present invention, it is possible to create a summary video to which a description by telop, voice narration, or the like is added to a video section in which the user is interested.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る映像要約装置の基本構成例を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a basic configuration example of a video summarizing apparatus according to the first embodiment of the present invention.
図1に示されるように、本映像要約装置は、重要度算出部106、映像区間選択部107、説明文用イベント選択部108、説明文作成部109、統合部110を備えている。
As shown in FIG. 1, the video summarization apparatus includes an importance
元映像情報101は、例えばテレビの番組やユーザが撮影した映像など、様々な映像コンテンツがこれに該当する。
The
本実施形態では、元映像情報101は、デジタルデータとする。デジタルデータの形式は、どのような形式でもよい(例えば、MPEG−1やMPEG−2などの圧縮データ形式を用いるのが一般的である)。もちろん、ソース映像がアナログデータでもよいが、この場合には、予め外部でデジタルデータに変換するか、または、本映像要約装置がアナログ・デジタル変換を備える。
In the present embodiment, the
映像コンテンツは、1つでも複数でもかまわなく、タイトルやIDなど映像コンテンツを一意に特定できる情報と、再生を開始する時間またはフレーム番号をと与えれば、任意の映像コンテンツを任意の位置から再生可能である。 The video content can be one or more, and any video content can be played from any position, given the information that uniquely identifies the video content, such as title and ID, and the playback start time or frame number. It is.
映像属性情報102は、映像コンテンツに関する様々な属性情報(メタデータ)である。図2に、属性情報の一例を示す。属性情報には、映像コンテンツ内で起きた事象をイベントとして列挙したイベント列が含まれる。イベントは、人物や物体の名称や動き(サッカーの場合、「○○選手のシュート」など)や、時間的な区切り(「試合開始」、「試合終了」など)などの情報がその発生時間と共に記述される。発生時刻の記述は、シーン情報のように区間の始点・終点を記述する形式でもよいし、イベントが発生した瞬間の時刻を記述する形式でもよい。その他、属性情報には、スポーツの種目、対戦チーム名、日時、場所、出場選手、試合結果など、映像コンテンツ中の特定の時間に関連しない情報も含んでよい。また、ここでは具体例としてスポーツを挙げたが、属性情報はコンテンツに応じて適宜記述することができる。例えば、ドラマや情報番組についても登場人物やトピックのタイトルを用いることで、同様に記述することができる。
The
要約作成情報103は、要約を作成するときのユーザの嗜好や、要約映像の時間、要約アルゴリズムのパラメータなどを含む情報である。ユーザの嗜好とは、ユーザが優先的に視聴したい部分を求めるためのキーワードなどの情報である。スポーツの試合であれば、好みのチームや好みの選手などの情報がこれに該当する。キーワードは、見たい対象だけ記述してもよいし、見たい対象だけではなく、見たくない対象についての記述をも可能にしてもよい。これらの情報は、直接入力してもよいし、毎回同じような条件を入力する手間を省くために予め内部あるいは外部の記憶装置上に保持しておいてもよい。
The
説明文作成情報104は、映像属性情報102に含まれるイベントから、説明文を作成するときに用いるテンプレート(雛形)を含む情報である。ここで用いるテンプレートとは、例えば、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
のように、固定された文字列と可変の文字列の組み合わせによって与えられる文字列である。この例では、「(時間)」など()によって示された文字列が可変の文字列を表している。
The explanatory
"(Time), (Team) chance. (Player) (Play)!"
In this way, the character string is given by a combination of a fixed character string and a variable character string. In this example, the character string indicated by () such as “(time)” represents a variable character string.
要約映像情報105は、本映像要約装置によって生成させる要約映像である。要約映像情報は、元映像コンテンツの一部と、生成された文字等の可視的情報や音声等の可聴的情報による説明文(例えばテロップやナレーションなど)を含む。また、元映像コンテンツとは別に用意されたコンテンツ(例えば、タイトル画面など)を含めてもかまわない。また、要約映像情報の形態は、元映像とは別の映像コンテンツとして、それ単体で再生できる情報であってもよいし、元映像コンテンツを参照して再生しながら、文字や音声による説明文を表示・再生するものであってもよい。後者には、SMILなど複数のメディアを同期して表示することのできる記述言語を用いることができる。音声の再生には、例えば、音声合成を用いることができる。
The
重要度算出部106は、入力された映像属性情報102および要約作成情報103に基づいて、映像属性情報102に含まれるイベントごとにその重要度を算出する。イベントの重要度の算出方法は、当該イベントに含まれる文字列と要約作成情報103に含まれるキーワードとの一致の具合の評価値を求めることによって行う。例えば、重要度をwとし、キーワードの総数をNとして、次に例示する式により重要度wを求めることができる。ただし、次式においてαkは、要約作成情報103に含まれるk番目のキーワードの重み値を示すパラメータである。
w=ΣakM(χ)
ここで、Σはk=1〜Nの範囲を総和の対象とする。
また、χ番目のキーワードが一致する場合には、M(χ)=1とし、
χ番目のキーワードが一致しない場合には、M(χ)=0とする。
The
w = Σa k M (χ)
Here, Σ is a summation target in the range of k = 1 to N.
If the χ th keyword matches, M (χ) = 1,
If the χ th keyword does not match, M (χ) = 0.
なお、キーワードとして見たくない対象についての記述をも可能にする構成においては、M(χ)について、
χ番目のキーワードが一致し、χ番目のキーワードが見たい映像に係るキーワードである場合には、M(χ)=1とし、
χ番目のキーワードが一致し、χ番目のキーワードが見たくない映像に係るキーワードである場合には、M(χ)=−1とし、
χ番目のキーワードが一致しない場合には、M(χ)=0とする。
In addition, in the configuration that allows the description of the object that you do not want to see as a keyword, for M (χ),
If the χ th keyword matches and the χ th keyword is a keyword related to the video that you want to see, set M (χ) = 1,
If the χ th keyword matches and the χ th keyword is a keyword related to a video that you do not want to see, set M (χ) = − 1,
If the χ th keyword does not match, M (χ) = 0.
映像区間選択部107は、算出された重要度に従って、要約映像に含める元映像コンテンツの区間を選択する。
The video
図3に、個々のイベントに対応する区間(開始時間と終了時間)が求まっている場合(本実施形態では映像属性情報102に記述されている場合)の区間選択手順の一例(第1の区間選択方法)を示す。 FIG. 3 shows an example of the section selection procedure (first section) when sections (start time and end time) corresponding to individual events are obtained (in the present embodiment, described in the video attribute information 102). Selection method).
ステップS11では、イベント列の中から、まだ要約映像に含まれていない映像で、重要度が最大のイベントを検索し、これをイベントiとする。 In step S11, an event having the highest importance level is searched from the event sequence for videos not yet included in the summary video, and this is set as event i.
ステップS12では、既に要約映像に含まれるイベントの合計時間とイベントiの時間とを加算し、これを要約作成情報103で指定される要約映像の時間と比較する。越えない場合は、ステップS13へ進み、このイベントiを、要約映像を構成するイベントの1つとして追加する。そして、ステップS11へ戻り、次のイベントの検索を行う。
In step S12, the total time of the events already included in the summary video and the time of event i are added, and this is compared with the time of the summary video specified by the
しかして、ステップS12において、選択済みイベントの時間とイベントiの時間との合計が、要約映像時間を越える場合には、処理を終了する。 Thus, in step S12, if the sum of the time of the selected event and the time of event i exceeds the summary video time, the process ends.
この手順は、指定された時間に合うように、時間をしきい値として要約映像を生成するものであったが、生成される要約映像の時間が重要でないような場合には、例えば、重要度をしきい値とし、しきい値以上の重要度を持つイベントを選択してもよい。 This procedure was to generate a summary video using the time as a threshold to match the specified time. However, if the time of the generated summary video is not important, for example, the importance level may be changed. An event having an importance level equal to or higher than the threshold value may be selected as the threshold value.
また、しきい値以上の重要度を持つイベントのみを対象として、図3の手順を行う方法も可能である。 Further, a method of performing the procedure of FIG. 3 for only events having an importance level equal to or higher than a threshold value is also possible.
その他、イベントの重要度のしきい値や、要約映像の時間のしきい値などを用いた区間選択手順には、種々のバリエーションが可能である。 In addition, various variations are possible for the section selection procedure using the threshold value of the importance level of the event and the threshold value of the time of the summary video.
図4に、区間選択手順の他の例(第2の区間選択方法)を示す。この手順例では個々のイベントを時間に対する重要度の関数として表現して、要約映像の区間を選択する方法である。以下、本手順の概要を説明する(本手順の詳細について例えば特願2002−287861号公報参照)。 FIG. 4 shows another example of the section selection procedure (second section selection method). In this example procedure, each event is expressed as a function of importance with respect to time, and a section of the summary video is selected. Hereinafter, the outline of this procedure will be described (see Japanese Patent Application No. 2002-287861 for details of this procedure).
ステップS21では、イベントの重要度と重要度関数からイベント重要度曲線を算出する。 In step S21, an event importance curve is calculated from the event importance and the importance function.
イベント重要度関数とは、イベント区間の時間による重要度の変化を表す関数である。関数の式はイベントごとに自由に決めることができる。この関数式を重要度に基づいて変化させ、イベント重要度曲線を求める。 The event importance function is a function that represents a change in importance according to the time of an event section. The function expression can be freely determined for each event. This function formula is changed based on the importance to obtain an event importance curve.
一例としては、イベント重要度関数にイベントの重要度を乗ずる。i番目のイベントの関数式をfi(t)とすると、イベント重要度曲線の式は、
Ei=(wi+ei)fi(t)
となる。ただし、wiはi番目のイベントの重要度である。また、eiは、補正項であり、wi以外の要因を反映させたいときに用いる。
As an example, the event importance function is multiplied by the event importance. If the function formula of the i-th event is f i (t), the formula of the event importance curve is
E i = (w i + e i ) f i (t)
It becomes. Here, w i is the importance of the i-th event. E i is a correction term and is used when a factor other than w i is to be reflected.
ステップS22では、図5(a)に例示するように、イベント重要度曲線201と時間重要度曲線202とを加算し、コンテンツ全体の時間ごとの重要度変化を示す重要度曲線203を算出する。
In step S22, as illustrated in FIG. 5A, the
ここで、時間重要度曲線とは、イベントの発生とは独立に、コンテンツ全体の時間による重要度の変化を示す。 Here, the time importance curve indicates a change in importance with time of the entire content, independently of the occurrence of an event.
時間重要度曲線の式をT(t)とすると、コンテンツ全体の重要度曲線は、
ER(t)=Max(Ei(t))+T(t)
となり、イベントの重要度と時間による重要度の両者の合計となる。ただし、Max(Ei(t))は時間tにおけるEi(t)の最大値である。
If the time importance curve equation is T (t), the importance curve for the entire content is
ER (t) = Max (E i (t)) + T (t)
It becomes the sum of both the importance of the event and the importance by time. However, Max (E i (t)) is the maximum value of E i (t) at time t.
なお、上記の代わりに、ER(t)=ΣEi(t)+T(t)としてもよい。ここで、Σ(Ei(t))は全イベントについてのEi(t)の総和である。 Instead of the above, ER (t) = ΣE i (t) + T (t) may be used. Here, Σ (E i (t)) is the sum of E i (t) for all events.
ステップS23では、図5(b)に例示するように、重要度曲線がしきい値を超える区間を要約映像に含まれる区間として選択し、映像区間情報を得る。図5(b)のように、しきい値を小さくするほど、選択される映像区間は長時間になる。なお、区間の選択に用いるしきい値は、例えば、直接指定してもよいし、指定された時間に合うようにしきい値を求めて、その値を用いてもよい。 In step S23, as illustrated in FIG. 5B, a section where the importance curve exceeds the threshold is selected as a section included in the summary video, and video section information is obtained. As shown in FIG. 5B, the smaller the threshold value, the longer the video section selected. Note that the threshold value used for selecting the section may be directly specified, for example, or may be obtained by obtaining the threshold value so as to meet the specified time.
なお、区間選択手順には、上記の第1や第2の区間選択方法以外にも、種々のバリエーションが可能である。 In addition to the first and second section selection methods described above, various variations are possible for the section selection procedure.
説明文用イベント選択部108は、要約映像に用いる文字や音声による説明文(テロップやナレーションなど)の生成に用いるイベントを、イベント列から選択する。基本的には、要約映像の全部に対してのみ説明文を生成する処理と、要約映像の一部に対してのみ説明文を生成する処理と、要約映像の全部又は一部及び要約映像以外の所定の部分に対して説明文を生成する処理と、要約映像以外の所定の部分に対してのみ説明文を生成する処理が考えられる。これらのイベント選択処理は、映像区間選択部107とは独立して処理してもよいし、映像区間選択部107のデータを利用してもよい。
The explanatory note
説明文用イベント選択部108で用いられるアルゴリズムは、基本的には、映像区間選択部107で用いられるアルゴリズムと同様の考えに基づくものでよい。例えば、第1の区間選択方法と同様にイベントごとの重要度をもとに、しきい値以上の重要度を持つイベントを選択する方法(第1のイベント選択方法)や、第2の区間選択方法と同様にコンテンツ全体の重要度曲線を求め、しきい値以上の重要度である区間に含まれるイベントを選択する方法(第2のイベント選択方法)がある。もちろん、その他の方法も可能である。
The algorithm used in the explanatory note
説明文用イベント選択部108が映像区間選択部107のデータを利用する場合には、一例として、区間選択方法とイベント選択方法との間で、しきい値だけを変更して同じ選択方法を用いるものがある。その際、例えば、映像区間の中でも特に重要な一部イベントに対して、重点的に説明文を生成したい場合は、しきい値をより高く設定し、特に重要なイベントだけが選択されるようにすればよい。また、映像区間に含まれないやや重要度の低いイベントに対しても説明文を生成して、詳細な情報を提供したい場合は、しきい値を低く設定し、より広範なイベントが選択されるようにすればよい。イベント選択に用いるしきい値は1つである必要はなく、文字で表現される説明文や音声で表現される説明文など、用途に応じて複数のしきい値を用いてもよい。
When the explanatory
また、映像区間選択部107のデータを利用する他の例としては、先に選択された映像区間に含まれるイベントの中から、説明文作成に用いるイベントを選択する。このときのイベント選択方法は、映像区間の選択方法と同じでもよいし、異なっていてもよい。異なる例としては、第2の区間選択方法で映像区間を選択し、その映像区間に含まれるイベントの中から、第1のイベント選択方法を用いてイベントを選択する。
As another example of using the data of the video
一方、映像区間選択部107とは独立してイベントを選択する例としては、イベント列から第1の区間選択方法で映像区間を、第2のイベント選択方法で説明文用イベントを選択するなど、異なる選択方法を組み合わせて用いる。また、同じ選択方法の組み合わせであっても、重要度算出部106の重み値などのパラメータが異なる場合が例として挙げられる。
On the other hand, as an example of selecting an event independently of the video
さらに、例えば、文字等の可視的情報で表現される説明文(以下、文字説明文)と音声等の可聴的情報で表現される説明文(以下、音声説明文)とを併用する場合に、1つのイベント選択方法によって選択された個々のイベントについて、文字説明文を生成するか、音声説明文を生成するか、両者を生成するかを、所定の基準(例えば、当該イベントについて重要度が高く映像区間も選択されている場合には両者、重要度は高くないが映像区間が選択されている場合には音声説明文のみ、映像区間が選択されていない場合には文字説明文のみ、といった基準)によって自動的に決定するか、あるいはユーザがイベントごとに直接指示して決定する方法も可能である。このとき、説明文用イベント選択部108は、選択された各イベントについて、上記の決定内容を特定できる情報を、説明文作成部109へ通知するようにする。なお、この決定処理は、説明文作成部109で行っても構わない。
Furthermore, for example, in the case where an explanatory text expressed by visual information such as characters (hereinafter referred to as text explanatory text) and an explanatory text expressed by audible information such as speech (hereinafter referred to as audio explanatory text) are used together, For each event selected by one event selection method, whether to generate a text explanation, a voice explanation, or both is determined according to a predetermined criterion (for example, the importance of the event is high). If the video section is also selected, both criteria are not high importance, but only the audio description when the video section is selected, and only the text description when the video section is not selected ), Or a method in which the user directs and determines each event directly is also possible. At this time, the explanatory note
また、文字説明文と音声説明文とを併用する場合に、文字説明文に用いるイベントを選択する処理と、文字説明文に用いるイベントを選択する処理とを、独立して行う方法も可能である。 In addition, when a text explanation and a voice explanation are used in combination, a method for selecting an event used for the text explanation and a process for selecting an event used for the text explanation are also possible. .
また、1つのイベント選択方法によって選択された全てのイベントについて、文字説明文と音声説明文の両者を生成しておき、ユーザが、説明文を、文字のみで出力するか、音声のみで出力するか、両者を出力するかを、選択できるようにしてもよい。 In addition, for all events selected by one event selection method, both a text explanation and a voice explanation are generated, and the user outputs the explanation with only letters or with only voice. Alternatively, it may be possible to select whether to output both.
説明文作成部109は、説明文用イベント選択部108で選択された説明文用イベントと説明文作成情報104とから、(文字等の可視的情報や音声等の可聴的情報による)説明文を生成する。
The explanatory
前述したように、説明文作成情報は、説明文を生成するためのテンプレートを含む情報である。テンプレートとは、例えば、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
のように、固定された文字列と可変の文字列の組み合わせによって、与えられる文字列である。この例では、「(時間)」など()によって示された文字列が可変の文字列を表している。
As described above, the explanatory note creation information is information including a template for generating an explanatory note. A template is, for example,
"(Time), (Team) chance. (Player) (Play)!"
In this way, the character string is given by a combination of a fixed character string and a variable character string. In this example, the character string indicated by () such as “(time)” represents a variable character string.
可変の文字列には、映像属性情報102や要約作成情報103から、直接的あるいは間接的に得ることができる文字列が入る。このようなテンプレートがイベントの種類などによって複数用意される。例えば、イベント列から、
「時間:前半12分、チーム:チームA、選手:X選手、プレイ:シュート」
の情報が得られた場合に、先に例示したテンプレート、すなわち、
「(時間)、(チーム)のチャンス。(選手)の(プレイ)!」
に当てはめて、
「前半12分、チームAのチャンス。X選手のシュート!」
と、説明文が生成される。
The variable character string includes a character string that can be obtained directly or indirectly from the
“Time: First 12 minutes, Team: Team A, Player: Player X, Play: Shoot”
If the information is obtained, the template exemplified above, that is,
"(Time), (Team) chance. (Player) (Play)!"
Apply to
“First half 12 minutes, chance of Team A. X player's shot!”
An explanatory note is generated.
また、2つ以上のイベント列の情報と1つのテンプレートを用いて説明文を生成してもよい。例えば、第1イベントがセンタリングで、第2イベントがシュート、第3イベントがゴールのように、関連するイベントが連続する場合に、これを「(センタリングした選手)が上げたボールを(シュートした選手)がシュート。ゴール!」などと、1つの説明文にまとめることもできる。 Moreover, you may produce | generate description using the information of two or more event sequences, and one template. For example, if the first event is centering, the second event is a shot, the third event is a goal, and the related events are continuous, this is indicated as “the player who shot (the player who shot the center) ) Is a shoot, a goal! ”And so on.
イベントの関連性を判断するには、関連イベントとするイベントの種類を列挙した情報を作成し、入力されてくるイベント列との間で比較を行えばよい。例えば、前述の例の場合、「センタリング、シュート、ゴール」とイベントの種類を列挙した情報を作成しておく。イベントの種類以外に時間的に近いイベントのみをまとめるためにイベント発生時刻の間隔などを記述しておいてもよい。 In order to determine the relevance of an event, information that enumerates the types of events that are related events may be created and compared with an input event sequence. For example, in the case of the above example, “centering, shoot, goal” and information listing the event types are created. In order to collect only events that are close in time other than the event type, an interval of event occurrence times may be described.
なお、説明文作成部109は、例えば、文字説明文と音声説明文との両方を作成する可能性がある場合には、文字説明文を作成するための部分と、音声説明文を作成するための部分とを兼ね備えるものとする。もちろん、文字説明文のみ作成する場合には、文字説明文を作成するための部分のみ備えればよい。音声説明文のみ作成する場合についても同様である。
For example, when there is a possibility of creating both a text explanation and a voice explanation, the
統合部110は、映像区間情報と文字テロップや音声ナレーションによる説明文とを統合し、両方の情報を含んだ要約映像情報を作成する。文字の表示や音声の発話のタイミングは、イベントの発生時刻や映像区間に合わせて行う。発生時刻に合わせる場合、発生時刻の前に適当な間隔をおいて表示、発話したり、発話区間の特定の位置(例えば中間点)がイベントの発生時刻となるように表示、発話したりするようにタイミングを調整すればよい。また、映像区間に合わせる場合は、その区間の開始点や終了点から適当な間隔をとって表示、発話すればよい。もちろん、これらの複数の手法を組み合わせて、例えば、文字テロップは映像区間に合わせ、音声ナレーションはイベントの発生時刻に合わせて用いるなどしてもよい。
The
統合時には、テロップのオーバーレイ表示や、音声合成による音声ナレーションを作成して、要約映像に含めてもよいし、テキストの状態で要約映像情報として記述して、再生装置側で、オーバーレイ表示音声合成を行ってもよい。 At the time of integration, telop overlay display and voice narration by voice synthesis may be created and included in the summary video, or described as summary video information in the text state, and overlay display voice synthesis is performed on the playback device side. You may go.
なお、上記では、統合部11は、選択された映像区間情報と生成された説明文情報とを単純に重ね合わせて、1つの映像要約情報として出力する例を示したが、映像区間や音量の調整を含むようにしてもよい。 In the above description, the integration unit 11 simply superimposes the selected video section information and the generated explanatory text information and outputs the information as one video summary information. Adjustments may be included.
図6に、この場合の統合部110の処理手順例を示す。なお、本処理手順において、ステップS31及びステップS32は、不要であれば、どちらかを省略してもよい。
FIG. 6 shows a processing procedure example of the
ステップS31では、映像区間情報を説明文情報の表示(テロップ)、再生(音声ナレーション)のタイミングに合わせて調整する。 In step S31, the video section information is adjusted according to the timing of display (telop) and reproduction (voice narration) of the explanatory text information.
例えば、音声ナレーションの発話時間に対して映像区間が短すぎる場合に、音声ナレーションが収まるように映像区間を拡張する。拡張した部分の時間は、他の区間(ナレーションの短い区間など)を短縮することで、吸収してもよいし、そのままにしておいてもよい。なお、発話時間の代わりに文字数や単語数を用いてもよい。 For example, when the video section is too short with respect to the speech narration speech time, the video section is extended so that the voice narration can be accommodated. The extended time may be absorbed by shortening other sections (such as sections with short narration), or may be left as it is. Note that the number of characters and the number of words may be used instead of the speech time.
また、例えば、図7の調整前の映像の或る映像区間301に対して、ナレーション303a,303bを挿入したい場合を考える。この場合、イベントの発生時刻の近傍の区間302にはナレーションは入れずに、歓声だけを利用し、その前後にナレーションを挿入するようにしてもよい。図7において、斜線で表されているのがナレーションの時間長である。図7の例では、ナレーション303aは問題ないが、ナレーション303bは挿入先の区間に対して長すぎるため、そのまま挿入すると映像区間301の終端を越えてしまう。そこで、映像区間を301から304のように、後方へずらすことで、両方のナレーションが収まるように調整することができる。
For example, consider a case where
ステップS32では、映像に含まれる音声の音量を調節する。例えば、音声ナレーションを再生する部分の映像の音量を、音声ナレーションが聞き取りやすくなるように小さくしたり、ゴールなどのイベントが発生した部分の歓声などを大きくしたりする。 In step S32, the volume of the audio included in the video is adjusted. For example, the volume of the video for reproducing the voice narration is reduced so that the voice narration can be easily heard, or the cheer of the part where an event such as a goal occurs is increased.
ステップS33では、調整された映像とテロップやナレーションをまとめた要約映像情報を作成する。 In step S33, summary video information in which the adjusted video is combined with the telop and narration is created.
以上のように本実施形態によれば、映像情報の中から、ユーザの入力したキーワードや時間などの条件やユーザの好みに基づいて、ユーザの興味のある映像区間のみを選択し、それにテロップや音声ナレーションを付加した要約映像を作成することができる。また、省略されてしまった重要なシーンを説明文で補うことで、より内容を理解しやすい要約映像を作成することができる。 As described above, according to the present embodiment, from the video information, only the video section in which the user is interested is selected based on the conditions such as the keyword and time input by the user and the user's preference, and a telop or A summary video with voice narration can be created. Also, by supplementing important scenes that have been omitted with explanatory texts, it is possible to create a summary video that makes it easier to understand the contents.
したがって、本実施形態によれば、ユーザは1つの番組をまるごと再生することなく、自分の興味のある部分だけを含む要約を作成して、再生することが可能である。その際に、テロップや音声ナレーションによる説明を映像に現れない部分を含めて、ユーザの嗜好に合った文章や口調で受けることができる。 Therefore, according to the present embodiment, the user can create and reproduce a summary including only a portion of his / her interest without reproducing one whole program. At that time, it is possible to receive explanations based on telops and voice narrations in sentences and tone that match the user's preference, including portions that do not appear in the video.
(第2の実施形態)
図8は、本発明の第2の実施形態に係る説明文生成装置の基本構成例を示す図である。
(Second Embodiment)
FIG. 8 is a diagram illustrating an example of a basic configuration of an explanatory note generating apparatus according to the second embodiment of the present invention.
図8に示されるように、本説明文生成装置は、遷移制御部406、テンプレート選択部407、説明文生成部408を備えている。
As illustrated in FIG. 8, the explanatory note generation apparatus includes a
本説明文生成装置は、第1の実施形態の説明文作成部として用いることができる。 This explanatory note generation device can be used as an explanatory note creation unit of the first embodiment.
イベント情報401は、説明文生成に用いるイベント情報である。このイベント情報は、生成する説明文によって、元映像に付けられた全イベント情報である場合もあるし、選択された一部のイベントに関する情報のみの場合もある。
The
遷移状態情報402は、説明文生成過程における遷移状態を保持した情報である。
The
遷移条件情報403は、イベントの発生により、あるノード(状態)から別のノードに遷移するときの遷移条件と遷移先ノードを示す情報である。
The
説明文用テンプレート情報404は、イベント情報を当てはめて説明文を生成するためのテンプレート(雛形)となる情報である。
The description
説明文情報405は、生成される説明文(文字テロップや音声ナレーションなど)である。
The
遷移制御部406は、イベント情報を受け取り、遷移条件情報に従って、遷移状態情報の更新を行う。
The
テンプレート選択部407は、説明文用テンプレート情報から、直前の遷移に対応した説明文テンプレートを選択する。
The
説明文生成部408は、選択されたテンプレートに対して、イベント情報を当てはめた説明文情報を生成する。
The explanatory
次に、各部の処理を、図9を参照しながら説明する。図9は、イベント発生時の状態遷移の一例を表す。 Next, processing of each unit will be described with reference to FIG. FIG. 9 shows an example of state transition when an event occurs.
図9において、現ノード(501)が現在の状態に対応し、イベントの発生により、ノードA(502)やノードB(503)で表される状態に遷移する。具体例を挙げると、スポーツの試合において、現在が同点の状態で、現ノードにあるとする。また、Aチームのリードした状態をノードA、Bチームのリードした状態をノードBとする。得点イベントの発生により、現ノードからAチームのリードした状態(ノードA)あるいはBチームのリードした状態(ノードB)に遷移する。 In FIG. 9, the current node (501) corresponds to the current state, and transitions to a state represented by node A (502) or node B (503) when an event occurs. As a specific example, in a sporting game, it is assumed that the current node is the same and the current node is the same. Further, a state in which team A has taken the lead is node A, and a state in which team B has taken the lead is node B. Due to the occurrence of a scoring event, a transition is made from the current node to a state led by Team A (Node A) or a state led by Team B (Node B).
1つのノードは複数の遷移先ノードを持つことができ、どのノードに遷移するかは遷移条件によって決まる。例えば、遷移条件Aは「Aチームの得点」、遷移条件Bは「Bチームの得点」と定める。もちろん、遷移条件の記述は「Aチームの得点」である必要はなく、「チーム=Aチーム、かつ、行動=得点」のように、イベントの項目ごとのマッチングでもよい。また、意味が同じであれば、単語を羅列するだけでもよいし、XMLなどの記述言語を用いてもよい。 One node can have a plurality of transition destination nodes, and which node is to be transitioned is determined by a transition condition. For example, the transition condition A is defined as “Score for Team A”, and the transition condition B is defined as “Score for Team B”. Of course, the description of the transition condition does not have to be “Score of Team A”, but may be matching for each event item, such as “Team = A Team and Action = Score”. If the meanings are the same, the words may be enumerated or a description language such as XML may be used.
遷移条件は、チームや選手名などのイベントから直接得られる情報や、得点経過や試合時間などの間接的に得られる情報、要約作成条件として与えられた情報、映像データを解析することによって得られる動きベクトルや色などの特徴量、ノードの通過回数や遷移元ノードなどの状態遷移から得られる情報など、様々な情報を用いて記述することができる。 Transition conditions are obtained by analyzing information obtained directly from events such as team and player names, information obtained indirectly such as score progress and game time, information provided as summary creation conditions, and video data It can be described using various information such as feature quantities such as motion vectors and colors, information obtained from state transitions such as the number of times nodes have passed and state nodes.
遷移制御部406は、発生したイベントと遷移条件を比較し、遷移状態情報に含まれる現ノード位置を更新する。前述の具体例を用いると、発生したイベントがAチームの得点イベントである場合には、現ノードをノードAに遷移させ、Bチームの得点イベントである場合には、現ノードをノードBに遷移させる。また、本例では当てはまらないが、遷移条件Cのように現ノードが更新されない場合もあり得る。
The
個々の状態遷移には対応する説明文テンプレートが存在する。ただし、説明文の生成を必要としない場合は、省略してもよい。例えば、遷移条件Aに従ってノードAに遷移するときにはテンプレートAを、遷移条件Bに従ってノードBに遷移するときにはテンプレートBを用いる。異なるノード間の状態遷移に対して、同じテンプレートを用いてもかまわない。前述の具体例の場合、「(時間)、(チーム)のチャンス、(選手名)のシュート。ゴール!」などとなる。ただし、()内はイベントによって決まる変数である。 There is a corresponding explanatory text template for each state transition. However, if it is not necessary to generate an explanatory note, it may be omitted. For example, template A is used when transitioning to node A according to transition condition A, and template B is used when transitioning to node B according to transition condition B. The same template may be used for state transition between different nodes. In the case of the above-mentioned specific example, “(time), (team) chance, (player name) shoot, goal!” However, the values in parentheses are variables determined by the event.
説明文生成部408では、イベント情報やコンテンツ全体の情報などから、直接的あるいは間接的に得られる情報を前述の説明文テンプレートに当てはめ、説明文情報を生成する。間接的に得られる情報というのは、例えば、映像に対応する時間情報から、試合の時間情報を得る場合などである。前述の具体例の場合、時間:前半30分、チーム:Aチーム、選手名:Xとすると、「前半30分、Aチームのチャンス、Xのシュート。ゴール!」となる。
The explanatory
図10に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールの一例を示す。この例では、開始、Aリード、同点A、Bリード、同点Bの5つのノードが存在する。開始ノードが初期の状態である。また、Aリード:チームAがリードしている状態、Bリード:チームBがリードしている状態、同点A:チームAがリードしている状態から同点になった状態、同点B:チームBがリードしている状態から同点になった状態を示す。状態遷移を示す矢印のうち、実線は「チームAの得点」、破線は「チームBの得点」が遷移条件であることを示す。また、「」内の文章はそれぞれの遷移に対応する説明文テンプレートである。なお、Aリード及びBリードより同一遷移条件で2つの遷移が出ているが、これらは、遷移条件としてチーム以外に得点差を考慮したものである。 FIG. 10 shows an example of a state transition rule used for generating narration at the time of scoring in a sports game. In this example, there are five nodes: start, A lead, tie A, B lead, and tie B. The starting node is in the initial state. In addition, A lead: Team A is in a lead state, B lead: Team B is in a lead state, A tie A: A state in which Team A is in a tie and a tie B: Team B The state where the tie is made from the lead state is shown. Among the arrows indicating the state transition, the solid line indicates that “team A score” and the broken line indicates that “team B score” is the transition condition. The text in “” is an explanatory text template corresponding to each transition. Note that two transitions appear from the A lead and the B lead under the same transition condition, but these take into account the score difference other than the team as the transition condition.
本手法により、同じ得点イベントであっても、その状況に応じて適切な説明文を選択することができることが分かる。例えば、同点からの得点イベントが発生した場合、開始ノード601からの遷移であるときは先制点であり、テンプレート602を用いる。同点に追いついた後(ノード603)であれば逆転であり、テンプレート604を用いる。同点に追いつかれた後(ノード605)であれば再び勝ち越したことを示す説明文をテンプレート606により、生成できる。
By this method, it can be seen that even if the scoring event is the same, an appropriate explanation can be selected according to the situation. For example, when a scoring event from the same point occurs, if it is a transition from the
図11に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールの他の例を示す。この例ではチームAが好きなユーザ向けに、チームAを主役にした説明文を生成する。例えば、チームBの得点であっても、チームAを主役にし、テンプレート701「逆転された」やテンプレート702「追いつかれた」など、チームAを中心にしたテンプレートを用いる。このように、同じ状態遷移に対して、異なる説明文テンプレートのセットを用意することにより、ユーザの嗜好や用途に応じた説明文を生成することが可能である。
FIG. 11 shows another example of the state transition rule used for generating narration at the time of scoring in a sport game. In this example, for a user who likes team A, an explanatory note with team A as the main role is generated. For example, even for the score of team B, a template centered on team A, such as
図12に、スポーツの試合における得点時のナレーション生成に用いる状態遷移ルールのさらに他の例を示す。この例では、テンプレート801のように1つの遷移に対して、複数の説明文テンプレートが対応付けられている。これらのテンプレートは遷移条件とは別の説明文条件によって、選択が行われる。説明文条件は、遷移条件と同様にチームや選手名などのイベントから直接得られる情報や、得点経過や試合時間などの間接的に得られる情報、要約作成条件として与えられた情報、映像データを解析することによって得られる動きベクトルや色などの特徴量、ノードの通過回数や遷移元ノードなどの状態遷移から得られる情報など、様々な情報により記述される。
FIG. 12 shows still another example of the state transition rule used for generating a narration at the time of scoring in a sport game. In this example, a plurality of explanatory text templates are associated with one transition like a
説明文条件を用いることにより、ノード数を削減し、状態遷移図を簡略化することができる。例えば、図12の場合、開始、同点A、同点Bの状態を1つの同点ノードにまとめ、直前が0対0であれば、先制点、相手チームのリードから追いついた同点であれば、逆転というふうに、テンプレートを切り替える。なお、図12中の条件の表記は一例として、if (条件)then「テンプレート」のif−thenルールの表記を用いているが、もちろん、他の表記方法を用いてもかまわない。 By using the explanatory sentence conditions, the number of nodes can be reduced and the state transition diagram can be simplified. For example, in the case of FIG. 12, the start, tie point A, and tie point B states are combined into one tie point node. Like, switch templates. Note that the notation of the condition in FIG. 12 uses, as an example, the not-then rule notation of if (condition) then “template”, but other notation methods may of course be used.
図13に、複数の状態遷移ルールを用いる方法の一例を示す。上記では、得点経過の状態遷移を例に状態遷移ルールを説明したが、実際のスポーツの試合では得点以外にも複数の状態遷移が存在する。例えば、野球を例にすると、回やその表裏の遷移があり、1つの回の表あるいは裏は3つのアウトの遷移がある。さらにその下に、打者や投球ごとの細かい階層の遷移が存在する。 FIG. 13 shows an example of a method using a plurality of state transition rules. In the above description, the state transition rule has been described by taking the state transition of the score progress as an example, but there are a plurality of state transitions other than the score in an actual sports game. For example, taking baseball as an example, there are times and front and back transitions, and there are three out transitions on the front and back of one time. Below that, there is a detailed hierarchical transition for each batter and pitch.
これらの状態遷移をすべて1つの状態遷移ルールとして記述することもできるが、非常に煩雑になってしまう。そこで、状態遷移ルールを複数用いる。図13で、状態遷移ルール1(901)と状態遷移ルール2(902)は同じ階層の状態遷移に対応し、同時並行的に処理が行われる。これに対し、状態遷移ルール3(903)は状態遷移ルール1がノード4(904)の状態にある場合に適用される。状態遷移ルール1において、ノード4からの遷移条件が成立すれば、状態遷移ルール3の状態に関わらず、次のノードに遷移する。このとき、ノード4からの遷移条件として、状態遷移ルール3の状態を用いてもかまわない。 Although all of these state transitions can be described as one state transition rule, it becomes very complicated. Therefore, a plurality of state transition rules are used. In FIG. 13, state transition rule 1 (901) and state transition rule 2 (902) correspond to state transitions in the same hierarchy and are processed in parallel. On the other hand, the state transition rule 3 (903) is applied when the state transition rule 1 is in the state of the node 4 (904). In the state transition rule 1, if the transition condition from the node 4 is satisfied, the state transitions to the next node regardless of the state of the state transition rule 3. At this time, the state of the state transition rule 3 may be used as a transition condition from the node 4.
図14に、状態遷移ルールを記述するデータ構造の一例を示す。 FIG. 14 shows an example of a data structure describing a state transition rule.
ノード情報1001は、1つのノードに関する情報を記述する。ノード情報にはそのノードの識別情報を示すノードID1002と遷移先ノードについての情報を記した遷移先情報1003を含む。遷移先情報は遷移先ノードの数に応じて、複数存在してもよい。遷移先情報には、遷移先ノードのノードIDを示す遷移先ノードID1004、遷移先ノードへ遷移するための遷移条件1005、この遷移ときに用いられる説明文テンプレートについて記述する説明文情報1006を含む。遷移先が1つで、必ず遷移する場合など、遷移条件が不要な場合は省略してもよい。説明文情報は説明文テンプレートの数に応じて、複数存在してもよい。個々の説明文情報は、説明文条件1007と説明文テンプレート1008の情報を含み、複数のテンプレートを用いる場合は説明文条件に応じて切り替える。また、説明文情報が1つで、切り替えの必要がない場合の説明文条件は省略してもよい。
図15に、複数の状態遷移ルールを記述するデータ構造の一例を示す。ここでは、図14との相違点についてのみ説明する。 FIG. 15 shows an example of a data structure describing a plurality of state transition rules. Here, only differences from FIG. 14 will be described.
状態遷移ルール1101は、状態遷移ルールについて記述する情報で、状態遷移ルールの識別情報を示すルールID1102とノード情報1103を含む。ノード情報には前述のノードIDや遷移先情報に加えて、そのノードのもとで適用される別の状態遷移ルール1104を保持する。この状態遷移ルールのデータ構造は、状態遷移ルールと同じものである。なお、状態遷移ルールの記述は、図15のように実体を記述してもよいし、他の場所で定義された状態遷移ルールをルールIDにより参照してもよい。特に、同じ状態遷移ルールを複数回使う場合は、1箇所で状態遷移ルールを定義し、それをルールIDで参照すれば効率がよい。このような参照を行わず、ルールIDが不要ならばルールIDを省略してもかまわない。
The
ところで、複数の状態遷移ルールを用いると、1つのイベント情報の入力に対して、個々の状態遷移ルールに対応した複数の説明文が生成される場合がある。これらの説明文を整理して表示(文字テロップなどの場合)あるいは再生(音声ナレーションなどの場合)するために、個々の説明文をどのように表示あるいは再生するかを示す位置情報を付加してもよい。この位置情報は、表示位置の座標や大きさなどを示す空間的な情報、または、再生時間を示す時間的な情報である。これらの空間的あるいは時間的な位置情報は、状態遷移ルールとともに記述することができる。例えば、1つの状態遷移ルールで共通した位置を用いる場合は、状態遷移ルール1105の要素として、記述すればよい。また、遷移ごとあるいは説明文ごとに位置を変更する場合は、遷移先情報1003や説明文情報1006の要素として記述すればよい。
By the way, when a plurality of state transition rules are used, a plurality of explanatory texts corresponding to individual state transition rules may be generated for one event information input. In order to organize and display these explanatory texts (in the case of character telops) or playback (in the case of voice narration), position information indicating how individual explanatory texts are displayed or added is added. Also good. This position information is spatial information indicating the coordinates and size of the display position, or temporal information indicating the reproduction time. These spatial or temporal position information can be described together with the state transition rule. For example, when a common position is used in one state transition rule, it may be described as an element of the state transition rule 1105. Moreover, what is necessary is just to describe as an element of the
図16に、時間的な位置情報として、イベントを中心とした相対的な位置を記述する方法の一例を示す。イベントの時刻を中心にし、それよりも前に再生するか、後に再生するかを記述する。図16の斜線部分が説明文(音声ナレーション)の挿入される区間である。また、前あるいは後ろに複数の説明文が存在する場合のために、イベント時刻からの順序を記述する。この順序は連番である必要はない。この前後情報と順序情報を時間的な位置情報として記述しておくことで、1つのイベントに対して、複数の音声ナレーションが生成された場合でも、自然なナレーションとなるように統合することができる。 FIG. 16 shows an example of a method for describing a relative position centered on an event as temporal position information. Describes whether to play before or after the event time. The hatched portion in FIG. 16 is a section where an explanatory text (voice narration) is inserted. In addition, the order from the event time is described in the case where a plurality of explanatory texts exist before or after. This order need not be sequential. By describing the front and rear information and the order information as temporal position information, even when a plurality of voice narrations are generated for one event, they can be integrated so as to be natural narration. .
なお、上記では、前後位置を示す情報(本例では、前又は後)と、イベント時刻からみた順序を示す情報(本例では、1又は2)で、イベントを中心とした相対的な位置を記述する方法の一例を示したが、もちろん、これに限定されるものではない。 In the above, information indicating the front and back positions (in this example, before or after) and information indicating the order from the event time (in this example, 1 or 2) An example of the description method has been shown, but the present invention is not limited to this.
例えば、時間的な位置情報を正負の数で表すことも可能である。この場合、例えば、イベント時刻を起点とし、これを0で表し、イベント時刻より前の位置を負の数(絶対値は、上記のイベント時刻からみた順序を示す情報と同じ)、イベント時刻より後の位置を正の数(絶対値は、上記のイベント時刻からみた順序を示す情報と同じ)で表すことができる。この方法によれば、図16の具体例の場合、先の方法による(前,2),(前,1),(後,1),(後,2)は、それぞれ、−2,−1,1,2で表すことができる。 For example, temporal position information can be expressed by positive and negative numbers. In this case, for example, starting from the event time, this is represented by 0, the position before the event time is a negative number (the absolute value is the same as the information indicating the order viewed from the event time), and after the event time. Can be represented by a positive number (the absolute value is the same as the information indicating the order viewed from the event time). According to this method, in the specific example of FIG. 16, (front, 2), (front, 1), (back, 1), and (back, 2) according to the previous method are respectively -2, -1 , 1 and 2.
以下、状態遷移による説明文生成の応用例を示す。 Hereinafter, an application example of description sentence generation by state transition will be shown.
図17に、状態遷移をもとに、試合を優勢に進めているチームや劣勢にあるチームなどの優劣情報を得るための基本的な書手順の一例を示す。優劣情報は、チームごとに数値などで表してもよいし、どちらのチームが優勢あるいは劣勢という情報でもよい。この優劣情報は遷移条件や説明文条件などの内部情報として用いてもよいし、ユーザに分かるような情報として用いてもよい。 FIG. 17 shows an example of a basic writing procedure for obtaining superiority / inferiority information such as a team that is playing a dominant game or an inferior team based on the state transition. The superiority / inferiority information may be expressed by a numerical value for each team, or may be information indicating which team is superior or inferior. This superiority / inferiority information may be used as internal information such as transition conditions and explanatory text conditions, or may be used as information that can be understood by the user.
ステップS41では、状態遷移ルールに基づく遷移状態の現ノード位置の優劣値を全体の優劣値に加算する。 In step S41, the superior / inferior value of the current node position in the transition state based on the state transition rule is added to the overall superior / inferior value.
ステップS42では、他に処理対象となる状態遷移ルールが存在するか判定し、存在する場合はステップS41に戻り、その状態遷移ルールに基づく遷移状態の現ノード位置の優劣値を加算する。これを処理対象となる状態遷移ルールがなくなくまで繰り返し、ステップS43へと進む。 In step S42, it is determined whether there is another state transition rule to be processed. If there is, the process returns to step S41, and the superior / inferior value of the current node position of the transition state based on the state transition rule is added. This is repeated until there is no state transition rule to be processed, and the process proceeds to step S43.
ステップS43では全体の優劣値から、優劣情報を得る。 In step S43, superiority information is obtained from the overall superiority value.
ここで、優劣値は、例えば、優勢チームの優勢度合を0〜1の間の連続的に変化する数値で表現してもよいし、どちらのチームが優勢かだけをあらわしてもよい。後者の場合、0か1の離散的な値をとると考えることができる。 Here, the superiority / inferiority value may be expressed, for example, by a numerical value that continuously changes between 0 and 1 or may indicate only which team is superior. In the latter case, it can be considered to take discrete values of 0 or 1.
(第3の実施形態)
図18は、本発明の第3の実施形態に係る映像要約装置の基本構成例を示す図である。
(Third embodiment)
FIG. 18 is a diagram illustrating a basic configuration example of a video summarizing apparatus according to the third embodiment of the present invention.
図18に示されるように、本映像要約装置は、全体説明作成部1202、重要度算出部1203、映像区間選択部1204、説明文用イベント選択部108、説明文作成部109、統合部110を備えている。
As shown in FIG. 18, the video summarizing apparatus includes an overall
本実施形態は第1又は第2の実施形態の拡張であるため、第1又は第2の実施形態との相違点についてのみ述べる。 Since this embodiment is an extension of the first or second embodiment, only differences from the first or second embodiment will be described.
要約映像構成情報1201は、生成される要約映像のシーン構成と、それに付帯する情報を記した情報である。要約映像には、試合展開の要約、特定の選手に注目した要約など様々な要約がある。また、本編を視聴するための判断材料にするときには、ゴールシーンや試合結果は知りたくない場合もある。特定の選手に注目するときは、1つの試合の要約ではなく、複数の試合からまとめて要約を作成する場合もある。要約映像構成情報は、このような要約のシーン構成を記したものである。
The summary
図19に、要約映像構成情報の一例を示す。図19においては、シーンごとの時間と内容を含んでいる。時間は、そのシーンの長さやその最大値、最小値である。内容は、そのシーンのタイプ(映像、要約映像、合成映像など)に応じて、そのシーンを作成するために必要なパラメータが記述される。映像を抽出するのであれば、その場所や範囲を示すパラメータ、テロップやナレーションを用いるのであれば、そのテンプレートや位置を示すパラメータを記述する。 FIG. 19 shows an example of summary video configuration information. In FIG. 19, the time and contents for each scene are included. The time is the length of the scene and its maximum and minimum values. The contents describe parameters necessary for creating the scene according to the type of the scene (video, summary video, composite video, etc.). If a video is to be extracted, a parameter indicating the location or range is described. If a telop or narration is used, a template or a parameter indicating the position is described.
全体説明作成部1202は、要約映像構成情報に基づき、コンテンツ全体に関わる説明を作成する。作成される説明は、要約映像構成情報に記述されたテロップやナレーション、あるいはそれらを用いた合成映像などである。また、先の例のタイトルシーンのように特定の映像が指定されている場合には、その検索も行う。テロップやナレーションのテンプレートに当てはめるデータは、映像属性情報や映像作成情報から得られるデータを用いる。
The overall
重要度算出部1203や映像区間選択部1204は、要約映像構成情報に含まれる要約映像シーンに関するパラメータを受け取り、その内容を満足する要約映像を作成する。具体的には、要約映像を抽出する範囲を要約映像構成情報で指定された範囲に限定したり、作成される要約映像の時間が指定された時間に合致するようにしきい値を設定したりする。また、本編を視聴するための判断材料にするときなど、結果を知りたくない場合には、得点シーンが入らないようにシュート以降の重要度を下げたり、その区間を除いた範囲から要約を作成したりする。
The importance
本実施形態によれば、ユーザの嗜好に依存するだけではなく、予め決められたシーン構成を満足する要約映像を作成することができる。 According to the present embodiment, it is possible to create a summary video that not only depends on the user's preference but also satisfies a predetermined scene configuration.
(第4の実施形態)
図20は、本発明の第4の実施形態に係る映像要約装置の基本構成例を示す図である。
(Fourth embodiment)
FIG. 20 is a diagram illustrating a basic configuration example of a video summarizing apparatus according to the fourth embodiment of the present invention.
図20に示されるように、本映像要約装置は、図18の構成に加えて、要約映像構成情報選択部1304、説明文作成情報選択部1305を備えている。
As shown in FIG. 20, the video summarization apparatus includes a summary video configuration
本実施形態は第3実施形態の拡張であるため、第3実施形態との相違点についてのみ述べる。 Since the present embodiment is an extension of the third embodiment, only differences from the third embodiment will be described.
ユーザプリファレンス1301とは、ユーザの嗜好に関する情報を記述したものである。
The
要約映像構成情報データベース1302は、複数の要約映像構成情報を格納したデータベースである。第3の実施形態で述べたように、要約映像構成情報には様々なシーン構成が存在する。これらの様々なバリエーションが本データベース1302に格納されている。
The summary video
説明文作成情報データベース1303は、様々な説明文テンプレートや状態遷移ルール(状態遷移による説明文生成を行う場合)などの情報を格納したデータベースである。同じ内容を示すテンプレートであっても、口調や方言の違いにより複数のバリエーションがあり得る。
The explanatory note
要約映像構成情報選択部1304は、要約映像構成情報データベースから、ユーザプリファレンスに合致する要約映像構成情報を選択する。
The summary video configuration
説明文作成情報選択部1305は、説明文作成情報データベースから、ユーザプリファレンスに合致する説明文作成情報を選択する。
The explanatory note creation
本実施形態の要約映像装置を用いることにより、ユーザはユーザプリファレンスに自分の好みのシーン構成や説明文の様式を記述しておくことで、キーワードと時間を指定するだけの場合と比べて、より自分の好みに合った要約映像を得ることができる。 By using the summary video device of the present embodiment, the user describes his / her favorite scene configuration and description format in the user preferences, compared to the case of simply specifying the keyword and time, You can get a summary video that suits your taste.
なお、以上の各機能は、ソフトウェアとして実現可能である。また、本実施形態は、コンピュータに所定の手段を実行させるための(あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるための)プログラムとして実施することもでき、該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。 Each function described above can be realized as software. The present embodiment can also be implemented as a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions), The present invention can also be implemented as a computer-readable recording medium on which the program is recorded.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
106…重要度算出部、107…映像区間選択部、108…説明文用イベント選択部、109…説明文作成部、110…統合部、406…遷移制御部、407…テンプレート選択部、408…説明文生成部、1202…全体説明作成部、1203…重要度算出部、1204…映像区間選択部、1304…要約映像構成情報選択部、1305…説明文作成情報選択部
DESCRIPTION OF
Claims (24)
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択する第1の選択手段と、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択する第2の選択手段と、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成する第1の生成手段と、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成する第2の生成手段とを備えたことを特徴とする映像要約装置。 Calculation means for calculating the importance of each event based on the first information regarding the content of the event included in the video;
First selection means for selecting a video section to be used as a summary video from the video based on second information on the video section of the event included in the video and the importance;
A second selecting means for selecting an event for which an explanatory note is to be created from events included in the video;
First generation means for generating an explanatory text relating to the event based on the first information relating to the selected event;
A video summarization apparatus comprising: second generation means for generating summary video information based on the selected video section and the created explanatory text.
前記要約映像情報に持たせるべきシーン構成に関する情報と各シーンに含めるべき映像及び説明文に関する情報とを含む要約映像構成情報に基づいて、前記映像区間の選択及び前記イベントの選択、前記イベントに関する説明文の生成及び前記要約映像情報全体に関する説明文及び又は映像の生成、並びに前記要約映像情報の生成を行うことを特徴とする請求項1に記載の映像要約装置。 Further comprising a third generation means for generating an explanatory text and / or video relating to the entire summary video information,
Based on the summary video configuration information including information on the scene configuration to be included in the summary video information and information on the video to be included in each scene and information on the description, the selection of the video section, the selection of the event, and the description of the event 2. The video summarization apparatus according to claim 1, wherein the video summarization apparatus generates a sentence and a description of the entire summary video information and / or video, and generates the summary video information.
この手段により選択された要約映像構成情報を用いて、前記要約映像情報を生成することを特徴とする請求項1に記載の映像要約装置。 Means for selecting summary video configuration information that matches user preference information describing information related to user preferences from among the plurality of summary video configuration information;
2. The video summarization apparatus according to claim 1, wherein the summary video information is generated using the summary video configuration information selected by the means.
前記映像内に含まれるイベントの内容に関するイベント情報を入力する入力手段と、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新する更新手段と、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択する選択手段と、
選択された前記説明文テンプレート情報を用いて説明文を生成する生成手段とを備えたことを特徴とする説明文生成装置。 Holding means for holding a transition state related to an event included in the video;
Input means for inputting event information related to the content of the event included in the video;
Updating means for updating the transition state to be held based on the input event information and a predetermined transition condition;
Based on the transition related to the update of the transition state, selection means for selecting the explanatory note template information to be used for the creation of the explanatory note from among a plurality of explanatory note template information,
An explanatory note generating apparatus comprising: generating means for generating an explanatory note using the selected explanatory note template information.
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択するステップと、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択するステップと、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成するステップと、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成するステップとを有することを特徴とする映像要約方法。 Calculating the importance of each event based on the first information regarding the content of the event included in the video;
Selecting a video segment to be used as a summary video from the video based on second information regarding the video segment of the event included in the video and the importance; and
Selecting an event to create a description from among the events included in the video;
Generating an explanatory text relating to the event based on the first information relating to the selected event;
A video summarization method comprising: generating summary video information based on the selected video section and the created explanatory text.
前記映像内に含まれるイベントの内容に関するイベント情報を入力するステップと、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新するステップと、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択するステップと、
選択された前記説明文テンプレート情報を用いて説明文を生成するステップとを有することを特徴とする説明文生成方法。 Maintaining a transition state related to an event included in the video;
Inputting event information relating to the content of the event included in the video;
Updating the transition state to be held based on the input event information and a predetermined transition condition;
Selecting explanatory text template information to be used for creation of explanatory text from a plurality of explanatory text template information based on the transition relating to the update of the transition state;
And a step of generating an explanatory text using the selected explanatory text template information.
映像内に含まれるイベントの内容に関する第1の情報に基づいて、各イベントの重要度を算出する機能と、
前記映像内に含まれるイベントの映像区間に関する第2の情報及び前記重要度に基づいて、前記映像のうちから、要約映像として用いる映像区間を選択する機能と、
前記映像内に含まれるイベントのうちから、説明文を作成する対象にするイベントを選択する機能と、
選択されたイベントに係る前記第1の情報に基づいて、該イベントに関する説明文を生成する機能と、
選択された前記映像区間と作成された前記説明文とをもとにして要約映像情報を生成する機能とを実現させるためのプログラム。 A program for causing a computer to function as a video summarization device,
A function for calculating the importance of each event based on the first information regarding the content of the event included in the video;
A function for selecting a video segment to be used as a summary video from the video based on the second information regarding the video segment of the event included in the video and the importance;
A function of selecting an event to be a target for creating a description from among the events included in the video;
A function for generating an explanatory text relating to the event based on the first information relating to the selected event;
A program for realizing a function of generating summary video information based on the selected video section and the created explanatory text.
映像内に含まれるイベントに関係する遷移状態を保持する機能と、
前記映像内に含まれるイベントの内容に関するイベント情報を入力する機能と、
入力された前記イベント情報及び予め定められた遷移条件に基づいて、保持すべき前記遷移状態を更新する機能と、
前記遷移状態の更新に係る遷移に基づいて、複数の説明文テンプレート情報のうちから、説明文の作成に用いるべき説明文テンプレート情報を選択する機能と、
選択された前記説明文テンプレート情報を用いて説明文を生成する機能とを実現させるためのプログラム。 A program for causing a computer to function as a video summarization device,
A function to maintain a transition state related to an event included in the video;
A function of inputting event information related to the content of the event included in the video;
A function of updating the transition state to be held based on the input event information and a predetermined transition condition;
Based on the transition relating to the update of the transition state, a function of selecting the explanatory note template information to be used for the creation of the explanatory note from among a plurality of explanatory note template information,
A program for realizing a function of generating an explanatory text using the selected explanatory text template information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003336212A JP3923932B2 (en) | 2003-09-26 | 2003-09-26 | Video summarization apparatus, video summarization method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003336212A JP3923932B2 (en) | 2003-09-26 | 2003-09-26 | Video summarization apparatus, video summarization method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007011824A Division JP2007193820A (en) | 2007-01-22 | 2007-01-22 | Descriptive text forming device, descriptive text forming method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005109566A true JP2005109566A (en) | 2005-04-21 |
JP3923932B2 JP3923932B2 (en) | 2007-06-06 |
Family
ID=34532419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003336212A Expired - Fee Related JP3923932B2 (en) | 2003-09-26 | 2003-09-26 | Video summarization apparatus, video summarization method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3923932B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007080148A (en) * | 2005-09-16 | 2007-03-29 | Sony Corp | Display control apparatus and method and program |
JP2007148904A (en) * | 2005-11-29 | 2007-06-14 | Toshiba Corp | Method, apparatus and program for presenting information |
JP2007189343A (en) * | 2006-01-11 | 2007-07-26 | Toshiba Corp | Video summary system, video summary method, and video summary program |
JP2007208651A (en) * | 2006-02-01 | 2007-08-16 | Sharp Corp | Content viewing apparatus |
JP2011193300A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Image processing apparatus, image processing method, image processing system, control program, and recording medium |
US8103107B2 (en) | 2007-01-18 | 2012-01-24 | Kabushiki Kaisha Toshiba | Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method |
US8315507B2 (en) | 2006-01-05 | 2012-11-20 | Nec Corporation | Video generation device, video generation method, and video generation program |
WO2016032287A1 (en) * | 2014-08-29 | 2016-03-03 | Samsung Electronics Co., Ltd. | Method for providing additional functions based on information |
JP2017503394A (en) * | 2014-12-14 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE |
US9973728B2 (en) | 2014-12-14 | 2018-05-15 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
JP2018196076A (en) * | 2017-05-22 | 2018-12-06 | 株式会社ラムダシステムズ | Telop display system, telop display program, and telop display method |
JP2019062357A (en) * | 2017-09-26 | 2019-04-18 | 株式会社日立国際電気 | Video server system |
WO2020137371A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社ラムダシステムズ | Information processing device, information processing method, and information processing program |
JP2020137075A (en) * | 2019-02-25 | 2020-08-31 | 株式会社ラムダシステムズ | Information processing device, information processing method and information processing program |
WO2022074788A1 (en) * | 2020-10-08 | 2022-04-14 | ソニーグループ株式会社 | Information processing device, information processing method and program |
-
2003
- 2003-09-26 JP JP2003336212A patent/JP3923932B2/en not_active Expired - Fee Related
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007080148A (en) * | 2005-09-16 | 2007-03-29 | Sony Corp | Display control apparatus and method and program |
JP2007148904A (en) * | 2005-11-29 | 2007-06-14 | Toshiba Corp | Method, apparatus and program for presenting information |
US8315507B2 (en) | 2006-01-05 | 2012-11-20 | Nec Corporation | Video generation device, video generation method, and video generation program |
JP2007189343A (en) * | 2006-01-11 | 2007-07-26 | Toshiba Corp | Video summary system, video summary method, and video summary program |
JP2007208651A (en) * | 2006-02-01 | 2007-08-16 | Sharp Corp | Content viewing apparatus |
US8103107B2 (en) | 2007-01-18 | 2012-01-24 | Kabushiki Kaisha Toshiba | Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method |
JP2011193300A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Image processing apparatus, image processing method, image processing system, control program, and recording medium |
WO2016032287A1 (en) * | 2014-08-29 | 2016-03-03 | Samsung Electronics Co., Ltd. | Method for providing additional functions based on information |
CN106796702A (en) * | 2014-08-29 | 2017-05-31 | 三星电子株式会社 | The method that additional function is provided based on information |
JP2017503394A (en) * | 2014-12-14 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE |
US9973728B2 (en) | 2014-12-14 | 2018-05-15 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US20180227539A1 (en) | 2014-12-14 | 2018-08-09 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US10771734B2 (en) | 2014-12-14 | 2020-09-08 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US11095847B2 (en) | 2014-12-14 | 2021-08-17 | SZ DJI Technology Co., Ltd. | Methods and systems of video processing |
US10284808B2 (en) | 2014-12-14 | 2019-05-07 | SZ DJI Technology Co., Ltd. | System and method for supporting selective backtracking data recording |
US10567700B2 (en) | 2014-12-14 | 2020-02-18 | SZ DJI Technology Co., Ltd. | Methods and systems of video processing |
JP2018196076A (en) * | 2017-05-22 | 2018-12-06 | 株式会社ラムダシステムズ | Telop display system, telop display program, and telop display method |
JP2019062357A (en) * | 2017-09-26 | 2019-04-18 | 株式会社日立国際電気 | Video server system |
JP2020107189A (en) * | 2018-12-28 | 2020-07-09 | 株式会社ラムダシステムズ | Information processor, information processing method, and information processing program |
WO2020137371A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社ラムダシステムズ | Information processing device, information processing method, and information processing program |
TWI752395B (en) * | 2018-12-28 | 2022-01-11 | 日商浪達系統股份有限公司 | Message processing device, message processing method, and message processing program |
US11809818B2 (en) | 2018-12-28 | 2023-11-07 | Lambda Systems, Inc. | Information processing apparatus, information processing method, and information processing program |
JP2020137075A (en) * | 2019-02-25 | 2020-08-31 | 株式会社ラムダシステムズ | Information processing device, information processing method and information processing program |
WO2020174933A1 (en) * | 2019-02-25 | 2020-09-03 | 株式会社ラムダシステムズ | Information processing device, information processing method and information processing program |
US11330340B2 (en) | 2019-02-25 | 2022-05-10 | Lambda Systems Inc. | Information processing apparatus, information processing method, and information processing program |
WO2022074788A1 (en) * | 2020-10-08 | 2022-04-14 | ソニーグループ株式会社 | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP3923932B2 (en) | 2007-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3923932B2 (en) | Video summarization apparatus, video summarization method and program | |
US8121462B2 (en) | Video edition device and method | |
US20110161348A1 (en) | System and Method for Automatically Creating a Media Compilation | |
TWI474200B (en) | Scene clip playback system, method and recording medium | |
JP5488475B2 (en) | Topic transition analysis system, topic transition analysis method and program | |
JP5706718B2 (en) | Movie synthesis system and method, movie synthesis program and storage medium thereof | |
JP2008176538A (en) | Video attribute information output apparatus, video summarizing device, program, and method for outputting video attribute information | |
JP2007511154A (en) | Program recommendation system | |
QUEEN | Working with performed language: Movies, television, and music | |
JP2006287319A (en) | Program digest generation apparatus and program digest generation program | |
JP4568144B2 (en) | Information presentation device and information presentation program | |
JP2002335473A (en) | Retrieval information extraction system for moving image contents, retrieved information extraction means, retrieved information storage system, and method for distributing streaming of moving image contents | |
JP4925938B2 (en) | Digest video information creation method, digest video information creation program, and video apparatus | |
WO2023047658A1 (en) | Information processing device and information processing method | |
JP2005157463A (en) | Data classifying method, summary data generating method, data classifying device, summary data generating device, data classifying program, summary data generating program and information recording medium | |
JP2010268195A (en) | Video content editing program, server, apparatus and method | |
JP2004159192A (en) | Video image summarizing method, program, and storage medium for storing video image summarizing program | |
US20050069282A1 (en) | Information reproducing method, recording medium on which information reproducing program is computer-readably recorded, and information reproducing apparatus | |
JP2008059383A (en) | Content presentation device and computer program | |
JP2007193820A (en) | Descriptive text forming device, descriptive text forming method and program | |
JP3926756B2 (en) | Video summarization apparatus and video summarization method | |
Sexton | Excavating Authenticity: Surveying the Indie-Rock Doc | |
WO2021240644A1 (en) | Information output program, device, and method | |
JP4137007B2 (en) | Video content description generation apparatus and computer-readable recording medium | |
KR101512890B1 (en) | Media scene playing system, method and recording medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061121 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070222 |
|
LAPS | Cancellation because of no payment of annual fees |