JP2007335984A - Event end point extraction apparatus, event end point extraction method, and extraction program - Google Patents

Event end point extraction apparatus, event end point extraction method, and extraction program Download PDF

Info

Publication number
JP2007335984A
JP2007335984A JP2006162591A JP2006162591A JP2007335984A JP 2007335984 A JP2007335984 A JP 2007335984A JP 2006162591 A JP2006162591 A JP 2006162591A JP 2006162591 A JP2006162591 A JP 2006162591A JP 2007335984 A JP2007335984 A JP 2007335984A
Authority
JP
Japan
Prior art keywords
type
cut length
end point
cut
telop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006162591A
Other languages
Japanese (ja)
Inventor
Masaaki Yoshikawa
雅昭 吉川
Shuichi Shimizu
秀一 清水
Hiroshi Kasahara
宏 笠原
Norihiko Kobayashi
紀彦 小林
Kentaro Nakai
健太郎 中井
Toru Wakabayashi
徹 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006162591A priority Critical patent/JP2007335984A/en
Publication of JP2007335984A publication Critical patent/JP2007335984A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an event end point extraction apparatus for accurately extracting an event end point of a sports image being an object of digest viewing. <P>SOLUTION: The event end point extraction apparatus 100 includes: a sports image storage section 101 for storing the sports image whose event start time is determined; a cut-point detection section 102 for detecting cut-points after the event start time from the sports image in the sports image storage section 101; a cut length calculation section 104 for classifying a type of a cut length between the cut-points detected by the cut-point detection section 102 depending on the short/long cut length; an appearance pattern storage section 112 for storing an appearance pattern of the type of the cut-length in cross reference with the event end point; an event end point extraction section 111 for extracting the event end point corresponding to the appearance pattern of the classified type by referencing the appearance pattern storage section 112; and an output section 113 for outputting the event end point extracted by the event end point extraction section 111 and the event start point. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、イベント終了点抽出装置に係り、特に視聴対象となるスポーツ映像のイベント終了点を抽出するイベント終了点抽出装置に関するものである。   The present invention relates to an event end point extraction device, and more particularly to an event end point extraction device that extracts an event end point of a sports video to be viewed.

近年、野球中継などの映像をダイジェスト視聴するために、その映像に含まれる特定のシーンを抽出することがある。このような状況下、従来の装置においては、映像のカット長の長さから特定のシーンを抽出している。具体的には、従来の装置は、まず、カット長が短い区間をアクションのある映像シーンに分類し、他方、カット長が長い区間を穏やかな映像シーンに分類する。そして、この装置は、その映像の動きの激しさを加味したうえで、上記アクションのある映像シーンなどを正確に抽出する(例えば、特許文献1)。
また、従来の他の装置においては、映像の複数のカットからなるカット長の合計が15秒または30秒になるカットを抽出する。そして、この装置は、そのカットの先頭と最後尾に無音声区間があれば、その区間をCMのシーンとして抽出する(例えば、特許文献2)。
In recent years, in order to perform digest viewing of a video such as a baseball game, a specific scene included in the video may be extracted. Under such circumstances, the conventional apparatus extracts a specific scene from the length of the cut length of the video. Specifically, the conventional apparatus first classifies a section with a short cut length as a video scene with an action, and classifies a section with a long cut length as a gentle video scene. Then, this device accurately extracts a video scene with the above action in consideration of the intensity of motion of the video (for example, Patent Document 1).
In another conventional apparatus, a cut having a total cut length composed of a plurality of cuts of video is 15 seconds or 30 seconds is extracted. If there is a silent section at the beginning and the end of the cut, this apparatus extracts the section as a CM scene (for example, Patent Document 2).

特開2006−14084号公報JP 2006-14084 A 特開平8−339379号公報JP-A-8-339379

しかしながら、特許文献1および特許文献2に記載の装置では、いずれも、長短のカット長を含む一連のシーンを1つのまとまりのあるシーンとして抽出することができず、その結果、ダイジェスト視聴の対象となるスポーツ映像に含まれるイベント終了点を正確に抽出することができないという不都合があった。
そこで、本発明は、上述した不都合を解決するためになされたものであり、その目的は、ダイジェスト視聴の対象となるスポーツ映像のイベント終了点を正確に抽出することである。
However, in the apparatuses described in Patent Document 1 and Patent Document 2, it is not possible to extract a series of scenes including long and short cut lengths as one unitary scene. There is a disadvantage that the event end point included in the sports image cannot be accurately extracted.
Therefore, the present invention has been made to solve the above-described inconveniences, and an object thereof is to accurately extract an event end point of a sports video that is a subject of digest viewing.

上記目的を達成するために、本発明は、イベント開始点が決定されたスポーツ映像を記憶するスポーツ映像記憶部と、上記スポーツ映像記憶部の上記スポーツ映像から上記イベント開始点以降のカット点を検出するカット点検出部と、上記カット点検出部に検出された上記カット点間のカット長の種別をそのカット長の短長に応じて分類するカット長分類部と、上記カット長の種別の出現パターンをイベント終了点に対応付けて記憶する出現パターン記憶部と、上記出現パターン記憶部を参照して、上記分類された種別の出現パターンに対応するイベント終了点を抽出するイベント終了点抽出部と、上記イベント終了点抽出部に抽出されたイベント終了点を上記イベント開始点に対応付けて出力する出力部と、を含む。   To achieve the above object, the present invention detects a sports video storage unit that stores a sports video for which an event start point has been determined, and detects cut points after the event start point from the sports video in the sports video storage unit The cut point detection unit, the cut length classification unit for classifying the type of cut length between the cut points detected by the cut point detection unit according to the short length of the cut length, and the appearance of the type of cut length An appearance pattern storage unit that stores a pattern in association with an event end point; an event end point extraction unit that extracts an event end point corresponding to an appearance pattern of the classified type with reference to the appearance pattern storage unit; An output unit that outputs the event end point extracted by the event end point extraction unit in association with the event start point.

本発明によれば、ダイジェスト視聴の対象となるスポーツ映像のイベント終了点を正確に抽出することができる。   ADVANTAGE OF THE INVENTION According to this invention, the event end point of the sports image | video used as the object of digest viewing can be extracted correctly.

以下、本発明の実施の形態について図1ないし図5に基づいて説明する。
図1は、本発明の実施の形態におけるイベント終了点抽出装置の構成例を示すブロック図である。
図1において、イベント終了点抽出装置(以下「抽出装置」という)100は、スポーツ映像記憶部101、カット点検出部102、カット点記憶部103、カット長分類部104および分類基準記憶部105を有する。さらに、この抽出装置100は、テロップ検出部106、テロップ記憶部107、第1の分類補正部(分類補正部)108、第2の分類補正部(分類補正部)109および第3の分類補正部(分類補正部)110を有する。
また、この抽出装置100は、イベント終了時間抽出部(イベント終了点抽出部)111、出現パターン記憶部112および出力部113を有する。なお、本実施の形態においては、抽出装置100として、例えば、サーバ装置を用いた場合を例にして説明するが、パーソナルコンピュータなどのコンピュータを適用してもよい。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram showing a configuration example of an event end point extraction device according to an embodiment of the present invention.
In FIG. 1, an event end point extraction device (hereinafter referred to as “extraction device”) 100 includes a sports video storage unit 101, a cut point detection unit 102, a cut point storage unit 103, a cut length classification unit 104, and a classification reference storage unit 105. Have. Further, the extraction device 100 includes a telop detection unit 106, a telop storage unit 107, a first classification correction unit (classification correction unit) 108, a second classification correction unit (classification correction unit) 109, and a third classification correction unit. (Classification correction unit) 110 is included.
Further, the extraction device 100 includes an event end time extraction unit (event end point extraction unit) 111, an appearance pattern storage unit 112, and an output unit 113. In the present embodiment, a case where a server device is used as the extraction device 100 will be described as an example, but a computer such as a personal computer may be applied.

スポーツ映像記憶部101は、ダイジェスト視聴の対象となるスポーツ映像を記憶する。具体的には、図2に示すように、スポーツ映像記憶部101は、時間軸tで構成されたフレーム単位のスポーツ映像(動画)を記憶する。そして、このスポーツ映像には、映像シーンに応じて、各種テロップが適宜含まれている。
本実施の形態においては、スポーツ映像は、例えば、プロ野球中継の映像とするので、この映像に含まれるテロップには、SBO、進塁状況、対戦スコア、イニング(例えば2回表)などの種類がある。なお、SBOは、ストライクカウント(S)、ボールカウント(B)およびアウトカウント(O)の略である。
図2では、あるフレームのスポーツ映像d1に、SBOテロップT1、進塁状況テロップT2、スコアテロップT3およびイニングテロップT4が含まれている状況が例示されている。なお、テロップというのは表示の意であり、その形態は問わないものとする。
The sports video storage unit 101 stores sports videos that are subject to digest viewing. Specifically, as illustrated in FIG. 2, the sports video storage unit 101 stores a sports video (moving image) in units of frames configured with a time axis t. The sports video includes various telops depending on the video scene.
In the present embodiment, the sports video is, for example, a video of a professional baseball broadcast, and the telop included in this video includes types such as SBO, progress status, battle score, inning (for example, twice table), etc. There is. SBO is an abbreviation for strike count (S), ball count (B), and outcount (O).
FIG. 2 illustrates a situation in which a sports video d1 of a certain frame includes SBO telop T1, progress status telop T2, score telop T3, and inning telop T4. Note that the telop means display, and the form is not limited.

さらに、図2のスポーツ映像は、イベント開始時間(イベント開始点)INがあらかじめ決定されている。イベント開始時間INというのは、ダイジェスト視聴の対象となる映像シーンの開始時間、すなわち当該映像シーンを開始するフレームの位置(時刻)を意味する。例えば、イベント開始時間INとして、投球開始の映像シーンを表すフレームの位置などが想定される。
なお、イベント開始時間INとして、例えば、スポーツ映像の先頭フレームからの経過時間(時刻)を用いることとするが、その位置が特定できれば、その形態は問わない。例えば、再生カウンタのカウンタ値をイベント開示時間INに用いてもよい(後述するカット点、イベント終了時間も同様)。
Further, in the sports video of FIG. 2, an event start time (event start point) IN is determined in advance. The event start time IN means the start time of the video scene that is the subject of the digest viewing, that is, the position (time) of the frame at which the video scene starts. For example, as the event start time IN, the position of a frame representing a video scene at which pitching is started is assumed.
As the event start time IN, for example, an elapsed time (time) from the first frame of the sports video is used, but the form is not limited as long as the position can be specified. For example, the counter value of the reproduction counter may be used as the event disclosure time IN (the same applies to the cut point and event end time described later).

なお、図2において、第1カット点、第2カット点および第3カット点が、イベント開始時間INから所定の時間を経過した後に出現するカット点として例示されている。さらに、第1カット長、第2カット長および第3カット長が示されている。第1カット長は、イベント開始時間INと第1カット長との間の区間を表し、第2カット長は、第1カット点と第2カット点との間の区間を表す。また、第3カット長は、第2カット点と第3カット点との間の区間を表す。
そして、第1カット長が中時間として示され、また、第2カット長および第3カット長がともに短時間として示されているが、これらの点は、後述する。
In FIG. 2, the first cut point, the second cut point, and the third cut point are illustrated as cut points that appear after a predetermined time has elapsed from the event start time IN. Furthermore, a first cut length, a second cut length, and a third cut length are shown. The first cut length represents a section between the event start time IN and the first cut length, and the second cut length represents a section between the first cut point and the second cut point. The third cut length represents a section between the second cut point and the third cut point.
The first cut length is shown as a medium time, and the second cut length and the third cut length are both shown as a short time. These points will be described later.

図1に戻って、カット点検出部102は、スポーツ映像記憶部101からスポーツ映像を読み出して、イベント開始時間IN以降のカット点を検出してカット点記憶部103に登録する。カット点というのは、映像シーンの変わり目を意味する。例えば、あるカメラからの中継が別のカメラへ切り替えられたときは、別のカメラに中継され最初に撮影された時点のフレームの位置が、カット点に該当する。
なお、本実施の形態においては、上述したカット点の検出方法として、例えば、1台のカメラから撮影された連続するフレーム集合の境界を検出する方法を用いる(特許文献1参照)が、それ以外の公知の検出方法を適用してもよい。
このように構成することにより、カット点検出部102は、例えば、図2に示したように、イベント開始時間INから所定の時間が経過した時点のフレームの位置を順次、第1カット点、第2カット点および第3カット点として検出することが可能となる。
Returning to FIG. 1, the cut point detection unit 102 reads a sports video from the sports video storage unit 101, detects cut points after the event start time IN, and registers them in the cut point storage unit 103. The cut point means the transition of the video scene. For example, when the relay from one camera is switched to another camera, the position of the frame when it is relayed to another camera and first taken corresponds to the cut point.
In the present embodiment, as a method for detecting the cut point described above, for example, a method of detecting a boundary between successive frame sets photographed from one camera is used (see Patent Document 1). The known detection method may be applied.
By configuring in this way, the cut point detection unit 102 sequentially sets the position of the frame when a predetermined time has elapsed from the event start time IN, as shown in FIG. It is possible to detect the second cut point and the third cut point.

カット長分類部104は、分類基準記憶部105の分類基準を参照して、カット点記憶部103の連続する各カット点間のカット長の種別を分類する。本実施の形態においては、カット長の種別として、カット長の短長に応じて、短い方から「短(第1の種別)」、「中(第2の種別)」および「長(第3の種別)」の3つがある場合について説明するが、これらの種別は2つあるいは4つ以上としてもよい。   The cut length classification unit 104 refers to the classification standard in the classification standard storage unit 105 and classifies the type of cut length between consecutive cut points in the cut point storage unit 103. In the present embodiment, according to the short length of the cut length, “short (first type)”, “medium (second type)” and “long (third) However, the number of these types may be two or four or more.

ここで、分類基準記憶部105の分類基準の一例を図3に示す。
図3の分類基準は、分類およびカット長の項目で構成されている。そして、分類の項目には、「短」、「中」および「長」の3つの種別が指定され、カット長の項目には、該当するカット長の範囲が時間表記で指定されている。
Here, an example of the classification criteria in the classification criteria storage unit 105 is shown in FIG.
The classification standard in FIG. 3 is composed of items of classification and cut length. In the classification item, three types of “short”, “medium”, and “long” are designated, and in the cut length item, the corresponding cut length range is designated in time notation.

具体的には、「短」の分類には、例えば、0秒以上2.0秒(プラスマイナスα)未満のカット長が指定され、「中」の分類には、2.0秒(プラスマイナスα)以上4.0秒未満のカット長が指定されている。このため、カット長が、2.0秒プラスマイナスαの範囲(あらかじめ指定された時間)にある場合、そのカット長は、「短」および「中」の双方に属することになる。つまり、これは、次のような理由に基づく。
すなわち、カット長が、上記あらかじめ指定された時間を有する場合、そのカット長の映像シーンの内容を問わずに、そのカット長のもつ時間だけで、当該カット長の種別を「短」または「中」の一方に分類することが困難だからである。
そこで、本発明においては、後述する第1の分類補正部108、第2の分類補正部109または第3の分類補正部110において、上述したテロップの表示パターンによりそのカット長の映像シーンを考慮した上で、上述したカット長(「短」および「中」の双方に属すもの)の種別をどちらかの種別に補正する処理を行う。これにより、すべてのカット長の種別を正確に分類することが可能となる。
Specifically, for example, a cut length of 0 seconds or more and less than 2.0 seconds (plus or minus α) is specified for the “short” classification, and 2.0 seconds (plus or minus) for the “medium” classification. α) A cut length of not less than 4.0 seconds is specified. For this reason, when the cut length is in the range of 2.0 seconds plus or minus α (preliminarily designated time), the cut length belongs to both “short” and “medium”. In other words, this is based on the following reason.
That is, when the cut length has the time specified in advance, the type of the cut length is set to “short” or “medium” only by the time of the cut length regardless of the content of the video scene of the cut length. This is because it is difficult to classify it into one of "
Therefore, in the present invention, in the first classification correction unit 108, the second classification correction unit 109, or the third classification correction unit 110, which will be described later, the video scene having the cut length is taken into consideration by the display pattern of the telop described above. Above, the process which correct | amends the type of the cut length mentioned above (which belongs to both “short” and “medium”) to either type is performed. This makes it possible to accurately classify all types of cut lengths.

なお、上述したあらかじめ指定された時間(例えば、2.0秒プラスマイナスα、特にαの値)は、スポーツ映像の種類や映像シーンの具体的な内容などを加味した上で決定することが望ましい。   It should be noted that the above-specified time (for example, 2.0 seconds plus or minus α, especially the value of α) is preferably determined in consideration of the type of sports video, the specific content of the video scene, and the like. .

このように構成することにより、カット長分類部104は、図3の分類基準に従って、カット点記憶部103の連続する各カット点間のカット長の種別を分類する(図1参照)。そして、この分類の結果、カット長が、あらかじめ設定された時間を有する場合(2つの種別に属する場合)、カット長分類部104は、その旨(イベント開始時間IN以降の各カット点およびカット長の各分類種別を含む)を、後述する第1の分類補正部108に通知する。   With this configuration, the cut length classifying unit 104 classifies the types of cut lengths between consecutive cut points in the cut point storage unit 103 in accordance with the classification criteria of FIG. 3 (see FIG. 1). As a result of this classification, when the cut length has a preset time (in the case of two types), the cut length classification unit 104 indicates that (each cut point and the cut length after the event start time IN). Are included) to the first classification correction unit 108 to be described later.

図1に戻って、テロップ検出部106は、スポーツ映像記憶部10のスポーツ映像から、上述したテロップ(図2参照)を検出してテロップ記憶部107に登録する。このとき登録されたテロップは、例えば、スポーツ映像の先頭フレームからの経過時間に対応付けられている。   Returning to FIG. 1, the telop detection unit 106 detects the above-described telop (see FIG. 2) from the sports video in the sports video storage unit 10 and registers it in the telop storage unit 107. The telop registered at this time is associated with the elapsed time from the first frame of the sports video, for example.

第1の分類補正部108は、カット長分類部104に分類されたカット長があらかじめ設定された時間を有する場合、三振の映像シーンを示唆する特定のテロップの表示パターンに基づいて、第1カット長、および、イベント開始時間INから最初に出現する「中」のカット長の次に出現するカット長の分類種別を補正(例えば、あらかじめ設定された「短」の種別へ補正)してその種別を分類する。ここでいう表示パターンとして、次の2パターンがあらかじめ設定されている。   When the cut length classified by the cut length classification unit 104 has a preset time, the first classification correction unit 108 performs the first cut based on a display pattern of a specific telop that suggests a three-way video scene. The classification type of the cut length that appears next to the length and the “medium” cut length that appears first from the event start time IN is corrected (for example, the type is corrected to a preset “short” type). Classify. The following two patterns are set in advance as display patterns here.

すなわち、第1の表示パターンは、2ストライクからチェンジへ移行するSBOテロップ(特定のテロップ)T1、および、イニングが変わるイニングテロップ(特定のテロップ、例えば2回表→2回裏)T4の組み合わせからなる表示パターン(特定のテロップの表示パターン)である。
第2の表示パターンは、2ストライクからアウトカウントが1つ増えるSBOテロップ(特定のテロップ)T1、アウトカウントが1つ増えたときに走者がいない進塁状況テロップ(特定のテロップ)T2、および、得点が変化しないスコアテロップ(特定のテロップ)T3の組み合わせからなる表示パターン(特定のテロップの表示パターン)である。
なお、上述した特定のテロップは、第1の分類補正部108によって、テロップ記憶部107から読み出される。
That is, the first display pattern is based on a combination of SBO telop (specific telop) T1 that shifts from two strikes to change, and inning telop (specific telop, for example, 2 times front → 2 times back) T4 that changes inning. Display pattern (display pattern of a specific telop).
The second display pattern includes an SBO telop (specific telop) T1 in which the outcount is increased by 1 from 2 strikes, a progress situation telop (specific telop) T2 in which there is no runner when the outcount is increased by 1, and It is a display pattern (display pattern of a specific telop) composed of a combination of score telops (specific telops) T3 whose score does not change.
The specific telop described above is read from the telop storage unit 107 by the first classification correction unit 108.

第2の分類補正部109は、打者交代の映像シーンを示唆する特定のテロップの表示パターンに基づいて、第1カット長のみの分類種別を補正(例えば、あらかじめ設定された「短」の種別へ補正)してその種別を分類する。ここでいう表示パターンは、次のとおりである。すなわち、ストライクカウントまたはアウトカウントが0以外になっているSBOテロップ(特定のテロップ)T1の表示パターンである。なお、SBOテロップT1は、第2の分類補正部109によって、テロップ記憶部107から読み出される。   The second classification correction unit 109 corrects the classification type of only the first cut length based on the display pattern of a specific telop that suggests a batter-change video scene (for example, to a preset “short” type). Correct) and classify the type. The display pattern here is as follows. That is, this is a display pattern of an SBO telop (specific telop) T1 whose strike count or out count is other than zero. The SBO telop T1 is read from the telop storage unit 107 by the second classification correction unit 109.

第3の分類補正部110は、得点追加の映像シーンを示唆する特定のテロップの表示パターンに基づいて、第3カット長(ランナーホームインの映像シーン)の分類種別を補正(例えば、あらかじめ設定された「短」の種別へ補正)してその種別を分類する。ここでいう表示パターンは、次のとおりである。すなわち、得点が入ったことを表すスコアテロップ(特定のテロップ)T3の表示パターンである。なお、SBOテロップT1は、第3の分類補正部110によって、テロップ記憶部107から読み出される。   The third classification correction unit 110 corrects the classification type of the third cut length (runner home-in video scene) based on a display pattern of a specific telop that suggests a video scene with an additional score (for example, preset). (Corrected to “short” type) to classify the type. The display pattern here is as follows. That is, it is a display pattern of a score telop (specific telop) T3 indicating that a score has been entered. The SBO telop T1 is read from the telop storage unit 107 by the third classification correction unit 110.

イベント終了時間抽出部111は、出現パターン記憶部112の出現パターンを参照して、カット長分類部104、第1の分類補正部108、第2の分類補正部109または第3の分類補正部110(これら各部の組み合わせを含む)に分類された種別の出現パターンに対応するイベント終了時間(イベント終了点)を抽出する。   The event end time extraction unit 111 refers to the appearance pattern in the appearance pattern storage unit 112, and the cut length classification unit 104, the first classification correction unit 108, the second classification correction unit 109, or the third classification correction unit 110. The event end time (event end point) corresponding to the appearance pattern of the type classified as (including the combination of these parts) is extracted.

ここで、出現パターン記憶部112の出現パターンを図4に示す。
図4の2つの出現パターンは、出現パターン記憶部112に記憶されている。図4(a)に示す出現パターンとして、イベント開始時間IN(不図示)から「長」の種別が最初に出現するパターンが示されている。そして、その「長」の種別に属するカット長の終了点がイベント終了時間OUTとして対応付けられている。したがって、イベント終了時間抽出部111は、上記分類された種別の出現パターンが、図4(a)の出現パターンになる場合、「長」の種別に属するカット長の終了点をイベント終了時間OUTとして抽出する。
また、図4(b)に示す出現パターンとして、イベント開始時間IN(不図示)から「長」の種別が最初に出現するまでの間に、「中」の種別が連続して出現するパターンが示されている。そして、その最初の「中」の種別に属するカット長の終了点がイベント終了時間OUTとして対応付けられている。したがって、イベント終了時間抽出部111は、上記分類された種別の出現パターンが、図4(b)の出現パターンになる場合、最初の「中」の種別に属するカット長の終了点をイベント終了時間OUTとして抽出する。
Here, the appearance pattern of the appearance pattern storage unit 112 is shown in FIG.
The two appearance patterns in FIG. 4 are stored in the appearance pattern storage unit 112. As the appearance pattern shown in FIG. 4A, a pattern in which the type of “long” first appears from the event start time IN (not shown) is shown. The end point of the cut length belonging to the “long” type is associated with the event end time OUT. Therefore, when the appearance pattern of the classified type is the appearance pattern of FIG. 4A, the event end time extraction unit 111 sets the end point of the cut length belonging to the “long” type as the event end time OUT. Extract.
As an appearance pattern shown in FIG. 4B, a pattern in which the “medium” type appears continuously from the event start time IN (not shown) until the “long” type first appears. It is shown. Then, the end point of the cut length belonging to the first “medium” type is associated as the event end time OUT. Therefore, when the appearance pattern of the classified type becomes the appearance pattern of FIG. 4B, the event end time extraction unit 111 determines the end point of the cut length belonging to the first “medium” type as the event end time. Extracted as OUT.

図1に戻って、出力部113は、イベント終了時間抽出部111に抽出されたイベント終了時間OUTおよびそのイベント開始時間INを外部装置(例えばコンピュータ)に出力する。   Returning to FIG. 1, the output unit 113 outputs the event end time OUT extracted by the event end time extraction unit 111 and the event start time IN to an external device (for example, a computer).

なお、本実施の形態において、上述した各記憶部101、103、105、107、112としては、メモリやハードディスクなどの記憶装置が該当する。また、上述した各部102、106、108〜111、113としては、CPUなどの処理装置が該当する。
そして、上述した各部102、106、108〜111、113は、上述した記憶装置に格納された抽出プログラムに従って動作する。この抽出プログラムは、CD−ROMなどのコンピュータ読み取り可能な媒体から読み出されたものであってもよい。
In the present embodiment, each of the storage units 101, 103, 105, 107, and 112 described above corresponds to a storage device such as a memory or a hard disk. In addition, each of the above-described units 102, 106, 108 to 111, 113 corresponds to a processing device such as a CPU.
The above-described units 102, 106, 108 to 111, 113 operate according to the extraction program stored in the above-described storage device. This extraction program may be read from a computer-readable medium such as a CD-ROM.

次に、抽出装置100の処理手順について図5に基づいて説明する。
図5は、抽出装置100の処理手順の一例を示すフローチャートである。ここでは、ダイジェスト視聴の対象となるスポーツ映像(図2参照)がスポーツ映像記憶部101に記憶されているものとして説明する。
まず、カット点抽出部102は、スポーツ映像記憶部101からスポーツ映像(イベント開始時間INを含む)を読み出して、イベント開始時間IN以降のカット点を検出する(ステップS101)。このとき検出されたカット点は、カット点検出部102によってカット点記憶部103に記憶される。
Next, the processing procedure of the extraction apparatus 100 will be described with reference to FIG.
FIG. 5 is a flowchart illustrating an example of a processing procedure of the extraction apparatus 100. Here, the sports video (see FIG. 2) that is the subject of the digest viewing will be described as being stored in the sports video storage unit 101.
First, the cut point extraction unit 102 reads a sports video (including the event start time IN) from the sports video storage unit 101, and detects cut points after the event start time IN (step S101). The cut point detected at this time is stored in the cut point storage unit 103 by the cut point detection unit 102.

続いて、テロップ検出部106(抽出装置100)は、スポーツ映像記憶部101からスポーツ映像を読み出し、そのスポーツ映像から、各フレームのスポーツ映像に含まれているテロップをすべて検出する(ステップS102)。このとき検出されたテロップは、テロップ検出部106によってテロップ記憶部107に記憶される。   Subsequently, the telop detection unit 106 (extraction device 100) reads out the sports video from the sports video storage unit 101, and detects all the telops included in the sports video of each frame from the sports video (step S102). The telop detected at this time is stored in the telop storage unit 107 by the telop detection unit 106.

次に、カット長分類部104は、カット点検出部102に検出されたイベント開始時間IN以降のカット点をカット点記憶部103から取得し、分類基準記憶部105の分類基準(図3参照)に基づいて、連続するカット点間のカット長を分類する(ステップS103)。具体的には、カット長分類部104は、分類基準記憶部105の分類基準(図3参照)に基づいて、連続するカット点間のカット長の時間に対応する種別(「短」、「中」、「長」)を分類する。   Next, the cut length classifying unit 104 acquires the cut points after the event start time IN detected by the cut point detecting unit 102 from the cut point storage unit 103, and the classification standard in the classification standard storage unit 105 (see FIG. 3). Based on the above, the cut lengths between consecutive cut points are classified (step S103). Specifically, the cut length classifying unit 104 determines the type (“short”, “medium” corresponding to the time of the cut length between successive cut points based on the classification standard (see FIG. 3) of the classification standard storage unit 105. ”,“ Long ”).

次に、第1の分類補正部108(抽出装置100)は、カット長分類部104に分類されたカット長があらかじめ指定された時間(例えば、図3の2.0プラスマイナスα)を有する場合、当該カット長、すなわち、第1カット長、および、イベント開始時間INから最初に出現する「中」のカット長の次に出現するカット長に三振の可能性があるかどうかを判断する(ステップS104)。
具体的には、第1の分類補正部108は、三振の映像シーンを示唆する特定のテロップの表示パターン(前述した第1〜第2の表示パターンのいずれか)が当該カット長にあるかどうかを判断する。なお、ステップS104において、あらかじめ指定された時間をもつカット長がなければ、ステップS103からステップS110へスキップするようにしてもよい。
Next, the first classification correction unit 108 (extraction apparatus 100) has a case in which the cut lengths classified by the cut length classification unit 104 have a predetermined time (for example, 2.0 plus or minus α in FIG. 3). Then, it is determined whether or not there is a possibility of strikeout in the cut length that appears next to the cut length, that is, the first cut length and the “medium” cut length that appears first from the event start time IN (step S104).
Specifically, the first classification correction unit 108 determines whether or not a specific telop display pattern (any one of the first to second display patterns described above) suggesting a strikeout video scene is in the cut length. Judging. In step S104, if there is no cut length having a predetermined time, the process may skip from step S103 to step S110.

そして、上記判断の結果、三振の映像シーンを示唆する特定のテロップの表示パターンがなく、三振の可能性がないと判断された場合(ステップS104のNo)、第1の分類補正部108は、判断対象の当該カット長の種別を「短」に補正して分類し(ステップS105)、ステップS106に進む。これにより、あらかじめ指定された時間をもつカット長(例えば、第1カット点と第2カット点との間のカット長)の種別が、「短」に補正されることになる。   As a result of the determination, if it is determined that there is no specific telop display pattern that suggests a strikeout video scene and there is no possibility of a strikeout (No in step S104), the first classification correction unit 108 The type of the cut length to be determined is corrected and classified as “short” (step S105), and the process proceeds to step S106. As a result, the type of the cut length having a predetermined time (for example, the cut length between the first cut point and the second cut point) is corrected to “short”.

他方、三振の可能性があると判断された場合(ステップS104のYes)、ステップS106に進む。なお、ステップS106に進む場合、第1の分類補正部108は、例えば、イベント開始時間IN以降の各カット点およびカット長の各分類(種別補正済みのものを含む)を、第2の分類補正部109に渡す。   On the other hand, if it is determined that there is a possibility of strikeout (Yes in step S104), the process proceeds to step S106. In the case where the process proceeds to step S106, the first classification correction unit 108, for example, sets each classification of cut points and cut lengths after the event start time IN (including types corrected) as the second classification correction. Passed to part 109.

ステップS106において、第2の分類補正部109(抽出装置100)は、カット長分類部104に分類されたカット長があらかじめ指定された時間(例えば、2.0プラスマイナスα)を有する場合、当該カット長、すなわち第1カット長に打者の交代があるかどうかを判断する。
具体的には、第2の分類補正部109は、打者交代の映像シーンを示唆する特定のテロップの表示パターン(ストライクカウントまたはアウトカウントが0になっているSBOテロップT1の表示パターン)が当該カット長にあるかどうかを判断する。
In step S106, the second classification correction unit 109 (extraction device 100) determines that the cut length classified by the cut length classification unit 104 has a predetermined time (for example, 2.0 plus or minus α). It is determined whether there is a batter change in the cut length, that is, the first cut length.
Specifically, the second classification correction unit 109 cuts a specific telop display pattern (an SBO telop T1 display pattern with a strike count or outcount of 0) that suggests a batter-change video scene. Determine if you are in the head.

そして、上記判断の結果、打者交代の映像シーンを示唆する特定のテロップの表示パターンがなく、打者の交代がないと判断された場合(ステップS106のNo)、第2の分類補正部109は、判断対象の当該カット長の種別を「短」に補正して分類し(ステップS107)、ステップS108に進む。これにより、あらかじめ指定された時間をもつカット長(例えば、第1カット点と第2カット点との間のカット長)の種別が、「短」に補正されることになる。   As a result of the above determination, when it is determined that there is no display pattern of a specific telop that suggests a batter change video scene and there is no batter change (No in step S106), the second classification correction unit 109 The type of the cut length to be determined is corrected and classified as “short” (step S107), and the process proceeds to step S108. As a result, the type of the cut length having a predetermined time (for example, the cut length between the first cut point and the second cut point) is corrected to “short”.

他方、打者の交代があると判断された場合(ステップS106のYes)、ステップS108に進む。なお、ステップS108に進む場合、第2の分類補正部109は、例えば、イベント開始時間IN以降の各カット点およびカット長の各分類(ステップS105、S107により種別補正済みのものを含む)を、第3の分類補正部110に渡す。   On the other hand, if it is determined that there is a change in batter (Yes in step S106), the process proceeds to step S108. In the case of proceeding to step S108, the second classification correction unit 109 includes, for example, each classification of cut points and cut lengths after the event start time IN (including those that have been subjected to type correction in steps S105 and S107). The data is passed to the third classification correction unit 110.

ステップS108において、第3の分類補正部110(抽出装置100)は、カット長分類部104に分類されたカット長があらかじめ指定された時間(例えば、2.0プラスマイナスα)を有する場合、当該カット長、すなわち第3カット長に得点の追加があるかどうかを判断する。
具体的には、第3の分類補正部110は、得点追加の映像シーンを示唆する特定のテロップの表示パターン(得点が入ったことを表すスコアテロップT3の表示パターン)が当該カット長にあるかどうかを判断する。
In step S108, the third classification correction unit 110 (extraction apparatus 100) determines that the cut length classified by the cut length classification unit 104 has a predetermined time (for example, 2.0 plus or minus α). It is determined whether there is a score added to the cut length, that is, the third cut length.
Specifically, the third classification correction unit 110 determines whether a specific telop display pattern (score telop T3 display pattern indicating that a score has been entered) suggesting a video scene to which a score has been added has the cut length. Judge whether.

そして、上記判断の結果、得点追加の映像シーンを示唆する特定のテロップの表示パターンがなく、得点の追加がないと判断された場合(ステップS108のNo)、第3の分類補正部110は、判断対象の当該カット長の種別を「短」に補正して分類し(ステップS109)、ステップS110に進む。これにより、あらかじめ指定された時間をもつカット長(例えば、第3カット点と第4カット点との間のカット長)の種別が、「短」に補正されることになる。   As a result of the above determination, when it is determined that there is no specific telop display pattern that suggests a video scene for which a score has been added and no score has been added (No in step S108), the third classification correcting unit 110 The type of the cut length to be determined is corrected and classified as “short” (step S109), and the process proceeds to step S110. As a result, the type of the cut length having a predetermined time (for example, the cut length between the third cut point and the fourth cut point) is corrected to “short”.

他方、得点の追加があると判断された場合(ステップS108のYes)、ステップS110に進む。なお、ステップS110に進む場合、第3の分類補正部110は、例えば、イベント開始時間IN以降の各カット点およびカット長の各分類(ステップS105、S107、S109により種別補正済みのものを含む)を、イベント終了時間抽出部111に渡す。   On the other hand, when it is determined that there is an additional score (Yes in step S108), the process proceeds to step S110. In the case of proceeding to step S110, the third classification correction unit 110, for example, each classification of cut points and cut lengths after the event start time IN (including those that have been subjected to type correction in steps S105, S107, and S109). Is passed to the event end time extraction unit 111.

ステップS110において、イベント終了時間抽出部111は、出現パターン記憶部112の出現パターン(図4)を参照して、ステップS103(ステップS105、S107、S109を含む)で分類された種別の出現パターンに対応するイベント終了時間OUTを抽出する。
例えば、抽出対象となる上記分類された種別の出現パターンが、図4(a)の出現パターンの場合、イベント終了時間抽出部111は、「長」の種別に属するカット長の終了点をイベント終了時間OUTとして抽出する。これにより、「短」や「中」「長」の種別を有するカット長から構成される一連のシーンのうちのある種別(例えば「長」)に属するカット長の終了点が、イベント終了時間OUTとして抽出される。
In step S110, the event end time extraction unit 111 refers to the appearance pattern (FIG. 4) in the appearance pattern storage unit 112, and sets the appearance pattern of the type classified in step S103 (including steps S105, S107, and S109). The corresponding event end time OUT is extracted.
For example, when the appearance pattern of the classified type to be extracted is the appearance pattern of FIG. 4A, the event end time extraction unit 111 sets the end of the cut length belonging to the “long” type as the event end Extracted as time OUT. Thereby, the end point of the cut length belonging to a certain type (for example, “long”) in a series of scenes composed of cut lengths having types of “short”, “medium”, and “long” is the event end time OUT. Extracted as

その後、出力部113(抽出装置100)が、イベント終了時間抽出部111に抽出されたイベント終了時間OUTをそのイベント開始時間INとともに、外部装置(例えばコンピュータ)へ出力する。これにより、ダイジェスト視聴の対象となるスポーツ映像のイベント終了時間OUTが外部へ出力されることとなる。   Thereafter, the output unit 113 (extraction device 100) outputs the event end time OUT extracted by the event end time extraction unit 111 together with the event start time IN to an external device (for example, a computer). As a result, the event end time OUT of the sports video subject to digest viewing is output to the outside.

以上のように、本実施の形態によると、抽出装置100は、スポーツ映像記憶部101のスポーツ映像から、イベント開始時間IN以降のカット点を検出するカット点検出部102と、カット点検出部102に検出されたカット点間のカット長の種別をそのカット長の短長に応じて分類するカット長分類部104と、出現パターン記憶部112を参照して、分類された種別の出現パターンに対応するイベント終了時間OUTを抽出するイベント終了時間抽出部111と、イベント終了時間抽出部111に抽出されたイベント終了時間およびそのイベント開始時間INを出力する出力部113とを含む。これにより、出現パターン記憶部112の出現パターンを一連の映像シーンとした上で、その映像シーンの中から、ある時間を有するカット長の終了点(あるいは開始点)がイベント終了時間OUTとして抽出される。したがって、ダイジェスト視聴の対象となるスポーツ映像のイベント終了点を正確に抽出することができる。   As described above, according to the present embodiment, the extraction apparatus 100 includes the cut point detection unit 102 that detects a cut point after the event start time IN from the sports video in the sports video storage unit 101, and the cut point detection unit 102. Corresponding to the appearance pattern of the classified type by referring to the cut length classification unit 104 that classifies the type of cut length between the detected cut points according to the short length of the cut length and the appearance pattern storage unit 112 An event end time extraction unit 111 that extracts the event end time OUT to be output, and an output unit 113 that outputs the event end time extracted by the event end time extraction unit 111 and the event start time IN. Thereby, after making the appearance pattern of the appearance pattern storage unit 112 a series of video scenes, the end point (or start point) of a cut length having a certain time is extracted from the video scene as the event end time OUT. The Accordingly, it is possible to accurately extract the event end point of the sports video that is the subject of the digest viewing.

なお、本発明は、上述した実施の形態に限られず、本発明の趣旨を逸脱しない限り、そのシステム構成(データ構成を含む)および処理手順を変更してもよい。例えば、図5においては、ステップS104、S106およびS108における各判断処理が行われる場合について説明したが、ステップS103における分類処理において、分類されたカット長があらかじめ指定された時間(例えば、2.0プラスマイナスα)を有しない場合、ステップS103からステップS110へスキップしてもよい。
また、図5においては、ステップS104、S106、S108の順にステップ処理を行う場合について説明したが、これらの順序は、逆にしてもよいし、入れ替えて変更してもよい。
さらに、図5のステップS104〜S109においては、第1の分類補正部108、第2の分類補正部109および第3の分類補正部110が処理を行う場合について説明したが、例えば、そのうちの任意の1つの分類補正部が処理を行うようにしてもよいし、あるいは、任意の2つの分類補正部を組み合わせて処理を行うようにしてもよい。
The present invention is not limited to the above-described embodiment, and the system configuration (including data configuration) and processing procedure may be changed without departing from the spirit of the present invention. For example, in FIG. 5, the case where each determination process in steps S104, S106, and S108 is performed has been described. However, in the classification process in step S103, the classified cut lengths are specified in advance (for example, 2.0). If there is no plus or minus α), the process may skip from step S103 to step S110.
In FIG. 5, the case where step processing is performed in the order of steps S <b> 104, S <b> 106, and S <b> 108 has been described. However, these orders may be reversed or changed to be changed.
Furthermore, in steps S104 to S109 in FIG. 5, the case where the first classification correction unit 108, the second classification correction unit 109, and the third classification correction unit 110 perform processing has been described. One classification correction unit may perform processing, or two arbitrary classification correction units may be combined to perform processing.

また、抽出装置100は、1台のコンピュータの場合について説明したが、複数台のコンピュータを用いて分散処理するように構成してもよい。さらに、抽出装置100は、LSI(Large Scale Integration)で実現するようにしてもよいし、1チップ化してもよい。   Moreover, although the extraction apparatus 100 has been described with respect to a single computer, it may be configured to perform distributed processing using a plurality of computers. Furthermore, the extraction apparatus 100 may be realized by LSI (Large Scale Integration) or may be made into one chip.

さらに、スポーツ映像が、野球中継の映像の場合で説明したが、例えば、カット長の種別を決めることが可能なテロップを含むスポーツ映像であれば、アメリカンフットボールやバスケットなどのスポーツ映像に適用してもよい。   Furthermore, although the case where the sports video is a baseball broadcast video has been described, for example, if the sports video includes a telop that can determine the type of cut length, it can be applied to sports video such as American football and basketball. Also good.

本発明の実施の形態におけるイベント終了点抽出装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the event end point extraction apparatus in embodiment of this invention. 図1のスポーツ映像記憶部のスポーツ映像の一例を示す図である。It is a figure which shows an example of the sports image | video of the sports image | video memory | storage part of FIG. 図1の分類基準記憶部の分類基準の一例を示す図である。It is a figure which shows an example of the classification reference | standard of the classification reference | standard memory | storage part of FIG. 図1の出現パターン記憶部の出現パターンの一例を示す図である。It is a figure which shows an example of the appearance pattern of the appearance pattern memory | storage part of FIG. 図1のイベント終了点抽出装置の処理手順の一例を示す図である。It is a figure which shows an example of the process sequence of the event end point extraction apparatus of FIG.

符号の説明Explanation of symbols

100 イベント終了点抽出装置
101 スポーツ映像記憶部
102 カット点検出部
103 カット点記憶部
104 カット長分類部
105 分類基準記憶部
106 テロップ検出部
107 テロップ記憶部
108 第1の分類補正部
109 第2の分類補正部
110 第3の分類補正部
111 イベント終了時間抽出部
112 出現パターン記憶部
113 出力部

DESCRIPTION OF SYMBOLS 100 Event end point extraction apparatus 101 Sports video memory | storage part 102 Cut point detection part 103 Cut point memory | storage part 104 Cut length classification | category part 105 Classification reference | standard storage part 106 Telop detection part 107 Telop storage part 108 1st classification correction | amendment part 109 2nd Classification correction unit 110 Third classification correction unit 111 Event end time extraction unit 112 Appearance pattern storage unit 113 Output unit

Claims (10)

イベント開始点が決定されたスポーツ映像を記憶するスポーツ映像記憶部と、
前記スポーツ映像記憶部の前記スポーツ映像から、前記イベント開始点以降のカット点を検出するカット点検出部と、
前記カット点検出部に検出された前記カット点間のカット長の種別をそのカット長の短長に応じて分類するカット長分類部と、
前記カット長の種別の出現パターンをイベント終了点に対応付けて記憶する出現パターン記憶部と、
前記出現パターン記憶部を参照して、前記分類された種別の出現パターンに対応するイベント終了点を抽出するイベント終了点抽出部と、
前記イベント終了点抽出部に抽出されたイベント終了点および前記イベント開始点を出力する出力部と、
を含む、イベント終了点抽出装置。
A sports video storage unit that stores the sports video for which the event start point has been determined;
From the sports video of the sports video storage unit, a cut point detection unit that detects a cut point after the event start point,
A cut length classifying unit that classifies the type of cut length between the cut points detected by the cut point detecting unit according to the short length of the cut length;
An appearance pattern storage unit that stores an appearance pattern of the cut length type in association with an event end point;
An event end point extraction unit that refers to the appearance pattern storage unit and extracts an event end point corresponding to an appearance pattern of the classified type;
An output unit that outputs the event end point and the event start point extracted by the event end point extraction unit;
An event end point extraction device.
前記カット長の種別として、前記カット長の短い順に、第1の種別、第2の種別および第3の種別があり、
前記出現パターン記憶部の前記出現パターンとして、前記イベント開始点から前記第3の種別が最初に出現するパターンが記憶され、当該第3の種別に属するカット長の終了点が前記イベント終了点として対応付けられている、
請求項1に記載のイベント終了点抽出装置。
As types of the cut length, there are a first type, a second type, and a third type in the order of short cut length,
As the appearance pattern of the appearance pattern storage unit, a pattern in which the third type first appears from the event start point is stored, and the end point of the cut length belonging to the third type corresponds as the event end point Attached,
The event end point extraction device according to claim 1.
前記カット長の種別として、前記カット長の短い順に、第1の種別、第2の種別および第3の種別があり、
前記出現パターン記憶部の前記出現パターンとして、前記イベント開始点から前記第3の種別が最初に出現するまでの間に、前記第2の種別が連続して出現するパターンが記憶され、最初の前記第2の種別に属するカット長の終了点が前記イベント終了点として対応付けられている、
請求項1に記載のイベント終了点抽出装置。
As types of the cut length, there are a first type, a second type, and a third type in the order of short cut length,
As the appearance pattern in the appearance pattern storage unit, a pattern in which the second type appears continuously from the event start point to the first appearance of the third type is stored. The end point of the cut length belonging to the second type is associated as the event end point.
The event end point extraction device according to claim 1.
前記スポーツ映像記憶部の前記スポーツ映像にはテロップが含まれ、
前記スポーツ映像記憶部の前記スポーツ映像に含まれる前記テロップを検出するテロップ検出部と、
前記テロップ検出部に検出された前記テロップを記憶するテロップ記憶部と、
前記カット長分類部に分類されたカット長があらかじめ指定された時間を有する場合、前記テロップ記憶部の前記テロップの表示パターンに基づいて、当該カット長の分類種別を、あらかじめ設定された種別に補正して分類する分類補正部と、をさらに含む、
請求項1ないし請求項3に記載のイベント終了点抽出装置。
The sports video of the sports video storage unit includes a telop,
A telop detection unit for detecting the telop included in the sports video of the sports video storage unit;
A telop storage unit for storing the telop detected by the telop detection unit;
When the cut length classified by the cut length classification unit has a predetermined time, the classification type of the cut length is corrected to a preset type based on the display pattern of the telop in the telop storage unit A classification correction unit that classifies
The event end point extraction device according to claim 1.
前記スポーツ映像が野球中継の映像の場合、
前記テロップの表示パターンとして、三振の映像シーンを示唆する特定のテロップの表示パターンがあらかじめ設定され、
前記分類補正部は、前記カット長の分類種別を補正する場合、前記三振の映像シーンを示唆する特定のテロップの表示パターンが前記カット長になければ、当該カット長の分類種別を補正する、
請求項4に記載のイベント終了点抽出装置。
If the sports video is a baseball video,
As the display pattern of the telop, a display pattern of a specific telop that suggests a strikeout video scene is preset,
When the classification correction unit corrects the classification type of the cut length, if the specific telop display pattern suggesting the strikeout video scene is not in the cut length, the classification correction unit corrects the classification type of the cut length.
The event end point extraction device according to claim 4.
前記スポーツ映像が野球中継の映像の場合、
前記テロップの表示パターンとして、打者交代の映像シーンを示唆する特定のテロップの表示パターンがあらかじめ設定され、
前記分類種別補正部は、前記カット長の分類種別を補正する場合、前記打者交代の映像シーンを示唆する特定のテロップの表示パターンが前記カット長になければ、当該カット長の分類種別を補正する、
請求項4に記載のイベント終了点抽出装置。
If the sports video is a baseball video,
As the display pattern of the telop, a display pattern of a specific telop that suggests a video scene of changing batter is preset,
When the classification type correction unit corrects the classification type of the cut length, if the display pattern of the specific telop suggesting the video scene of the batter change is not in the cut length, the classification type correction unit corrects the classification type of the cut length. ,
The event end point extraction device according to claim 4.
前記スポーツ映像が野球中継の映像の場合、
前記テロップの表示パターンとして、得点追加の映像シーンを示唆する特定のテロップの表示パターンがあらかじめ設定され、
前記分類種別補正部は、前記カット長の分類種別を補正する場合、前記得点追加の映像シーンを示唆する特定のテロップの表示パターンが前記カット長になければ、当該カット長の分類種別を補正する、
請求項4に記載のイベント終了点抽出装置。
If the sports video is a baseball video,
As the display pattern of the telop, a display pattern of a specific telop that suggests an additional video scene is preset,
The classification type correction unit, when correcting the classification type of the cut length, corrects the classification type of the cut length if the display pattern of the specific telop that suggests the video scene to which the score is added is not in the cut length. ,
The event end point extraction device according to claim 4.
イベント開始点が決定されたスポーツ映像を記憶するスポーツ映像記憶部を含むコンピュータに用いられるイベント終了点抽出方法であって、
前記コンピュータは、
前記スポーツ映像記憶部の前記スポーツ映像から、前記イベント開始点以降のカット点を検出するステップと、
前記検出した前記カット点間のカット長の種別をそのカット長の短長に応じて分類するステップと、
前記カット長の種別の出現パターンをイベント終了点に対応付けて記憶する出現パターン記憶部を参照して、前記分類した種別の出現パターンに対応するイベント終了点を抽出するステップと、
前記抽出したイベント終了点および前記イベント開始点を出力するステップと、
を含む、イベント終了点抽出方法。
An event end point extraction method used in a computer including a sports video storage unit that stores a sports video for which an event start point has been determined,
The computer
Detecting a cut point after the event start point from the sports video of the sports video storage unit;
Classifying the type of cut length between the detected cut points according to the short length of the cut length;
Extracting an event end point corresponding to an appearance pattern of the classified type with reference to an appearance pattern storage unit that stores an appearance pattern of the cut length type in association with an event end point;
Outputting the extracted event end point and the event start point;
Event end point extraction method.
前記スポーツ映像記憶部の前記スポーツ映像にはテロップが含まれ、
前記コンピュータは、
前記スポーツ映像記憶部の前記スポーツ映像に含まれる前記テロップを検出するステップと、
前記カット長分類部に分類されたカット長があらかじめ指定された時間を有する場合、前記検出したテロップの表示パターンに基づいて、当該カット長の分類種別を補正してその種別を分類するステップと、をさらに含む、
請求項8に記載のイベント終了点抽出方法。
The sports video of the sports video storage unit includes a telop,
The computer
Detecting the telop included in the sports video in the sports video storage unit;
When the cut length classified in the cut length classification unit has a predesignated time, correcting the classification type of the cut length based on the detected display pattern of the telop and classifying the type; Further including
The event end point extraction method according to claim 8.
請求項8または請求項9に記載のイベント抽出方法をコンピュータに実行させるための抽出プログラム。

An extraction program for causing a computer to execute the event extraction method according to claim 8 or 9.

JP2006162591A 2006-06-12 2006-06-12 Event end point extraction apparatus, event end point extraction method, and extraction program Pending JP2007335984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006162591A JP2007335984A (en) 2006-06-12 2006-06-12 Event end point extraction apparatus, event end point extraction method, and extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006162591A JP2007335984A (en) 2006-06-12 2006-06-12 Event end point extraction apparatus, event end point extraction method, and extraction program

Publications (1)

Publication Number Publication Date
JP2007335984A true JP2007335984A (en) 2007-12-27

Family

ID=38935076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162591A Pending JP2007335984A (en) 2006-06-12 2006-06-12 Event end point extraction apparatus, event end point extraction method, and extraction program

Country Status (1)

Country Link
JP (1) JP2007335984A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010074156A1 (en) 2008-12-25 2010-07-01 ソニー株式会社 Information processing device, moving image cutting method, and moving image cutting program
KR20160070688A (en) 2014-12-10 2016-06-20 후지쯔 가부시끼가이샤 Extraction program, method and device
JP2017157952A (en) * 2016-02-29 2017-09-07 富士通株式会社 Reproduction control program, method, and information processor
US10115318B2 (en) 2014-08-27 2018-10-30 Fujitsu Limited Information processing method and device
US10200764B2 (en) 2014-08-27 2019-02-05 Fujitsu Limited Determination method and device
US10984248B2 (en) 2014-12-15 2021-04-20 Sony Corporation Setting of input images based on input music

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010074156A1 (en) 2008-12-25 2010-07-01 ソニー株式会社 Information processing device, moving image cutting method, and moving image cutting program
US8736681B2 (en) 2008-12-25 2014-05-27 Sony Corporation Information processing device, moving image cutting method, and moving image cutting program
US10115318B2 (en) 2014-08-27 2018-10-30 Fujitsu Limited Information processing method and device
US10200764B2 (en) 2014-08-27 2019-02-05 Fujitsu Limited Determination method and device
KR20160070688A (en) 2014-12-10 2016-06-20 후지쯔 가부시끼가이샤 Extraction program, method and device
KR101891382B1 (en) * 2014-12-10 2018-08-24 후지쯔 가부시끼가이샤 Extraction program, method and device
US10134445B2 (en) 2014-12-10 2018-11-20 Fujitsu Limited Method of extracting a point from footage of a baseball game
US10984248B2 (en) 2014-12-15 2021-04-20 Sony Corporation Setting of input images based on input music
JP2017157952A (en) * 2016-02-29 2017-09-07 富士通株式会社 Reproduction control program, method, and information processor
US9934821B2 (en) 2016-02-29 2018-04-03 Fujitsu Limited Non-transitory computer-readable storage medium, playback control method, and playback control device

Similar Documents

Publication Publication Date Title
CN103797783B (en) Comment information generating means and comment information generation method
US7853865B2 (en) Synchronization of video and data
US8121462B2 (en) Video edition device and method
US8103107B2 (en) Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method
JP2007335984A (en) Event end point extraction apparatus, event end point extraction method, and extraction program
US7483624B2 (en) System and method for indexing a video sequence
KR101891382B1 (en) Extraction program, method and device
US7366401B2 (en) Video summary play apparatus and method
JP2007533260A (en) Automatic reverse telecine process
JP6260292B2 (en) Information processing program, method, and apparatus, and baseball video meta information creation apparatus, method, and program
US9508012B2 (en) Extraction method and device
CN101553814A (en) Method and apparatus for generating a summary of a video data stream
US9934821B2 (en) Non-transitory computer-readable storage medium, playback control method, and playback control device
US10115318B2 (en) Information processing method and device
JP6653423B2 (en) Play section extracting method and play section extracting apparatus
KR101701632B1 (en) Determination method and device
US20040246259A1 (en) Music program contents menu creation apparatus and method
JP2011523291A (en) Method and apparatus for generating a summary of an audio / visual data stream
JP2006325047A (en) Content metadata editor and content metadata editing program
JP2005026837A (en) Sport video index generating apparatus, method therefor, program therefor, sport relay announcing data generating apparatus, and sport digest video generating apparatus
JP6303525B2 (en) Extraction program, method, and apparatus, and baseball video meta information creation apparatus, method, and program
JP2004266507A (en) Data reproducing apparatus and reproduction output control method
JP4276638B2 (en) Video editing apparatus, video editing method, video editing program, and program recording medium
JP5204716B2 (en) Video search device and video search program
JP6096095B2 (en) Content reproduction method, content reproduction apparatus, and content reproduction program