JP2008005204A - Video section determining device, method, and program - Google Patents

Video section determining device, method, and program Download PDF

Info

Publication number
JP2008005204A
JP2008005204A JP2006172524A JP2006172524A JP2008005204A JP 2008005204 A JP2008005204 A JP 2008005204A JP 2006172524 A JP2006172524 A JP 2006172524A JP 2006172524 A JP2006172524 A JP 2006172524A JP 2008005204 A JP2008005204 A JP 2008005204A
Authority
JP
Japan
Prior art keywords
event
cut
video
telop
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006172524A
Other languages
Japanese (ja)
Inventor
Shuichi Shimizu
秀一 清水
Hiroshi Kasahara
宏 笠原
Masaaki Yoshikawa
雅昭 吉川
Kentaro Nakai
健太郎 中井
Norihiko Kobayashi
紀彦 小林
Toru Wakabayashi
徹 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006172524A priority Critical patent/JP2008005204A/en
Publication of JP2008005204A publication Critical patent/JP2008005204A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To determine a video section being an event from video contents only through video processing without using a sensor etc. <P>SOLUTION: Cut points of a plurality of cuts constituting the video contents and camera works of the respective cuts are stored. According to kinds of events, patterns of camera works of the respective events are stored. Based upon a telop, a cut being a starting point of an event is specified, and a pattern of camera works of a plurality of successive cuts including the cut is compared with a stored pattern of a prescribed camera work. According to the comparison result, a cut including a convergence point of the event is determined. Further, the convergence point of the event is corrected according to the state of the event and the number of kinds of camera works of the respective cuts. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、テレビ番組、特にスポーツ番組等の映像コンテンツに対して、映像区間を示すメタデータを自動的に付与する技術に関する。   The present invention relates to a technique for automatically assigning metadata indicating a video section to video content such as a television program, particularly a sports program.

映像コンテンツ中の重要なアクション(以下、「イベント」という)に対して、その映像区間の開始点および収束点を示すメタデータが付与されていることがある。メタデータは、具体的には、ARIB(Association of Radio Industries Businesses)における規格STD-B38や、TV-Anytimeフォーラムによって規定されている。
このメタデータを用いると、例えば、映像コンテンツが、野球等のスポーツ中継番組である場合、所定のイベントに対してメタデータが付与されていると、映像コンテンツの視聴者は、例えば得点シーンのみをダイジェストで視聴することができる。
For important actions (hereinafter referred to as “events”) in video content, metadata indicating the start point and convergence point of the video section may be attached. Specifically, the metadata is defined by the standard STD-B38 in ARIB (Association of Radio Industries Businesses) and the TV-Anytime forum.
When this metadata is used, for example, when the video content is a sports broadcast program such as baseball, if the metadata is given to a predetermined event, the viewer of the video content can, for example, only score the scene. You can watch it as a digest.

また、テレビ放送局の番組制作者にとっても、映像コンテンツにメタデータが付与されていると、イベントを含む映像を映像コンテンツから抽出する手間を大幅に軽減することができ、番組を制作する際に有用である。
しかし、このような映像区間を示すメタデータは、人手で付与するとなると、付与を行う者が映像コンテンツを視聴して、メタデータを付与すべき映像区間を探さなければならず、時間的に多大な労力を要する。
Also, for TV broadcaster program producers, if metadata is added to video content, the effort to extract video including events from the video content can be greatly reduced. Useful.
However, when such metadata indicating the video section is manually added, the person who performs the assignment must watch the video content and search for the video section to which the metadata should be added, which is very time-consuming. Requires a lot of effort.

そこで、従来、人手ではなく自動的に映像コンテンツにメタデータを付与する様々な技術が用いられている。
例えば、音声レベルのピークを検出して、イベントの映像区間の開始点とし、その開始点から一定時間経過後を映像区間の収束点としてダイジェスト映像を自動生成する機能を持つHDD/DVDレコーダがある。
Therefore, conventionally, various techniques for automatically adding metadata to video content instead of manually are used.
For example, there is an HDD / DVD recorder that has a function to automatically generate a digest video by detecting the peak of the audio level and using it as the start point of the video section of the event, and after a certain time has elapsed from that start point. .

また、下記の特許文献1には、複数のカメラ各々にセンサを取り付け、センサから得られる各カメラの撮影範囲の情報を用いて、映像コンテンツのインデックスを生成する技術が開示されている。具体的には、カメラの撮影範囲のパターンと、予め用意されたパターンとが一致したときに、一致したパターンに応じて、インデックスを生成することとしている。
特開2002−223375号公報
Patent Document 1 below discloses a technique for attaching a sensor to each of a plurality of cameras and generating an index of video content using information on the shooting range of each camera obtained from the sensors. Specifically, when the pattern of the shooting range of the camera matches a pattern prepared in advance, an index is generated according to the matched pattern.
JP 2002-223375 A

しかしながら、上記のように、映像区間の開始点から一定時間経過後を収束点とする場合、一律に一定時間の経過後を映像区間の収束点とするため、イベントが完結する前に映像区間の収束点が決定されることがある。また、その逆に、イベントが完結しているにもかかわらず、冗長な映像も、映像区間に含まれてしまうことがある。
例えば、野球等の映像コンテンツであれば、視聴者等の要望を考慮すると、本来、安打による得点シーン等のダイジェスト映像は、走者が本塁に生還して得点が加算される場面までとしたい。にもかかわらず、走者の本塁生還前の時点が映像区間の収束点として決定され、ダイジェスト映像のみを見た場合、走者が生還したのか否かがわからないものとなるおそれがある。
However, as described above, when the convergence point is after the elapse of a certain time from the start point of the video section, since the convergence point of the video section is uniformly set after the elapse of the certain time, the video section before the event is completed. A convergence point may be determined. Conversely, redundant video may be included in the video section even though the event is completed.
For example, in the case of video content such as baseball, considering the demands of viewers and the like, the digest video such as a scoring scene due to a hit is originally intended to be a scene where the runner returns to the home base and the score is added. Nevertheless, the point in time before the runner's return to home is determined as the convergence point of the video section, and if only the digest video is viewed, it may be unclear whether or not the runner has returned.

また、上記特許文献1記載の技術では、カメラの撮影範囲についてのパラメータが、センサから取得できることを前提としている。そのため、センサ設置の手間がかかる上に、映像処理のみではインデックスを生成することができない。
そこで、本発明は、映像コンテンツの映像処理だけで、映像区間を精度良く決定することができる映像区間決定装置、映像区間決定方法、映像区間決定プログラムを提供することを目的とする。
Further, the technique described in Patent Document 1 is based on the premise that a parameter regarding the shooting range of the camera can be acquired from the sensor. For this reason, it takes time to install the sensor, and an index cannot be generated only by video processing.
Therefore, an object of the present invention is to provide a video section determination device, a video section determination method, and a video section determination program that can determine a video section with high accuracy only by video processing of video content.

上記課題を解決するため、本発明は、複数のカットにより構成される映像コンテンツから、一部分の映像の映像区間を決定する映像区間決定装置であって、カットごとに、前記カットにおけるカメラの動きを示すカメラワークを記憶しているカメラワーク記憶手段と、連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断手段と、一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定手段とを備える。   In order to solve the above-described problems, the present invention provides a video section determination device that determines a video section of a part of a video from video content including a plurality of cuts, and for each cut, the movement of a camera in the cut is determined. When the camera work storage means for storing the camera work shown and the judgment means for judging whether or not a series of camera work patterns of a plurality of consecutive cuts match a predetermined camera work pattern, And determining means for determining a predetermined time point determined according to the pattern as a boundary of the video section when the determination is made.

映像コンテンツにおいて、イベントを構成している映像区間のカメラワークは、イベントの種類ごとに特徴を有する場合がある。
例えば、映像コンテンツが野球の場合、打者がホームランを打ったときは、カメラが打球を追いかけるために、カメラワークは、パンしつつ放物線を描く。これに対し、打者が三振した場合は、カメラワークは、ほぼ固定である。
In video content, camera work in a video section that constitutes an event may have characteristics for each event type.
For example, when the video content is baseball, when the batter hits a home run, the camerawork draws a parabola while panning in order for the camera to follow the shot. On the other hand, when the batter strikes out, the camera work is almost fixed.

このような特徴に着目すると、カメラワークの内容に応じて、イベントの種類を判断することができる。
また、イベントの種類ごとに、そのイベントのカメラワークに特徴があるということは、イベントが収束する時点を、カメラワークからある程度特定できることも意味する。
例えば、ホームランの場合は、打球がスタンドインするところまでを映像区間としたければ、放物線を描くカメラワークのカットの終了点を、映像区間の収束点とすればよい。
Focusing on such features, the type of event can be determined according to the content of the camera work.
In addition, the fact that each event type has a feature in the camera work of the event also means that the time when the event converges can be specified to some extent from the camera work.
For example, in the case of a home run, if the video section is to the point where the hit ball stands in, the end point of the camera work cut that draws a parabola may be set as the convergence point of the video section.

上述の構成を備える本発明の映像区間決定装置は、映像コンテンツの、複数のカットのカメラワークが、所定のパターンと一致するかを判断することにより、当該複数のカットにおけるイベントの種類を判断するので、判断結果に応じて、映像区間の境界を精度良く決定することができる。
ここで、前記映像区間決定装置は、さらに、映像コンテンツにおける、各カットの開始時点および終了時点を記憶するカット点記憶手段を備え、前記決定手段は、前記判断手段による判断の対象となった各カットから、前記パターンに応じて定まる所定のカットを選択し、選択したカットの開始時点または/および終了時点に基づいて前記所定の時点を定めることにより前記決定を行うこととしてもよい。
The video section determination apparatus of the present invention having the above-described configuration determines the type of event in the plurality of cuts by determining whether the camera work of the plurality of cuts of the video content matches a predetermined pattern. Therefore, the boundary of the video section can be determined with high accuracy according to the determination result.
Here, the video section determination device further includes cut point storage means for storing the start time and the end time of each cut in the video content, and the determination means is a target to be determined by the determination means. A predetermined cut determined according to the pattern may be selected from the cuts, and the determination may be performed by determining the predetermined time based on the start time and / or end time of the selected cut.

通常、映像コンテンツのあるカットにおいてイベントが収束すると、カットが切り替わって他の映像が表示される。例えば、野球の場合、打者がホームランを打つと、打球がスタンドインした後はカットが切り替わって塁上を走っている打者のカットとなる。すなわち、カットが切り替わるということは、他の状況や場面を表示しているということである。   Normally, when an event converges in a certain cut of video content, the cut is switched and another video is displayed. For example, in the case of baseball, when a batter hits a home run, after the hit ball stands in, the cut is switched to be a cut of the batter running on the base. That is, the fact that the cut is switched means that other situations or scenes are displayed.

上述の構成を備える本発明の映像区間装置は、映像区間の境界を、カットの開始時点や終了時点に基づいて決定するので、冗長な映像が映像区間に含まれないよう、映像区間の境界を精度良く決定することができる。
また、前記映像区間決定装置は、さらに、前記映像区間の開始点を示す開始点情報を取得する取得手段を備え、前記判断手段は、前記取得した開始点情報に示される開始点を含む開始点カットを前記カット点記憶手段から特定する開始点カット特定部を含み、前記開始点カットを含む前記連続する複数のカットで前記判断を行い、前記決定手段は、前記選択したカットの開始時点または/および終了時点に基づいて前記映像区間の収束点を定め、前記開始点および前記収束点を、前記境界として決定することとしてもよい。
Since the video section device of the present invention having the above-described configuration determines the boundary of the video section based on the start time and end time of the cut, the video section boundary is set so that redundant video is not included in the video section. It can be determined with high accuracy.
Further, the video section determination device further includes an acquisition unit that acquires start point information indicating a start point of the video section, and the determination unit includes a start point that includes a start point indicated by the acquired start point information. A start point cut specifying unit for specifying a cut from the cut point storage unit, and performing the determination with the plurality of consecutive cuts including the start point cut, and the determining unit is configured to start the selected cut or / In addition, a convergence point of the video section may be determined based on the end time, and the start point and the convergence point may be determined as the boundary.

これにより、映像区間の開始点が既知である場合に、映像区間の収束点を精度良く決定することができる。
また、前記映像区間決定装置は、さらに、前記映像コンテンツの映像中に表示されているテロップが示す情報を、前記テロップの表示時刻と対応づけたテロップ情報を記憶しているテロップ記憶手段を備え、前記取得手段は、前記テロップが示す情報に応じて定まる所定のテロップの表示時刻を前記開始点情報として取得することとしてもよい。
Thereby, when the start point of the video section is known, the convergence point of the video section can be determined with high accuracy.
Further, the video section determination device further includes a telop storage unit that stores telop information in which information indicated by the telop displayed in the video of the video content is associated with the display time of the telop, The acquisition means may acquire a display time of a predetermined telop determined according to information indicated by the telop as the start point information.

イベントの発生によって変化した状況を、テロップによって表示する場合がある。例えば、映像コンテンツが野球の場合、各チームが獲得している得点を得点テロップによって表示する。得点が加算されれば、テロップによって表示する内容を更新して、得点が加算されたことを示す。
したがって、テロップの内容の更新を手がかりとして、イベントが発生したとみなすことができる。ここで、テロップの内容を、人手によらず、映像コンテンツから自動的に検出する従来技術を用いると、映像コンテンツを映像処理することのみで、映像区間を決定することができる。
In some cases, the status changed by the occurrence of an event is displayed by a telop. For example, when the video content is baseball, the score obtained by each team is displayed as a score telop. If the score is added, the content displayed by the telop is updated to indicate that the score has been added.
Therefore, it can be considered that an event has occurred with the update of the contents of the telop as a clue. Here, when the conventional technology for automatically detecting the contents of the telop from the video content without using the manual operation, the video section can be determined only by processing the video content.

ところで、イベント発生時の状況によっては、同一のイベントであっても、状況に応じてその収束点を異なるものとしたい場合がある。
例えば、野球の場合、塁上にランナーのない状況でのヒットであれば、視聴者は、打者の打球が外野手によって捕球された時点でアウトかヒットかがわかり、それ以上の情報は必要ではない。すなわち、打球が外野手によって捕球された時点をイベントの収束点とすればよい。
By the way, depending on the situation at the time of the event occurrence, there is a case where it is desired to have different convergence points depending on the situation even for the same event.
For example, in the case of baseball, if the hit is in a situation where there is no runner on the base, the viewer can know whether the batter's hit is out or hit when it is caught by an outfielder, and more information is needed is not. That is, the point at which the hit ball is caught by the outfielder may be set as the event convergence point.

これに対し、得点圏の塁上にランナーがいる場合は、視聴者は、打者がアウトかヒットかという情報に加えて、ヒットの場合、ランナーの進塁数や、進塁によってチームに得点が加算されるか否かという、試合の結果に重要な影響を与える可能性の高い情報も必要であると考えられる。例えば、打球が外野手によって捕球され、内野手が受け取るまで、または走者が本塁に生還して得点が加算されるまでをイベントの収束点としたい。   On the other hand, if a runner is on the top of the scoring area, in addition to the information on whether the batter is out or hit, the viewer can score the team according to the number of runners and the progress of the runner. Information that is highly likely to have a significant impact on the outcome of the match, such as whether or not to be added, is also considered necessary. For example, it is desired that the event is converged until the hit ball is caught by the outfielder and received by the infielder or until the runner returns to the main base and the score is added.

そこで、前記映像区間決定装置は、さらに、映像コンテンツ中のイベントの状況を示すイベント状況情報を記憶しているイベント状況記憶手段を備え、前記決定手段は、前記パターンおよび前記イベント状況情報に示される前記状況に基づいて、前記所定の時点を定めて、前記境界として決定することとしてもよい。
これにより、イベント発生時の状況に応じて、映像区間の境界を決定することができ、映像区間の決定の精度をさらに向上させることができる。
Therefore, the video section determination device further includes event status storage means for storing event status information indicating the status of the event in the video content, and the determination means is indicated by the pattern and the event status information. The predetermined time point may be determined based on the situation and determined as the boundary.
Thereby, the boundary of a video section can be determined according to the situation at the time of event occurrence, and the accuracy of determination of the video section can be further improved.

また、前記映像区間決定装置は、さらに、前記映像コンテンツの映像中に表示されているテロップが示す情報を、前記テロップの表示時刻と対応づけたテロップ情報を記憶しているテロップ記憶手段と、前記テロップ情報に基づいて、前記イベント状況情報を生成し、生成した前記イベント状況情報を前記イベント状況記憶手段に記憶させるイベント状況算出手段とを備え、前記決定手段は、前記イベント状況算出手段が算出して前記イベント状況記憶手段に記憶させたイベント状況情報を用いて前記決定を行うこととしてもよい。   In addition, the video section determination device further includes telop storage means for storing telop information in which information indicated by the telop displayed in the video of the video content is associated with the display time of the telop, Event status calculation means for generating the event status information based on telop information, and storing the generated event status information in the event status storage means, and the determination means is calculated by the event status calculation means. The determination may be made using event status information stored in the event status storage means.

これにより、テロップの内容の更新を手がかりとして、イベントの状況を取得することができる。
ところで、イベントとは、映像コンテンツ中の重要なアクションであるので、そのイベントが発生している間は、カメラが動きのある映像を撮そうとして、カットにおけるカメラワークの種類の数が多くなることがある。例えば、打者がボールを打った場合は、あるカットにおいて、カメラが打球を追いかけて右パンし、打球を捕球する野手を撮そうとしてズームINし、打球を捕球した野手が内野へ返球するボールを追いかけようとして左パンする。このとき、カットにおけるカメラワークの種類の数は、右パンとズームINと左パンの3種類である。
As a result, the status of the event can be acquired using the update of the contents of the telop as a clue.
By the way, since an event is an important action in video content, the number of types of camera work in the cut increases as the camera tries to take a moving video while the event occurs. There is. For example, when a batter hits the ball, the camera follows the hit ball, pans right, zooms in to capture the fielder that catches the hit ball, and the fielder who catches the hit ball returns to the infield Pan left to chase the ball. At this time, the number of types of camera work in the cut is three types of right pan, zoom IN, and left pan.

そして、イベントが収束した後になると、カットが変わって映像の動きが小さくなり、カメラワークの種類の数も少なくなる。例えば、カメラがほとんど動かず固定のカメラワークで、ヒットを打った塁上の打者をアップで写す。このとき、カメラワークの種類の数は、固定の1種類である。
このように、イベントが発生している間はカメラワークの種類の数がカット間で増加し、カットが変わってイベントが収束すると、カメラワークの種類の数が直前のカットと比べて減少する傾向がある。
Then, after the event has converged, the cut changes, the motion of the video is reduced, and the number of types of camera work is also reduced. For example, the camera hits a hit with a fixed camera work with almost no camera movement. At this time, the number of types of camera work is one fixed type.
In this way, the number of camerawork types increases between cuts while an event occurs, and the number of camerawork types tends to decrease compared to the previous cut when the cuts change and the event converges There is.

そこで、前記カメラワーク記憶手段は、さらに、前記カットごとに、各カットにおける前記カメラワークの種類の数を示すカメラパラメータ数を記憶しており、前記決定手段は、前記パターンおよび前記判断にかかる各カットの前記カメラパラメータ数の増減に基づいて、前記所定の時点を定めて、前記境界として決定することとしてもよい。
これにより、カメラワークの種類の数に応じて、映像区間の境界を決定することができ、映像区間の決定の精度をさらに向上させることができる。
Therefore, the camera work storage means further stores the number of camera parameters indicating the number of types of the camera work in each cut for each of the cuts, and the determination means includes the pattern and each of the determinations. The predetermined time point may be determined based on the increase / decrease in the number of camera parameters of the cut and determined as the boundary.
Thereby, the boundary of a video section can be determined according to the number of types of camera work, and the accuracy of determination of a video section can be further improved.

また、複数のカットにより構成される映像コンテンツから、一部分の映像の映像区間を決定する処理を行い、カットごとに、前記カットにおけるカメラの動きを示すカメラワークを記憶する記憶手段を備える映像区間決定装置において用いられる映像区間決定方法であって、連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断ステップと、一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定ステップとを含む映像区間決定方法であるとしてもよい。   In addition, processing for determining a video section of a part of video from video content constituted by a plurality of cuts is performed, and video section determination includes a storage unit that stores camera work indicating camera movement in the cut for each cut. A method for determining a video section used in an apparatus, wherein a series of camerawork patterns of a plurality of consecutive cuts are determined to match a determination step of determining whether or not a predetermined camerawork pattern matches. The video section determination method may include a determination step of determining a predetermined time determined according to the pattern as a boundary of the video section.

また、複数のカットにより構成される映像コンテンツの、前記カットにおけるカメラの動きを示すカメラワークをカットごとに記憶する記憶手段を備える映像区間決定装置に、前記映像コンテンツから一部分の映像の映像区間を決定する処理を行わせる制御プログラムであって、連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断ステップと、一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定ステップとを含む制御プログラムであるとしてもよい。   In addition, a video section of a part of video from the video content is stored in a video section determination device including storage means for storing, for each cut, camera work indicating camera movement in the cut of video content configured by a plurality of cuts. It is a control program for performing the determining process, and it is determined that it matches the determination step for determining whether or not a series of camerawork patterns of a plurality of consecutive cuts match a predetermined camerawork pattern. The control program may include a determination step of determining a predetermined time point determined according to the pattern as a boundary of the video section.

<実施の形態>
以下、本発明にかかる映像区間決定装置について、実施の一形態を、図面を用いて説明する。
<概要>
以下の実施例では、野球番組の映像コンテンツにメタデータを付与する場合を例にして説明する。以下の実施例では、映像中の重要なアクションを「イベント」という。以下、映像区間決定装置が、イベントを構成する映像区間の開始点および収束点を決定する処理を主に説明する。
<Embodiment>
Hereinafter, an embodiment of a video section determination device according to the present invention will be described with reference to the drawings.
<Overview>
In the following embodiment, a case where metadata is added to video content of a baseball program will be described as an example. In the following embodiment, an important action in a video is referred to as an “event”. Hereinafter, a process in which the video section determination device determines the start point and the convergence point of the video section constituting the event will be mainly described.

<構成>
1.1 構成
図1は、本発明の映像区間決定装置1000の機能ブロック図である。
同図に示すように、映像区間決定装置1000は、映像記憶部101と、カット点検出部102と、カット点記憶部103と、カメラワーク検出部104と、カメラワーク記憶部105と、カメラワーク計数部106と、テロップ検出部107と、テロップ情報記憶部108と、イベント発生検出部109と、イベント発生情報取得部110と、イベント状況算出部111と、イベント状況記憶部112と、イベント収束点特定部113と、メタデータ記憶部114を備える。
<Configuration>
1.1 Configuration FIG. 1 is a functional block diagram of a video section determination apparatus 1000 according to the present invention.
As shown in the figure, the video section determination device 1000 includes a video storage unit 101, a cut point detection unit 102, a cut point storage unit 103, a camera work detection unit 104, a camera work storage unit 105, and a camera work. Counting unit 106, telop detection unit 107, telop information storage unit 108, event occurrence detection unit 109, event occurrence information acquisition unit 110, event situation calculation unit 111, event situation storage unit 112, and event convergence point A specifying unit 113 and a metadata storage unit 114 are provided.

1.1.1 映像記憶部101
映像記憶部101は、例えば大容量のHDD(Hard Disk Drive)や、半導体メモリ等の記憶装置である。映像記憶部101は、MPEG-2(Moving Picture Experts Group phase 2)やMPEG-4、H.264等の方式で圧縮符号化された映像コンテンツをデジタルデータとして記憶する。
1.1.1 Video storage unit 101
The video storage unit 101 is a storage device such as a large capacity HDD (Hard Disk Drive) or a semiconductor memory. The video storage unit 101 stores, as digital data, video content compressed and encoded by a method such as MPEG-2 (Moving Picture Experts Group phase 2), MPEG-4, or H.264.

1.1.2 カット点検出部102
カット点検出部102は、映像記憶部101に記憶されている映像コンテンツを読み出して、映像中のカメラのオン・オフやカメラの切り替えや映像編集のつなぎ目によりシーンが切り替わる点(カット点)を自動的に検出する。検出したカット点をカット点記憶部103に記憶させる。また、検出したカット点を、カメラワーク検出部104へ出力する。なお、カット点の検出は、例えば隣接するフレームを比較して、フレームの色変化の変化量を測定し、変化量の差からカット点か否かを判定する方法などの、隣接するフレームが互いに著しく異なる画像特徴をもつものを探す等の従来技術により行うものとするが、これに限られるものではない。
1.1.2 Cut point detection unit 102
The cut point detection unit 102 reads out the video content stored in the video storage unit 101, and automatically determines the point (cut point) at which the scene is switched by turning on / off the camera, switching the camera, or editing the video in the video. Detect. The detected cut point is stored in the cut point storage unit 103. Further, the detected cut point is output to the camera work detection unit 104. The detection of the cut point is performed by comparing adjacent frames, for example, by measuring the amount of change in the color change of the frame and determining whether the cut point is based on the difference in the amount of change. Although it is performed by a conventional technique such as searching for an image having significantly different image characteristics, the present invention is not limited to this.

1.1.3 カット点記憶部103
カット点記憶部103は、カット点検出部102の検出結果に基づいて、カットの識別番号と、カットの切り替わりの開始点および終了点の時刻とを対応づけてカット点情報として記憶する。
1.1.4 カメラワーク検出部104
カメラワーク検出部104は、映像記憶部101に記憶されている映像コンテンツを読み出して、カット点検出部102が出力したカット点で区切られる映像区間のカメラワークを検出する。また、カメラワーク検出部104は、カット点で区切られる映像区間におけるカメラ振り速度も検出する。検出したカメラワークおよびカメラ振り速度をカメラワーク記憶部105に記憶させる。なお、カメラワークおよびカメラ振り速度の検出は、例えば、映像の移動ベクトルの変化を検知する等の従来技術により行うものとするが、これに限られるものではない。
1.1.3 Cut point storage unit 103
Based on the detection result of the cut point detection unit 102, the cut point storage unit 103 stores the cut identification number and the time of the start point and the end point of the cut change in association with each other as cut point information.
1.1.4 Camerawork detection unit 104
The camera work detection unit 104 reads the video content stored in the video storage unit 101 and detects the camera work in the video section divided by the cut points output by the cut point detection unit 102. The camera work detection unit 104 also detects the camera swing speed in the video section delimited by the cut points. The detected camera work and camera swing speed are stored in the camera work storage unit 105. The detection of camera work and camera swing speed is performed by a conventional technique such as detecting a change in a moving vector of a video, but is not limited thereto.

1.1.5 カメラワーク記憶部105
カメラワーク記憶部105は、カメラワーク検出部104の検出結果に基づいて、各カットのカメラワークとカメラ振り速度を対応づけてカメラワーク情報として記憶する。
1.1.6 カメラワーク計数部106
カメラワーク計数部106は、カメラワーク記憶部105から各カットのカメラワークを読み出して、各カットにおけるカメラワークの種類の数を計数する。計数したカメラワークの種類の数を、カメラパラメータ数として記憶し、イベント収束点特定部113へ出力する。なお、カメラパラメータ数を計数する処理については、後述する。
1.1.5 Camerawork storage unit 105
Based on the detection result of the camera work detection unit 104, the camera work storage unit 105 associates the camera work of each cut with the camera swing speed and stores it as camera work information.
1.1.6 Camerawork counting unit 106
The camera work counting unit 106 reads out the camera work of each cut from the camera work storage unit 105 and counts the number of types of camera work in each cut. The counted number of types of camera work is stored as the number of camera parameters, and is output to the event convergence point specifying unit 113. The process for counting the number of camera parameters will be described later.

1.1.7 テロップ検出部107
テロップ検出部107は、映像記憶部101に記憶されている映像コンテンツを読み出して、映像コンテンツ中のテロップを読み取る。読み取ったテロップの内容を認識して、認識した内容と、テロップ表示時刻とを対応づけてテロップ情報としてテロップ情報記憶部108に記憶させる。本実施形態のように、野球番組を対象とする場合、テロップ検出部107が認識するテロップとは、例えば、塁上のランナーを示すランナーテロップや、ストライクやボールやアウトなどのカウント数を示すSBOテロップや、各チームの得点を示す得点テロップや、投手が打者に対して投球を行ったときの球速を示す球速テロップなどである。各テロップの内容が表示されるごとに、その表示時刻を記憶する。なお、テロップの検出は、フレーム間で強いエッジの有無を判定する等の従来技術を用いるものとする。
1.1.7 Telop detection unit 107
The telop detection unit 107 reads the video content stored in the video storage unit 101 and reads the telop in the video content. The content of the read telop is recognized, and the recognized content and the telop display time are associated with each other and stored in the telop information storage unit 108 as telop information. As in this embodiment, when targeting a baseball program, the telop recognized by the telop detection unit 107 is, for example, a runner telop indicating a runner on the heel, or an SBO indicating a count number such as a strike, a ball, or an out There are a telop, a score telop indicating the score of each team, a ball speed telop indicating the speed of the ball when the pitcher pitches the batter. Each time the contents of each telop are displayed, the display time is stored. Note that telop detection uses a conventional technique such as determining the presence or absence of a strong edge between frames.

1.1.8 テロップ情報記憶部108
テロップ情報記憶部108は、テロップ検出部107の検出結果に基づいて、テロップ情報を記憶する。なお、テロップ情報については、後述する。
1.1.9 イベント発生検出部109
イベント発生検出部109は、テロップ情報記憶部108に記憶されているテロップ情報に基づいて、イベントの発生を検出する。検出したイベントの発生時刻を、イベントの識別番号と対応づけてイベント発生情報として記憶する。また、イベントの発生を検出すると、イベントの発生を、イベント発生情報取得部110へ通知する。
1.1.8 Telop information storage unit 108
The telop information storage unit 108 stores telop information based on the detection result of the telop detection unit 107. The telop information will be described later.
1.1.9 Event occurrence detection unit 109
The event occurrence detection unit 109 detects the occurrence of an event based on the telop information stored in the telop information storage unit 108. The occurrence time of the detected event is stored as event occurrence information in association with the event identification number. When the occurrence of an event is detected, the event occurrence information acquisition unit 110 is notified of the occurrence of the event.

1.1.10 イベント発生情報取得部110
イベント発生情報取得部110は、イベント発生検出部109からイベントの発生の通知を受け取ると、イベント発生検出部109からイベント発生情報を取得する。取得したイベント発生情報を、イベント収束点特定部113やイベント状況算出部111へ出力する。
1.1.10 Event occurrence information acquisition unit 110
When the event occurrence information acquisition unit 110 receives an event occurrence notification from the event occurrence detection unit 109, the event occurrence information acquisition unit 110 acquires event occurrence information from the event occurrence detection unit 109. The acquired event occurrence information is output to the event convergence point specifying unit 113 and the event status calculating unit 111.

1.1.11 イベント状況算出部111
イベント状況算出部111は、テロップ情報記憶部108に記憶されているテロップ情報と、イベント発生情報取得部110から出力されるイベント発生情報と、カメラワーク記憶部105に記憶されているカメラワーク情報とに基づいて、イベントの状況を示すイベント状況情報を算出する。算出したイベント状況情報を、イベント状況記憶部112に記憶させる。なお、イベントの状況とは、例えば、イベントの発生時刻において、塁上にランナーがいるか否か、イベントの発生によって打者が進塁した数、打者の打撃結果がヒットか凡打か等の、イベントの内容に関する情報のことをいう。イベント状況情報の算出処理については、後述する。
1.1.11. Event status calculation unit 111
The event status calculation unit 111 includes telop information stored in the telop information storage unit 108, event occurrence information output from the event occurrence information acquisition unit 110, and camera work information stored in the camera work storage unit 105. Based on the above, event status information indicating the status of the event is calculated. The calculated event status information is stored in the event status storage unit 112. The event status is, for example, whether or not there is a runner on the heel at the time of the event, the number of batters that have advanced due to the occurrence of the event, whether the hit result of the batter is a hit or a general hit, etc. Information about the content. The event status information calculation process will be described later.

1.1.12 イベント状況記憶部112
イベント状況記憶部112は、イベント状況算出部111によって算出されたイベント状況情報を記憶する。
1.1.13 イベント収束点特定部113
イベント収束点特定部113は、イベント発生情報取得部110から出力されるイベント発生情報や、カット点記憶部103から読み出すカット点情報や、カメラワーク記憶部105から読み出すカメラワーク情報や、カメラワーク計数部106から出力されるカメラパラメータ数や、イベント状況記憶部112から読み出すイベント状況情報などに基づいて、イベントとなる映像区間の収束点を特定する。特定した映像区間の収束点、およびイベント発生情報に示される映像区間の開始点をメタデータ記憶部114に記憶させる。収束点を特定する処理については、後述する。
1.1.12. Event status storage unit 112
The event status storage unit 112 stores event status information calculated by the event status calculation unit 111.
1.1.13 Event convergence point identification unit 113
The event convergence point specifying unit 113 includes event occurrence information output from the event occurrence information acquisition unit 110, cut point information read from the cut point storage unit 103, camera work information read from the camera work storage unit 105, and camera work count. Based on the number of camera parameters output from the unit 106, event status information read from the event status storage unit 112, and the like, the convergence point of the video section that becomes the event is specified. The convergence point of the specified video section and the start point of the video section indicated in the event occurrence information are stored in the metadata storage unit 114. The process for specifying the convergence point will be described later.

1.1.14 メタデータ記憶部114
メタデータ記憶部114は、映像区間の境界である、開始点および収束点を、イベントの識別番号と対応づけて、イベント収束点表として記憶する。
<データ>
1.2 データ
次に、映像区間決定装置1000において用いる各データについて、説明する。
1.1.14 Metadata storage unit 114
The metadata storage unit 114 stores the start point and the convergence point, which are the boundaries of the video section, in association with the event identification number as an event convergence point table.
<Data>
1.2 Data Next, each data used in the video section determination apparatus 1000 will be described.

1.2.1 カット点情報200
図2は、カット点情報200を示す図である。
カット点記憶部103が記憶しているカット点情報200は、カットの識別番号と、映像の切り替わりの開始点および終了点の時刻とを対応づけて記憶している。
同図に示すように、カット点情報200の1件のレコード(カット点情報200a、200b、・・・)は、カット番号21と、開始点22と、終了点23とを含む。
1.2.1 Cut Point Information 200
FIG. 2 is a diagram showing the cut point information 200.
The cut point information 200 stored in the cut point storage unit 103 stores a cut identification number and video switching start time and end time in association with each other.
As shown in the figure, one record of the cut point information 200 (cut point information 200a, 200b,...) Includes a cut number 21, a start point 22, and an end point 23.

カット番号21は、カット点情報200に含まれる各カットを識別する番号である。
開始点22は、カット番号21に示されるカットの開始時刻を示す。
終了点23は、カット番号21に示されるカットの終了時刻を示す。
なお、本実施形態では、時刻は何時間何分何秒何フレームと表す。例えば、01:12:19:00は、1時間12分19秒00フレームを表す。
The cut number 21 is a number for identifying each cut included in the cut point information 200.
The start point 22 indicates the cut start time indicated by the cut number 21.
The end point 23 indicates the cut end time indicated by the cut number 21.
In this embodiment, the time is expressed as hours, minutes, seconds and frames. For example, 01: 12: 19: 00 represents 1 hour 12 minutes 19 seconds 00 frames.

1.2.2 カメラワーク情報300
図3は、カメラワーク情報300およびカメラワークの種類を示す図である。
同図(a)は、カメラワーク情報300を示す。
カメラワーク記憶部105が記憶しているカメラワーク情報300は、カット点情報200のカット番号21により識別される各カットにおけるカメラワークとカメラ振り速度とを記憶している。
1.2.2 Camerawork information 300
FIG. 3 is a diagram showing camera work information 300 and types of camera work.
FIG. 4A shows camera work information 300.
The camera work information 300 stored in the camera work storage unit 105 stores the camera work and the camera swing speed in each cut identified by the cut number 21 of the cut point information 200.

同図(a)に示すように、カメラワーク情報300の1件のレコード(カメラワーク情報300a、300b、・・・)は、カット番号31と、カメラワーク32と、カメラ振り速度33とを含む。
カット番号31は、各カットを識別する番号である。カット番号31に示される値は、カット点情報200のカット番号21の値と対応している。すなわち、カット番号21の値が「100」のカットと、カット番号31の値が「100」のカットは、同一のカットを示す。
As shown in FIG. 6A, one record (camera work information 300a, 300b,...) Of the camera work information 300 includes a cut number 31, a camera work 32, and a camera swing speed 33. .
The cut number 31 is a number for identifying each cut. The value indicated by the cut number 31 corresponds to the value of the cut number 21 in the cut point information 200. That is, the cut with the cut number 21 value “100” and the cut with the cut number 31 value “100” indicate the same cut.

カメラワーク32は、各カットに含まれるカメラワークを示す。カメラワークについては、同図(b)で詳しく説明する。
なお、複数種類のカメラワークが同時に実行される場合、例えば右パンとズームINとが同時に実行される場合は、本実施形態の説明においては、「右パン+ズームIN」のように、各カメラワークの種類に「+」を付加して表すこととする。また、あるカットにおいて複数のカメラワークが含まれる場合、例えばカメラワークが固定の後、左パンする場合には、「固定→左パン」のように、各カメラワークの種類に「→」を付加して表すこととする。
The camera work 32 indicates the camera work included in each cut. The camera work will be described in detail with reference to FIG.
When multiple types of camera work are executed simultaneously, for example, when right pan and zoom IN are executed simultaneously, in the description of this embodiment, each camera is represented as “right pan + zoom IN”. The work type is represented by adding “+”. Also, if a camera cut includes multiple camera works, for example, if the camera work is fixed and then pans left, add “→” to each camera work type, as in “Fix → Left Pan”. It shall be expressed as

また、同図(a)のカット番号31が「101」のカットは、「右パン+ズームIN」のカメラワークと「左パンDown」のカメラワークとが含まれているいるが、本実施形態では、あるカットにおいて複数のカメラワークが含まれる場合、当該カットにおいて、各カメラワークが順に実行されるものとする。例えば、同図(a)のカット番号31が「101」の例では、「右パン+ズームIN」のカメラワークが実行された後に、「左パンDown」のカメラワークが実行されることを意味するものとする。   In addition, the cut with the cut number 31 “101” in FIG. 5A includes “right pan + zoom in” camera work and “left pan down” camera work. Then, when a plurality of camera works are included in a certain cut, it is assumed that each camera work is sequentially executed in the cut. For example, in the example in which the cut number 31 in FIG. 11A is “101”, this means that the camera work “left pan down” is executed after the camera work “right pan + zoom IN” is executed. It shall be.

カメラ振り速度33は、各カットにおけるカメラの振り速度を示す。カメラ振り速度は、例えば、予め定められた閾値に基づいて、閾値よりもカメラ振り速度が速い場合は「速い」、閾値よりもカメラ振り速度が遅い場合は「遅い」と記憶される。本実施形態のように、野球番組の場合においては、例えば、ヒット時等の打球をカメラが追いかけて撮影している場合のカメラ振り速度を「速い」とし、また、打者が三振等の後に歩いてベンチに帰るときの姿をカメラが撮影する場合のカメラ振り速度を「遅い」として記憶するよう、閾値を決定するものとする。   The camera swing speed 33 indicates the camera swing speed in each cut. The camera swing speed is stored, for example, as “fast” when the camera swing speed is faster than the threshold, and “slow” when the camera swing speed is slower than the threshold, based on a predetermined threshold. As in this embodiment, in the case of a baseball program, for example, the camera swing speed is set to “fast” when the camera follows the shot at the time of hit or the like, and the batter walks after the strike Then, the threshold value is determined so as to store the camera swing speed as “slow” when the camera captures the appearance when returning to the bench.

次に、カメラワークの種類について説明する。
同図(b)は、カメラワークの種類を示した表である。
一例を説明すると、カメラワークが「固定」とは、カメラの撮影方向が一定でパンやチルトやズームがないことをいう。
また、カメラワークが「ほぼ固定」とは、カメラの撮影方向がほぼ一定であることをいう。なお、ここで、カメラの撮影方向がほぼ一定とは、映像の動きが比較的小さいことをいう。ほぼ一定か否かは、例えば、映像の動きにより検出されるカメラ振り速度が所定の閾値よりも小さいか否かに基づいて決定することとしてもよい。
Next, the types of camera work will be described.
FIG. 4B is a table showing the types of camera work.
For example, the camera work is “fixed” means that the shooting direction of the camera is constant and there is no pan, tilt, or zoom.
Also, “almost fixed” camera work means that the shooting direction of the camera is substantially constant. Here, the fact that the shooting direction of the camera is almost constant means that the motion of the video is relatively small. Whether or not it is substantially constant may be determined based on, for example, whether or not the camera swing speed detected by the motion of the video is smaller than a predetermined threshold.

また、カメラワークが「放物線」とは、カメラの撮影方向をパンしながら、チルトUpとチルトDownのいずれか、または両方を行うことをいう。放物線となるカメラワークは、例えば、野球番組の場合、ホームランや外野フライ等の打球をカメラが撮影する場合に用いられる。
その他のカメラワーク、例えばパンやズーム、チルト等は同図に示すとおりであり、説明を省略する。
Also, the camera work “parabola” means that tilting up or tilting down or both is performed while panning the shooting direction of the camera. For example, in the case of a baseball program, the camera work serving as a parabola is used when the camera shoots a hit ball such as a home run or an outfield fly.
Other camera work such as panning, zooming, and tilting is as shown in FIG.

1.2.3 テロップ情報400
図4は、テロップ情報400を示す図である。
テロップ情報記憶部108が記憶しているテロップ情報400は、塁上ランナーテロップ41と、SBOテロップ42と、得点テロップ43と、球速テロップ44とを含む。
塁上ランナーテロップ41は、塁上の走者を示すテロップが、何時何分何秒何フレームに表示されたかを、表示内容とともに示す。表示内容とは、本実施形態では、塁ごとに、各塁に走者がいるとテロップに表示された場合を「1」、走者がいないとテロップに表示された場合を「0」とする。テロップが表示されるごとに、その表示時刻および表示内容を記憶する。同図の例では、01:13:35:00に、1塁・3塁には走者なし、2塁には走者がいることを示すテロップが表示されたことを示す。なお、通常、1塁・2塁・3塁に走者がいるか否かのテロップは、同時に表示される。逆に言えば、例えば、2塁・3塁に走者がいるか否かのテロップを表示せず、1塁に走者がいるか否かのテロップのみを表示するということは通常行われない。そのため、同図に示すように、1塁・2塁・3塁の各塁の走者を示すテロップは、同時刻(01:13:35:00)に更新される。
1.2.3 Ticker information 400
FIG. 4 is a diagram showing the telop information 400.
The telop information 400 stored in the telop information storage unit 108 includes the uphill runner telop 41, the SBO telop 42, the score telop 43, and the ball speed telop 44.
The heel runner telop 41 indicates the hour, minute, second and frame in which the telop indicating the runner on the heel is displayed along with the display contents. In the present embodiment, the display content is “1” for each heel when the runner is displayed on each heel and “0” when the terop is displayed when there is no runner. Each time a telop is displayed, its display time and display contents are stored. In the example of the figure, it is shown that at 01: 13: 35: 00, a telop indicating that there is no runner on 1st and 3rd bases and that there is a runner on 2nd base is displayed. Normally, a telop indicating whether or not there are runners on the 1st, 2nd, and 3rd bases is displayed at the same time. In other words, for example, it is not normally performed to display only the telop indicating whether or not there is a runner in the first base without displaying the telop indicating whether or not there is a runner in the second or third base. Therefore, as shown in the figure, the telop indicating the runners of the 1st, 2nd, and 3rd bases is updated at the same time (01: 13: 35: 00).

SBOテロップ42は、ストライクやボールやアウトのカウント数を示すテロップが、いつ表示されたかを、表示内容とともに示す。「S」はストライク、「B」はボール、「O」はアウトのカウントを示す。例えば、ボールのカウントは、01:11:52:00に「0」が記憶され、その後、01:12:49:00に「1」が記憶されている。
得点テロップ43は、得点を示すテロップがいつ表示されたかを、表示内容とともに示す。表示内容とは、得点である。同図の例では、01:13:33:00に、1点を示す得点テロップが表示されたことを示す。
The SBO telop 42 indicates when the telop indicating the number of strikes, balls, and outs is displayed together with the display contents. “S” indicates a strike, “B” indicates a ball, and “O” indicates an out count. For example, as for the ball count, “0” is stored at 01: 11: 52: 00, and then “1” is stored at 01: 12: 49: 00.
The score telop 43 indicates when the telop indicating the score is displayed together with the display content. The display content is a score. In the example shown in the figure, a score telop indicating one point is displayed at 01: 13: 33: 00.

球速テロップ44は、投手の投じたボールの球速を示す球速テロップが表示された回数とともに、球速テロップの表示がいつ更新されたかを示す。
1.2.4 イベント発生情報500
図5は、イベント発生情報500を示す図である。
イベント発生検出部109が記憶しているイベント発生情報500は、イベントの発生時刻を、イベントを識別する番号とともに記憶している。
The ball speed telop 44 indicates when the display of the ball speed telop is updated together with the number of times the ball speed telop indicating the ball speed of the ball thrown by the pitcher is displayed.
1.2.4 Event occurrence information 500
FIG. 5 is a diagram showing the event occurrence information 500.
The event occurrence information 500 stored in the event occurrence detection unit 109 stores the event occurrence time together with a number for identifying the event.

同図に示すように、イベント発生情報500の1件のレコード(イベント発生情報500a、500b、・・・)は、イベントID51と、イベント発生時刻52とを含む。
イベントID51は、各イベントを識別する番号である。
イベント発生時刻52は、各イベントが何時何分何秒何フレームに発生したかを示す。
1.2.5 イベント状況情報600
図6は、イベント状況情報600を示す図である。
As shown in the figure, one record of event occurrence information 500 (event occurrence information 500a, 500b,...) Includes an event ID 51 and an event occurrence time 52.
The event ID 51 is a number for identifying each event.
The event occurrence time 52 indicates at what hour / minute / second / frame.
1.2.5 Event status information 600
FIG. 6 is a diagram showing the event status information 600.

イベント状況記憶部112が記憶しているイベント状況情報600は、各イベントの状況を記憶している。イベント状況情報600の1件のレコード(イベント状況情報600a、600b、・・・)は、イベントID61と、発生前塁上走者62と、打者進塁数63と、イベント種別64とを含む。
イベントID61は、各イベントを識別する番号である。イベントID61に示される値は、イベント発生情報500のイベントID51の値と対応している。
The event status information 600 stored in the event status storage unit 112 stores the status of each event. One record of the event status information 600 (event status information 600a, 600b,...) Includes an event ID 61, a pre-occurrence runner 62, a batter advance number 63, and an event type 64.
The event ID 61 is a number for identifying each event. The value indicated by event ID 61 corresponds to the value of event ID 51 of event occurrence information 500.

発生前塁上走者62は、イベント発生時刻において、塁上に走者がいるか否かを示す。塁上に走者がいる場合を、走者「あり」、走者がいない場合を走者「なし」と示す。
打者進塁数63は、イベントの発生によって、打者がどれだけ進塁したかを示す。打者が進塁した進塁数に応じて、「進塁無し」「1塁」「2塁」「3塁」「本塁」を記憶する。例えば、打者進塁数63が「2塁」のときは、打者が2塁まで進塁したことを示す。
The pre-occurrence heel runner 62 indicates whether or not there is a runner on the heel at the event occurrence time. When there is a runner on the heel, the runner is “present”, and when there is no runner, the runner is “none”.
The batter advance number 63 indicates how much the batter has advanced due to the occurrence of the event. “No advance”, “1”, “2”, “3” and “main” are stored according to the number of advances made by the batter. For example, when the batter advance number 63 is “2”, it indicates that the batter has advanced to 2 km.

イベント種別64は、イベントの種別を示す。イベントの種別には、「ヒット」「凡打」「その他」の3種類がある。「ヒット」とは、打者が安打を放ったことを示す。「凡打」とは、打者が凡退したことを示す。「その他」は、イベントの種別が「ヒット」「凡打」以外であることを示す。
1.2.6 カメラパラメータ数700
図7は、カメラパラメータ数700を示す図である。
The event type 64 indicates the type of event. There are three types of events: “hit”, “general hit”, and “other”. “Hit” indicates that the batter has released a hit. “Most hit” indicates that the batter has retreated. “Other” indicates that the event type is other than “hit” or “general hit”.
1.2.6 700 camera parameters
FIG. 7 is a diagram showing the camera parameter number 700.

カメラワーク計数部106が記憶するカメラパラメータ数700は、カメラワークごとに、カメラワークの種類の数を記憶している。カメラパラメータ数700の1件のレコード(カメラパラメータ数700a、700b、・・・)は、カット番号71と、カメラワーク72と、カメラパラメータ数73とを含む。
カット番号71は、各カットを識別する番号である。カット番号71に示される値は、カット点情報200のカット番号21の値と対応している。
The camera parameter number 700 stored by the camera work counting unit 106 stores the number of types of camera work for each camera work. One record of the camera parameter number 700 (camera parameter number 700a, 700b,...) Includes a cut number 71, a camera work 72, and a camera parameter number 73.
The cut number 71 is a number for identifying each cut. The value indicated by the cut number 71 corresponds to the value of the cut number 21 in the cut point information 200.

カメラワーク72は、各カットに含まれるカメラワークを示す。詳細はカメラワーク情報300のカメラワーク32と同一であるため説明を省略する。
カメラパラメータ数73は、カメラワークの種類の数を示す。例えば、カメラワークが「右パン+放物線→ズームIN」の場合、カメラワークは、右パンと、放物線と、ズームINの3つなので、カメラパラメータ数73は「3」である。また、カメラワークが「固定」であれば、カメラワークは固定の1つなので、カメラパラメータ数73は「1」である。
The camera work 72 indicates the camera work included in each cut. Since details are the same as the camera work 32 of the camera work information 300, the description is omitted.
The camera parameter number 73 indicates the number of types of camera work. For example, when the camera work is “right pan + parabola → zoom in”, the camera work number 73 is “3” because there are three camera works: right pan, parabola, and zoom in. If the camera work is “fixed”, the camera work number 73 is “1” because the camera work is one fixed.

1.2.7 イベント収束点表800
図8は、イベント収束点表800を示す図である。
メタデータ記憶部114が記憶するイベント収束点表800は、イベントごとに、その映像区間の収束点の時刻を記憶している。
イベント収束点表800の1件のレコード(イベント収束点表800a、800b、・・・)は、イベントID81と、イベント収束点82とを含む。
1.2.7 Event Convergence Point Table 800
FIG. 8 shows an event convergence point table 800.
The event convergence point table 800 stored in the metadata storage unit 114 stores the time of the convergence point of the video section for each event.
One record (event convergence point table 800a, 800b,...) Of the event convergence point table 800 includes an event ID 81 and an event convergence point 82.

イベントID81は、各イベントを識別する番号である。イベントID81に示される値は、イベント発生情報500のイベントID51の値と対応している。
イベント収束点82は、各イベントの収束する時刻を示している。
<動作>
1.3 動作
次に、映像区間決定装置の動作について説明する。
The event ID 81 is a number for identifying each event. The value indicated by event ID 81 corresponds to the value of event ID 51 of event occurrence information 500.
The event convergence point 82 indicates the time at which each event converges.
<Operation>
1.3 Operation Next, the operation of the video section determination device will be described.

1.3.1 映像区間決定装置の動作
図9は、映像区間決定装置1000の動作を示すフローチャートである。
同図に示すように、映像区間決定装置1000のカット点検出部102は、映像記憶部101から映像コンテンツを読み出して、カット点を検出する。検出したカット点を、カット点情報200としてカット点記憶部103に記憶させる(ステップS901)。また、検出したカット点をカメラワーク検出部104へ出力する。
1.3.1 Operation of Video Section Determination Device FIG. 9 is a flowchart showing the operation of the video section determination device 1000.
As shown in the figure, the cut point detection unit 102 of the video section determination device 1000 reads video content from the video storage unit 101 and detects a cut point. The detected cut point is stored in the cut point storage unit 103 as cut point information 200 (step S901). Further, the detected cut point is output to the camera work detection unit 104.

カメラワーク検出部104は、映像記憶部101から映像コンテンツを読み出して、各カットのカメラワークを検出する。検出したカメラワークを、カメラワーク情報300として、カメラワーク記憶部105に記憶させる(ステップS902)。
また、テロップ検出部107は、映像記憶部101から映像コンテンツを読み出して、映像コンテンツ中のテロップを読み取り、テロップ情報400としてテロップ情報記憶部108に記憶させる(ステップS903)。
The camera work detection unit 104 reads video content from the video storage unit 101 and detects the camera work of each cut. The detected camera work is stored in the camera work storage unit 105 as camera work information 300 (step S902).
Further, the telop detection unit 107 reads video content from the video storage unit 101, reads the telop in the video content, and stores it as telop information 400 in the telop information storage unit 108 (step S903).

イベント発生検出部109は、テロップ情報記憶部108に記憶されているテロップ情報400に基づいて、イベントの発生を検出する処理を行うが、イベント発生検出部109による検出が行われるまで(ステップ904:NO)、逐次、カット点の検出、カメラワークの検出、テロップの検出等の処理(ステップS901、ステップS902、ステップS903)が行われる。なお、イベント発生検出部109によるイベントの発生の検出処理は、後述する「1.3.2 イベント発生検出処理」で詳しく説明する。   The event occurrence detection unit 109 performs processing for detecting the occurrence of an event based on the telop information 400 stored in the telop information storage unit 108, but until the event occurrence detection unit 109 detects the event (step 904: NO), sequential processing (step S901, step S902, step S903) such as cut point detection, camera work detection, telop detection, and the like are performed. The event occurrence detection process by the event occurrence detection unit 109 will be described in detail in “1.3.2 Event occurrence detection process” described later.

イベント発生検出部109は、イベントの発生を検出すると、検出結果をイベント発生情報500として記憶し、イベントの発生をイベント発生情報取得部110へ通知する(ステップS905)。
イベント発生情報取得部110は、イベント発生検出部109からの通知を受け付けると、イベント発生検出部109が記憶しているイベント発生情報500を取得する。取得したイベント発生情報500を、イベント収束点特定部113およびイベント状況算出部111へ出力する。
When the event occurrence detection unit 109 detects the occurrence of an event, the event occurrence detection unit 109 stores the detection result as event occurrence information 500, and notifies the event occurrence information acquisition unit 110 of the occurrence of the event (step S905).
When receiving the notification from the event occurrence detection unit 109, the event occurrence information acquisition unit 110 acquires the event occurrence information 500 stored in the event occurrence detection unit 109. The acquired event occurrence information 500 is output to the event convergence point identification unit 113 and the event status calculation unit 111.

イベント状況算出部111は、テロップ情報記憶部108に記憶されているテロップ情報400と、イベント発生情報取得部110から出力されるイベント発生情報500とに基づいて、イベントの状況を算出する。算出結果を、イベント状況情報600として、イベント状況記憶部112に記憶させる(ステップS906)。なお、イベント状況算出部111による算出処理は、後述する「1.3.3 イベント状況算出処理」で詳しく説明する。   The event status calculation unit 111 calculates the event status based on the telop information 400 stored in the telop information storage unit 108 and the event occurrence information 500 output from the event occurrence information acquisition unit 110. The calculation result is stored in the event status storage unit 112 as event status information 600 (step S906). The calculation process by the event situation calculation unit 111 will be described in detail in “1.3.3 Event situation calculation process” described later.

イベント状況算出部111による算出処理が行われると、イベント収束点特定部113は、イベント発生情報取得部110から受け付けたイベント発生情報500に示されるイベントの収束点を決定する(ステップS907)。イベントの収束点を決定すると、決定した収束点を、イベントIDと対応づけて、メタデータ記憶部114に記憶させる。なお、イベント状況算出部111による、イベントの収束点の決定処理は、後述する「1.3.4 イベント収束点決定処理」で詳しく説明する。   When the calculation process by the event situation calculation unit 111 is performed, the event convergence point specifying unit 113 determines the convergence point of the event indicated in the event occurrence information 500 received from the event occurrence information acquisition unit 110 (step S907). When the event convergence point is determined, the determined convergence point is stored in the metadata storage unit 114 in association with the event ID. The event convergence point determination process by the event situation calculation unit 111 will be described in detail in “1.3.4 Event convergence point determination process” described later.

イベント収束点特定部113がイベントの収束点を決定すると、映像区間決定装置1000は、ステップS901以降の一連の処理を繰り返し行う。
1.3.2 イベント発生検出処理
次に、ステップS904における、イベント発生検出部109によるイベントの発生の検出処理について、詳しく説明する。
When the event convergence point specifying unit 113 determines the event convergence point, the video section determination device 1000 repeatedly performs a series of processes from step S901 onward.
1.3.2 Event Occurrence Detection Processing Next, the event occurrence detection processing by the event occurrence detection unit 109 in step S904 will be described in detail.

図10は、イベント発生検出部109がイベントの発生を検出する処理を示すフローチャートである。
本実施形態では、塁上のランナーに変化があったり、アウトカウントが増加したり、得点が加算されたりした場合に、イベントの発生があったと推定してイベント発生時刻を決定する。
FIG. 10 is a flowchart illustrating a process in which the event occurrence detection unit 109 detects the occurrence of an event.
In this embodiment, when the runner on the heel changes, when the outcount increases, or when a score is added, it is estimated that an event has occurred and the event occurrence time is determined.

以下、具体的に説明すると、イベント発生検出部109は、テロップ情報記憶部108に記憶されているテロップ情報400の、塁上ランナーテロップ41、SBOテロップ42のアウトカウントを示す項目、得点テロップ43の表示内容が更新されたか否かを逐次判断している(ステップS1001、ステップS1002、ステップS1003)。更新がないと判断された場合は(ステップS1001:NO、ステップS1002:NO、ステップS1003:NO)、イベント発生検出部109は、ステップS904において、イベント発生を検出しなかったと判断する(ステップS904:NO)。   The event occurrence detection unit 109 will be described in detail below. The event occurrence detection unit 109 includes an item indicating the outcount of the uphill runner telop 41 and the SBO telop 42 in the telop information 400 stored in the telop information storage unit 108. It is sequentially determined whether or not the display content has been updated (step S1001, step S1002, and step S1003). When it is determined that there is no update (step S1001: NO, step S1002: NO, step S1003: NO), the event occurrence detection unit 109 determines that no event occurrence has been detected in step S904 (step S904: NO).

一方、塁上ランナーテロップ41が更新されたり(ステップS1001:YES)、SBOテロップ42のアウトカウントを示す項目が更新されたり(ステップS1002:YES)、得点テロップ43が更新されたりすると(ステップS1003:YES)、イベント発生検出部109は、更新にかかるテロップが表示された時刻より以前に表示された球速テロップ44のうち、更新にかかるテロップが表示された時刻に最も直近に表示された球速テロップの表示時刻を、イベント発生時刻に設定する。このとき、イベントを識別するIDも付与して、イベント発生情報500として記憶する(ステップS1004)。また、ステップS904において、イベント発生を検出したと判断する(ステップS904:YES)。   On the other hand, when the uphill runner telop 41 is updated (step S1001: YES), the item indicating the outcount of the SBO telop 42 is updated (step S1002: YES), or the score telop 43 is updated (step S1003: YES), the event occurrence detection unit 109 selects the ball speed telop displayed most recently at the time when the updated telop is displayed among the ball speed telops 44 displayed before the time when the updated telop is displayed. Set the display time to the event occurrence time. At this time, an ID for identifying the event is also given and stored as event occurrence information 500 (step S1004). In step S904, it is determined that an event has been detected (step S904: YES).

図4に示すテロップ情報400の例で説明すると、得点テロップ43が、01:13:33:00に更新されている(ステップS1003:YES)ので、更新にかかるテロップが表示された時刻01:13:33:00より以前に表示された球速テロップ44のうち、更新にかかるテロップが表示された時刻に最も直近に表示された球速テロップの表示時刻01:12:49:00を、イベント発生時刻に設定する。   In the example of the telop information 400 shown in FIG. 4, since the score telop 43 is updated at 01: 13: 33: 00 (step S1003: YES), the time when the updated telop is displayed 01:13 : Of the ball speed telops 44 displayed before 33:00, the most recent ball speed telop display time 01: 12: 49: 00 at the time when the update telop was displayed is set as the event occurrence time. Set.

1.3.3 イベント状況算出処理
次に、ステップS906における、イベント状況算出部111によるイベント状況の算出処理について、詳しく説明する。
イベント状況算出部111は、テロップ情報400、イベント発生情報500、カメラワーク情報300に基づいてイベント状況を算出して、イベント状況情報600を更新する。
1.3.3 Event Status Calculation Processing Next, the event status calculation processing by the event status calculation unit 111 in step S906 will be described in detail.
The event status calculation unit 111 calculates the event status based on the telop information 400, the event occurrence information 500, and the camera work information 300, and updates the event status information 600.

図11は、イベント状況算出部111が、イベント状況を算出する処理を示すフローチャートである。
イベント状況算出部111は、イベント発生情報取得部110から出力されるイベント発生情報500を受け付けて、イベントの発生時刻を取得する。テロップ情報記憶部108に記憶されているテロップ情報400の塁上ランナーテロップ41から、イベントの発生時刻において、塁上に走者がいるか否かを判断する(ステップS1101)。
FIG. 11 is a flowchart illustrating a process in which the event status calculation unit 111 calculates an event status.
The event status calculation unit 111 receives the event occurrence information 500 output from the event occurrence information acquisition unit 110 and acquires the event occurrence time. It is determined from the uphill runner telop 41 of the telop information 400 stored in the telop information storage unit 108 whether or not there is a runner on the uphill at the event occurrence time (step S1101).

具体的には、イベント状況算出部111は、イベントの発生時刻より以前に表示されているランナーテロップ41のうち、イベント発生時刻に直近のものを検出する。検出の対象となったテロップが、1塁・2塁・3塁の各塁の少なくとも1つに走者がいることを示すものであるか否かを判断する。
検出の対象となったテロップが、塁上に走者がいることを示すものである場合は、イベント状況算出部111は、イベントの発生時刻において塁上に走者がいると判断する(ステップS1101:YES)。一方、検出の対象となったテロップが、塁上に走者がいないことを示すものである場合、イベント状況算出部111は、イベントの発生時刻において塁上にランナーがいないと判断する(ステップS1101:NO)。
Specifically, the event status calculation unit 111 detects a runner telop 41 displayed before the event occurrence time, the one closest to the event occurrence time. It is determined whether or not the detected telop indicates that a runner is present in at least one of the first, second, and third bases.
If the detected telop indicates that there is a runner on the heel, the event status calculation unit 111 determines that there is a runner on the heel at the event occurrence time (step S1101: YES). ). On the other hand, when the detected telop indicates that there is no runner on the heel, the event status calculation unit 111 determines that there is no runner on the heel at the event occurrence time (step S1101: NO).

イベント状況算出部111は、イベント発生時刻において、塁上に走者がいると判断すると(ステップS1101:YES)、イベントを識別するイベントID61と対応づけて、イベント状況情報600の発生前塁上走者61を「あり」に設定する。なお、イベント発生時刻において、塁上にランナーがいないと判断した場合は(ステップS1101:NO)、発生前塁上走者61を「なし」に設定する。   When the event situation calculation unit 111 determines that there is a runner on the heel at the event occurrence time (step S1101: YES), the event situation calculation unit 111 associates the event with the event ID 61 that identifies the event, and the pre-occurrence heel runner 61 of the event situation information 600 Is set to “Yes”. If it is determined that there is no runner on the heel at the event occurrence time (step S1101: NO), the pre-occurrence heel runner 61 is set to “none”.

イベント状況算出部111は、発生前塁上走者61の設定の次に、テロップ情報400のSBOテロップ42を参照して、アウトカウントに変化があったか否かを判断する(ステップS1103)。
具体的には、球速テロップ44の、イベントID61に示されるイベント発生時刻となる球速テロップの表示時刻から、後続する次の球速テロップの表示時刻までの間に、SBOテロップ42のアウトカウントを示すテロップの表示内容に変化があるか否かを判断する。
The event situation calculation unit 111 refers to the SBO telop 42 of the telop information 400 after the setting of the pre-occurrence saddle runner 61, and determines whether or not the outcount has changed (step S1103).
Specifically, a telop indicating the out count of the SBO telop 42 between the display time of the ball speed telop that is the event occurrence time indicated by the event ID 61 of the ball speed telop 44 and the display time of the next subsequent ball speed telop. It is determined whether there is a change in the display content of.

変化があると判断すると(ステップS1103:YES)、イベントID61と対応づけて、打者進塁数63を「なし」に設定する。また、イベント種別64を、「凡打」と設定する(ステップS1104)。その後、ステップS1105の処理を行う。
ステップS1103において、変化がないと判断すると(ステップS1103:NO)、ステップS1105の処理を行う。
If it is determined that there is a change (step S1103: YES), the batter advance number 63 is set to “none” in association with the event ID 61. Further, the event type 64 is set to “general hit” (step S1104). Thereafter, the process of step S1105 is performed.
If it is determined in step S1103 that there is no change (step S1103: NO), the process of step S1105 is performed.

ステップS1103の処理の後において、イベント状況算出部111は、塁上の走者に変化があったか否かを判断する(ステップS1105)。
具体的には、球速テロップ44の、イベントID61に示されるイベント発生時刻となる球速テロップの表示時刻から、後続する次の球速テロップの表示時刻までの間に、テロップ情報400の塁上ランナーテロップ41に示される、塁上の走者を示すテロップの表示内容に変化があったか否かを判断する。
After the process of step S1103, the event status calculation unit 111 determines whether or not the runner on the saddle has changed (step S1105).
Specifically, the uphill runner telop 41 of the telop information 400 is displayed between the time when the ball speed telop 44 becomes the event occurrence time indicated by the event ID 61 and the time when the next ball speed telop is displayed. It is determined whether or not the display content of the telop indicating the runner on the heel has changed.

ステップS1105において、塁上の走者に変化がないと判断した場合は(ステップS1105:NO)、処理を終了する。なお、この場合において、打者進塁数63およびイベント種別64の設定が行われていないときは、イベント状況算出部111は、打者進塁数63を「進塁無し」、イベント種別64を「その他」に設定する。
ステップS1105において、塁上の走者に変化があったと判断した場合は(ステップS1105:YES)、イベント状況算出部111は、イベント発生時刻に基づいて、カット点記憶部103に記憶されているカット点情報200から、イベント発生時刻が含まれるカットのカット番号を取得する。取得したカット番号に示されるカットまたはそのカットに後続する所定のカットのカメラ振り速度を、カメラワーク記憶部105に記憶されているカメラワーク情報300のカメラ振り速度33から取得する。取得したカメラ振り速度が「速い」か否かを判断する(ステップS1106)。
If it is determined in step S1105 that there is no change in the runner on the heel (step S1105: NO), the process is terminated. In this case, when the batter advance number 63 and the event type 64 are not set, the event status calculation unit 111 sets the batter advance number 63 to “no advance” and the event type 64 to “others”. To "".
If it is determined in step S1105 that the runner on the heel has changed (step S1105: YES), the event status calculation unit 111 stores the cut points stored in the cut point storage unit 103 based on the event occurrence time. From the information 200, the cut number of the cut including the event occurrence time is acquired. The camera swing speed of the cut indicated by the acquired cut number or a predetermined cut subsequent to the cut is acquired from the camera swing speed 33 of the camera work information 300 stored in the camera work storage unit 105. It is determined whether or not the acquired camera swing speed is “fast” (step S1106).

具体的には、例えば、所定のカットを、イベント発生時刻が含まれるカットに後続する、次のカットとし、当該次のカットのカメラ振り速度が「速い」であるか否かを判断する。
取得したカメラ振り速度が「速い」である場合は(ステップS1106:YES)、イベントIDと対応づけて、イベント種別64を「ヒット」と設定する。また、イベント発生時刻に示される球速テロップの表示時刻から、後続する次の球速テロップの表示時刻までの間における、塁上ランナーテロップ41の更新内容に基づいて、打者進塁数63をイベントIDと対応づけて設定して、処理を終了する(ステップS1107)。
Specifically, for example, a predetermined cut is set as the next cut following the cut including the event occurrence time, and it is determined whether the camera swing speed of the next cut is “fast”.
If the acquired camera swing speed is “fast” (step S1106: YES), the event type 64 is set to “hit” in association with the event ID. In addition, the batter advance number 63 is set as the event ID based on the updated content of the uphill runner telop 41 from the display time of the ball speed telop shown in the event occurrence time to the display time of the next subsequent ball speed telop. The settings are made in association with each other, and the process ends (step S1107).

打者進塁数63の設定は、具体的には、塁上ランナーテロップ41において、どの塁に走者がいることを示しているかによって行う。例えば、図4のテロップ情報400の例で説明すると、塁上ランナーテロップ41は、2塁に走者がいることを示している。したがって、この場合、打者進塁数63を「2塁」と設定する。
なお、複数の塁に走者がいることを示している場合は、打者進塁数63の設定は、表示内容に応じて、「1塁」を最優先とし、次いで「2塁」を優先するものとする。例えば、塁上ランナーテロップ41が1塁および2塁に走者がいることを示している場合は、打者進塁数63の設定は、1塁を優先して「1塁」とする。同様に、塁上ランナーテロップ41が1塁および3塁に走者がいることを示している場合は、打者進塁数63の設定を「1塁」とする。また、塁上ランナーテロップ41が2塁および3塁に走者がいることを示している場合は、2塁を優先して打者進塁数63を「2塁」と設定する。
Specifically, the batter advance number 63 is set according to which saddle the runner telop 41 indicates that there is a runner. For example, referring to the example of the telop information 400 in FIG. 4, the upper runner telop 41 indicates that there is a runner on the second base. Therefore, in this case, the batter advance number 63 is set to “2”.
If there are multiple runners indicating runners, the batter advance number 63 is set so that “1” is given the highest priority and “2” is given the highest priority according to the display contents. And For example, if the runner-up runner telop 41 indicates that there are runners on the first and second bases, the batter advance number 63 is set to “1 base” with priority on the base one. Similarly, when the runner-up runner telop 41 indicates that there are runners on the first and third bases, the batter advance number 63 is set to “1 base”. Also, if the runner-up telop 41 indicates that there are runners on the second and third bases, the batter advance number 63 is set to “2 bases” giving priority to the two bases.

ステップS1106において、取得したカメラ振り速度が「速い」ではない場合(ステップS1106:NO)、イベントIDと対応づけて、イベント種別64を「その他」と設定する。また、上述と同様にして、打者進塁数63を、イベントIDと対応づけて設定して、処理を終了する(ステップS1108)。
1.3.4 イベント収束点決定処理
以上のようにして、映像区間決定装置1000は、イベント発生検出処理や、イベント状況算出処理を行って、イベント発生情報500や、イベント状況情報600を更新する。
If the acquired camera swing speed is not “fast” in step S1106 (step S1106: NO), the event type 64 is set to “other” in association with the event ID. In the same manner as described above, the batter advance number 63 is set in association with the event ID, and the process ends (step S1108).
1.3.4 Event Convergence Point Determination Process As described above, the video section determination device 1000 performs the event occurrence detection process and the event situation calculation process to update the event occurrence information 500 and the event situation information 600. .

イベント収束点特定部113は、イベント発生情報500から、イベントIDと、イベント発生時刻を取得し、カット点情報200に基づいて、イベント発生時刻を含むカットを特定する。特定したカットを第1カットとする。第1カットに後続するカットを、順に第2カット、第3カット、第4カット、・・と呼ぶものとする。
また、各イベントの収束点までの定義を、図12のように定めるとする。
The event convergence point specifying unit 113 acquires the event ID and the event occurrence time from the event occurrence information 500, and identifies a cut including the event occurrence time based on the cut point information 200. The identified cut is defined as the first cut. Cuts subsequent to the first cut are referred to as second cut, third cut, fourth cut,.
Further, the definition of each event up to the convergence point is defined as shown in FIG.

図12は、各イベントの収束点までの定義を示す図である。
例えば、イベント名「四球」と「死球」と「三振」とを比較すると、各イベントの収束点までの定義は、同図に示すように、「四球」の場合は、投手が投球を開始してから、投球がボールになるまでである。「死球」の場合は、投手が投球を開始してから、投球が打者に当たるまでである。また、「三振」の場合は、投手が投球を開始してから、打者が空振り(または見送り)するまでである。
FIG. 12 is a diagram illustrating the definition of each event up to the convergence point.
For example, when comparing the event names “four balls”, “dead ball” and “three strikes”, the definition up to the convergence point of each event is “four balls” as shown in the figure. Until the pitch becomes a ball. In the case of “dead ball”, it is from when the pitcher starts pitching until the pitch hits the batter. Further, in the case of “three strikes”, it is from the pitcher starts pitching until the batter swings (or sees off).

このとき、「四球」「死球」「三振」の各イベントの第1カットは、投手が投球を開始してボールを投じて、投球がボールになったり、投球が打者に当たったり、打者が空振り(または見送り)するところまでを撮しており、カメラワークは固定である。
次の第2カットでは、打者がベンチに歩いて帰っていく様子をアップにして撮したカットや、打者を三振に仕留めたマウンドの投手を撮したカットである場合が多い。そのため、そのカットにおけるカメラ振り速度は、打球を撮したカットにおけるカメラ振り速度と比較して遅い場合が多い。
At this time, the first cut of each event of “four balls”, “dead ball” and “three strikes” is that the pitcher starts throwing and throws the ball, the throw becomes a ball, the throw hits the batter, I'm shooting up to (or seeing off) and the camerawork is fixed.
The next second cut is often a cut taken with the batter walking up to the bench and taking a picture of the pitcher of the mound with the batter fixed in strike. For this reason, the camera swing speed in the cut is often slower than the camera swing speed in the cut that shot the hit ball.

このように、イベントごとに、カメラワークには特徴がある。その特徴を、図13に示す。
図13は、各イベントのカメラワークの特徴の、一例を示した図である。
各イベントの第1カットは、いずれも固定である。このカットでは、球場のセンターに設置されたカメラから、投手および打者を撮した映像が表示されている。これに対し、第2カット以降のカメラワークおよびカメラ振り速度は、イベントごとに特徴がある。
In this way, camera work has a characteristic for each event. Its characteristics are shown in FIG.
FIG. 13 is a diagram illustrating an example of camera work characteristics of each event.
The first cut of each event is fixed. In this cut, an image of the pitcher and batter is displayed from a camera installed at the center of the stadium. On the other hand, the camera work and the camera swing speed after the second cut are characteristic for each event.

例えば、「三振」「四球」「死球」の各イベントの第2カットは、1塁ベンチ付近のカメラから、三振や四球や死球後の打者の様子を撮したものが多く、いずれもカメラ振り速度が遅い。また、カメラワークは「ほぼ固定」や「左パン」や「右パン+ズームIN」や「固定→左パン」や「右パン」である。
これに対し、「ヒット」「ホームラン」「凡打(フライ)」の各イベントは、第2カット以降でカメラが打球を追いかけるカットが含まれるので、カメラ振り速度が速く、そのカメラワークは「右パン+放物線→ズームIN」や「右パン→ズームIN」などであり、「三振」等とは異なる。
For example, the second cut of each event of “Three Strikes”, “Four Balls”, and “Dead Balls” is often taken from the camera near the 1st bench, and the shots of the batters after the third strike, the fourth ball, and the dead ball are taken. Is slow. Camera work is “almost fixed”, “left pan”, “right pan + zoom in”, “fixed → left pan”, and “right pan”.
On the other hand, each event of “hit”, “home run”, and “normal hit (fly)” includes a cut in which the camera follows the hit ball after the second cut, so the camera swing speed is high, and the camera work is “right pan” + Parabola → Zoom IN "or" Right Pan → Zoom IN ", etc.

そこで、これら各イベントのカメラワークの特徴に着目して、各イベントの収束点を決定する。図12の各イベントの定義に基づいて、「三振」「四球」「死球」の場合の収束点は、第1カットの終了点とする。「ヒット」「ホームラン」「凡打(フライ)」の場合の収束点は、第2カット以降とする。
このように収束点を決定する理由は、「三振」等の場合は、収束点の定義を満たすのに、第1カットの映像のみで十分であるからである。すなわち、第2カット以降は、打者がベンチに歩いて帰っていく様子等を撮したカットである場合が多いので、収束点の定義上、第2カット以降は収束点が含まれないカットとなるからである。
Thus, focusing on the camera work characteristics of each event, the convergence point of each event is determined. Based on the definition of each event in FIG. 12, the convergence point in the case of “three strikes”, “four balls”, and “dead ball” is the end point of the first cut. The convergence point in the case of “hit”, “home run”, “normal hit (fly)” is assumed to be after the second cut.
The reason for determining the convergence point in this manner is that, in the case of “three strikes”, only the first cut image is sufficient to satisfy the definition of the convergence point. That is, after the second cut, there are many cases in which the batter walks back to the bench and the like, and so on. In view of the definition of the convergence point, the second and subsequent cuts are cuts that do not include the convergence point. Because.

これに対し、図12に示すとおり、「ヒット」等の場合は、収束点の定義上、打球の行方も含めて映像区間とすべきであるので、打球の行方を撮している第2カット以降のカットの終了点をイベントの収束点とする。
例えば、ホームランであれば、第2カット以降に、打球がスタンドインする映像が含まれ、また、放物線を描く打球の場合は、その打球が安打となるのか、野手によって捕球されるかまでを映像区間に含めるために、第2カット以降のカットの終了点をイベントの収束点とする。
On the other hand, as shown in FIG. 12, in the case of “hit” or the like, the definition of the convergence point should be a video section including the whereabouts of the hit ball. The end point of subsequent cuts is defined as the event convergence point.
For example, in the case of a home run, after the second cut, an image in which the hit ball stands in is included. In the case of a hit ball that draws a parabola, whether the hit ball is a hit or whether it is caught by a fielder. In order to include in the video section, the end point of the cut after the second cut is set as the convergence point of the event.

また、例えば、放物線を描いて外野へと打球が飛ぶ安打と、同様に放物線を描いて野手によって捕球される凡打(フライ)とは、そのカメラワークが極めて近似している。このように、カットごとのカメラワークが近似しているがイベントの内容は異なるという場合がある。この場合、イベントの内容ごとに収束点を定義しているので、イベントの内容に応じて、収束点となる時点を異なるものとすべき場合がある。   In addition, for example, a hit that a hit ball flies to the outside field with a parabola and a hit (fly) that is similarly drawn with a fielder and draws a parabola are very similar in camera work. In this way, the camera work for each cut is approximate, but the contents of the event may be different. In this case, since the convergence point is defined for each event content, the time point that becomes the convergence point may be different depending on the event content.

例えば、打者が打撃を行ったときの打球が野手によって捕球されるか否かが第2カットで撮されており、安打の場合は、打者が走塁している様子が第2カット以降の別のカットで撮されているとすると、打者がどの塁まで進んだか等の、イベントの結末をより詳細に映像コンテンツの視聴者が知りたい場合がある。そのため、打者の進塁数が確認できるよう、野手がボールを捕球して、塁に近い内野手等へ送球し、内野手等がボールを受け取ったカット等の、第2カットに後続する第3カットや第4カットなどの終了点をイベントの収束点としたい。   For example, whether or not the hit ball when the batter hits is captured by the fielder is taken in the second cut, and in the case of a hit, the batter is scrambling after the second cut. Assuming that the shot was taken in another cut, the viewer of the video content may want to know in more detail the end of the event, such as how far the batter has advanced. Therefore, so that the number of batters can be confirmed, the fielder catches the ball and sends it to the infielder, etc. near the base, and the second cut following the second cut, such as the cut that the infielder received the ball. The end point of the 3rd cut or the 4th cut is the convergence point of the event.

これに対し、凡打(フライ)の場合は、野手によるボールの捕球によって打者がアウトになってイベントが収束するので、第2カットの終了点をイベントの収束点としたい。
また、イベントの発生状況に応じて、収束点となるカットを決定したい場合がある。
例えば、ヒットの場合に、塁上にランナーがいる場合といない場合とを比較すると、塁上にランナーがいない場合は、安打となったボールを野手が捕球した場面までをイベントの映像区間とすればよい。これに対し、塁上にランナーがいる場合は、塁上のランナーがどれだけ進塁したかを、イベントとなる映像区間に含めたい。すなわち、塁上にランナーがいる場合の収束点よりも時間軸上後続する時点をイベントの収束点にしたいという要望がある。
On the other hand, in the case of an ordinary hit (fly), the batter is out by ball catching by the fielder and the event converges, so the end point of the second cut is desired to be the event convergence point.
Further, there is a case where it is desired to determine a cut as a convergence point according to the event occurrence state.
For example, in the case of a hit, comparing the case where there is no runner on the base and the case where there is no runner on the base, if there is no runner on the base, the scene where the fielder catches the hit ball is the video section of the event do it. On the other hand, if there is a runner on the top, I want to include how much the top runner has advanced in the video section that will be the event. That is, there is a desire to make the event convergence point the time point that follows on the time axis from the convergence point when the runner is on the heel.

そこで、本実施形態では、カメラワークの特徴に加えて、さらに、イベントの内容およびイベントの発生状況に応じて、収束点を決定するものとする。映像区間決定装置1000は、「ヒット」や「凡打(フライ)」等の、イベントの内容を精度良く識別するために、映像区間の決定処理に、イベント状況情報600を用いる。
上述したような、イベントごとのカメラワークの特徴に着目して、各イベントの収束点を決定する処理を、図14に示す。
Therefore, in the present embodiment, it is assumed that the convergence point is determined according to the contents of the event and the event occurrence status in addition to the characteristics of the camera work. The video section determination apparatus 1000 uses the event status information 600 for the video section determination processing in order to accurately identify the contents of the event such as “hit” and “normal hit (fly)”.
FIG. 14 shows a process for determining the convergence point of each event by paying attention to the characteristics of the camera work for each event as described above.

図14は、イベント収束点特定部113が、イベントの収束点を決定する処理を示すフローチャートである。
同図では、まず、カメラワークの内容に応じて、「三振」「四球」「死球」のグループと、「ヒット」「ホームラン」「凡打(フライ)」のグループとを識別する。そして、イベント状況情報600を用いて、「ヒット」か「凡打(フライ)」か等を識別して、収束点を決定している。
FIG. 14 is a flowchart showing a process in which the event convergence point specifying unit 113 determines the event convergence point.
In the figure, first, according to the contents of the camera work, a group of “three strikes”, “four balls”, “dead balls” and a group of “hits”, “home run”, “normal hit (fly)” are identified. Then, the event status information 600 is used to identify “hit” or “fly” and determine a convergence point.

処理の概要を説明すると、イベント収束点特定部113は、イベントIDによって識別されるイベントの第1カットおよび第1カット以降の各カットのカメラワークを、カメラワーク情報300から取得し、取得した各カットのカメラワークのパターンが、所定のカメラワークのパターンと同一であるか否かを判断する。判断結果に応じて、イベントの収束点を設定するカットを決定し、そのカットの終了点を、イベントの収束点とする。   Explaining the outline of the processing, the event convergence point specifying unit 113 acquires the first cut of the event identified by the event ID and the camera work of each cut after the first cut from the camera work information 300, and acquires the acquired camera work information 300. It is determined whether or not the cut camerawork pattern is the same as the predetermined camerawork pattern. According to the determination result, a cut for setting the convergence point of the event is determined, and the end point of the cut is set as the convergence point of the event.

以下、具体的な処理を、図14を用いて説明すると、イベント収束点特定部113は、第2カットが「ほぼ固定」「左パン」「右パン+ズームIN」「固定→左パン」のいずれかであるか判断する(ステップS1401)。
上記の各カットのいずれかである場合は(ステップS1401:YES)、第2カットのカメラ振り速度が「遅い」であるか判断する(ステップS1402)。
Hereinafter, specific processing will be described with reference to FIG. 14. The event convergence point specifying unit 113 determines that the second cut is “almost fixed”, “left pan”, “right pan + zoom IN”, “fixed → left pan”. It is determined whether it is either (step S1401).
If it is one of the above cuts (step S1401: YES), it is determined whether the camera swing speed of the second cut is “slow” (step S1402).

ステップS1402において、カメラ振り速度が「遅い」と判断された場合は(ステップS1402:YES)、カット点情報200に示される第1カットの終了点を、イベントの収束点と決定する(ステップS1403)。
また、ステップS1401において、上記の各カットのいずれでもない場合(ステップS1401:NO)、またはステップS1402においてカメラ振り速度が「遅い」ではないと判断された場合は(ステップS1402:NO)、第2カットが「右パン」であるか判断する(ステップS1404)。
If it is determined in step S1402 that the camera swing speed is “slow” (step S1402: YES), the end point of the first cut indicated in the cut point information 200 is determined as the event convergence point (step S1403). .
If it is determined in step S1401 that none of the above-described cuts (step S1401: NO), or if it is determined in step S1402 that the camera swing speed is not “slow” (step S1402: NO), the second It is determined whether the cut is “right pan” (step S1404).

ステップS1404において、「右パン」であると判断されると(ステップS1404:YES)、第2カットのカメラ振り速度が「遅い」であるか判断する(ステップS1405)。
ステップS1405において、カメラ振り速度が「遅い」と判断された場合は(ステップS1405:YES)、カット点情報200に示される第1カットの終了点を、イベントの収束点と決定する(ステップS1403)。
If it is determined in step S1404 that the “right pan” is selected (step S1404: YES), it is determined whether the camera swing speed of the second cut is “slow” (step S1405).
If it is determined in step S1405 that the camera swing speed is “slow” (step S1405: YES), the end point of the first cut indicated in the cut point information 200 is determined as the event convergence point (step S1403). .

以上ステップS1401〜ステップS1405までの処理により、「三振」「四球」「死球」のグループを識別することができる。
以下、上記の処理に続いて、「ヒット」「ホームラン」「凡打(フライ)」のグループについて、イベントの内容に応じて収束点を決定する処理を説明する。
イベント収束点特定部113の処理の説明に戻ると、イベント収束点特定部113は、ステップS1405において、カメラ振り速度が「遅い」ではないと判断された場合(ステップS1405:NO)、イベント状況情報600の発生前塁上走者61およびイベント種別64を参照して、当該イベントが、塁上ランナーなしの凡打であるかを判断する。すなわち、発生前塁上走者61が「なし」で、かつ、イベント種別64が「凡打」であるかを判断する(ステップS1406)。
Through the processes from step S1401 to step S1405, the group of “three strikes”, “four balls”, and “dead balls” can be identified.
Hereinafter, a process of determining a convergence point in accordance with the contents of an event for the groups of “hit”, “home run”, and “normal hit (fly)” will be described following the above process.
Returning to the description of the process of the event convergence point identification unit 113, the event convergence point identification unit 113 determines that the camera swing speed is not “slow” in step S1405 (step S1405: NO), event status information. Referring to 600 pre-occurrence saddle runner 61 and event type 64, it is determined whether the event is a general hit without a saddle runner. That is, it is determined whether the pre-occurrence runner 61 is “none” and the event type 64 is “general hit” (step S1406).

ステップS1406において、塁上ランナーなしの凡打であると判断された場合(ステップS1406:YES)、カット点情報200に示される第3カットの終了点を、イベントの収束点と決定する(ステップS1407)。
また、ステップS1406において、塁上ランナーなしの凡打ではないと判断された場合(ステップS1406:NO)、イベント収束点特定部113は、イベント状況情報600の発生前塁上走者61およびイベント種別64を参照して、当該イベントが、塁上ランナーありのヒットであるかを判断する。すなわち、発生前塁上走者61が「あり」で、かつ、イベント種別64が「ヒット」であるかを判断する(ステップS1408)。
In step S1406, when it is determined that the hitting without a runner-up runner (step S1406: YES), the end point of the third cut indicated in the cut point information 200 is determined as the event convergence point (step S1407). .
If it is determined in step S1406 that there is no extra hit without a runner-up runner (step S1406: NO), the event convergence point specifying unit 113 sets the pre-occurrence runner 61 and the event type 64 of the event status information 600. Referring to the event, it is determined whether the event is a hit with a runner-up. That is, it is determined whether the pre-occurrence runner 61 is “Yes” and the event type 64 is “Hit” (step S1408).

ステップS1408において、塁上ランナーありのヒットであると判断された場合(ステップS1408:YES)、カット点情報200に示される第4カットの終了点を、イベントの収束点と決定する(ステップS1409)。
また、ステップS1404において第2カットが「右パン」でないと判断された場合(ステップS1404:NO)、またはステップS1408において、塁上ランナーありのヒットではないと判断された場合(ステップS1408:NO)、イベント収束点特定部113は、第2カットが「右パン+放物線→ズームIN」であるか判断する(ステップS1410)。
In step S1408, if it is determined that the hit is a runner-up hit (step S1408: YES), the end point of the fourth cut indicated in the cut point information 200 is determined as the event convergence point (step S1409). .
In addition, when it is determined in step S1404 that the second cut is not “right pan” (step S1404: NO), or in step S1408, it is determined that the hit is not a lift runner (step S1408: NO). The event convergence point specifying unit 113 determines whether the second cut is “right pan + parabola → zoom in” (step S1410).

ステップS1410において、第2カットが「右パン+放物線→ズームIN」であると判断されると(ステップS1410:YES)、イベント収束点特定部113は、イベント状況情報600の打者進塁数63およびイベント種別64を参照して、当該イベントが、2塁打以上のヒットであるかを判断する。すなわち、打者進塁数63が「2塁」または「3塁」または「本塁」で、かつ、イベント種別64が「ヒット」であるかを判断する(ステップS1411)。   If it is determined in step S1410 that the second cut is “right pan + parabola → zoom in” (step S1410: YES), the event convergence point specifying unit 113 sets the batter advance number 63 in the event status information 600 and With reference to the event type 64, it is determined whether the event is a hit of 2 strokes or more. That is, it is determined whether the batter advance number 63 is “2”, “3” or “main” and the event type 64 is “hit” (step S1411).

ステップS1411において、2塁打以上のヒットであると判断された場合(ステップS1411:YES)、カット点情報200に示される第4カットの終了点を、イベントの収束点と決定する(ステップS1409)。
また、ステップS1410において第2カットが「右パン+放物線→ズームIN」ではないと判断された場合(ステップS1410:NO)、またはステップS1411において、2塁打以上のヒットではないと判断された場合(ステップS1411:NO)、イベント収束点特定部113は、第2カットが「右パン→ズームIN」であるか判断する(ステップS1412)。
If it is determined in step S1411 that the hit is 2 hits or more (step S1411: YES), the end point of the fourth cut indicated in the cut point information 200 is determined as the event convergence point (step S1409).
If it is determined in step S1410 that the second cut is not “right pan + parabola → zoom in” (step S1410: NO), or if it is determined in step S1411 that the second cut is not a hit of two or more strokes ( In step S1411, NO, the event convergence point specifying unit 113 determines whether the second cut is “right pan → zoom in” (step S1412).

ステップS1412において、第2カットが「右パン→ズームIN」であると判断されると(ステップS1412:YES)、イベント収束点特定部113は、イベント状況情報600の発生前塁上走者61およびイベント種別64を参照して、当該イベントが、塁上ランナーありのヒットであるか判断する(ステップS1413)。
ステップS1413において、塁上ランナーありのヒットであると判断された場合(ステップS1413:YES)、カット点情報200に示される第4カットの終了点を、イベントの収束点と決定する(ステップS1409)。
If it is determined in step S1412 that the second cut is “right pan → zoom in” (step S1412: YES), the event convergence point specifying unit 113 determines that the event condition information 600 before the occurrence runner 61 and the event Referring to the type 64, it is determined whether the event is a hit with a lift runner (step S1413).
In step S1413, when it is determined that the hit is a runner-up hit (step S1413: YES), the end point of the fourth cut indicated in the cut point information 200 is determined as the event convergence point (step S1409). .

また、ステップS1412において第2カットが「右パン→ズームIN」ではないと判断された場合(ステップS1412:NO)、またはステップS1413において、塁上ランナーありのヒットではないと判断された場合(ステップS1413:NO)、イベント収束点特定部113は、第2カット以降のカットのカメラワークに、「放物線」が含まれるか判断する(ステップS1414)。   If it is determined in step S1412 that the second cut is not “right pan → zoom in” (step S1412: NO), or if it is determined in step S1413 that it is not a hit with a runner-up runner (step S1412) (S1413: NO), the event convergence point specifying unit 113 determines whether or not “parabolic” is included in the camera work of the cut after the second cut (step S1414).

ステップS1414において、第2カット以降のカットのカメラワークに「放物線」が含まれると判断された場合(ステップS1414:YES)、イベント収束点特定部113は、カット点情報200およびカメラワーク情報300を参照して、「放物線」が含まれる最後のカットの終了点を、イベントの収束点と決定する(ステップS1415)。
一方、ステップS1414において、「放物線」が含まれないと判断された場合(ステップS1414:NO)、イベント収束点特定部113は、カット点情報200に示される第2カットの終了点を、イベントの収束点と決定する(ステップS1416)。
In step S1414, when it is determined that “parabolic” is included in the camera work of the cut after the second cut (step S1414: YES), the event convergence point specifying unit 113 displays the cut point information 200 and the camera work information 300. Referring to, the end point of the last cut including “parabola” is determined as the event convergence point (step S1415).
On the other hand, when it is determined in step S1414 that the “parabola” is not included (step S1414: NO), the event convergence point specifying unit 113 determines the end point of the second cut indicated in the cut point information 200 as the event. The convergence point is determined (step S1416).

本発明の映像区間決定装置1000は、上述のステップS1406〜ステップS1416の処理により、イベントの内容およびイベントの発生状況に応じて、収束点を決定する。
例えば、塁上ランナーありのヒットや、2塁打以上のヒットの場合は(ステップS1408:YES、ステップS1411:YES、ステップS1413:YES)、得点が加算されたか、また、打者がどこまで進塁したかを映像区間に含めるため、映像区間の収束点となるカットを、第2カットよりも後のカットとしている。
The video section determination apparatus 1000 according to the present invention determines the convergence point according to the contents of the event and the event occurrence state by the processing in steps S1406 to S1416 described above.
For example, in the case of a hit with a runner-up runner or a hit of two or more strokes (step S1408: YES, step S1411: YES, step S1413: YES), whether the score has been added and how far the batter has progressed Is included in the video section, the cut that becomes the convergence point of the video section is a cut after the second cut.

また、ステップS1414において、第2カット以降のカットのカメラワークに「放物線」が含まれる場合は(ステップS1414:YES)、凡打(フライ)または1塁まで打者が進塁するヒットである場合が多いので、イベントの収束点までの定義に従うよう、打球を追いかけて撮影しているカットの可能性が高い、放物線を描く最後のカットの終わりを映像区間の収束点としている。   In addition, in step S1414, when the “parabolic” is included in the camera work of the cut after the second cut (step S1414: YES), it is often a hit (fly) or a hit where the batter advances to one base. Therefore, in order to follow the definition up to the convergence point of the event, the end of the last cut that draws a parabola, which has a high possibility of being cut after chasing a hit ball, is set as the convergence point of the video section.

これらイベント収束点特定部113の処理について、収束点の決定箇所を図示すると、図15のようになる。
図15は、カメラワークの特徴に基づいて、イベントの収束点を決定する処理を図示したものである。
同図中、収束点1501は、カメラワークごとの収束点の違いを図示したものである。なお、映像区間の開始点、すなわちイベント発生情報500に示される各イベントの発生時刻を、「開始点」として示している。
Regarding the processing of the event convergence point specifying unit 113, the determination points of the convergence point are illustrated in FIG.
FIG. 15 illustrates a process for determining a convergence point of an event based on camera work characteristics.
In the figure, a convergence point 1501 illustrates the difference in convergence point for each camera work. The start point of the video section, that is, the occurrence time of each event indicated in the event occurrence information 500 is indicated as “start point”.

カメラワーク1502は、特に第2カットにおけるカメラワークの種類を示したものである。
カメラワーク1502においては、第2カットのカメラワークを3つのグループに分けて示している。すなわち、第2カットが「ほぼ固定」「左パン」「右パン+ズームIN」「固定→左パン」「右パン」であるグループ(A)(ステップS1401:YESまたはステップS1404:YES)と、第2カットが「右パン+放物線→ズームIN」であるグループ(B)(ステップS1410:YES)と、第2カットが「右パン→ズームIN」であるグループ(C)(ステップS1412:YES)の3つのグループに分けて示している。なお、グループ(A)に属する各カメラワークのカメラ振り速度は「遅い」ものとする(ステップS1401:YESかつステップS1402:YES、またはステップS1404:YESかつステップS1405:YES)。図13に示すように、グループ(A)のカメラワークのパターンは、主に「三振」「四球」「死球」の場合のカメラワークのパターンである。また、グループ(B)およびグループ(C)のカメラワークのパターンは、主に「ヒット」「ホームラン」「凡打」の場合のカメラワークのパターンである。
The camera work 1502 particularly indicates the type of camera work in the second cut.
In the camera work 1502, the second cut camera work is divided into three groups. That is, the group (A) (step S1401: YES or step S1404: YES) in which the second cut is “almost fixed”, “left pan”, “right pan + zoom IN”, “fixed → left pan”, “right pan”, Group (B) whose second cut is “right pan + parabola → zoom in” (step S1410: YES) and group (C) whose second cut is “right pan → zoom in” (step S1412: YES) These are divided into three groups. Note that the camera swing speed of each camera work belonging to the group (A) is “slow” (step S1401: YES and step S1402: YES, or step S1404: YES and step S1405: YES). As shown in FIG. 13, the camerawork pattern of the group (A) is a camerawork pattern mainly in the case of “three strikes”, “four balls”, and “dead balls”. The camera work patterns of the group (B) and the group (C) are mainly camera work patterns in the case of “hit”, “home run”, and “general hit”.

このような各グループの収束点を、収束点1501において示している。
収束点1501に示すように、イベント収束点特定部113は、グループ(A)のカメラワークのグループの場合は、第1カットの終了点を、イベントの収束点と決定する(ステップS1403)。
また、グループ(B)で、イベントの内容が2塁打以上のヒットである場合は(ステップS1411:YES)、第4カットの終了点を、イベントの収束点と決定する(ステップS1409)。一方、グループ(B)で、2塁打以上のヒットでない場合は(ステップS1411:NO)、上述の処理に従って、例えば第2カットの終了点を、イベントの収束点と決定する(ステップS1416)。
Such a convergence point of each group is indicated by a convergence point 1501.
As indicated by the convergence point 1501, in the case of the camera work group of group (A), the event convergence point specifying unit 113 determines the end point of the first cut as the event convergence point (step S1403).
If the event content is a hit of 2 hits or more in group (B) (step S1411: YES), the end point of the fourth cut is determined as the event convergence point (step S1409). On the other hand, if the hit is not two hits or more in the group (B) (step S1411: NO), for example, the end point of the second cut is determined as the event convergence point according to the above-described processing (step S1416).

また、グループ(C)で、イベントの内容がランナーありのヒットである場合は(ステップS1413:YES)、第4カットの終了点を、イベントの収束点と決定する(ステップS1409)。一方、グループ(C)で、ランナーありのヒットではない場合は(ステップS1413:NO)、上述の処理に従って、例えば第2カットの終了点を、イベントの収束点と決定する(ステップS1416)。   If the event content is a hit with a runner in group (C) (step S1413: YES), the end point of the fourth cut is determined as the event convergence point (step S1409). On the other hand, if it is not a hit with a runner in group (C) (step S1413: NO), for example, the end point of the second cut is determined as the event convergence point according to the above-described process (step S1416).

1.3.5 イベント収束点決定処理の変形例
上述の「1.3.4 イベント収束点決定処理」では、イベント発生後の各カットのカメラワークから、イベントの収束点を決定している。また、カメラワークに加えて、イベントの発生状況に応じて、収束点を決定している。イベントの発生状況に応じて収束点を決定することにより、各イベントを精度良く識別して映像区間を決定している。
1.3.5 Modified Example of Event Convergence Point Determination Process In the above “1.3.4 Event convergence point determination process”, the event convergence point is determined from the camera work of each cut after the event occurs. In addition to camera work, the convergence point is determined according to the event occurrence status. By determining the convergence point according to the event occurrence state, each event is accurately identified and the video section is determined.

この他にも、各イベントの収束点を適切に決定するために、カメラワーク計数部106に記憶されているカメラパラメータ数700を用いて、イベントの収束点を決定することとしてもよい。
通常、映像コンテンツにおいて、あるイベントが発生すると、動きのある映像であれば、カットにおけるカメラワークの種類の数が増加し、その後、イベントが収束すると、カメラワークの種類の数が減少する場合が比較的多い。
In addition to this, in order to appropriately determine the convergence point of each event, the event convergence point may be determined using the camera parameter number 700 stored in the camera work counting unit 106.
In general, when an event occurs in video content, the number of camerawork types in a cut increases if the video is moving, and then the number of camerawork types decreases when the event converges. Relatively many.

例えば、野球番組の場合、打者がボールを打つと、打球を追いかけるカメラワークとなって、カメラワークの種類の数が増加し、その後、イベントが収束すると、塁上のランナー等を被写体とした映像等となって、映像の動きが小さくなり、カメラワークの種類の数が減少する。すなわち、カメラワークの種類の数が直前のカットよりも減少したカットは、イベントが収束した後の状況を表した、映像の動きが小さい映像である場合が比較的多い。   For example, in the case of a baseball program, when the batter hits the ball, it becomes camera work chasing the hit ball, and the number of types of camera work increases. As a result, the motion of the video is reduced and the number of types of camera work is reduced. In other words, a cut in which the number of types of camera work is smaller than the immediately preceding cut is relatively often a video that shows a situation after the event has converged and has a small video motion.

そこで、各カットのカメラワークの種類の数が増減することに応じて、イベントの収束点を決定することで、より適切にイベントとなる映像区間を決定することができる。
なお、本実施形態では、カメラワークの種類の数の増減に加えて、さらに、イベントの内容に応じて、イベントの収束点を決定する。
具体的には、イベントのカメラワークの種類の数が直前のカットよりも減少したカットは、イベントが収束した後のカットと判断し、イベントの内容が「凡打」等の場合は、イベントが収束した後の状況を映像区間に含めないよう、カメラワーク種類の数が減少したカットの直前のカットの終了点を、イベントの収束点とする。
Therefore, by determining the event convergence point in accordance with the increase or decrease in the number of types of camera work for each cut, it is possible to determine a video section that becomes an event more appropriately.
In this embodiment, in addition to the increase / decrease in the number of types of camera work, the event convergence point is further determined according to the content of the event.
Specifically, a cut in which the number of types of camera work in the event has decreased from the previous cut is determined as a cut after the event has converged, and if the event content is “general hit”, the event has converged. The end point of the cut immediately before the cut in which the number of types of camera work has been reduced is set as the event convergence point so that the situation after this is not included in the video section.

これに対し、イベントの内容が「ヒット」等の場合は、走者がどの塁まで進塁したか等、イベント収束後の状況まで映像区間に含めるよう、カメラワークの種類の数が減少したカットに後続するカットの終了点を、イベントの収束点とする。
図16は、イベント収束点特定部113が、カメラパラメータ数を用いてイベントの収束点を決定する処理を示すフローチャートである。
On the other hand, if the content of the event is “hit”, etc., the number of types of camera work has been reduced to include in the video section until the event has converged, such as how far the runner has advanced. The end point of the subsequent cut is set as the event convergence point.
FIG. 16 is a flowchart illustrating processing in which the event convergence point specifying unit 113 determines an event convergence point using the number of camera parameters.

なお、同図中、ステップS1401、ステップS1402、ステップS1403、ステップS1404、ステップS1405の処理は、図14に参照符号を付して示したものと同一であるため説明を省略する。
図16に示すように、イベント収束点特定部113は、ステップS1404において、第2カットが「右パン」ではないと判断された場合(ステップS1404:NO)、またはステップS1405においてカメラ振り速度が「遅い」ではないと判断された場合(ステップS1405:NO)、第2カット以降でカメラパラメータ数が減少したか否かを判断する(ステップS1606)。
In the figure, the processing of step S1401, step S1402, step S1403, step S1404, and step S1405 is the same as that shown with reference numerals in FIG.
As illustrated in FIG. 16, the event convergence point specifying unit 113 determines in step S1404 that the second cut is not “right pan” (step S1404: NO), or in step S1405, the camera swing speed is “ If it is determined that it is not “slow” (step S1405: NO), it is determined whether or not the number of camera parameters has decreased after the second cut (step S1606).

ステップS1606において、カメラパラメータ数が減少したと判断された場合(ステップS1606:YES)、イベント収束点特定部113は、イベント状況情報600の打者進塁数63およびイベント種別64を参照して、当該イベントが、2塁打以上のヒットであるかを判断する(ステップS1607)。
ステップS1607において、2塁打以上のヒットであると判断されると(ステップS1607:YES)、カメラパラメータ数が減少したカットに後続する直近のカットの終了点を、イベントの収束点と決定する(ステップS1608)。
If it is determined in step S1606 that the number of camera parameters has decreased (step S1606: YES), the event convergence point identifying unit 113 refers to the batter advance number 63 and the event type 64 in the event status information 600, and It is determined whether or not the event is a hit of 2 strokes or more (step S1607).
If it is determined in step S1607 that the hit is 2 hits or more (step S1607: YES), the end point of the most recent cut following the cut with the reduced number of camera parameters is determined as the event convergence point (step S1607). S1608).

また、ステップS1607において、2塁打以上のヒットではないと判断されると(ステップS1607:NO)、カメラパラメータ数が減少したカットの直前のカットの終了点を、イベントの収束点と決定する(ステップS1609)。
また、ステップS1606において、第2カット以降でカメラパラメータ数が減少しないと判断されると(ステップS1606:NO)、イベント収束点特定部113は、第2カットの終了点を、イベントの収束点と決定する(ステップS1610)。
If it is determined in step S1607 that the hit is not more than two strokes (step S1607: NO), the end point of the cut immediately before the cut with the reduced number of camera parameters is determined as the event convergence point (step S1607). S1609).
If it is determined in step S1606 that the number of camera parameters does not decrease after the second cut (step S1606: NO), the event convergence point specifying unit 113 sets the end point of the second cut as the event convergence point. Determination is made (step S1610).

以上の処理のうち、ステップS1606は、各カットのカメラワークの種類の数が増減することに応じて、イベントの収束点を決定する処理の実行を開始するものである。
また、ステップS1607、ステップS1608、ステップS1609では、カメラワークの種類の数の増減に加えて、さらに、イベントの内容に応じて、イベントの収束点を決定する。なお、本実施形態では、イベントの内容が2塁打以上のヒットである場合に、収束点となるカットが後ろのカットになるよう制御しており、これにより、イベント収束後の状況も映像区間に含まれるように、収束点となるカットを決定することができる。
Among the processes described above, step S1606 starts the execution of the process for determining the event convergence point in accordance with the increase or decrease in the number of types of camera work for each cut.
In step S1607, step S1608, and step S1609, in addition to the increase / decrease in the number of types of camera work, the convergence point of the event is determined according to the content of the event. In this embodiment, when the content of the event is a hit of 2 or more hits, the cut that becomes the convergence point is controlled to be the subsequent cut, so that the situation after the event convergence is also included in the video section. A cut that becomes a convergence point can be determined so as to be included.

上述の処理を、図7のカメラパラメータ数700の例を用いて説明する。図7の例において、カット番号71の値が「133」のカットを第1カットとし、後続する一連のカットにおいて映像コンテンツが示すイベントの内容が、例えば「凡打」のような、ステップS1607の処理において、2塁打以上のヒットではないと判断されるもの(ステップS1607:NO)、すなわち、カメラパラメータ数が減少したカットの直前のカットの終了点が、イベントの収束点と決定されるもの(ステップS1609)であるとする。   The above process will be described using the example of the camera parameter number 700 in FIG. In the example of FIG. 7, the process of step S <b> 1607 in which the cut with the value “133” of the cut number 71 is the first cut and the event content indicated by the video content in the subsequent series of cuts is, for example, “general hit”. In step S1607, it is determined that the hit is not more than two strokes (step S1607: NO), that is, the end point of the cut immediately before the cut in which the number of camera parameters is decreased is determined as the event convergence point (step S1609).

このとき、カット番号71の値が「134」である第2カットと、カット番号71の値が「135」である第3カットとを比較すると、カメラパラメータ数73に示されるカメラワークの種類の数が、第2カットから第3カットにかけて減少している。すなわち、第2カット以降でカメラパラメータ数が減少している(ステップS1606:YES)。
さらに、当該カットに示されるイベントの内容が、2塁打以上のヒットではないので(ステップS1607:NO)、カメラパラメータ数が減少しているカットの直前のカット、すなわち第3カットの直前のカットである第2カットの終了点を、イベントの収束点と決定する(ステップS1609)。
At this time, when the second cut whose cut number 71 is “134” and the third cut whose cut number 71 is “135” are compared, the type of camera work indicated by the camera parameter number 73 is The number decreases from the second cut to the third cut. That is, the number of camera parameters decreases after the second cut (step S1606: YES).
Furthermore, since the content of the event shown in the cut is not a hit of 2 strokes or more (step S1607: NO), the cut immediately before the cut in which the number of camera parameters is decreased, that is, the cut immediately before the third cut. The end point of a certain second cut is determined as the event convergence point (step S1609).

他の例も挙げて説明すると、図7の例において、カット番号71の値が「151」のカットを第1カットとし、後続する一連のカットにおいて映像コンテンツが示すイベントの内容が、例えば3塁打ヒットのような、ステップS1607の処理において、2塁打以上のヒットと判断されるもの(ステップS1607:YES)、すなわち、カメラパラメータ数が減少したカットに後続する直近のカットの終了点が、イベントの収束点と決定されるもの(ステップS1608)であるとする。   Explaining with other examples as well, in the example of FIG. 7, the cut with the value “151” of the cut number 71 is the first cut, and the content of the event indicated by the video content in the subsequent series of cuts is, for example, 3 strokes. In the process of step S1607, such as a hit, what is determined as a hit of two or more hits (step S1607: YES), that is, the end point of the most recent cut following the cut with the reduced number of camera parameters is the event. It is assumed that the convergence point is determined (step S1608).

このとき、カット番号71の値が「152」である第2カットと、カット番号71の値が「153」である第3カットとを比較すると、カメラパラメータ数73に示されるカメラワークの種類の数が、第2カットから第3カットにかけて減少している。すなわち、第2カット以降でカメラパラメータ数が減少している(ステップS1606:YES)。
さらに、当該カットに示される内容が、2塁打以上のヒットであるので(ステップS1607:YES)、カメラパラメータ数が減少しているカットに後続する直近のカット、すなわち第3カットに後続する直近のカットである第4カットの終了点を、イベントの収束点と決定する(ステップS1608)。
<補足>
1.4 補足
以上のように本発明にかかる映像区間決定装置について実施の形態に基づいて説明したが、以下のように変形することもでき、本発明は上述の実施の形態で示した映像区間決定装置に限られないことは勿論である。
(1)上述の例では、映像コンテンツの内容が野球番組の場合における処理について、説明してきたが、映像コンテンツの内容は、野球に限らず、他の内容であってもよく、各イベントのカメラワークの特徴に基づいて、映像区間を決定することができる。例えば、ゴルフ番組の場合も、本発明を適用することができる。
At this time, when the second cut with the cut number 71 value “152” and the third cut with the cut number 71 value “153” are compared, the type of camera work indicated by the camera parameter number 73 is The number decreases from the second cut to the third cut. That is, the number of camera parameters decreases after the second cut (step S1606: YES).
Furthermore, since the content shown in the cut is a hit of 2 strokes or more (step S1607: YES), the most recent cut following the cut with the reduced number of camera parameters, that is, the most recent cut following the third cut. The end point of the fourth cut, which is a cut, is determined as the event convergence point (step S1608).
<Supplement>
1.4 Supplement As described above, the video section determination device according to the present invention has been described based on the embodiment. However, the video section can be modified as follows, and the present invention is applicable to the video section shown in the above embodiment. Of course, it is not limited to the determination device.
(1) In the above example, the processing in the case where the content of the video content is a baseball program has been described. However, the content of the video content is not limited to baseball, and may be other content. The video section can be determined based on the feature of the work. For example, the present invention can be applied to a golf program.

映像コンテンツがゴルフ番組である場合、カメラワークの特徴は、例えば図17に示す通りである。
同図に示すように、イベントの内容としては、「ティーショット(第1打)」「アプローチショット(第2打以降)」「パット(成功)」「パット(失敗)」「バンカーショット」などがある。
When the video content is a golf program, the features of camera work are, for example, as shown in FIG.
As shown in the figure, the contents of the event include “tee shot (first hit)”, “approach shot (after the second hit)”, “pat (success)” “pat (failure)”, “bunker shot”, etc. is there.

それぞれのイベントごとのカメラワークは、どのイベントも、はじめは「ほぼ固定」または「固定」のように、映像に動きの小さいカットであり、プレイヤーがボールを打った後は、「放物線」や「ズームIN」などでプレイヤーの打球を追いかけるカットが続く。
なお、パットに成功した場合は、ボールがカップインするカットをイベントの収束点とし、パットに失敗した場合は、プレイヤーのパット失敗のリアクション等もイベントの映像区間に含めるよう、イベントの収束点を定義することとする。
The camera work for each event is a cut with little movement in the image, such as “almost fixed” or “fixed” at the beginning. After the player hits the ball, the “parabola” or “ The cut that follows the player's hit ball continues with "Zoom IN".
If the put is successful, the event's convergence point is set so that the cut where the ball is cupped in is the event's convergence point, and if the put is unsuccessful, the reaction of the player's put failure is included in the event video section. It will be defined.

また、同図中、括弧でくくっているカメラワークは、イベントとなる映像区間には含めないカットであることを示す。例えば、「ティーショット(第1打)」の場合は、第3カットの「放物線→右パン+ズームIN」までを、イベントの映像区間とし、第4カット「ほぼ固定」は、イベントの映像区間には含めない。すなわち、イベント収束点特定部113は、この場合、第3カットの終了点を、イベントの収束点と決定する。   In addition, in the same figure, the camera work enclosed in parentheses indicates a cut that is not included in the video section that becomes the event. For example, in the case of “tee shot (first hit)”, the third cut “parabolic → right pan + zoom in” is the event video interval, and the fourth cut “almost fixed” is the event video interval. Not included. That is, in this case, the event convergence point specifying unit 113 determines the end point of the third cut as the event convergence point.

これら各イベントのカメラワークの特徴に基づいて、上記「1.3.4 イベント収束点決定処理」で説明したような処理を行うことにより、イベント収束点特定部113は、イベントの収束点となるカットを特定して、当該カットの終了点を、イベントの収束点と決定する。
この他にも、カメラワークの特徴を抽出することにより、アメリカンフットボール、ラグビー等にも適用できる。例えば、アメリカンフットボールにおいて、ラインとなるプレイヤーがQB(クォーターバック)へボールを投げるまではカメラワークは「固定」または「ほぼ固定」であり、QBがボールをキャッチすると、カメラワークがパンし、イベントが収束する段階ではプレイヤーの動きが小さく、そのためカメラの動きが小さくなる場合、イベント収束点特定部113は、カメラワークが「固定→パン」「固定→右パン→左パン」などのカットを第1カットとする。そして、カメラパラメータ数が減少したカットの前後のカット、またはカメラパラメータ数が減少したカット、第2カット以降でカメラワークが「ほぼ固定」となるカット、カメラ振り速度が「遅い」になるカット等の終了点を、収束点とする。これにより、ひとつのプレーを映像区間として決定することができる。
(2)上述の実施形態では、映像区間決定装置1000は、イベント発生検出部109が、テロップ情報400に基づいて、イベントの発生を検出することでイベント発生情報500を更新することとして説明してきたが、イベントの発生は、テロップ情報400に基づく場合に限られない。この他にも、例えば、映像コンテンツに基づかず、外部から入力されることとしてもよい。
(3)上述の実施形態では、まず、映像区間の開始点となるイベント発生時刻が与えられて、イベントの収束点を決定することで映像区間を決定するものとして説明したが、これに限らず、先に収束点が定まっていて、各カメラワークに基づいてイベントの開始点を決定することとしてもよい。
Based on the camerawork characteristics of each event, the event convergence point specifying unit 113 becomes the event convergence point by performing the processing described in the above-mentioned “1.3.4 Event convergence point determination processing”. The cut is specified, and the end point of the cut is determined as the event convergence point.
In addition, it can be applied to American football, rugby, etc. by extracting camerawork features. For example, in American football, the camerawork is “fixed” or “almost fixed” until the player on the line throws the ball to QB (quarterback). When QB catches the ball, the camerawork pans, When the movement of the player is small and the movement of the camera is small, the event convergence point specifying unit 113 performs a cut such as “fixed → pan”, “fixed → right pan → left pan”, etc. One cut. Cuts before and after the cut with the reduced number of camera parameters, or cuts with the reduced number of camera parameters, cuts where the camera work is “almost fixed” after the second cut, cuts where the camera swing speed is “slow”, etc. Let the end point of be the convergence point. Thereby, one play can be determined as a video section.
(2) In the above-described embodiment, the video section determination device 1000 has been described as the event occurrence detection unit 109 updating the event occurrence information 500 by detecting the occurrence of an event based on the telop information 400. However, the occurrence of the event is not limited to the case based on the telop information 400. In addition, for example, it may be input from the outside without being based on video content.
(3) In the above-described embodiment, the event occurrence time that is the start point of the video segment is first given, and the video segment is determined by determining the convergence point of the event. However, the present invention is not limited to this. The convergence point may be determined in advance, and the start point of the event may be determined based on each camera work.

また、開始点または収束点のいずれかが定まっている場合に限らず、連続する一連のカットのカメラワークのパターンを、所定のパターンと比較し、比較にかかるパターンに応じて、所定の時点を開始点および収束点であるとしてもよい。
例えば、一連のカットのカメラワークが所定のパターンと同一であるときに、当該一連のカットの開始点を、イベントの発生時とし、当該一連のカットの終了点を、イベントの収束点とすることとしてもよい。
In addition, not only when either the start point or the convergence point is fixed, the camera work pattern of a series of continuous cuts is compared with a predetermined pattern, and a predetermined time point is determined according to the pattern for comparison. It may be a starting point and a convergence point.
For example, when the camera work of a series of cuts is the same as a predetermined pattern, the start point of the series of cuts is the time when the event occurs, and the end point of the series of cuts is the convergence point of the event It is good.

また、上述の実施形態では、カット点の検出、カメラワークの検出、テロップの検出等を行いつつ、イベントの発生を検出する処理を行うものとして説明したが(ステップS901、ステップS902、ステップS903、ステップS904)、これに限らず、映像コンテンツからすべてのカット点等を検出する処理を完了してから、イベントの発生を検出することとしてもよい。また、これらカット点等の検出処理は、映像区間決定装置がカット点検出部102等により行うものとして説明したが、必ずしも映像区間決定装置が行う必要はない。例えば、予め他装置等によりカット点の検出等が行われて、カット点情報200等を当該他装置から取得して、カット点記憶部103等により記憶することによって、映像区間決定装置は、イベント収束点特定部113により映像区間を決定することができる。すなわち、カット点検出部102等の、映像コンテンツから検出を行う機能ブロックは、映像区間決定装置の必須の構成要件ではない。
(4)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(5)上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
(6)上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(7)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
In the above-described embodiment, the processing for detecting the occurrence of an event while performing detection of a cut point, detection of camera work, detection of a telop, and the like has been described (steps S901, S902, S903, However, the present invention is not limited to this, and the occurrence of an event may be detected after the process of detecting all cut points and the like from the video content is completed. Moreover, although the detection process of these cut points etc. was demonstrated as what a video area determination apparatus performs by the cut point detection part 102 grade | etc., It does not necessarily need to be performed by a video area determination apparatus. For example, the cut point detection or the like is performed in advance by another device or the like, and the cut point information 200 or the like is acquired from the other device and stored in the cut point storage unit 103 or the like. The convergence point specifying unit 113 can determine the video section. That is, the functional block that detects from the video content, such as the cut point detection unit 102, is not an essential component of the video section determination device.
(4) Specifically, each of the above devices is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like. A computer program is stored in the RAM or the hard disk unit. Each device achieves its function by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
(5) A part or all of the constituent elements constituting each of the above-described devices may be constituted by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
(6) A part or all of the constituent elements constituting each of the above devices may be configured as an IC card that can be attached to and detached from each device or a single module. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
(7) The present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.

また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。   The present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like. Further, the present invention may be the computer program or the digital signal recorded on these recording media.

また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
Further, the present invention may transmit the computer program or the digital signal via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
The present invention may be a computer system including a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.

また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(8)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
(8) The above embodiment and the above modifications may be combined.

本発明によれば、イベントの収束点を適切に特定して、イベントとなる映像区間を決定することができる。重要なイベントとなる映像区間を自動的に効率良く決定することで、ダイジェスト視聴やハイライト視聴を実現することができるメタデータを自動的に付与することができる。したがって、メタデータ付与装置や、ダイジェスト再生装置等に、本発明を適用することができる。   According to the present invention, it is possible to appropriately identify the convergence point of an event and determine a video section that becomes an event. By automatically and efficiently determining a video section that is an important event, metadata that can realize digest viewing and highlight viewing can be automatically assigned. Therefore, the present invention can be applied to a metadata providing device, a digest playback device, and the like.

本発明の映像区間決定装置1000の機能ブロック図。The functional block diagram of the image area determination apparatus 1000 of this invention. カット点情報200を示す図。The figure which shows the cut point information 200. FIG. カメラワーク情報300およびカメラワークの種類を示す図。The figure which shows the camera work information 300 and the kind of camera work. テロップ情報400を示す図。The figure which shows the telop information 400. イベント発生情報500を示す図。The figure which shows the event generation information 500. FIG. イベント状況情報600を示す図。The figure which shows the event status information 600. FIG. カメラパラメータ数700を示す図。The figure which shows the camera parameter number 700. FIG. イベント収束点表800を示す図。The figure which shows the event convergence point table. 映像区間決定装置1000の動作を示すフローチャート。The flowchart which shows operation | movement of the video area determination apparatus 1000. イベント発生検出部109がイベントの発生を検出する処理を示すフローチャート。The flowchart which shows the process which the event generation | occurrence | production detection part 109 detects generation | occurrence | production of an event. イベント状況算出部111が、イベント状況を算出する処理を示すフローチャート。The flowchart which shows the process which the event condition calculation part 111 calculates an event condition. 各イベントの収束点までの定義を示す図。The figure which shows the definition to the convergence point of each event. 各イベントのカメラワークの特徴の、一例を示した図。The figure which showed an example of the characteristic of the camera work of each event. イベント収束点特定部113が、イベントの収束点を決定する処理を示すフローチャート。The flowchart which shows the process in which the event convergence point specific | specification part 113 determines the convergence point of an event. カメラワークの特徴に基づいて、イベントの収束点を決定する処理を示した図。The figure which showed the process which determines the convergence point of an event based on the characteristic of camera work. イベント収束点特定部113が、カメラパラメータ数を用いてイベントの収束点を決定する処理を示すフローチャート。The flowchart which shows the process in which the event convergence point specific | specification part 113 determines the convergence point of an event using the number of camera parameters. 映像コンテンツがゴルフ番組である場合の、カメラワークの特徴を示した図。The figure which showed the characteristic of the camera work in case a video content is a golf program.

符号の説明Explanation of symbols

101 映像記憶部
102 カット点検出部
103 カット点記憶部
104 カメラワーク検出部
105 カメラワーク記憶部
106 カメラワーク計数部
107 テロップ検出部
108 テロップ情報記憶部
109 イベント発生検出部
110 イベント発生情報取得部
111 イベント状況算出部
112 イベント状況記憶部
113 イベント収束点特定部
114 メタデータ記憶部
101 Video storage unit 102 Cut point detection unit 103 Cut point storage unit 104 Camera work detection unit 105 Camera work storage unit 106 Camera work counting unit 107 Telop detection unit 108 Telop information storage unit 109 Event generation detection unit 110 Event generation information acquisition unit 111 Event situation calculation unit 112 Event situation storage unit 113 Event convergence point identification unit 114 Metadata storage unit

Claims (9)

複数のカットにより構成される映像コンテンツから、一部分の映像の映像区間を決定する映像区間決定装置であって、
カットごとに、前記カットにおけるカメラの動きを示すカメラワークを記憶しているカメラワーク記憶手段と、
連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断手段と、
一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定手段とを備える
ことを特徴とする映像区間決定装置。
A video section determination device that determines a video section of a part of a video from video content composed of a plurality of cuts,
Camera work storage means for storing camera work indicating the movement of the camera in the cut for each cut;
A judging means for judging whether or not a series of camerawork patterns of a plurality of continuous cuts match a predetermined camerawork pattern;
A video section determination apparatus comprising: a determination unit that determines a predetermined time point determined according to the pattern as a boundary of a video section when it is determined that they match.
前記映像区間決定装置は、さらに、
映像コンテンツにおける、各カットの開始時点および終了時点を記憶するカット点記憶手段を備え、
前記決定手段は、前記判断手段による判断の対象となった各カットから、前記パターンに応じて定まる所定のカットを選択し、選択したカットの開始時点または/および終了時点に基づいて前記所定の時点を定めることにより前記決定を行う
ことを特徴とする請求項1記載の映像区間決定装置。
The video section determination device further includes:
In the video content, comprising cut point storage means for storing the start time and end time of each cut,
The determination unit selects a predetermined cut determined according to the pattern from each cut that is a target of determination by the determination unit, and the predetermined time point based on a start time and / or end time of the selected cut. The video section determination device according to claim 1, wherein the determination is performed by defining
前記映像区間決定装置は、さらに、
前記映像区間の開始点を示す開始点情報を取得する取得手段を備え、
前記判断手段は、前記取得した開始点情報に示される開始点を含む開始点カットを前記カット点記憶手段から特定する開始点カット特定部を含み、
前記開始点カットを含む前記連続する複数のカットで前記判断を行い、
前記決定手段は、前記選択したカットの開始時点または/および終了時点に基づいて前記映像区間の収束点を定め、前記開始点および前記収束点を、前記境界として決定する
ことを特徴とする請求項2記載の映像区間決定装置。
The video section determination device further includes:
An acquisition means for acquiring start point information indicating a start point of the video section;
The determination unit includes a start point cut specifying unit that specifies a start point cut including the start point indicated in the acquired start point information from the cut point storage unit,
Making the determination with the plurality of consecutive cuts including the starting point cut;
The determination means determines a convergence point of the video section based on a start time and / or an end time of the selected cut, and determines the start point and the convergence point as the boundary. 2. The video section determining device according to 2.
前記映像区間決定装置は、さらに、
前記映像コンテンツの映像中に表示されているテロップが示す情報を、前記テロップの表示時刻と対応づけたテロップ情報を記憶しているテロップ記憶手段を備え、
前記取得手段は、前記テロップが示す情報に応じて定まる所定のテロップの表示時刻を前記開始点情報として取得する
ことを特徴とする請求項3記載の映像区間決定装置。
The video section determination device further includes:
Telop storage means for storing telop information in which information indicated by the telop displayed in the video of the video content is associated with the display time of the telop,
The video section determination device according to claim 3, wherein the acquisition unit acquires a display time of a predetermined telop determined according to information indicated by the telop as the start point information.
前記映像区間決定装置は、さらに、
映像コンテンツ中の出来事の状況を示すイベント状況情報を記憶しているイベント状況記憶手段を備え、
前記決定手段は、前記パターンおよび前記イベント状況情報に示される前記状況に基づいて、前記所定の時点を定めて、前記境界として決定する
ことを特徴とする請求項1記載の映像区間決定装置。
The video section determination device further includes:
Event status storage means for storing event status information indicating the status of events in video content,
2. The video section determining apparatus according to claim 1, wherein the determining unit determines the predetermined time point and determines the boundary as the boundary based on the situation indicated by the pattern and the event situation information.
前記映像区間決定装置は、さらに、
前記映像コンテンツの映像中に表示されているテロップが示す情報を、前記テロップの表示時刻と対応づけたテロップ情報を記憶しているテロップ記憶手段と、
前記テロップ情報に基づいて、前記イベント状況情報を生成して前記イベント状況記憶手段に記憶させるイベント状況算出手段とを備え、
前記決定手段は、前記イベント状況算出手段が算出して前記イベント状況記憶手段に記憶させたイベント状況情報を用いて前記決定を行う
ことを特徴とする請求項5記載の映像区間決定装置。
The video section determination device further includes:
Telop storage means for storing telop information in which information indicated by the telop displayed in the video of the video content is associated with the display time of the telop;
An event situation calculation means for generating the event situation information based on the telop information and storing it in the event situation storage means,
6. The video section determination device according to claim 5, wherein the determination unit performs the determination using event status information calculated by the event status calculation unit and stored in the event status storage unit.
前記カメラワーク記憶手段は、さらに、
前記カットごとに、前記カメラワークの種類の数を示すカメラパラメータ数を記憶しており、
前記決定手段は、前記パターンおよび前記判断にかかる各カットのカメラパラメータ数の増減に基づいて、前記所定の時点を定めて、前記境界として決定する
ことを特徴とする請求項1記載の映像区間決定装置。
The camera work storage means further includes:
Stores the number of camera parameters indicating the number of types of the camera work for each cut,
The video section determination according to claim 1, wherein the determination unit determines the predetermined time point and determines the boundary as the boundary based on the pattern and an increase or decrease in the number of camera parameters of each cut for the determination. apparatus.
複数のカットにより構成される映像コンテンツから、一部分の映像の映像区間を決定する処理を行い、カットごとに、前記カットにおけるカメラの動きを示すカメラワークを記憶する記憶手段を備える映像区間決定装置において用いられる映像区間決定方法であって、
連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断ステップと、
一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定ステップとを含む
ことを特徴とする映像区間決定方法。
In a video section determination device comprising a storage means for storing a camera work indicating the movement of a camera in a cut for each cut, by performing processing for determining a video section of a part of the video from video content constituted by a plurality of cuts A video segment determination method used,
A determination step of determining whether or not a series of camerawork patterns of a plurality of consecutive cuts match a predetermined camerawork pattern;
A determination step of determining a predetermined time point determined according to the pattern as a boundary of the image interval when it is determined that they match.
複数のカットにより構成される映像コンテンツの、前記カットにおけるカメラの動きを示すカメラワークをカットごとに記憶する記憶手段を備える映像区間決定装置に、前記映像コンテンツから一部分の映像の映像区間を決定する処理を行わせる制御プログラムであって、
連続する複数のカットの、一連のカメラワークのパターンが、所定のカメラワークのパターンと一致するか否かを判断する判断ステップと、
一致すると判断されるときに、前記パターンに応じて定まる所定の時点を、映像区間の境界として決定する決定ステップとを含む
ことを特徴とする制御プログラム。
A video section of a part of video is determined from the video content in a video section determination device including a storage unit that stores, for each cut, camera work indicating camera movement in the cut of video content configured by a plurality of cuts. A control program for performing processing,
A determination step of determining whether or not a series of camerawork patterns of a plurality of consecutive cuts match a predetermined camerawork pattern;
And a determining step of determining a predetermined time point determined according to the pattern as a boundary of the video section when it is determined that the two match.
JP2006172524A 2006-06-22 2006-06-22 Video section determining device, method, and program Pending JP2008005204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006172524A JP2008005204A (en) 2006-06-22 2006-06-22 Video section determining device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006172524A JP2008005204A (en) 2006-06-22 2006-06-22 Video section determining device, method, and program

Publications (1)

Publication Number Publication Date
JP2008005204A true JP2008005204A (en) 2008-01-10

Family

ID=39009226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006172524A Pending JP2008005204A (en) 2006-06-22 2006-06-22 Video section determining device, method, and program

Country Status (1)

Country Link
JP (1) JP2008005204A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166256A (en) * 2009-01-14 2010-07-29 Sony Corp Information processor, information processing method, and program
JP2010276843A (en) * 2009-05-28 2010-12-09 Panasonic Corp Camera device with turntable
JP2016048853A (en) * 2014-08-27 2016-04-07 富士通株式会社 Information processing program, method, and device
JP2016107001A (en) * 2014-12-10 2016-06-20 富士通株式会社 Extraction program, method, and device
JP2017169992A (en) * 2016-03-25 2017-09-28 株式会社Jvcケンウッド Display device, display method and display program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166256A (en) * 2009-01-14 2010-07-29 Sony Corp Information processor, information processing method, and program
US9734406B2 (en) 2009-01-14 2017-08-15 Sony Corporation Information processing device, information processing method and program
JP2010276843A (en) * 2009-05-28 2010-12-09 Panasonic Corp Camera device with turntable
US9091904B2 (en) 2009-05-28 2015-07-28 Panasonic Intellectual Property Management Co., Ltd. Camera device with rotary base
JP2016048853A (en) * 2014-08-27 2016-04-07 富士通株式会社 Information processing program, method, and device
US10115318B2 (en) 2014-08-27 2018-10-30 Fujitsu Limited Information processing method and device
JP2016107001A (en) * 2014-12-10 2016-06-20 富士通株式会社 Extraction program, method, and device
US10134445B2 (en) 2014-12-10 2018-11-20 Fujitsu Limited Method of extracting a point from footage of a baseball game
JP2017169992A (en) * 2016-03-25 2017-09-28 株式会社Jvcケンウッド Display device, display method and display program

Similar Documents

Publication Publication Date Title
US9432629B2 (en) Interactive viewing of sports video
US8988528B2 (en) Video processing device, video processing method, and program
US8358346B2 (en) Video processing device, video processing method, and program
JP5667943B2 (en) Computer-executed image processing method and virtual reproduction unit
JP6307892B2 (en) Extraction program, method, and apparatus, and baseball video meta information creation apparatus, method, and program
JP6260292B2 (en) Information processing program, method, and apparatus, and baseball video meta information creation apparatus, method, and program
US20030081937A1 (en) Summarization of video content
JP4308798B2 (en) Event importance adjustment method and apparatus for implementing the method
TWI590856B (en) Extraction method and device
CN112533003B (en) Video processing system, device and method
US20080269924A1 (en) Method of summarizing sports video and apparatus thereof
JP2008005204A (en) Video section determining device, method, and program
TWI616101B (en) Non-transitory computer-readable storage medium, playback control method, and playback control device
TWI579026B (en) Information processing method and device
JP6660784B2 (en) Display control program, method, and display control device
US10200764B2 (en) Determination method and device
JP2007174260A (en) Device for producing digest information
JP2003143546A (en) Method for processing football video
JP6303525B2 (en) Extraction program, method, and apparatus, and baseball video meta information creation apparatus, method, and program