JP6917788B2 - Summary video generator and program - Google Patents

Summary video generator and program Download PDF

Info

Publication number
JP6917788B2
JP6917788B2 JP2017114206A JP2017114206A JP6917788B2 JP 6917788 B2 JP6917788 B2 JP 6917788B2 JP 2017114206 A JP2017114206 A JP 2017114206A JP 2017114206 A JP2017114206 A JP 2017114206A JP 6917788 B2 JP6917788 B2 JP 6917788B2
Authority
JP
Japan
Prior art keywords
video
cut
score
summary video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017114206A
Other languages
Japanese (ja)
Other versions
JP2018206292A (en
Inventor
貴裕 望月
貴裕 望月
松井 淳
淳 松井
吉彦 河合
吉彦 河合
伶 遠藤
伶 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017114206A priority Critical patent/JP6917788B2/en
Publication of JP2018206292A publication Critical patent/JP2018206292A/en
Application granted granted Critical
Publication of JP6917788B2 publication Critical patent/JP6917788B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、コンピュータ及びハードディスクを用いた映像処理分野において、要約映像を生成する装置及びプログラムに関する。 The present invention relates to an apparatus and a program for generating a summary video in the field of video processing using a computer and a hard disk.

従来、放送局では、視聴者の番組への関心を高める媒体として、番組HP等の「ネット用コンテンツ」の必要性が高まっている。ネット用コンテンツにおいては、番組映像中の重要な映像区間のみで構成されたダイジェスト映像(要約映像)を配信することが望ましい。 Conventionally, in broadcasting stations, there is an increasing need for "contents for the Internet" such as program HP as a medium for increasing viewers' interest in programs. For online content, it is desirable to distribute a digest video (summary video) consisting of only important video sections in the program video.

しかしながら、要約映像を人手により制作することは、労力及び費用の両面でコストが非常に高くなってしまう。このため、要約映像を自動的に生成する技術が望まれている。要約映像を自動的に生成する技術として、例えば特許文献1〜5の手法が提案されている。 However, manually producing a summary video is very costly in terms of both labor and cost. Therefore, a technique for automatically generating a summary video is desired. As a technique for automatically generating a summary video, for example, the methods of Patent Documents 1 to 5 have been proposed.

特許文献1の手法は、映像のモーダル毎に映像を複数の映像区間に分割し、2つの映像区間の類似度を求め、類似度に基づいて映像区間をクラスタリングする。そして、複数のクラスタのそれぞれから代表的な映像区間を抽出し、代表的な映像区間を結合することで要約映像を生成する。 In the method of Patent Document 1, the video is divided into a plurality of video sections for each modal of the video, the similarity between the two video sections is obtained, and the video sections are clustered based on the similarity. Then, a representative video section is extracted from each of the plurality of clusters, and a summary video is generated by combining the representative video sections.

特許文献2の手法は、映像毎の類似度に基づいて映像間で対応区間を生成し、対応区間から共通映像区間及び個別映像区間を抽出し、共通映像区間から共通要約区間を選択すると共に、個別映像区間から個別要約区間を選択する。そして、共通要約区間及び個別要約区間を統合して要約映像を生成する。 In the method of Patent Document 2, a corresponding section is generated between videos based on the similarity of each video, a common video section and an individual video section are extracted from the corresponding section, a common summary section is selected from the common video section, and a common summary section is selected. Select an individual summary section from the individual video sections. Then, the common summary section and the individual summary section are integrated to generate a summary video.

特許文献3の手法は、メタデータ及び特徴量に基づいて、複数の映像区間から1つ以上の映像区間を選択し、所定の評価関数の評価値を最大とする映像区間の集合を求め、映像区間の集合を結合して要約映像を生成する。 The method of Patent Document 3 selects one or more video sections from a plurality of video sections based on metadata and feature quantities, obtains a set of video sections that maximizes the evaluation value of a predetermined evaluation function, and obtains a video. A summary video is generated by combining a set of intervals.

特許文献4の手法は、映像に対して画像特徴量及び音声特徴量を求め、画像特徴量及び音声特徴量に基づいて、映像の処理単位の重要度を算出し、重要度に基づいて要約映像を生成する。 In the method of Patent Document 4, the image feature amount and the audio feature amount are obtained from the video, the importance of the image processing unit is calculated based on the image feature amount and the audio feature amount, and the summary image is based on the importance. To generate.

特許文献5の手法は、元映像から時間の短い分割映像を生成し、分割映像毎に、ブロック領域を視覚単語とみなし、視覚単語の特徴量に基づいてスコアを算出し、スコアの高い順に分割映像を選択して要約映像を生成する。 In the method of Patent Document 5, a divided video having a short time is generated from the original video, the block area is regarded as a visual word for each divided video, a score is calculated based on the feature amount of the visual word, and the score is divided in descending order. Select a video to generate a summary video.

特開2014−179906号公報Japanese Unexamined Patent Publication No. 2014-179906 特開2013−126233号公報Japanese Unexamined Patent Publication No. 2013-126233 特開2012−19305号公報Japanese Unexamined Patent Publication No. 2012-19305 特開2014−33417号公報Japanese Unexamined Patent Publication No. 2014-33417 特開2012−10265号公報Japanese Unexamined Patent Publication No. 2012-10265

前述の特許文献1,2の手法は、映像区間同士の類似度または共通区間の有無に基づいて、要約映像を生成するものである。しかし、これらの手法は、類似した映像区間が繰り返し出現することを前提とするものであるため、類似した映像区間が繰り返し出現するとは限らない一般の放送番組映像へ適用することは難しい。 The methods of Patent Documents 1 and 2 described above generate a summary video based on the degree of similarity between video sections or the presence or absence of a common section. However, since these methods are premised on the repeated appearance of similar video sections, it is difficult to apply them to general broadcast program images in which similar video sections do not always appear repeatedly.

また、前述の特許文献3の手法は、基本的な画像の特徴量、音声の特徴量及び付与されたメタデータに基づいて、要約映像を生成するものである。しかし、映像に対して詳細なメタデータを予め付与しておく必要があり、処理負荷が高い。 Further, the method of Patent Document 3 described above generates a summary video based on a basic image feature amount, an audio feature amount, and added metadata. However, it is necessary to add detailed metadata to the video in advance, and the processing load is high.

また、前述の特許文献4,5の手法は、メタデータを利用することなく、基本的な画像の特徴量及び音声の特徴量に基づいて、要約映像を生成するものである。これらの手法は、メタデータを利用しないから、特許文献3の手法に比べて処理負荷が低い。 Further, the methods of Patent Documents 4 and 5 described above generate a summary video based on a basic image feature amount and an audio feature amount without using metadata. Since these methods do not use metadata, the processing load is lower than that of the method of Patent Document 3.

これらの特許文献1〜5の手法は、いずれも要約映像を生成するものであるが、映像に現れる演出を考慮していない。このため、要約映像には、演出の観点からみた重要な場面が含まれない場合がある。ここで、演出とは、脚本等に基づいて、所定の意図を達成するように表現し、効果的に見せることをいう。例えば放送番組映像の演出としては、テロップ表示、メインの出演者またはゲストの登場、カメラのズームインまたはパンニング、説明用のCG映像等の要素がある。これらの要素は、映像の中で重要な場面に使用される傾向が高い。 All of these methods of Patent Documents 1 to 5 generate a summary video, but do not consider the effect appearing in the video. Therefore, the summary video may not include important scenes from the viewpoint of production. Here, the production means expressing and effectively showing a predetermined intention based on a script or the like. For example, the production of a broadcast program image includes elements such as telop display, appearance of a main performer or guest, zooming in or panning of a camera, and CG image for explanation. These elements are more likely to be used in important scenes in the video.

一般に、要約映像は、重要な区間の映像のみで構成されることが望ましい。このため、映像に対して演出による効果の程度を求め、効果の高い区間を重要な区間として特定し、重要な区間の映像を結合して要約映像を生成することが所望されていた。 In general, it is desirable that the summary video is composed of only the video of important sections. For this reason, it has been desired to obtain the degree of effect of the effect on the video, specify the section with high effect as an important section, and combine the video of the important section to generate a summary video.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像に現れる演出を考慮することで、重要な区間の映像のみで構成される要約映像を生成可能な要約映像生成装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object of the present invention is to generate a summary video composed of only videos of important sections by considering the effect appearing in the video. The purpose is to provide a generator and a program.

前記課題を解決するために、請求項1の要約映像生成装置は、映像から要約映像を生成する要約映像生成装置において、前記映像をカット単位の複数のカット映像に分割するカット分割部と、前記カット分割部により分割された前記複数のカット映像から、同じ場面の一連のカット映像を統合し、シーン単位のシーン映像を生成するシーン生成部と、前記カット分割部により分割された前記複数のカット映像のそれぞれについて、所定数の異なる演出毎に、当該演出の重要度を表すスコアを算出するスコア算出部と、前記カット分割部により分割された前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコアに基づいて、総合スコアを算出する総合スコア算出部と、前記総合スコア算出部により算出された前記総合スコアに基づいて、前記複数のカット映像から、前記要約映像を構成するカット映像を選択し、前記要約映像を生成する要約映像生成部と、を備え、前記要約映像生成部が、前記シーン生成部により生成された前記シーン映像の中から前記カット映像を選択する際に、前記シーン映像の中から選択する前記カット映像の数が所定値を超えないようにする、ことを特徴とする。 In order to solve the above problem, the summary video generation device according to claim 1 is a summary video generation device that generates a summary video from a video, and includes a cut division unit that divides the video into a plurality of cut videos in cut units, and the above. A scene generation unit that integrates a series of cut images of the same scene from the plurality of cut images divided by the cut division unit to generate a scene image for each scene, and the plurality of cuts divided by the cut division unit. For each of the images, a score calculation unit that calculates a score indicating the importance of the effect for each of a predetermined number of different effects, and a score calculation unit for each of the plurality of cut images divided by the cut division unit. Based on the total score calculation unit that calculates the total score based on the score for each effect calculated by the above, and the summary video from the plurality of cut images based on the total score calculated by the total score calculation unit. A summary video generation unit that selects the cut video that constitutes the above and generates the summary video, and the summary video generation unit selects the cut video from the scene video generated by the scene generation unit. The feature is that the number of the cut images selected from the scene images does not exceed a predetermined value.

また、請求項2の要約映像生成装置は、請求項1に記載の要約映像生成装置において、前記総合スコア算出部が、前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコア、及び予め設定された演出毎の重み係数に基づいて、前記総合スコアを算出する、ことを特徴とする。 Further, the summary video generation device according to claim 2 is the effect calculated by the score calculation unit for each of the plurality of cut videos by the total score calculation unit in the summary video generation device according to claim 1. It is characterized in that the total score is calculated based on the score for each and the weighting coefficient for each effect set in advance.

また、請求項の要約映像生成装置は、請求項1または2に記載の要約映像生成装置において、前記スコア算出部が、前記演出に関連する対象が前記映像内に現れる面積、前記演出に関連する対象の動きの量、または前記演出に関連する対象が現れる確率に基づいて、前記スコアを算出する、ことを特徴とする。 Further, in the summary video generation device according to claim 3, in the summary video generation device according to claim 1 or 2 , the score calculation unit determines the area where an object related to the effect appears in the video, and is related to the effect. The score is calculated based on the amount of movement of the target to be performed or the probability that the target related to the effect appears.

また、請求項の要約映像生成装置は、請求項1から3までのいずれか一項に記載の要約映像生成装置において、前記要約映像生成部が、前記カット分割部により分割された前記複数のカット映像から、前記総合スコア算出部により算出された前記総合スコアに従って前記演出の重要度の高い順番に、前記シーン生成部により生成された前記シーン映像の中から選択する前記カット映像の数が所定値を超えないように、前記要約映像の全体の長さが所定値を超えるまで、前記要約映像を構成するカット映像を選択する要約映像選択部と、前記要約映像選択部により選択された前記カット映像を時系列に連結し、前記要約映像を生成する要約映像出力部と、を備えたことを特徴とする。 Further, in the summary video generation device according to claim 4, in the summary video generation device according to any one of claims 1 to 3 , the summary video generation unit is divided by the cut division unit. From the cut video, the number of the cut video to be selected from the scene video generated by the scene generation unit is determined in descending order of importance of the effect according to the total score calculated by the total score calculation unit. The summary video selection unit that selects the cut video that constitutes the summary video and the cut selected by the summary video selection unit until the total length of the summary video exceeds a predetermined value so as not to exceed the value. It is characterized by including a summary video output unit that connects videos in chronological order and generates the summary video.

さらに、請求項のプログラムは、コンピュータを、請求項1からまでのいずれか一項に記載の要約映像生成装置として機能させることを特徴とする。 Further, the program of claim 5 is characterized in that the computer functions as the summary video generation device according to any one of claims 1 to 4.

以上のように、本発明によれば、映像に現れる演出を考慮することで、重要な区間の映像のみで構成される要約映像を生成することが可能となる。 As described above, according to the present invention, it is possible to generate a summary video composed of only the video of an important section by considering the effect appearing in the video.

本発明の実施形態による要約映像生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the summary video generation apparatus by embodiment of this invention. カット系列VC[1],...,VC[NC]及びシーン系列VS[1],...,VS[NS]を説明する図である。It is a figure explaining the cut series V C [1], ..., V C [N C ] and the scene series V S [1], ..., V S [N S]. 要素スコア算出部の構成例及び入出力データ例を示すブロック図である。It is a block diagram which shows the structural example of the element score calculation part, and the input / output data example. 総合スコア算出部の構成例及び入出力データ例を示すブロック図である。It is a block diagram which shows the structural example of the total score calculation part, and the input / output data example. 要約映像生成部の構成例及び入出力データ例を示すブロック図である。It is a block diagram which shows the structural example of the summary video generation part, and the input / output data example. 要約映像生成部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the summary video generation part. 図6のフローチャートを説明する図である。It is a figure explaining the flowchart of FIG.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、映像に現れる演出(例えばテロップ、出演者、カメラワークの動き量、説明用のCG映像等)による効果の程度を重要度として求め、効果の高い区間を重要な区間として特定し、重要な区間の映像を結合して要約映像を生成することを特徴とする。これにより、重要な区間の映像のみで構成される要約映像が生成される。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the present invention, the degree of effect due to the effect (for example, telop, performer, amount of movement of camera work, CG image for explanation, etc.) appearing in the image is determined as the importance, and the section with high effect is specified as the important section. It is characterized by combining images of important sections to generate a summary image. As a result, a summary video composed of only the video of the important section is generated.

〔全体構成〕
まず、本発明の実施形態による要約映像生成装置の全体構成について説明する。図1は、本発明の実施形態による要約映像生成装置の構成例を示すブロック図である。この要約映像生成装置1は、カット分割部10、シーン生成部11、要素スコア算出部12、総合スコア算出部13及び要約映像生成部14を備えている。
〔overall structure〕
First, the overall configuration of the summary video generator according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a summary video generator according to an embodiment of the present invention. The summary video generation device 1 includes a cut division unit 10, a scene generation unit 11, an element score calculation unit 12, a total score calculation unit 13, and a summary video generation unit 14.

カット分割部10は、番組映像を入力し、番組映像をカット単位のカット映像VC[i](i=1,...,NC)に分割する「カット映像分割処理」を行い、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を生成する。そして、カット分割部10は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]をシーン分割部11及び要素スコア算出部12に出力する。 Cut dividing unit 10 receives the program video, cut program image cut unit video V C [i] (i = 1, ..., N C) performs "Cut image division processing" is divided into cut Generates a cut series V C [1], ..., V C [N C ] consisting of video V C [i]. Then, the cut division unit 10 outputs the cut series V C [1], ..., V C [N C ] composed of the cut video V C [i] to the scene division unit 11 and the element score calculation unit 12.

パラメータi=1,...,NCは、カット映像VC[i]の番号(カット番号)を示し、NCは、カット映像VC[i]の数を示す。カット映像VC[i]は、カメラが切り替るまでの間に、切れ目なく連続して撮影された映像である。 Parameter i = 1, ..., N C represents the cut video V C [i] number (cut number), N C indicates the number of cut video V C [i]. The cut image V C [i] is an image taken continuously without a break until the camera is switched.

尚、「カット映像分割処理」は既知であり、詳細については、例えば特開2008−33749号公報を参照されたい。 The "cut video division process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2008-33749.

シーン生成部11は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力する。そして、シーン生成部11は、同じ場面のカット映像VC[i]を統合してシーン境界を検出し、シーン単位のシーン映像VS[j](j=1,...,NS)を生成する「シーン映像生成処理」を行い、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を生成する。シーン生成部11は、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を要約映像生成部14に出力する。 The scene generation unit 11 inputs the cut series V C [1], ..., V C [N C ] composed of the cut video V C [i] from the cut division unit 10. Then, the scene generation unit 11 integrates the cut video V C [i] of the same scene to detect the scene boundary, and the scene video V S [j] (j = 1, ..., N S ) for each scene. Performs the "scene video generation process" to generate the scene series V S [1], ..., V S [N S ] consisting of the scene video V S [j]. The scene generation unit 11 outputs the scene series V S [1], ..., V S [N S ] composed of the scene video V S [j] to the summary video generation unit 14.

パラメータj=1,...,NSは、シーン映像VS[j]の番号(シーン番号)を示し、NSは、シーン映像VS[j]の数を示す。シーン映像VS[j]は、ある場面における一連のカット映像VC[i]を複数まとめた映像である。 Parameter j = 1, ..., N S denotes the scene image V S [j] number (scene number), N S denotes the number of scene image V S [j]. The scene video V S [j] is a video that summarizes a series of cut video V C [i] in a certain scene.

尚、「シーン映像生成処理」は既知であり、詳細については、例えば特開2014−225118号公報、特開2014−33355号公報を参照されたい。 The "scene image generation process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2014-225118 and Japanese Patent Application Laid-Open No. 2014-33355.

図2は、カット系列VC[1],...,VC[NC]及びシーン系列VS[1],...,VS[NS]を説明する図である。カット系列VC[1],...,VC[NC]は、番組映像をカット単位に分割することにより生成され、シーン系列VS[1],...,VS[NS]は、カット系列VC[1],...,VC[NC]を同じ場面毎に統合することで生成される。 FIG. 2 is a diagram illustrating a cut series V C [1], ..., V C [N C ] and a scene series V S [1], ..., V S [N S ]. The cut series V C [1], ..., V C [N C ] is generated by dividing the program video into cut units, and the scene series V S [1], ..., V S [N S]. ] Is generated by integrating the cut series V C [1], ..., V C [N C ] for each scene.

図2の例では、シーン映像VS[1]は、カット映像VC[1],VC[2],VC[3]を統合した映像であり、シーン映像VS[2]は、カット映像VC[4],VC[5]を統合した映像である。また、シーン映像VS[NS]は、カット映像VC[NC-1],VC[NC]を統合した映像である。このように、カット映像VC[i]は、シーン映像VS[j]のいずれかに属することとなる。 In the example of FIG. 2, the scene image V S [1] is an image in which the cut image V C [1], V C [2], and V C [3] are integrated, and the scene image V S [2] is Cut video This is a video that integrates V C [4] and V C [5]. The scene video V S [N S ] is a video that integrates the cut video V C [N C -1] and V C [N C]. In this way, the cut video V C [i] belongs to any of the scene video V S [j].

図1に戻って、要素スコア算出部12は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力する。そして、要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、当該カット映像VC[i]に基づいて重要度を表す要素スコアS1[i]〜S4[i]を算出する。 Returning to FIG. 1, the element score calculation unit 12 inputs the cut series V C [1], ..., V C [N C ] composed of the cut video V C [i] from the cut division unit 10. Then, the element score calculation unit 12 sets the cut image V for each cut image V C [i] for each of the four element productions consisting of "telop", "face recognition", "camera work", and "CG image-likeness". Calculate the element scores S 1 [i] to S 4 [i] that represent the importance based on C [i].

重要度を表す要素スコアには、カット映像VC[i]に現れる演出による効果の程度が反映される。カット映像VC[i]についての「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」の要素スコアをそれぞれ、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]とする。 The element score, which indicates the degree of importance, reflects the degree of effect of the effect that appears in the cut video V C [i]. The element scores of "telop", "face recognition", "camera work", and "CG image-likeness" for the cut video V C [i] are the telop score S 1 [i], face recognition score S 2 [i], and camera, respectively. Work score S 3 [i] and CG image quality score S 4 [i].

要素スコア算出部12は、要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を生成する。 The element score calculation unit 12 has element scores S 1 [i] to S 4 [i] (telop score S 1 [i], face recognition score S 2 [i], camera work score S 3 [i], and CG image-likeness. Element score series consisting of score S 4 [i]) S 1 [1], ..., S 1 [N C ], S 2 [1], ..., S 2 [N C ], S 3 [1] ], ..., S 3 [N C ], S 4 [1], ..., S 4 [N C ].

要素スコア算出部12は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を、総合スコア算出部13に出力する。要素スコア算出部12の詳細については後述する。 The element score calculation unit 12 includes a cut series V C [1], ..., V C [N C ] composed of cut images V C [i], and element scores S 1 [i] to S 4 [i] ( Element score series S 1 [1], ... consisting of telop score S 1 [i], face recognition score S 2 [i], camera work score S 3 [i] and CG image-likeness score S 4 [i]) , S 1 [N C ], S 2 [1], ..., S 2 [N C ], S 3 [1], ..., S 3 [N C ], S 4 [1], .. ., S 4 [N C ] is output to the total score calculation unit 13. The details of the element score calculation unit 12 will be described later.

総合スコア算出部13は、要素スコア算出部12から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び要素スコアS1[i]〜S4[i]からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を入力する。 From the element score calculation unit 12, the total score calculation unit 13 includes a cut series V C [1], ..., V C [N C ] composed of cut images V C [i], and an element score S 1 [i]. Element score series consisting of ~ S 4 [i] S 1 [1], ..., S 1 [N C ], S 2 [1], ..., S 2 [N C ], S 3 [1] , ..., S 3 [N C ], S 4 [1], ..., S 4 [N C ].

総合スコア算出部13は、各カット映像VC[i]について、予め設定された重み係数W1〜W4を用いて要素スコアS1[i]〜S4[i]を統合し、総合スコアS[i]を算出し、総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を生成する。そして、総合スコア算出部13は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を要約映像生成部14に出力する。総合スコア算出部13の詳細については後述する。 The total score calculation unit 13 integrates the element scores S 1 [i] to S 4 [i] for each cut video V C [i] using preset weighting coefficients W 1 to W 4, and the total score is calculated. Calculate S [i] and generate the total score series S [1], ..., S [N C] consisting of the total score S [i]. Then, the total score calculation unit 13 includes a cut series V C [1], ..., V C [N C ] composed of the cut video V C [i], and a total score series S composed of the total score S [i]. Output [1], ..., S [N C ] to the summary video generation unit 14. The details of the total score calculation unit 13 will be described later.

要約映像生成部14は、総合スコア算出部13から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を入力する。また、要約映像生成部14は、シーン生成部11から、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を入力する。 The summary video generation unit 14 is from the total score calculation unit 13, from the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i], and from the total score S [i]. Enter the total score series S [1], ..., S [N C]. Further, the summary video generation unit 14 inputs the scene series V S [1], ..., V S [N S ] composed of the scene video V S [j] from the scene generation unit 11.

要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまで、要約映像を構成するカット映像VC[i]を選択する。そして、要約映像生成部14は、選択したカット映像VC[i]を時系列に(フレーム番号の早い順に)ソートして連結することで要約映像を生成し、要約映像を出力する。要約映像生成部14の詳細については後述する。 The summary video generation unit 14 refers to the total score S [i] and the scene video V S [j], and constitutes the summary video V C [i] until the length of the entire summary video exceeds a predetermined value. Select. Then, the video summary generation unit 14 generates a video summary by concatenating cut video V C selected [i] (in ascending order of frame numbers) in a time series sorted, and outputs the video summary. The details of the summary video generation unit 14 will be described later.

〔要素スコア算出部12〕
次に、図1に示した要素スコア算出部12について詳細に説明する。前述のとおり、要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、当該カット映像VC[i]に基づいてテロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]を算出する。
[Element score calculation unit 12]
Next, the element score calculation unit 12 shown in FIG. 1 will be described in detail. As described above, the element score calculation unit 12 cuts each cut image V C [i] for each of the four element productions consisting of "telop", "face recognition", "camera work", and "CG image-likeness". Based on the video V C [i], the telop score S 1 [i], the face recognition score S 2 [i], the camera work score S 3 [i], and the CG video-likeness score S 4 [i] are calculated.

図3は、要素スコア算出部12の構成例及び入出力データ例を示すブロック図である。この要素スコア算出部12は、テロップ領域検出部20、顔認識処理部21、カメラワーク算出部22、CG映像らしさ算出部23、テロップスコア算出部24、顔認識スコア算出部25、カメラワークスコア算出部26及びCG映像らしさスコア算出部27を備えている。 FIG. 3 is a block diagram showing a configuration example and an input / output data example of the element score calculation unit 12. The element score calculation unit 12 includes a telop area detection unit 20, a face recognition processing unit 21, a camera work calculation unit 22, a CG image-likeness calculation unit 23, a telop score calculation unit 24, a face recognition score calculation unit 25, and a camera work score calculation. A unit 26 and a CG image-like score calculation unit 27 are provided.

要素スコア算出部12は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、これを総合スコア算出部13に出力する。 The element score calculation unit 12 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the cut division unit 10, and inputs this to the total score calculation unit. Output to 13.

テロップ領域検出部20は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、カット映像VC[i]からTフレーム毎にフレーム画像P[i,n]をサンプリングし、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を生成する。そして、テロップ領域検出部20は、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を顔認識処理部21及びCG映像らしさ算出部23に出力する。 Ticker area detection unit 20, from the cut dividing unit 10, a cut line consisting of cut video V C [i] V C [ 1], ..., V C [N C] Enter the cut video V C [i ], The frame image P [i, n] is sampled for each T frame, and the image series P [i, 1], ..., P [i, N P ] consisting of the frame image P [i, n] is generated. do. Then, the telop region detection unit 20 calculates the image series P [i, 1], ..., P [i, N P ] composed of the frame image P [i, n] by the face recognition processing unit 21 and the CG image-likeness. Output to unit 23.

パラメータn=1,...,NPは、フレーム画像P[i,n]の番号を示し、NPは、サンプリングされたフレーム画像P[i,n]の数を示す。 The parameters n = 1, ..., N P indicate the number of the frame image P [i, n], and N P indicates the number of sampled frame images P [i, n].

テロップ領域検出部20は、各フレーム画像P[i,n]について、テロップが表示されている領域を検出する「テロップ領域検出処理」を行い、テロップ領域の面積を算出し、当該フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]を算出する。そして、テロップ領域検出部20は、フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]からなる面積比率系列rTL[i,1],...,rTL[i,NP]を生成し、これをテロップスコア算出部24に出力する。このテロップ領域の面積は、当該演出に関連する対象である「テロップ」が映像内に現れる面積である。 The telop area detection unit 20 performs "telop area detection processing" for detecting the area where the telop is displayed for each frame image P [i, n], calculates the area of the telop area, and calculates the area of the telop area, and the frame image P [ Calculate the area ratio r TL [i, n] of the telop region to i, n]. The ticker area detection unit 20, the frame image P [i, n] area of telop area for the ratio r TL [i, n] consists of area ratio sequence r TL [i, 1], ..., r TL [ i, N P ] is generated and output to the telop score calculation unit 24. The area of this telop area is the area where the "telop", which is the object related to the production, appears in the image.

尚、「テロップ領域検出処理」は既知であり、詳細については、例えば特開2013−30963号公報を参照されたい。 The "telop region detection process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2013-30963.

テロップスコア算出部24は、テロップ領域検出部20から、フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]からなる面積比率系列rTL[i,1],...,rTL[i,NP]を入力する。そして、テロップスコア算出部24は、以下の式により、各カット映像VC[i]について、面積比率rTL[i,n]に基づいて、当該カット映像VC[i]のテロップスコアS1[i]を算出する。

Figure 0006917788
CTLは正規化定数であり、予め設定される。 The telop score calculation unit 24 is subjected to an area ratio series r TL [i, 1], .. Enter ., r TL [i, N P ]. Then, the telop score calculation unit 24 uses the following formula for each cut video V C [i] based on the area ratio r TL [i, n], and the telop score S 1 of the cut video V C [i]. Calculate [i].
Figure 0006917788
C TL is a normalization constant and is preset.

テロップスコアS1[i]の範囲は、0≦S1[i]≦1である。テロップスコアS1[i]は、フレーム画像P[i,n]内でテロップ領域の面積が広いほど、大きい値となり、面積が狭いほど、小さい値となる。つまり、テロップスコアS1[i]は、カット映像VC[i]において、テロップが表示される領域が広いフレーム画像P[i,n]が出現するほど、大きい値となる。テロップスコアS1[i]は、カット映像VC[i]において、テロップが表示される領域が最も広いフレーム画像P[i,n]の面積比率rTL[i,n]を、0から1までの間の範囲で正規化した値となる。 The range of the telop score S 1 [i] is 0 ≤ S 1 [i] ≤ 1. The telop score S 1 [i] becomes a large value as the area of the telop region in the frame image P [i, n] is large, and becomes a small value as the area is small. That is, the telop score S 1 [i] becomes larger as the frame image P [i, n] having a wider telop display area appears in the cut video V C [i]. The telop score S 1 [i] sets the area ratio r TL [i, n] of the frame image P [i, n], which has the widest area where the telop is displayed , from 0 to 1 in the cut video V C [i]. The value is normalized in the range up to.

テロップスコア算出部24は、テロップスコアS1[i]からなるテロップスコア系列S1[1],...,S1[NC]を生成し、これを総合スコア算出部13に出力する。 The telop score calculation unit 24 generates a telop score series S 1 [1], ..., S 1 [N C ] composed of the telop score S 1 [i], and outputs this to the total score calculation unit 13.

顔認識処理部21は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力すると共に、テロップ領域検出部20から、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を入力する。 The face recognition processing unit 21 inputs a cut series V C [1], ..., V C [N C ] composed of a cut image V C [i] from the cut division unit 10, and also inputs a telop area detection unit 20. From, input the image series P [i, 1], ..., P [i, N P] consisting of the frame image P [i, n].

顔認識処理部21は、各フレーム画像P[i,n]について、対象番組におけるメインの出演者ID[m](M名のメインの出演者ID[1],...,ID[M])を対象として、これらの顔を認識する「顔認識処理」を行い、顔領域F[i,n,k]を検出する。当該フレーム画像P[i,n]からK個の顔領域F[i,n,k]が検出されたとする。顔認識処理部21は、顔領域F[i,n,k]からなるK個の顔領域系列F[i,n,1],...,F[i,n,K]を生成する。 The face recognition processing unit 21 has, for each frame image P [i, n], the main performer ID [m] in the target program (M main performer ID [1], ..., ID [M]]. ) Is subjected to "face recognition processing" for recognizing these faces, and the face area F [i, n, k] is detected. It is assumed that K face regions F [i, n, k] are detected from the frame image P [i, n]. The face recognition processing unit 21 generates K face region sequences F [i, n, 1], ..., F [i, n, K] composed of face regions F [i, n, k].

パラメータm=1,...,Mは、メインの出演者ID[m]の番号を示し、Mは、メインの出演者ID[m]の数を示す。また、パラメータk=1,...,Kは、顔領域F[i,n,k]の番号を示し、Kは、フレーム画像P[i,n]から検出された顔領域F[i,n,k]の数を示す。 The parameters m = 1, ..., M indicate the number of the main performer ID [m], and M indicates the number of the main performer ID [m]. Further, the parameters k = 1, ..., K indicate the number of the face area F [i, n, k], and K is the face area F [i, n] detected from the frame image P [i, n]. Indicates the number of n, k].

尚、「顔認識処理」は既知であり、詳細については、例えば特開2017−33372号公報を参照されたい。 The "face recognition process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2017-333372.

顔認識処理部21は、当該フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]を算出し、K個の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]を生成する。 The face recognition processing unit 21 calculates the area ratio r FC [i, n, k] of the face area F [i, n, k] to the frame image P [i, n], and K pieces of the area ratio r FC. Generate an area ratio series r FC [i, n, 1], ..., r FC [i, n, K] consisting of [i, n, k].

顔認識処理部21は、顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]を算出する「顔確率算出処理」を行い、M個の確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を生成する。この確率pFC[i,n,k,m]は、当該演出に関連する対象である出演者ID[m]の「顔」が現れる確率である。 The face recognition processing unit 21 performs a "face probability calculation process" for calculating the probability p FC [i, n, k, m] that the face area F [i, n, k] is the face of the performer ID [m]. And generate a probability series p FC [i, n, k, 1], ..., p FC [i, n, k, M] consisting of M probabilities p FC [i, n, k, m]. do. This probability p FC [i, n, k, m] is the probability that the "face" of the performer ID [m], which is the target related to the production, appears.

尚、「顔確率算出処理」は既知であり、詳細については、「顔認識処理」と同様に、例えば特開2017−33372号公報を参照されたい。 The "face probability calculation process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2017-333372, as in the "face recognition process".

顔認識処理部21は、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]、及び、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を顔認識スコア算出部25に出力する。 The face recognition processing unit 21 has an area ratio series r FC [i, n, k] composed of an area ratio r FC [i, n, k] of the face region F [i, n, k] with respect to the frame image P [i, n]. 1], ..., r FC [i, n, K] and the face area F [i, n, k] in the frame image P [i, n] are the faces of the performer ID [m]. Face recognition score calculation unit 25 with probability series p FC [i, n, k, 1], ..., p FC [i, n, k, M] consisting of probability p FC [i, n, k, m] Output to.

顔認識スコア算出部25は、顔認識処理部21から、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]、及び、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を入力する。 The face recognition score calculation unit 25 receives from the face recognition processing unit 21 the area ratio of the face area F [i, n, k] to the frame image P [i, n] r FC [i, n, k]. The performers are the series r FC [i, n, 1], ..., r FC [i, n, K], and the face area F [i, n, k] in the frame image P [i, n]. Probability series p FC [i, n, k, 1], ..., p FC [i, n, k, M ] consisting of the probability p FC [i, n, k, m] that is the face of ID [m] ] Is entered.

顔認識スコア算出部25は、以下の式により、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]に基づいて、パラメータwFC[i,n,k]を算出する。

Figure 0006917788
C’FCは、パラメータwFC[i,n,k]の最小値を定める値であり、予め設定される。 The face recognition score calculation unit 25 uses the following formula to determine the probability that the face area F [i, n, k] in the frame image P [i, n] is the face of the performer ID [m] p FC [i, Calculate the parameter w FC [i, n, k] based on n, k, m].
Figure 0006917788
C'FC is a value that defines the minimum value of the parameter w FC [i, n, k] and is preset.

パラメータwFC[i,n,k]は、フレーム画像P[i,n]内の顔領域F[i,n,k]において、最大となる確率pFC[i,n,k,m]が低いほど、大きい値となり、最大となる確率pFC[i,n,k,m]が高いほど、小さい値となる。 The parameter w FC [i, n, k] has the maximum probability p FC [i, n, k, m] in the face region F [i, n, k] in the frame image P [i, n]. The lower the value, the larger the value, and the higher the maximum probability p FC [i, n, k, m], the smaller the value.

顔認識スコア算出部25は、以下の式により、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]、及び前記数式(2)にて算出したパラメータwFC[i,n,k]に基づいて、パラメータRFC[i,n]を算出する。

Figure 0006917788
The face recognition score calculation unit 25 uses the following formula to obtain the area ratio r FC [i, n, k] of the face region F [i, n, k] to the frame image P [i, n] and the above formula (2). ), The parameter R FC [i, n] is calculated based on the parameter w FC [i, n, k].
Figure 0006917788

パラメータRFC[i,n]は、フレーム画像P[i,n]において、顔領域F[i,n,k]のパラメータwFC[i,n,k]に顔領域F[i,n,k]の面積比率rFC[i,n,k]を乗算し、乗算結果を全ての顔領域F[i,n,k]について加算した値である。 The parameter R FC [i, n] is the parameter w FC [i, n, k] of the face area F [i, n, k] in the frame image P [i, n] and the face area F [i, n, k]. It is a value obtained by multiplying the area ratio r FC [i, n, k] of k] and adding the multiplication result for all face regions F [i, n, k].

パラメータRFC[i,n]は、パラメータwFC[i,n,k]が大きいほど(確率pFC[i,n,k,m]が低いほど)、大きい値となり、パラメータwFC[i,n,k]が小さいほど(確率pFC[i,n,k,m]が高いほど)、小さい値となる。また、パラメータRFC[i,n]は、面積比率rFC[i,n,k]が高いほど、大きい値となり、面積比率rFC[i,n,k]が小さいほど、小さい値となる。 The parameter R FC [i, n] becomes larger as the parameter w FC [i, n, k] is larger (the lower the probability p FC [i, n, k, m]), and the parameter w FC [i] The smaller the, n, k] (the higher the probability p FC [i, n, k, m]), the smaller the value. The parameter R FC [i, n] is the area ratio r FC [i, n, k ] higher, becomes a large value, as the area ratio r FC [i, n, k ] is small, a small value ..

顔認識スコア算出部25は、以下の式により、各カット映像VC[i]について、前記数式(3)にて算出したパラメータRFC[i,n]に基づいて、当該カット映像VC[i]の顔認識スコアS2[i]を算出する。

Figure 0006917788
CFCは正規化定数であり、予め設定される。 Face recognition score calculation unit 25, by the following equation, for each cut image V C [i], the parameter R FC [i, n] calculated the at Equation (3) based on, the cut video V C [ Calculate the face recognition score S 2 [i] of i].
Figure 0006917788
C FC is a normalization constant and is preset.

顔認識スコアS2[i]の範囲は、0≦S2[i]≦1である。顔認識スコアS2[i]は、パラメータRFC[i,n]が大きいほど、大きい値となり、パラメータRFC[i,n]が小さいほど、小さい値となる。つまり、顔認識スコアS2[i]は、確率pFC[i,n,k,m]が低いほど、大きい値となり、確率pFC[i,n,k,m]が高いほど、小さい値となり、面積比率rFC[i,n,k]が高いほど、大きい値となり、面積比率rFC[i,n,k]が低いほど、小さい値となる。 The range of the face recognition score S 2 [i] is 0 ≤ S 2 [i] ≤ 1. The larger the parameter R FC [i, n], the larger the face recognition score S 2 [i], and the smaller the parameter R FC [i, n], the smaller the value. In other words, the face recognition score S 2 [i], the probability p FC [i, n, k , m] is as low, becomes a large value, the probability p FC [i, n, k , m] higher, smaller The higher the area ratio r FC [i, n, k], the larger the value, and the lower the area ratio r FC [i, n, k], the smaller the value.

確率pFC[i,n,k,m]は、顔領域F[i,n,k]がメインの出演者ID[m]の顔である確率であるから、確率pFC[i,n,k,m]が低い場合は、メインでない出演者ID[m]の顔(ゲストの顔)である確率が高く、確率pFC[i,n,k,m]が高い場合は、ゲストの顔である確率が低いことを意味する。 The probability p FC [i, n, k, m] is the probability that the face area F [i, n, k] is the face of the main performer ID [m], so the probability p FC [i, n, m] If k, m] is low, there is a high probability that it is the face of the non-main performer ID [m] (guest's face), and if the probability p FC [i, n, k, m] is high, it is the guest's face. It means that the probability of being is low.

したがって、顔認識スコアS2[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]において、メインの出演者ID[m]の顔が現れる総面積が広いほど、大きい値となり、メインの出演者ID[m]の顔が現れる総面積が狭いほど、小さい値となる。また、顔認識スコアS2[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]において、ゲストの顔が現れる確率が高いほど、大きい値となり、ゲストの顔が現れる確率が低いほど、小さい値となる。つまり、顔認識スコアS2[i]は、カット映像VC[i]において、メインの出演者ID[m]の顔が現れる総面積が広いフレーム画像P[i,n]が出現するほど、大きい値となり、ゲストの顔が現れる確率が高いフレーム画像P[i,n]が出現するほど、大きい値となる。 Therefore, the face recognition score S 2 [i] is such that the larger the total area where the face of the main performer ID [m] appears in the frame image P [i, n] included in the cut video V C [i], the larger the total area. The larger the value, the smaller the total area where the face of the main performer ID [m] appears, the smaller the value. In addition, the face recognition score S 2 [i] becomes a larger value as the probability that the guest's face appears in the frame image P [i, n] included in the cut image V C [i] becomes larger, and the guest's face becomes larger. The lower the probability of appearance, the smaller the value. In other words, the face recognition score S 2 [i] is such that in the cut video V C [i], the frame image P [i, n] with a large total area where the face of the main performer ID [m] appears appears. The larger the value, the larger the value as the frame image P [i, n], which has a high probability of the guest's face appearing, appears.

顔認識スコア算出部25は、顔認識スコアS2[i]からなる顔認識スコア系列S2[1],...,S2[NC]を生成し、これを総合スコア算出部13に出力する。 The face recognition score calculation unit 25 generates a face recognition score series S 2 [1], ..., S 2 [N C ] consisting of the face recognition score S 2 [i], and outputs this to the total score calculation unit 13. Output.

カメラワーク算出部22は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、「カメラワーク検出処理」を行う。そして、カメラワーク算出部22は、各カット映像VC[i]について、ズーム、パン等の所定のカメラワークが生じた映像区間VCW[i,q]を求め、映像区間VCW[i,q]からなる映像区間系列VCW[i,1],...,VCW[i,NCW]を生成する。 The camera work calculation unit 22 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the cut division unit 10, and "camera work detection processing". I do. The camera work calculation unit 22, for each cut image V C [i], the zoom, obtains a video sequence given camera work occurs V CW [i, q] such as bread, video section V CW [i, Generate a video section sequence V CW [i, 1], ..., V CW [i, N CW] consisting of q].

パラメータq=1,...,NCWは、映像区間VCW[i,q]の番号を示し、NCWは、カット映像VC[i]から検出された映像区間VCW[i,q]の数を示す。 Parameter q = 1, ..., N CW indicates the number of video segments V CW [i, q], N CW , the video segment is detected from the cut video V C [i] V CW [ i, q ] Indicates the number.

尚、「カメラワーク検出処理」は既知であり、詳細については、例えば特開平10−243340号公報を参照されたい。 The "camera work detection process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 10-243340.

カメラワーク算出部22は、各映像区間VCW[i,q]についてカメラの動き量を算出し、カメラの動き量を画像の対角線の長さで正規化(除算)した動き率rCW[i,q]を算出し、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]を生成する。そして、カメラワーク算出部22は、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]をカメラワークスコア算出部26に出力する。この動き率rCW[i,q]は、当該演出に関連する対象である「カメラワーク」の動き率である。 Camera work calculation unit 22, the video section V CW [i, q] to calculate the movement amount of the camera for normalization of the amount of motion of the camera by the length of the diagonal of the image (division) motion ratio r CW [i , q] is calculated to generate a motion rate series r CW [i, 1], ..., r CW [i, N CW ] consisting of motion rate r CW [i, q]. Then, the camera work calculation unit 22 sets the motion rate series r CW [i, 1], ..., r CW [i, N CW ] composed of the motion rate r CW [i, q] into the camera work score calculation unit 26. Output to. This movement rate r CW [i, q] is the movement rate of the "camera work" that is the object related to the production.

カメラワークスコア算出部26は、カメラワーク算出部22から、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]を入力し、以下の式により、各カット映像VC[i]について、動き率rCW[i,q]に基づいて、当該カット映像VC[i]のカメラワークスコアS3[i]を算出する。

Figure 0006917788
CCWは正規化定数であり、予め設定される。 The camera work score calculation unit 26 obtains a movement rate series r CW [i, 1], ..., r CW [i, N CW ] composed of movement rates r CW [i, q] from the camera work calculation unit 22. Input and calculate the camera work score S 3 [i] of the cut video V C [i] based on the motion rate r CW [i, q] for each cut video V C [i] by the following formula. do.
Figure 0006917788
C CW is a normalization constant and is preset.

カメラワークスコアS3[i]の範囲は、0≦S3[i]≦1である。カメラワークスコアS3[i]は、カット映像VC[i]において、カメラの動き量が多いほど、大きい値となり、カメラの動き量が少ないほど、小さい値となる。つまり、カメラワークスコアS3[i]は、カット映像VC[i]において、カメラの動き量が多い映像区間VCW[i,q]が出現するほど、大きい値となる。 The range of the camera work score S 3 [i] is 0 ≤ S 3 [i] ≤ 1. The camera work score S 3 [i] becomes a large value as the amount of movement of the camera increases, and becomes a small value as the amount of movement of the camera decreases in the cut image V C [i]. That is, the camera work score S 3 [i] becomes larger as the video section V CW [i, q] with a large amount of camera movement appears in the cut video V C [i].

カメラワークスコア算出部26は、カメラワークスコアS3[i]からなるカメラワークスコア系列S3[1],...,S3[NC]を生成し、これを総合スコア算出部13に出力する。 The camera work score calculation unit 26 generates a camera work score series S 3 [1], ..., S 3 [N C ] consisting of the camera work score S 3 [i], and outputs this to the total score calculation unit 13. Output.

CG映像らしさ算出部23は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力すると共に、テロップ領域検出部20から、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を入力する。 The CG image-likeness calculation unit 23 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut image V C [i] from the cut division unit 10, and also inputs the telop area detection unit. From 20, the image series P [i, 1], ..., P [i, N P ] consisting of the frame image P [i, n] is input.

CG映像らしさ算出部23は、各フレーム画像P[i,n]について、「サポートベクターマシーン(SVM)の認識モデルを用いた識別処理」を行い、CG映像である確率pCG[i,n]を算出する。そして、CG映像らしさ算出部23は、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]を生成する。CG映像である確率pCG[i,n]の範囲は、0≦pCG[i,n]≦1である。 The CG image-likeness calculation unit 23 performs "identification processing using the recognition model of the support vector machine (SVM)" for each frame image P [i, n], and the probability that it is a CG image p CG [i, n]. Is calculated. Then, the CG image-likeness calculation unit 23 generates a probability series p CG [i, 1], ..., p CG [i, N P ] composed of the probability p CG [i, n] which is a CG image. The range of the probability p CG [i, n] that is a CG image is 0 ≦ p CG [i, n] ≦ 1.

サポートベクターマシーンには、CG映像の画像特徴とCG映像でない画像の画像特徴との間の違いを予め学習させておく。CG映像は彩度が高く、かつ人工的なテクスチャ特徴を持つ傾向がある。そこで、画像特徴としては、HSV色空間のS値(彩度)のヒストグラム、エッジ方向ヒストグラム、または自然物及び人工物の分類性の高いフラクタル特徴等が用いられる。 The support vector machine is made to learn in advance the difference between the image feature of the CG image and the image feature of the image that is not the CG image. CG images tend to be highly saturated and have artificial texture features. Therefore, as the image features, a histogram of the S value (saturation) of the HSV color space, an edge direction histogram, a fractal feature with high classibility of natural objects and artificial objects, and the like are used.

尚、「サポートベクターマシーン(SVM)の認識モデルを用いた識別処理」は既知であるから、ここでは詳細な説明を省略する。また、フラクタル特徴の詳細については、例えば特開2001−56820号公報を参照されたい。 Since the "identification process using the recognition model of the support vector machine (SVM)" is known, detailed description thereof will be omitted here. For details of fractal features, refer to, for example, Japanese Patent Application Laid-Open No. 2001-56820.

CG映像らしさ算出部23は、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]をCG映像らしさスコア算出部27に出力する。 CG image likeness calculator 23, the probability p CG is CG image [i, n] probability sequence p CG consisting [i, 1], ..., p CG [i, N P] CG image likeness score calculated Output to unit 27.

CG映像らしさスコア算出部27は、CG映像らしさ算出部23から、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]を入力する。そして、CG映像らしさスコア算出部27は、以下の式により、各カット映像VC[i]について、CG映像である確率pCG[i,n]に基づいて、CG映像らしさスコアS4[i]を算出する。

Figure 0006917788
From the CG image-likeness calculation unit 23, the CG image-likeness score calculation unit 27 is a probability series p CG [i, 1], ..., p CG [i, n] consisting of the probability p CG [i, n] of the CG image. Enter N P ]. Then, the CG video-like score calculation unit 27 uses the following formula to obtain a CG video-like score S 4 [i ] for each cut video V C [i] based on the probability p CG [i, n] of the CG video. ] Is calculated.
Figure 0006917788

CG映像らしさスコアS4[i]の範囲は、0≦S4[i]≦1である。CG映像らしさスコアS4[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]について、CG映像である確率pCG[i,n]の最大値が大きいほど、大きい値となり、CG映像である確率pCG[i,n]の最大値が小さいほど、小さい値となる。つまり、CG映像らしさスコアS4[i]は、カット映像VC[i]において、CG映像である確率pCG[i,n]の高いフレーム画像P[i,n]が出現するほど、大きい値となる。 The range of the CG image-likeness score S 4 [i] is 0 ≦ S 4 [i] ≦ 1. The CG image-likeness score S 4 [i] is such that the larger the maximum value of the probability p CG [i, n] of the frame image P [i, n] included in the cut image V C [i] is the CG image. It becomes a large value, and the smaller the maximum value of the probability p CG [i, n] which is a CG image, the smaller the value. That is, the CG image-likeness score S 4 [i] is so large that a frame image P [i, n] having a high probability of being a CG image p CG [i, n] appears in the cut image V C [i]. It becomes a value.

CG映像らしさスコア算出部27は、CG映像らしさスコアS4[i]からなるCG映像らしさスコア系列S4[1],...,S4[NC]を生成し、これを総合スコア算出部13に出力する。 The CG video-like score calculation unit 27 generates a CG video-like score series S 4 [1], ..., S 4 [N C ] consisting of the CG video-like score S 4 [i], and calculates the total score. Output to unit 13.

〔総合スコア算出部13〕
次に、図1に示した総合スコア算出部13について詳細に説明する。前述のとおり、総合スコア算出部13は、各カット映像VC[i]について、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]を統合して総合スコアS[i]を算出する。
[Comprehensive score calculation unit 13]
Next, the total score calculation unit 13 shown in FIG. 1 will be described in detail. As described above, the total score calculation unit 13 determines the telop score S 1 [i], the face recognition score S 2 [i], the camera work score S 3 [i], and the CG image quality for each cut image V C [i]. The total score S [i] is calculated by integrating the scores S 4 [i].

図4は、総合スコア算出部13の構成例及び入出力データ例を示すブロック図である。この総合スコア算出部13は、重み係数設定部30及びスコア算出部31を備えている。 FIG. 4 is a block diagram showing a configuration example and an input / output data example of the total score calculation unit 13. The total score calculation unit 13 includes a weight coefficient setting unit 30 and a score calculation unit 31.

総合スコア算出部13は、要素スコア算出部12から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、これを要約映像生成部14に出力する。 The total score calculation unit 13 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the element score calculation unit 12, and generates a summary video. Output to unit 14.

重み係数設定部30は、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]の各要素について、総合スコアS[i]への反映度を定める重み係数Wr(r=1,...,4)を設定する。そして、重み係数設定部30は、重み係数W1〜W4をスコア算出部31に出力する。重み係数W1〜W4は、利用者(要約映像の制作者)の操作により自由に定められ、予め設定される The weighting coefficient setting unit 30 has a total score S for each element of the telop score S 1 [i], the face recognition score S 2 [i], the camera work score S 3 [i], and the CG image-likeness score S 4 [i]. Set the weighting coefficient W r (r = 1, ..., 4) that determines the degree of reflection in [i]. Then, the weighting coefficient setting unit 30 outputs the weighting coefficients W 1 to W 4 to the score calculation unit 31. The weighting factors W 1 to W 4 are freely determined and preset by the operation of the user (creator of the summary video).

スコア算出部31は、要素スコア算出部12のテロップスコア算出部24から、テロップスコアS1[i]からなるテロップスコア系列S1[1],...,S1[NC]を入力し、顔認識スコア算出部25から、顔認識スコアS2[i]からなる顔認識スコア系列S2[1],...,S2[NC]を入力する。また、重み係数設定部30は、カメラワークスコア算出部26から、カメラワークスコアS3[i]からなるカメラワークスコア系列S3[1],...,S3[NC]を入力し、CG映像らしさスコア算出部27から、CG映像らしさスコアS4[i]からなるCG映像らしさスコア系列S4[1],...,S4[NC]を入力する。また、スコア算出部31は、重み係数設定部30から重み係数W1〜W4を入力する。 The score calculation unit 31 inputs the telop score series S 1 [1], ..., S 1 [N C ] consisting of the telop score S 1 [i] from the telop score calculation unit 24 of the element score calculation unit 12. , From the face recognition score calculation unit 25, input the face recognition score series S 2 [1], ..., S 2 [N C ] consisting of the face recognition score S 2 [i]. Further, the weighting coefficient setting unit 30 inputs the camera work score series S 3 [1], ..., S 3 [N C ] composed of the camera work score S 3 [i] from the camera work score calculation unit 26. , The CG image-likeness score sequence S 4 [1], ..., S 4 [N C ] consisting of the CG image-likeness score S 4 [i] is input from the CG image-likeness score calculation unit 27. Further, the score calculation unit 31 inputs weight coefficients W 1 to W 4 from the weight coefficient setting unit 30.

スコア算出部31は、以下の式により、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]に重み係数Wrをそれぞれ乗算し、乗算結果を加算することで、カット映像VC[i]の総合スコアS[i]を算出する。

Figure 0006917788
The score calculation unit 31 uses the following formula to add a weighting coefficient W to the telop score S 1 [i], the face recognition score S 2 [i], the camera work score S 3 [i], and the CG image-likeness score S 4 [i]. By multiplying each of r and adding the multiplication results, the total score S [i] of the cut video V C [i] is calculated.
Figure 0006917788

スコア算出部31は、カット映像VC[i]の総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を生成し、これを要約映像生成部14に出力する。 The score calculation unit 31 generates a total score series S [1], ..., S [N C ] consisting of the total score S [i] of the cut video V C [i], and the summary video generation unit 14 generates the total score series S [1], ..., S [N C]. Output to.

これにより、重み係数Wrに応じて、当該重み係数Wrに対応する要素のスコアが反映された総合スコアS[i]が算出される。重み係数Wrを高く設定した要素については、その要素のスコアが総合スコアS[i]に大きく反映され、重み係数Wrを低く設定した要素については、その要素のスコアが総合スコアS[i]にさほど反映されない。 Thus, in accordance with the weighting factor W r, the total score S score of elements corresponding to the weight coefficient W r is reflected [i] is calculated. For elements with a high weighting factor W r , the score of that element is greatly reflected in the total score S [i], and for elements with a low weighting factor W r , the score of that element is the total score S [i]. ] Is not reflected so much.

例えば、顔認識スコアS2[i]の重み係数W2に大きい値を設定し、他の重み係数W1,3,4に小さい値を設定した場合には、顔認識スコアS2[i]が大きく反映された総合スコアS[i]が生成される。そして、後述する要約映像生成部14により、メインの出演者ID[m]の顔またはゲストの顔が多く現れる要約映像が生成される。同様に、CG映像らしさスコアS4[i]の重み係数W4に大きい値を設定し、他の重み係数W1,2,3に小さい値を設定した場合には、CG映像らしさスコアS4[i]が大きく反映された総合スコアS[i]が生成される。そして、後述する要約映像生成部14により、CG映像が多く現れる要約映像が生成される。 For example, if a large value is set for the weight coefficient W 2 of the face recognition score S 2 [i] and a small value is set for the other weight coefficients W 1 , 3 and 4, the face recognition score S 2 [i] A total score S [i] that largely reflects is generated. Then, the summary video generation unit 14, which will be described later, generates a summary video in which many faces of the main performer ID [m] or the faces of the guests appear. Similarly, when a large value is set for the weighting coefficient W 4 of the CG image-likeness score S 4 [i] and a small value is set for the other weighting factors W 1 , 2, 3, the CG image-likeness score S 4 A total score S [i] that largely reflects [i] is generated. Then, the summary video generation unit 14, which will be described later, generates a summary video in which many CG images appear.

〔要約映像生成部14〕
次に、図1に示した要約映像生成部14について詳細に説明する。前述のとおり、要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまでカット映像VC[i]を選択し、選択したカット映像VC[i]を連結して要約映像を生成する。
[Summary video generation unit 14]
Next, the summary video generation unit 14 shown in FIG. 1 will be described in detail. As described above, the summary video generation unit 14 refers to the total score S [i] and the scene video V S [j], and selects the cut video V C [i] until the length of the entire summary video exceeds a predetermined value. Then, the selected cut video V C [i] is concatenated to generate a summary video.

図5は、要約映像生成部14の構成例及び入出力データ例を示すブロック図である。この要約映像生成部14は、要約映像選択部40及び要約映像出力部41を備えている。 FIG. 5 is a block diagram showing a configuration example and an input / output data example of the summary video generation unit 14. The summary video generation unit 14 includes a summary video selection unit 40 and a summary video output unit 41.

要約映像選択部40は、総合スコア算出部13から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を入力する。また、要約映像選択部40は、シーン生成部11から、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を入力する。 The summary video selection unit 40 is from the total score calculation unit 13, from the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i], and from the total score S [i]. Enter the total score series S [1], ..., S [N C]. Further, the summary video selection unit 40 inputs the scene series V S [1], ..., V S [N S ] composed of the scene video V S [j] from the scene generation unit 11.

要約映像選択部40は、全てのカット映像VC[i]を、総合スコアS[i]に基づいて重要度の高い順にソートし、ソート後のカット映像VC[I[i]]に対して順番に、選択したカット映像VC[I[i]]の全体の長さ(要約映像全体の長さ)が所定値を超えるまで、カット映像VC[I[i]]を選択する。重要度の高い順とは、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」を総合した演出の効果の高い順をいう。 The summary video selection unit 40 sorts all the cut video V C [i] in descending order of importance based on the total score S [i], and for the sorted cut video V C [i [i]]. In order, the cut video V C [I [i]] is selected until the total length of the selected cut video V C [I [i]] (the length of the entire summary video) exceeds a predetermined value. The order of importance refers to the order in which the effect of the production that integrates "telop", "face recognition", "camera work", and "CG image-likeness" is high.

要約映像選択部40は、カット映像VC[I[i]]を選択する際に、シーン映像VS[j]内で選択するカット映像VC[I[i]]の数が所定値を超えないようにする。そして、要約映像選択部40は、選択したカット映像VC[I[i]]を要約映像出力部41に出力する。 When the summary video selection unit 40 selects the cut video V C [I [i]], the number of the cut video V C [I [i]] selected in the scene video V S [j] is set to a predetermined value. Do not exceed. The digest video selection unit 40 outputs the cut video V C selected [I [i]] in the video summary output unit 41.

要約映像出力部41は、要約映像選択部40から、選択したカット映像VC[I[i]]を入力し、選択したカット映像VC[I[i]]を時系列に連結して要約映像VC[i'1]...VC[i'L]を生成し、要約映像VC[i'1]...VC[i'L]を出力する。Lは、選択されたカット映像VC[i]の数、すなわち要約映像VC[i'1]...VC[i'L]の数である。 Summary video output unit 41, the digest video selection unit 40 receives the cut image V C selected [I [i]], and connecting the selected cut image V C [I [i]] in a time-series Summary It generates a video V C [i '1] ... V C [i' L], and outputs the video summary V C [i '1] ... V C [i' L]. L is the number of the number of cut video V C which is selected [i], i.e. summarized video V C [i '1] ... V C [i' L].

〔要約映像生成部14の動作〕
図6は、要約映像生成部14の処理例を示すフローチャートであり、図7は、図6のフローチャートを説明する図である。要約映像生成部14の要約映像選択部40は、総合スコア系列S[1],...,S[NC]のスコアが高い順にカット系列VC[1],...,VC[NC]をソートし、カット系列VC[I[1]],...,VC[I[NC]]を生成する(ステップS601)。
[Operation of summary video generation unit 14]
FIG. 6 is a flowchart showing a processing example of the summary video generation unit 14, and FIG. 7 is a diagram illustrating the flowchart of FIG. In the summary video selection unit 40 of the summary video generation unit 14, the cut series V C [1], ..., V C [in descending order of the score of the total score series S [1], ..., S [N C]. N C ] is sorted and the cut series V C [I [1]], ..., V C [I [N C ]] is generated (step S601).

例えば図7に示すように、総合スコア系列S[1],...,S[NC]のスコアがS[8]>S[4]>S[1]>S[10]>S[3]>...>S[20]の場合、ステップS601の処理により、ソート後のカット系列は、VC[I[1]]=VC[8],VC[I[2]]=VC[4],VC[I[3]]=VC[1],VC[I[4]]=VC[10],VC[I[5]]=VC[3],...,VC[I[NC]]=VC[20]となる。 For example, as shown in FIG. 7, the scores of the total score series S [1], ..., S [N C ] are S [8]> S [4]> S [1]> S [10]> S [ 3]>. .. .. > In the case of S [20], the cut series after sorting is V C [I [1]] = V C [8], V C [I [2]] = V C [4] by the processing of step S601. , V C [I [3]] = V C [1], V C [I [4]] = V C [10], V C [I [5]] = V C [3] ,. .. .. , V C [I [N C ]] = V C [20].

図6に戻って、要約映像選択部40は、初期設定として、パラメータi=1,...,NCについての全てのフラグSelect[i]を「false」に設定し(Select[i]=false(i=1,...,NC))、パラメータj=1,...,NSについての全てのカウントCount[j]を0に設定する(Count[j]=0(j=1,...,NS)(ステップS602)。尚、このパラメータiは、図6及び図7の説明のために用いられ、カット映像VC[i]、総合スコアS[i]等のパラメータiとは異なる。 Returning to FIG. 6, the video summary selection unit 40 as an initial setting, and set the parameter i = 1, ..., all the flags the Select [i] for N C to "false" (Select [i] = false (i = 1, ..., N C)), the parameter j = 1, ..., all counts count [j] of the N S is set to 0 (count [j] = 0 (j = 1, ..., N S ) (step S602). Note that this parameter i is used for the explanation of FIGS. 6 and 7, and the cut image V C [i], the total score S [i], etc. Different from parameter i.

フラグSelect[i]は、後述するステップS604及びステップS605にてカット映像VC[I[i]]が要約映像の一部に選択された場合、「true」が設定され、カット映像VC[I[i]]が要約映像に選択されない場合、初期設定された「false」が維持される。カウントCount[j]は、パラメータjのシーン番号のシーン映像VS[j]において、当該シーン映像VS[j]に属するカット映像VC[I[i]]の中で、要約映像の一部に選択されたカット映像VC[I[i]]の数を示す。 Flag the Select [i], when the cut video V C at step S604 and step S605 described later [I [i]] is selected in a part of the video summary, "true" is set, the cut video V C [ If I [i]] is not selected for the summary video, the default "false" is maintained. Count Count [j] is the scene image V S [j] of the parameter j scene number, in the scene image V S [j] Cut belonging to the video V C [I [i]] , the video summary one The number of cut images V C [I [i]] selected in the section is shown.

以下、ソート後のカット系列VC[I[1]],...,VC[I[NC]]のそれぞれにパラメータi=1,...,NCを対応させ、ソート後のカット映像VC[I[i]]毎に、要約映像の選択処理が行われる。要約映像の選択処理は、後述するステップS606のとおり、要約映像として選択されたカット映像VC[I[i]]の全フレーム数が所定値TMAXを超えるまで行われる。 Below, the parameters i = 1, ..., N C are associated with each of the sorted cut series V C [I [1]], ..., V C [I [N C]], and after sorting The summary video is selected for each cut video V C [I [i]]. Selection process video summary, as in step S606 to be described later, the total number of frames of the selected cut image V C as summarized video [I [i]] is performed until more than a predetermined value T MAX.

要約映像選択部40は、パラメータiに1を設定し(i=1、ステップS603)、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たすか否かを判定する(ステップS604)。すなわち、要約映像選択部40は、パラメータiのカット映像VC[I[i]]が要約映像の一部に選択されている、またはパラメータiのカット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きい条件を満たすか否かを判定する。 The summary video selection unit 40 sets the parameter i to 1 (i = 1, step S603), sets the flag Select [i] to "true", or sets the count Count [J [i]] to a predetermined value. It is determined whether or not a condition larger than N MAX is satisfied (step S604). That is, in the summary video selection unit 40, the cut video V C [I [i]] of the parameter i is selected as a part of the summary video, or the cut video V C [I [i]] of the parameter i belongs to. in scene number J [i] in the scene image V S [J [i]] , the number of cut video has been selected as part of the video summary is determined whether conditions are satisfied is greater than a predetermined value N MAX.

J[i]は、カット映像VC[I[i]]の属するシーン番号を示す。NMAXは、1つのシーン映像VS[J[i]]から選択されるカット映像VC[I[i]]の数の最大値を示し、予め設定される。 J [i] indicates the scene number to which the cut video V C [I [i]] belongs. N MAX indicates the maximum value of the number of cut video V C [I [i]] selected from one scene video V S [J [i]] and is preset.

要約映像選択部40は、ステップS604において、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たさないと判定した場合(ステップS604:N)、カット映像VC[I[i]]を要約映像の一部に選択し、フラグSelect[i]に「true」を設定し(Select[i]=true)、カウントCount[J[i]]をインクリメントする(Count[J[i]]=Count[J[i]]+1)(ステップS605)。すなわち、要約映像選択部40は、フラグSelect[i]に「true」が設定されていない(「false」が設定されている)場合、かつカウントCount[J[i]]が所定値NMAXよりも大きくない場合、ステップS605の処理を行う。言い換えると、要約映像選択部40は、カット映像VC[I[i]]が要約映像の一部に選択されておらず、かつ、カット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きくない場合、ステップS605の処理を行う。 In step S604, the summary video selection unit 40 determines that the flag Select [i] is set to "true" or the count Count [J [i]] does not satisfy the condition larger than the predetermined value N MAX. In the case (step S604: N), select the cut video V C [I [i]] as a part of the summary video, set the flag Select [i] to "true" (Select [i] = true), and count. Increment Count [J [i]] (Count [J [i]] = Count [J [i]] + 1) (step S605). That is, in the summary video selection unit 40, when "true" is not set in the flag Select [i] ("false" is set), and the count Count [J [i]] is set from the predetermined value N MAX. If it is not large, the process of step S605 is performed. In other words, in the summary video selection unit 40, the cut video V C [I [i]] is not selected as a part of the summary video, and the scene number J to which the cut video V C [I [i]] belongs. If the number of cut images selected as a part of the summary image in the scene image V S [J [i]] of [i] is not larger than the predetermined value N MAX , the process of step S605 is performed.

例えば図7に示すように、ステップS605により、初期設定にて「false」に設定されたフラグSelect[1],...,Select[Nc]のうち、フラグSelect[1],...,Select[5]等が「true」に変更される。 For example, as shown in FIG. 7, among the flags Select [1], ..., Select [N c ] set to "false" in the initial setting by step S605, the flags Select [1], ... , Select [5] etc. are changed to "true".

図6に戻って、要約映像選択部40は、パラメータi=1から現在のパラメータiまでにおいて、フラグSelect[i]が「true」(Select[i]=true)に設定されている全てのカット映像VC[I[i]]の合計フレーム数を算出し、合計フレーム数が所定値TMAXよりも大きいか否かを判定する(ステップS606)。すなわち、要約映像選択部40は、要約映像の一部として選択された全てのカット映像VC[i]の全フレーム数が所定値TMAXよりも大きいか否か、つまり、要約映像全体の長さが所定値TMAXよりも大きいか否かを判定する。TMAXは、利用者が生成したい要約映像の長さ(フレーム数)を示し、予め設定される。 Returning to FIG. 6, the summary video selection unit 40 performs all cuts in which the flag Select [i] is set to “true” (Select [i] = true) from the parameter i = 1 to the current parameter i. It calculates the total number of frames of the video V C [I [i]] , determines whether the total number of frames is greater than the predetermined value T MAX (step S606). That is, in the summary video selection unit 40, whether or not the total number of frames of all the cut video V C [i] selected as a part of the summary video is larger than the predetermined value TMAX , that is, the length of the entire summary video. Saga determines greater or not than a predetermined value T MAX. TMAX indicates the length (number of frames) of the summary video that the user wants to generate, and is preset.

要約映像選択部40は、ステップS606において、要約映像の一部として選択されたカット映像VC[i]の合計フレーム数が所定値TMAXよりも大きくないと判定した場合(ステップS606:N)、すなわち要約映像全体の長さが所定値TMAXよりも大きくないと判定した場合、ステップS604へ移行する。この場合、当該パラメータiのフラグSelect[i]はステップS605にて「true」に設定されているから、ステップS604からステップS607へ移行し、次のカット映像VC[I[i+1]]の処理が行われる。 Summary video selection unit 40, in step S606, the case where the total number of frames of the selected cut image V C [i] as part of the video summary is not greater than the predetermined value T MAX (step S606: N) , that is, when the length of the entire video summary is not greater than the predetermined value T MAX, the process proceeds to step S604. In this case, since the flag of the parameter i Select [i] is set to "true" at step S605, the process proceeds from step S604 to step S607, the next cut video V C [I [i + 1 ]] Is processed.

一方、要約映像選択部40は、ステップS606において、要約映像の一部として選択されたカット映像VC[i]の合計フレーム数が所定値TMAXよりも大きいと判定した場合(ステップS606:Y)、すなわち要約映像全体の長さが所定値TMAXよりも大きいと判定した場合、ステップS611へ移行する。 On the other hand, the video summary selection unit 40, in step S606, the case where the total number of frames of the selected cut image V C [i] as part of the digest video is determined to be greater than the predetermined value T MAX (step S606: Y ), that is, when the length of the entire digest video is determined to be greater than the predetermined value T MAX, the process proceeds to step S611.

一方、要約映像選択部40は、ステップS604において、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たすと判定した場合(ステップS604:Y)、パラメータiをインクリメントする(i=i+1、ステップS607)。すなわち、要約映像選択部40は、フラグSelect[i]に「true」が設定されている場合、ステップS607の処理を行う。または、要約映像選択部40は、カウントCount[J[i]]が所定値NMAXよりも大きい場合、ステップS607の処理を行う。 On the other hand, the summary video selection unit 40 determines in step S604 that the flag Select [i] is set to "true" or the count Count [J [i]] satisfies a condition larger than the predetermined value N MAX. (Step S604: Y), the parameter i is incremented (i = i + 1, step S607). That is, when the flag Select [i] is set to "true", the summary video selection unit 40 performs the process of step S607. Alternatively, when the count Count [J [i]] is larger than the predetermined value N MAX , the summary video selection unit 40 performs the process of step S607.

言い換えると、要約映像選択部40は、カット映像VC[I[i]]が要約映像の一部に選択されている場合、次のカット映像VC[I[i+1]]の処理を行うため、ステップS607へ移行する。または、要約映像選択部40は、カット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きい場合、当該シーン映像VS[J]における残りのカット映像VC[I[i]]の処理のために、ステップS607の処理を行う。この場合の残りのカット映像VC[I[i]]は、要約映像として選択されることはない。 In other words, the summary video selection unit 40 processes the next cut video V C [I [i + 1]] when the cut video V C [I [i]] is selected as a part of the summary video. To do so, the process proceeds to step S607. Alternatively, the summary video selection unit 40 is selected as a part of the summary video in the scene video V S [J [i]] of the scene number J [i] to which the cut video V C [I [i]] belongs. When the number of cut images is larger than the predetermined value N MAX , the process of step S607 is performed for the processing of the remaining cut images V C [I [i]] in the scene image V S [J]. The remaining cut video V C [I [i]] in this case is not selected as the summary video.

要約映像選択部40は、パラメータiが所定値NCよりも大きいか否かを判定する(i>NC、ステップS608)。すなわち、要約映像選択部40は、全てのカット映像VC[I[i]]の処理が完了したか否かを判定する。 Summary video selection unit 40 determines whether the parameter i is greater than the predetermined value N C (i> N C, step S608). That is, the summary video selection unit 40 determines whether or not the processing of all the cut video V C [I [i]] is completed.

要約映像選択部40は、ステップS608において、パラメータiが所定値NCよりも大きくないと判定した場合(ステップS608:N)、ステップS604へ移行し、当該カット映像VC[I[i]]の処理を行う。 Summary video selection unit 40, in step S608, the case where the parameter i is not greater than the predetermined value N C (step S608: N), the process proceeds to step S604, the the cut video V C [I [i]] Process.

一方、要約映像選択部40は、ステップS608において、パラメータiが所定値NCよりも大きいと判定した場合(ステップS608:Y)、すなわち全てのカット映像VC[I[i]]の処理が完了した場合、所定値NMAXをインクリメントする(NMAX=NMAX+1、ステップS609)。 On the other hand, when the summary video selection unit 40 determines in step S608 that the parameter i is larger than the predetermined value N C (step S608: Y), that is, the processing of all the cut video V C [I [i]] is performed. When completed, the predetermined value N MAX is incremented (N MAX = N MAX +1, step S609).

これにより、ステップS604にて使用する所定値NMAX(1つのシーン映像VS[j[i]]から選択されるカット映像VC[I[i]]の数の最大値)がインクリメントされる。そして、後述するステップS610からステップS603へ移行すると、最初のパラメータi=1のカット映像VC[I[i]]から順番に処理が行われる。したがって、ステップS606の条件を満たすまで、要約映像の一部として選択されるカット映像VC[I[i]]が追加される。 As a result, the predetermined value N MAX (the maximum value of the number of cut images V C [i [i]] selected from one scene image V S [j [i]]) used in step S604 is incremented. .. Then, when the process proceeds from step S610 to step S603, which will be described later, processing is performed in order from the cut video V C [I [i]] with the first parameter i = 1. Therefore, the cut video V C [I [i]] selected as a part of the summary video is added until the condition of step S606 is satisfied.

要約映像選択部40は、所定値NMAXが所定値Ncよりも大きいか否かを判定し(ステップS610)、所定値NMAXが所定値Ncよりも大きくないと判定した場合(ステップS610:N)、ステップS603へ移行する。一方、要約映像選択部40は、所定値NMAXが所定値Ncよりも大きいと判定した場合(ステップS610:Y)、ステップS611へ移行する。 The summary video selection unit 40 determines whether or not the predetermined value N MAX is larger than the predetermined value Nc (step S610), and determines that the predetermined value N MAX is not larger than the predetermined value Nc (step S610: N). ), The process proceeds to step S603. On the other hand, when the summary video selection unit 40 determines that the predetermined value N MAX is larger than the predetermined value Nc (step S610: Y), the process proceeds to step S611.

要約映像出力部41は、ステップS606(Y)またはステップS610(Y)から移行して、ステップS605にて選択された全てのカット映像VC[I[i]](フラグSelect[i]=trueである全てのカット映像VC[I[i]])を時系列にソートして連結する。そして、要約映像出力部41は、連結した映像VC[i'1]...VC[i'L]を要約映像として生成し、出力する(ステップS611)。Lは、選択されたカット映像VC[I[i]]の数を示す。 The summary video output unit 41 shifts from step S606 (Y) or step S610 (Y), and all the cut video V C [I [i]] selected in step S605 (flag Select [i] = true). All the cut images V C [I [i]]) that are are sorted in chronological order and concatenated. Then, the summary video output unit 41 generates and outputs the connected video V C [i ' 1 ] ... V C [i' L ] as a summary video (step S611). L indicates the number of selected cut images V C [I [i]].

例えば図7に示すように、ステップS611により、フラグSelect[i]=trueである全てのカット映像VC[I[1]]=VC[8],VC[I[2]]=VC[4],VC[I[3]]=VC[1],VC[I[4]]=VC[10],VC[I[5]]=VC[3]等が時系列にソートされ連結される。そして、連結された映像VC[i'1]=VC[1],VC[i'2]=VC[3],VC[i'3]=VC[4],...,VC[i'L]=VC[25]が要約映像として生成される。 For example, as shown in FIG. 7, according to step S611, all cut images in which the flag Select [i] = true V C [I [1]] = V C [8], V C [I [2]] = V C [4], V C [I [3]] = V C [1], V C [I [4]] = V C [10], V C [I [5]] = V C [3], etc. Are sorted and concatenated in chronological order. The linked image V C [i '1] = V C [1], V C [i' 2] = V C [3], V C [i '3] = V C [4] ,. .. .. , V C [i 'L] = V C [25] is generated as a summary image.

以上のように、本発明の実施形態による要約映像生成装置1によれば、カット分割部10は、番組映像をカット映像VC[i](i=1,...,NC)に分割し、シーン生成部11は、同じ場面のカット映像VC[i]を統合してシーン映像VS[j](j=1,...,NS)を生成する。 As described above, according to the abstract image generating apparatus 1 according to an embodiment of the present invention, the cut dividing unit 10, cuts a program image video V C [i] (i = 1, ..., N C) divided Then, the scene generation unit 11 integrates the cut video V C [i] of the same scene to generate the scene video V S [j] (j = 1, ..., N S ).

要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])を算出する。 The element score calculation unit 12 has an element score S 1 [i ] for each cut image V C [i] for each production of four elements consisting of "telop", "face recognition", "camera work", and "CG image-likeness". ] ~ S 4 [i] (telop score S 1 [i], face recognition score S 2 [i], camera work score S 3 [i], and CG image-likeness score S 4 [i]) are calculated.

総合スコア算出部13は、要素スコアS1[i]〜S4[i]及び重み係数W1〜W4に基づいて、カット映像VC[i]の総合スコアS[i]を算出する。 The total score calculation unit 13 calculates the total score S [i] of the cut video V C [i] based on the element scores S 1 [i] to S 4 [i] and the weighting coefficients W 1 to W 4.

要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまでカット映像VC[i]を選択し、選択したカット映像VC[i]を時系列にソートして連結することで要約映像を生成する。 The summary video generation unit 14 refers to the total score S [i] and the scene video V S [j], and selects and selects the cut video V C [i] until the length of the entire summary video exceeds a predetermined value. A summary video is generated by sorting and concatenating the cut video V C [i] in chronological order.

これにより、番組映像における「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」の各要素のように、番組演出上重要な場面に生じる傾向の強い要素を考慮した要約映像を生成することができる。 As a result, a summary video is generated in consideration of elements that tend to occur in important scenes in the program production, such as each element of "telop", "face recognition", "camera work", and "CG image-likeness" in the program image. be able to.

つまり、番組映像に現れる演出を考慮することで、演出による効果の度合いの高い重要な区間の映像のみで構成される要約映像を生成することが可能となる。そして、このような要約映像をネット用コンテンツとして配信することにより、視聴者の番組への関心を高める媒体として利用することできる。 That is, by considering the effect appearing in the program image, it is possible to generate a summary image composed of only the images of the important sections having a high degree of effect by the effect. Then, by distributing such a summary video as content for the Internet, it can be used as a medium for increasing the viewer's interest in the program.

また、本発明の実施形態による要約映像生成装置1によれば、総合スコア算出部13は、カット映像VC[i]の総合スコアS[i]を算出する際に、要素スコアS1[i]〜S4[i]毎に設定された重み係数W1〜W4を用いるようにした。 Further, according to the summary video generation device 1 according to the embodiment of the present invention, the total score calculation unit 13 calculates the total score S [i] of the cut video V C [i] when the element score S 1 [i] is calculated. ] ~ S 4 The weighting factors W 1 to W 4 set for each [i] are now used.

これにより、重み係数W1〜W4に応じて、当該重み係数W1〜W4の要素のスコアを総合スコアS[i]へ反映することができる。つまり、どの要素に重きを置いて要約映像を作るのかを、重み係数W1〜W4に対し自由に設定することで、利用者の意図に沿った様々なバリエーションの要約映像を生成することができる。 This makes it possible in accordance with the weighting coefficients W 1 to W-4, reflecting the scores of the element of the weighting factors W 1 to W-4 to the total score S [i]. In other words, it is possible to generate various variations of summary video according to the user's intention by freely setting which element is emphasized to create the summary video for the weighting factors W 1 to W 4. can.

また、本発明の実施形態による要約映像生成装置1によれば、要約映像生成部14は、要約映像を生成するためのカット映像VC[i]を選択する際に、シーン映像VS[j]内で選択するカット映像VC[i]の数が所定値NMAXを超えないようにした。これにより、特定のシーンに偏ってカット映像VC[i]が選択されることがないから、特定のシーンに偏った要約映像が生成されることがない。つまり、番組映像の全体のシーンを考慮した要約映像が生成される。 Further, according to the summary video generation device 1 according to the embodiment of the present invention, when the summary video generation unit 14 selects the cut video V C [i] for generating the summary video, the scene video V S [j] ], The number of cut video V C [i] selected in] is prevented from exceeding the specified value N MAX. As a result, the cut video V C [i] is not selected biased to a specific scene, so that the summarized video biased to a specific scene is not generated. That is, a summary video is generated in consideration of the entire scene of the program video.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、演出の種類を「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」として、要約映像を生成するようにしたが、演出の種類は、これら4つの要素に限定されるものではなく、他の要素を用いるようにしてもよい。例えば、音の大きさ、音楽、会話、特定の物体等を演出の要素として、要約映像を生成するようにしてもよい。また、これらの演出の要素のうち任意の所定数の要素を用いて、要約映像を生成するようにしてもよい。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea. In the above-described embodiment, the summary video is generated with the types of production as "telop", "face recognition", "camera work", and "CG image-likeness", but the types of production are limited to these four elements. Other elements may be used instead of the ones. For example, a summary video may be generated by using loudness, music, conversation, a specific object, or the like as elements of production. Further, a summary video may be generated by using an arbitrary predetermined number of elements of these effects.

前述のとおり、要素スコアは、演出による効果の程度が反映された重要度を表すから、演出が「音の大きさ」の場合、要素スコアは、例えばその大きさに比例した値が設定される。また、演出が「音楽」の場合、要素スコアは、カット映像VC[i]内で音楽が流れている時間割合に応じて設定される。また、演出が「特定の物体」の場合、要素スコアは、前述の「顔認識」の場合と同様に、当該物体が検出された領域の面積比率及び当該物体である確率に基づいて設定される。 As described above, the element score represents the importance that reflects the degree of the effect of the effect. Therefore, when the effect is "loudness", the element score is set to a value proportional to the loudness, for example. .. Also, if the effect is "music", element score is set in accordance with the time ratio that music plays in the cut video V C [i]. Further, when the effect is a "specific object", the element score is set based on the area ratio of the area where the object is detected and the probability that the object is the object, as in the case of the above-mentioned "face recognition". ..

尚、本発明の実施形態による要約映像生成装置1のハードウェア構成としては、通常のコンピュータを使用することができる。要約映像生成装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。要約映像生成装置1に備えたカット分割部10、シーン生成部11、要素スコア算出部12、総合スコア算出部13及び要約映像生成部14の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 As the hardware configuration of the summary video generation device 1 according to the embodiment of the present invention, a normal computer can be used. The summary video generator 1 is composed of a computer including a volatile storage medium such as a CPU and RAM, a non-volatile storage medium such as a ROM, and an interface. Each function of the cut division unit 10, the scene generation unit 11, the element score calculation unit 12, the total score calculation unit 13, and the summary video generation unit 14 provided in the summary video generation device 1 uses a program describing these functions in the CPU. It is realized by executing each. These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.

1 要約映像生成装置
10 カット分割部
11 シーン生成部
12 要素スコア算出部
13 総合スコア算出部
14 要約映像生成部
20 テロップ領域検出部
21 顔認識処理部
22 カメラワーク算出部
23 CG映像らしさ算出部
24 テロップスコア算出部
25 顔認識スコア算出部
26 カメラワークスコア算出部
27 CG映像らしさスコア算出部
30 重み係数設定部
31 スコア算出部
40 要約映像選択部
41 要約映像出力部
1 Summary video generation device 10 Cut division unit 11 Scene generation unit 12 Element score calculation unit 13 Comprehensive score calculation unit 14 Summary video generation unit 20 Telop area detection unit 21 Face recognition processing unit 22 Camera work calculation unit 23 CG image quality calculation unit 24 Telop score calculation unit 25 Face recognition score calculation unit 26 Camera work score calculation unit 27 CG video-likeness score calculation unit 30 Weight coefficient setting unit 31 Score calculation unit 40 Summary video selection unit 41 Summary video output unit

Claims (5)

映像から要約映像を生成する要約映像生成装置において、
前記映像をカット単位の複数のカット映像に分割するカット分割部と、
前記カット分割部により分割された前記複数のカット映像から、同じ場面の一連のカット映像を統合し、シーン単位のシーン映像を生成するシーン生成部と、
前記カット分割部により分割された前記複数のカット映像のそれぞれについて、所定数の異なる演出毎に、当該演出の重要度を表すスコアを算出するスコア算出部と、
前記カット分割部により分割された前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコアに基づいて、総合スコアを算出する総合スコア算出部と、
前記総合スコア算出部により算出された前記総合スコアに基づいて、前記複数のカット映像から、前記要約映像を構成するカット映像を選択し、前記要約映像を生成する要約映像生成部と、を備え
前記要約映像生成部は、
前記シーン生成部により生成された前記シーン映像の中から前記カット映像を選択する際に、前記シーン映像の中から選択する前記カット映像の数が所定値を超えないようにする、ことを特徴とする要約映像生成装置。
In a summary video generator that generates a summary video from video
A cut division unit that divides the image into a plurality of cut images in cut units,
A scene generation unit that integrates a series of cut images of the same scene from the plurality of cut images divided by the cut division unit and generates a scene image for each scene.
A score calculation unit that calculates a score indicating the importance of the effect for each of a predetermined number of different effects for each of the plurality of cut images divided by the cut division unit.
A total score calculation unit that calculates the total score based on the score for each effect calculated by the score calculation unit for each of the plurality of cut images divided by the cut division unit.
Based on the total score calculated by the total score calculation unit, a summary video generation unit that selects a cut video constituting the summary video from the plurality of cut videos and generates the summary video is provided .
The summary video generation unit
When selecting the cut video from the scene video generated by the scene generation unit, the feature is that the number of the cut video selected from the scene video does not exceed a predetermined value. Summary video generator.
請求項1に記載の要約映像生成装置において、
前記総合スコア算出部は、
前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコア、及び予め設定された演出毎の重み係数に基づいて、前記総合スコアを算出する、ことを特徴とする要約映像生成装置。
In the summary video generator according to claim 1,
The total score calculation unit
A summary characterized in that, for each of the plurality of cut images, the total score is calculated based on the score for each effect calculated by the score calculation unit and the weighting coefficient for each effect set in advance. Video generator.
請求項1または2に記載の要約映像生成装置において、
前記スコア算出部は、
前記演出に関連する対象が前記映像内に現れる面積、前記演出に関連する対象の動きの量、または前記演出に関連する対象が現れる確率に基づいて、前記スコアを算出する、ことを特徴とする要約映像生成装置。
In the summary video generator according to claim 1 or 2.
The score calculation unit
The score is calculated based on the area where the object related to the effect appears in the image, the amount of movement of the object related to the effect, or the probability that the object related to the effect appears. Summary video generator.
請求項1から3までのいずれか一項に記載の要約映像生成装置において、
前記要約映像生成部は、
前記カット分割部により分割された前記複数のカット映像から、前記総合スコア算出部により算出された前記総合スコアに従って前記演出の重要度の高い順番に、前記シーン生成部により生成された前記シーン映像の中から選択する前記カット映像の数が所定値を超えないように、前記要約映像の全体の長さが所定値を超えるまで、前記要約映像を構成するカット映像を選択する要約映像選択部と、
前記要約映像選択部により選択された前記カット映像を時系列に連結し、前記要約映像を生成する要約映像出力部と、
を備えたことを特徴とする要約映像生成装置。
In the summary video generator according to any one of claims 1 to 3,
The summary video generation unit
From the plurality of cut images divided by the cut division unit, the scene images generated by the scene generation unit are generated in descending order of importance of the effect according to the total score calculated by the total score calculation unit. A summary video selection unit that selects the cut video constituting the summary video until the total length of the summary video exceeds the predetermined value so that the number of the cut video selected from the list does not exceed the predetermined value.
A summary video output unit that generates the summary video by connecting the cut videos selected by the summary video selection unit in chronological order.
A summary video generator characterized by being equipped with.
コンピュータを、請求項1からまでのいずれか一項に記載の要約映像生成装置として機能させるためのプログラム。 A program for operating a computer as a summary video generator according to any one of claims 1 to 4.
JP2017114206A 2017-06-09 2017-06-09 Summary video generator and program Active JP6917788B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114206A JP6917788B2 (en) 2017-06-09 2017-06-09 Summary video generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114206A JP6917788B2 (en) 2017-06-09 2017-06-09 Summary video generator and program

Publications (2)

Publication Number Publication Date
JP2018206292A JP2018206292A (en) 2018-12-27
JP6917788B2 true JP6917788B2 (en) 2021-08-11

Family

ID=64957239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114206A Active JP6917788B2 (en) 2017-06-09 2017-06-09 Summary video generator and program

Country Status (1)

Country Link
JP (1) JP6917788B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173858B1 (en) * 2019-08-23 2020-11-05 한국항공대학교산학협력단 Apparatus and method for generating scene and summarizing video using preference based user input
CN111641868A (en) * 2020-05-27 2020-09-08 维沃移动通信有限公司 Preview video generation method and device and electronic equipment
JP2024024798A (en) * 2022-08-10 2024-02-26 株式会社ユニゾンシステムズ Video editing device, video editing program, and video editing method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126811A (en) * 2002-09-30 2004-04-22 Toshiba Corp Content information editing device, and editing program for the same
JP4714647B2 (en) * 2006-07-31 2011-06-29 日本放送協会 Cut point detection device and cut point detection program
JP2011124979A (en) * 2009-11-13 2011-06-23 Jvc Kenwood Holdings Inc Video processing device, video processing method, and video processing program
JP5537285B2 (en) * 2010-06-28 2014-07-02 日本放送協会 Summary video generation device and summary video generation program
JP5600040B2 (en) * 2010-07-07 2014-10-01 日本電信電話株式会社 Video summarization apparatus, video summarization method, and video summarization program
JP2012044390A (en) * 2010-08-18 2012-03-01 Nippon Telegr & Teleph Corp <Ntt> Video digesting device and video digesting program
JP5092000B2 (en) * 2010-09-24 2012-12-05 株式会社東芝 Video processing apparatus, method, and video processing system

Also Published As

Publication number Publication date
JP2018206292A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
US10073861B2 (en) Story albums
CN111683209B (en) Mixed-cut video generation method and device, electronic equipment and computer-readable storage medium
CN107707931B (en) Method and device for generating interpretation data according to video data, method and device for synthesizing data and electronic equipment
JP5366824B2 (en) Method and system for converting 2D video to 3D video
US8416332B2 (en) Information processing apparatus, information processing method, and program
CN107222795B (en) Multi-feature fusion video abstract generation method
US8873861B2 (en) Video processing apparatus and method
US20030086692A1 (en) Special reproduction control information describing method, special reproduction control information creating apparatus and method therefor, and video reproduction apparatus and method therefor
CN107430780B (en) Method for output creation based on video content characteristics
JP6917788B2 (en) Summary video generator and program
CN111464833A (en) Target image generation method, target image generation device, medium, and electronic apparatus
JP6557592B2 (en) Video scene division apparatus and video scene division program
JP2011234226A (en) Video editing apparatus, and video editing method and program
JP2006287319A (en) Program digest generation apparatus and program digest generation program
CN110692251B (en) Method and system for combining digital video content
JP2014068290A (en) Image processing apparatus, image processing method, and program
JP6917210B2 (en) Summary video generator and its program
CN109618111B (en) Cloud-shear multi-channel distribution system
JP2006217046A (en) Video index image generator and generation program
JP2010039877A (en) Apparatus and program for generating digest content
JP2014170979A (en) Information processing apparatus, information processing method, and information processing program
JP2012205097A (en) Video processing device
JP2007079736A (en) Data editing device, data editing method, and data editing program
JP2020080115A (en) Thumbnail output device, thumbnail output method, and thumbnail output program
CN113297416A (en) Video data storage method and device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210720

R150 Certificate of patent or registration of utility model

Ref document number: 6917788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250