JP6917788B2 - Summary video generator and program - Google Patents
Summary video generator and program Download PDFInfo
- Publication number
- JP6917788B2 JP6917788B2 JP2017114206A JP2017114206A JP6917788B2 JP 6917788 B2 JP6917788 B2 JP 6917788B2 JP 2017114206 A JP2017114206 A JP 2017114206A JP 2017114206 A JP2017114206 A JP 2017114206A JP 6917788 B2 JP6917788 B2 JP 6917788B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- cut
- score
- summary video
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 109
- 230000000694 effects Effects 0.000 claims description 39
- 238000000034 method Methods 0.000 description 41
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012706 support-vector machine Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Description
本発明は、コンピュータ及びハードディスクを用いた映像処理分野において、要約映像を生成する装置及びプログラムに関する。 The present invention relates to an apparatus and a program for generating a summary video in the field of video processing using a computer and a hard disk.
従来、放送局では、視聴者の番組への関心を高める媒体として、番組HP等の「ネット用コンテンツ」の必要性が高まっている。ネット用コンテンツにおいては、番組映像中の重要な映像区間のみで構成されたダイジェスト映像(要約映像)を配信することが望ましい。 Conventionally, in broadcasting stations, there is an increasing need for "contents for the Internet" such as program HP as a medium for increasing viewers' interest in programs. For online content, it is desirable to distribute a digest video (summary video) consisting of only important video sections in the program video.
しかしながら、要約映像を人手により制作することは、労力及び費用の両面でコストが非常に高くなってしまう。このため、要約映像を自動的に生成する技術が望まれている。要約映像を自動的に生成する技術として、例えば特許文献1〜5の手法が提案されている。
However, manually producing a summary video is very costly in terms of both labor and cost. Therefore, a technique for automatically generating a summary video is desired. As a technique for automatically generating a summary video, for example, the methods of
特許文献1の手法は、映像のモーダル毎に映像を複数の映像区間に分割し、2つの映像区間の類似度を求め、類似度に基づいて映像区間をクラスタリングする。そして、複数のクラスタのそれぞれから代表的な映像区間を抽出し、代表的な映像区間を結合することで要約映像を生成する。
In the method of
特許文献2の手法は、映像毎の類似度に基づいて映像間で対応区間を生成し、対応区間から共通映像区間及び個別映像区間を抽出し、共通映像区間から共通要約区間を選択すると共に、個別映像区間から個別要約区間を選択する。そして、共通要約区間及び個別要約区間を統合して要約映像を生成する。
In the method of
特許文献3の手法は、メタデータ及び特徴量に基づいて、複数の映像区間から1つ以上の映像区間を選択し、所定の評価関数の評価値を最大とする映像区間の集合を求め、映像区間の集合を結合して要約映像を生成する。
The method of
特許文献4の手法は、映像に対して画像特徴量及び音声特徴量を求め、画像特徴量及び音声特徴量に基づいて、映像の処理単位の重要度を算出し、重要度に基づいて要約映像を生成する。
In the method of
特許文献5の手法は、元映像から時間の短い分割映像を生成し、分割映像毎に、ブロック領域を視覚単語とみなし、視覚単語の特徴量に基づいてスコアを算出し、スコアの高い順に分割映像を選択して要約映像を生成する。
In the method of
前述の特許文献1,2の手法は、映像区間同士の類似度または共通区間の有無に基づいて、要約映像を生成するものである。しかし、これらの手法は、類似した映像区間が繰り返し出現することを前提とするものであるため、類似した映像区間が繰り返し出現するとは限らない一般の放送番組映像へ適用することは難しい。
The methods of
また、前述の特許文献3の手法は、基本的な画像の特徴量、音声の特徴量及び付与されたメタデータに基づいて、要約映像を生成するものである。しかし、映像に対して詳細なメタデータを予め付与しておく必要があり、処理負荷が高い。
Further, the method of
また、前述の特許文献4,5の手法は、メタデータを利用することなく、基本的な画像の特徴量及び音声の特徴量に基づいて、要約映像を生成するものである。これらの手法は、メタデータを利用しないから、特許文献3の手法に比べて処理負荷が低い。
Further, the methods of
これらの特許文献1〜5の手法は、いずれも要約映像を生成するものであるが、映像に現れる演出を考慮していない。このため、要約映像には、演出の観点からみた重要な場面が含まれない場合がある。ここで、演出とは、脚本等に基づいて、所定の意図を達成するように表現し、効果的に見せることをいう。例えば放送番組映像の演出としては、テロップ表示、メインの出演者またはゲストの登場、カメラのズームインまたはパンニング、説明用のCG映像等の要素がある。これらの要素は、映像の中で重要な場面に使用される傾向が高い。
All of these methods of
一般に、要約映像は、重要な区間の映像のみで構成されることが望ましい。このため、映像に対して演出による効果の程度を求め、効果の高い区間を重要な区間として特定し、重要な区間の映像を結合して要約映像を生成することが所望されていた。 In general, it is desirable that the summary video is composed of only the video of important sections. For this reason, it has been desired to obtain the degree of effect of the effect on the video, specify the section with high effect as an important section, and combine the video of the important section to generate a summary video.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像に現れる演出を考慮することで、重要な区間の映像のみで構成される要約映像を生成可能な要約映像生成装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object of the present invention is to generate a summary video composed of only videos of important sections by considering the effect appearing in the video. The purpose is to provide a generator and a program.
前記課題を解決するために、請求項1の要約映像生成装置は、映像から要約映像を生成する要約映像生成装置において、前記映像をカット単位の複数のカット映像に分割するカット分割部と、前記カット分割部により分割された前記複数のカット映像から、同じ場面の一連のカット映像を統合し、シーン単位のシーン映像を生成するシーン生成部と、前記カット分割部により分割された前記複数のカット映像のそれぞれについて、所定数の異なる演出毎に、当該演出の重要度を表すスコアを算出するスコア算出部と、前記カット分割部により分割された前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコアに基づいて、総合スコアを算出する総合スコア算出部と、前記総合スコア算出部により算出された前記総合スコアに基づいて、前記複数のカット映像から、前記要約映像を構成するカット映像を選択し、前記要約映像を生成する要約映像生成部と、を備え、前記要約映像生成部が、前記シーン生成部により生成された前記シーン映像の中から前記カット映像を選択する際に、前記シーン映像の中から選択する前記カット映像の数が所定値を超えないようにする、ことを特徴とする。
In order to solve the above problem, the summary video generation device according to
また、請求項2の要約映像生成装置は、請求項1に記載の要約映像生成装置において、前記総合スコア算出部が、前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコア、及び予め設定された演出毎の重み係数に基づいて、前記総合スコアを算出する、ことを特徴とする。
Further, the summary video generation device according to
また、請求項3の要約映像生成装置は、請求項1または2に記載の要約映像生成装置において、前記スコア算出部が、前記演出に関連する対象が前記映像内に現れる面積、前記演出に関連する対象の動きの量、または前記演出に関連する対象が現れる確率に基づいて、前記スコアを算出する、ことを特徴とする。
Further, in the summary video generation device according to
また、請求項4の要約映像生成装置は、請求項1から3までのいずれか一項に記載の要約映像生成装置において、前記要約映像生成部が、前記カット分割部により分割された前記複数のカット映像から、前記総合スコア算出部により算出された前記総合スコアに従って前記演出の重要度の高い順番に、前記シーン生成部により生成された前記シーン映像の中から選択する前記カット映像の数が所定値を超えないように、前記要約映像の全体の長さが所定値を超えるまで、前記要約映像を構成するカット映像を選択する要約映像選択部と、前記要約映像選択部により選択された前記カット映像を時系列に連結し、前記要約映像を生成する要約映像出力部と、を備えたことを特徴とする。
Further, in the summary video generation device according to
さらに、請求項5のプログラムは、コンピュータを、請求項1から4までのいずれか一項に記載の要約映像生成装置として機能させることを特徴とする。
Further, the program of
以上のように、本発明によれば、映像に現れる演出を考慮することで、重要な区間の映像のみで構成される要約映像を生成することが可能となる。 As described above, according to the present invention, it is possible to generate a summary video composed of only the video of an important section by considering the effect appearing in the video.
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、映像に現れる演出(例えばテロップ、出演者、カメラワークの動き量、説明用のCG映像等)による効果の程度を重要度として求め、効果の高い区間を重要な区間として特定し、重要な区間の映像を結合して要約映像を生成することを特徴とする。これにより、重要な区間の映像のみで構成される要約映像が生成される。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the present invention, the degree of effect due to the effect (for example, telop, performer, amount of movement of camera work, CG image for explanation, etc.) appearing in the image is determined as the importance, and the section with high effect is specified as the important section. It is characterized by combining images of important sections to generate a summary image. As a result, a summary video composed of only the video of the important section is generated.
〔全体構成〕
まず、本発明の実施形態による要約映像生成装置の全体構成について説明する。図1は、本発明の実施形態による要約映像生成装置の構成例を示すブロック図である。この要約映像生成装置1は、カット分割部10、シーン生成部11、要素スコア算出部12、総合スコア算出部13及び要約映像生成部14を備えている。
〔overall structure〕
First, the overall configuration of the summary video generator according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of a summary video generator according to an embodiment of the present invention. The summary
カット分割部10は、番組映像を入力し、番組映像をカット単位のカット映像VC[i](i=1,...,NC)に分割する「カット映像分割処理」を行い、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を生成する。そして、カット分割部10は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]をシーン分割部11及び要素スコア算出部12に出力する。
Cut dividing unit 10 receives the program video, cut program image
パラメータi=1,...,NCは、カット映像VC[i]の番号(カット番号)を示し、NCは、カット映像VC[i]の数を示す。カット映像VC[i]は、カメラが切り替るまでの間に、切れ目なく連続して撮影された映像である。 Parameter i = 1, ..., N C represents the cut video V C [i] number (cut number), N C indicates the number of cut video V C [i]. The cut image V C [i] is an image taken continuously without a break until the camera is switched.
尚、「カット映像分割処理」は既知であり、詳細については、例えば特開2008−33749号公報を参照されたい。 The "cut video division process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2008-33749.
シーン生成部11は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力する。そして、シーン生成部11は、同じ場面のカット映像VC[i]を統合してシーン境界を検出し、シーン単位のシーン映像VS[j](j=1,...,NS)を生成する「シーン映像生成処理」を行い、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を生成する。シーン生成部11は、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を要約映像生成部14に出力する。
The
パラメータj=1,...,NSは、シーン映像VS[j]の番号(シーン番号)を示し、NSは、シーン映像VS[j]の数を示す。シーン映像VS[j]は、ある場面における一連のカット映像VC[i]を複数まとめた映像である。 Parameter j = 1, ..., N S denotes the scene image V S [j] number (scene number), N S denotes the number of scene image V S [j]. The scene video V S [j] is a video that summarizes a series of cut video V C [i] in a certain scene.
尚、「シーン映像生成処理」は既知であり、詳細については、例えば特開2014−225118号公報、特開2014−33355号公報を参照されたい。 The "scene image generation process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2014-225118 and Japanese Patent Application Laid-Open No. 2014-33355.
図2は、カット系列VC[1],...,VC[NC]及びシーン系列VS[1],...,VS[NS]を説明する図である。カット系列VC[1],...,VC[NC]は、番組映像をカット単位に分割することにより生成され、シーン系列VS[1],...,VS[NS]は、カット系列VC[1],...,VC[NC]を同じ場面毎に統合することで生成される。 FIG. 2 is a diagram illustrating a cut series V C [1], ..., V C [N C ] and a scene series V S [1], ..., V S [N S ]. The cut series V C [1], ..., V C [N C ] is generated by dividing the program video into cut units, and the scene series V S [1], ..., V S [N S]. ] Is generated by integrating the cut series V C [1], ..., V C [N C ] for each scene.
図2の例では、シーン映像VS[1]は、カット映像VC[1],VC[2],VC[3]を統合した映像であり、シーン映像VS[2]は、カット映像VC[4],VC[5]を統合した映像である。また、シーン映像VS[NS]は、カット映像VC[NC-1],VC[NC]を統合した映像である。このように、カット映像VC[i]は、シーン映像VS[j]のいずれかに属することとなる。 In the example of FIG. 2, the scene image V S [1] is an image in which the cut image V C [1], V C [2], and V C [3] are integrated, and the scene image V S [2] is Cut video This is a video that integrates V C [4] and V C [5]. The scene video V S [N S ] is a video that integrates the cut video V C [N C -1] and V C [N C]. In this way, the cut video V C [i] belongs to any of the scene video V S [j].
図1に戻って、要素スコア算出部12は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力する。そして、要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、当該カット映像VC[i]に基づいて重要度を表す要素スコアS1[i]〜S4[i]を算出する。
Returning to FIG. 1, the element
重要度を表す要素スコアには、カット映像VC[i]に現れる演出による効果の程度が反映される。カット映像VC[i]についての「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」の要素スコアをそれぞれ、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]とする。 The element score, which indicates the degree of importance, reflects the degree of effect of the effect that appears in the cut video V C [i]. The element scores of "telop", "face recognition", "camera work", and "CG image-likeness" for the cut video V C [i] are the telop score S 1 [i], face recognition score S 2 [i], and camera, respectively. Work score S 3 [i] and CG image quality score S 4 [i].
要素スコア算出部12は、要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を生成する。
The element
要素スコア算出部12は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を、総合スコア算出部13に出力する。要素スコア算出部12の詳細については後述する。
The element
総合スコア算出部13は、要素スコア算出部12から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び要素スコアS1[i]〜S4[i]からなる要素スコア系列S1[1],...,S1[NC],S2[1],...,S2[NC],S3[1],...,S3[NC],S4[1],...,S4[NC]を入力する。
From the element
総合スコア算出部13は、各カット映像VC[i]について、予め設定された重み係数W1〜W4を用いて要素スコアS1[i]〜S4[i]を統合し、総合スコアS[i]を算出し、総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を生成する。そして、総合スコア算出部13は、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を要約映像生成部14に出力する。総合スコア算出部13の詳細については後述する。
The total
要約映像生成部14は、総合スコア算出部13から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を入力する。また、要約映像生成部14は、シーン生成部11から、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を入力する。
The summary
要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまで、要約映像を構成するカット映像VC[i]を選択する。そして、要約映像生成部14は、選択したカット映像VC[i]を時系列に(フレーム番号の早い順に)ソートして連結することで要約映像を生成し、要約映像を出力する。要約映像生成部14の詳細については後述する。
The summary
〔要素スコア算出部12〕
次に、図1に示した要素スコア算出部12について詳細に説明する。前述のとおり、要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、当該カット映像VC[i]に基づいてテロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]を算出する。
[Element score calculation unit 12]
Next, the element
図3は、要素スコア算出部12の構成例及び入出力データ例を示すブロック図である。この要素スコア算出部12は、テロップ領域検出部20、顔認識処理部21、カメラワーク算出部22、CG映像らしさ算出部23、テロップスコア算出部24、顔認識スコア算出部25、カメラワークスコア算出部26及びCG映像らしさスコア算出部27を備えている。
FIG. 3 is a block diagram showing a configuration example and an input / output data example of the element
要素スコア算出部12は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、これを総合スコア算出部13に出力する。 The element score calculation unit 12 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the cut division unit 10, and inputs this to the total score calculation unit. Output to 13.
テロップ領域検出部20は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、カット映像VC[i]からTフレーム毎にフレーム画像P[i,n]をサンプリングし、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を生成する。そして、テロップ領域検出部20は、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を顔認識処理部21及びCG映像らしさ算出部23に出力する。
Ticker
パラメータn=1,...,NPは、フレーム画像P[i,n]の番号を示し、NPは、サンプリングされたフレーム画像P[i,n]の数を示す。 The parameters n = 1, ..., N P indicate the number of the frame image P [i, n], and N P indicates the number of sampled frame images P [i, n].
テロップ領域検出部20は、各フレーム画像P[i,n]について、テロップが表示されている領域を検出する「テロップ領域検出処理」を行い、テロップ領域の面積を算出し、当該フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]を算出する。そして、テロップ領域検出部20は、フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]からなる面積比率系列rTL[i,1],...,rTL[i,NP]を生成し、これをテロップスコア算出部24に出力する。このテロップ領域の面積は、当該演出に関連する対象である「テロップ」が映像内に現れる面積である。
The telop
尚、「テロップ領域検出処理」は既知であり、詳細については、例えば特開2013−30963号公報を参照されたい。 The "telop region detection process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2013-30963.
テロップスコア算出部24は、テロップ領域検出部20から、フレーム画像P[i,n]に対するテロップ領域の面積比率rTL[i,n]からなる面積比率系列rTL[i,1],...,rTL[i,NP]を入力する。そして、テロップスコア算出部24は、以下の式により、各カット映像VC[i]について、面積比率rTL[i,n]に基づいて、当該カット映像VC[i]のテロップスコアS1[i]を算出する。
テロップスコアS1[i]の範囲は、0≦S1[i]≦1である。テロップスコアS1[i]は、フレーム画像P[i,n]内でテロップ領域の面積が広いほど、大きい値となり、面積が狭いほど、小さい値となる。つまり、テロップスコアS1[i]は、カット映像VC[i]において、テロップが表示される領域が広いフレーム画像P[i,n]が出現するほど、大きい値となる。テロップスコアS1[i]は、カット映像VC[i]において、テロップが表示される領域が最も広いフレーム画像P[i,n]の面積比率rTL[i,n]を、0から1までの間の範囲で正規化した値となる。 The range of the telop score S 1 [i] is 0 ≤ S 1 [i] ≤ 1. The telop score S 1 [i] becomes a large value as the area of the telop region in the frame image P [i, n] is large, and becomes a small value as the area is small. That is, the telop score S 1 [i] becomes larger as the frame image P [i, n] having a wider telop display area appears in the cut video V C [i]. The telop score S 1 [i] sets the area ratio r TL [i, n] of the frame image P [i, n], which has the widest area where the telop is displayed , from 0 to 1 in the cut video V C [i]. The value is normalized in the range up to.
テロップスコア算出部24は、テロップスコアS1[i]からなるテロップスコア系列S1[1],...,S1[NC]を生成し、これを総合スコア算出部13に出力する。
The telop
顔認識処理部21は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力すると共に、テロップ領域検出部20から、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を入力する。
The face recognition processing unit 21 inputs a cut series V C [1], ..., V C [N C ] composed of a cut image V C [i] from the cut division unit 10, and also inputs a telop
顔認識処理部21は、各フレーム画像P[i,n]について、対象番組におけるメインの出演者ID[m](M名のメインの出演者ID[1],...,ID[M])を対象として、これらの顔を認識する「顔認識処理」を行い、顔領域F[i,n,k]を検出する。当該フレーム画像P[i,n]からK個の顔領域F[i,n,k]が検出されたとする。顔認識処理部21は、顔領域F[i,n,k]からなるK個の顔領域系列F[i,n,1],...,F[i,n,K]を生成する。
The face
パラメータm=1,...,Mは、メインの出演者ID[m]の番号を示し、Mは、メインの出演者ID[m]の数を示す。また、パラメータk=1,...,Kは、顔領域F[i,n,k]の番号を示し、Kは、フレーム画像P[i,n]から検出された顔領域F[i,n,k]の数を示す。 The parameters m = 1, ..., M indicate the number of the main performer ID [m], and M indicates the number of the main performer ID [m]. Further, the parameters k = 1, ..., K indicate the number of the face area F [i, n, k], and K is the face area F [i, n] detected from the frame image P [i, n]. Indicates the number of n, k].
尚、「顔認識処理」は既知であり、詳細については、例えば特開2017−33372号公報を参照されたい。 The "face recognition process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2017-333372.
顔認識処理部21は、当該フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]を算出し、K個の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]を生成する。 The face recognition processing unit 21 calculates the area ratio r FC [i, n, k] of the face area F [i, n, k] to the frame image P [i, n], and K pieces of the area ratio r FC. Generate an area ratio series r FC [i, n, 1], ..., r FC [i, n, K] consisting of [i, n, k].
顔認識処理部21は、顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]を算出する「顔確率算出処理」を行い、M個の確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を生成する。この確率pFC[i,n,k,m]は、当該演出に関連する対象である出演者ID[m]の「顔」が現れる確率である。
The face
尚、「顔確率算出処理」は既知であり、詳細については、「顔認識処理」と同様に、例えば特開2017−33372号公報を参照されたい。 The "face probability calculation process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 2017-333372, as in the "face recognition process".
顔認識処理部21は、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]、及び、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を顔認識スコア算出部25に出力する。 The face recognition processing unit 21 has an area ratio series r FC [i, n, k] composed of an area ratio r FC [i, n, k] of the face region F [i, n, k] with respect to the frame image P [i, n]. 1], ..., r FC [i, n, K] and the face area F [i, n, k] in the frame image P [i, n] are the faces of the performer ID [m]. Face recognition score calculation unit 25 with probability series p FC [i, n, k, 1], ..., p FC [i, n, k, M] consisting of probability p FC [i, n, k, m] Output to.
顔認識スコア算出部25は、顔認識処理部21から、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]からなる面積比率系列rFC[i,n,1],...,rFC[i,n,K]、及び、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]からなる確率系列pFC[i,n,k,1],...,pFC[i,n,k,M]を入力する。
The face recognition
顔認識スコア算出部25は、以下の式により、フレーム画像P[i,n]内の顔領域F[i,n,k]が出演者ID[m]の顔である確率pFC[i,n,k,m]に基づいて、パラメータwFC[i,n,k]を算出する。
パラメータwFC[i,n,k]は、フレーム画像P[i,n]内の顔領域F[i,n,k]において、最大となる確率pFC[i,n,k,m]が低いほど、大きい値となり、最大となる確率pFC[i,n,k,m]が高いほど、小さい値となる。 The parameter w FC [i, n, k] has the maximum probability p FC [i, n, k, m] in the face region F [i, n, k] in the frame image P [i, n]. The lower the value, the larger the value, and the higher the maximum probability p FC [i, n, k, m], the smaller the value.
顔認識スコア算出部25は、以下の式により、フレーム画像P[i,n]に対する顔領域F[i,n,k]の面積比率rFC[i,n,k]、及び前記数式(2)にて算出したパラメータwFC[i,n,k]に基づいて、パラメータRFC[i,n]を算出する。
パラメータRFC[i,n]は、フレーム画像P[i,n]において、顔領域F[i,n,k]のパラメータwFC[i,n,k]に顔領域F[i,n,k]の面積比率rFC[i,n,k]を乗算し、乗算結果を全ての顔領域F[i,n,k]について加算した値である。 The parameter R FC [i, n] is the parameter w FC [i, n, k] of the face area F [i, n, k] in the frame image P [i, n] and the face area F [i, n, k]. It is a value obtained by multiplying the area ratio r FC [i, n, k] of k] and adding the multiplication result for all face regions F [i, n, k].
パラメータRFC[i,n]は、パラメータwFC[i,n,k]が大きいほど(確率pFC[i,n,k,m]が低いほど)、大きい値となり、パラメータwFC[i,n,k]が小さいほど(確率pFC[i,n,k,m]が高いほど)、小さい値となる。また、パラメータRFC[i,n]は、面積比率rFC[i,n,k]が高いほど、大きい値となり、面積比率rFC[i,n,k]が小さいほど、小さい値となる。 The parameter R FC [i, n] becomes larger as the parameter w FC [i, n, k] is larger (the lower the probability p FC [i, n, k, m]), and the parameter w FC [i] The smaller the, n, k] (the higher the probability p FC [i, n, k, m]), the smaller the value. The parameter R FC [i, n] is the area ratio r FC [i, n, k ] higher, becomes a large value, as the area ratio r FC [i, n, k ] is small, a small value ..
顔認識スコア算出部25は、以下の式により、各カット映像VC[i]について、前記数式(3)にて算出したパラメータRFC[i,n]に基づいて、当該カット映像VC[i]の顔認識スコアS2[i]を算出する。
顔認識スコアS2[i]の範囲は、0≦S2[i]≦1である。顔認識スコアS2[i]は、パラメータRFC[i,n]が大きいほど、大きい値となり、パラメータRFC[i,n]が小さいほど、小さい値となる。つまり、顔認識スコアS2[i]は、確率pFC[i,n,k,m]が低いほど、大きい値となり、確率pFC[i,n,k,m]が高いほど、小さい値となり、面積比率rFC[i,n,k]が高いほど、大きい値となり、面積比率rFC[i,n,k]が低いほど、小さい値となる。 The range of the face recognition score S 2 [i] is 0 ≤ S 2 [i] ≤ 1. The larger the parameter R FC [i, n], the larger the face recognition score S 2 [i], and the smaller the parameter R FC [i, n], the smaller the value. In other words, the face recognition score S 2 [i], the probability p FC [i, n, k , m] is as low, becomes a large value, the probability p FC [i, n, k , m] higher, smaller The higher the area ratio r FC [i, n, k], the larger the value, and the lower the area ratio r FC [i, n, k], the smaller the value.
確率pFC[i,n,k,m]は、顔領域F[i,n,k]がメインの出演者ID[m]の顔である確率であるから、確率pFC[i,n,k,m]が低い場合は、メインでない出演者ID[m]の顔(ゲストの顔)である確率が高く、確率pFC[i,n,k,m]が高い場合は、ゲストの顔である確率が低いことを意味する。 The probability p FC [i, n, k, m] is the probability that the face area F [i, n, k] is the face of the main performer ID [m], so the probability p FC [i, n, m] If k, m] is low, there is a high probability that it is the face of the non-main performer ID [m] (guest's face), and if the probability p FC [i, n, k, m] is high, it is the guest's face. It means that the probability of being is low.
したがって、顔認識スコアS2[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]において、メインの出演者ID[m]の顔が現れる総面積が広いほど、大きい値となり、メインの出演者ID[m]の顔が現れる総面積が狭いほど、小さい値となる。また、顔認識スコアS2[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]において、ゲストの顔が現れる確率が高いほど、大きい値となり、ゲストの顔が現れる確率が低いほど、小さい値となる。つまり、顔認識スコアS2[i]は、カット映像VC[i]において、メインの出演者ID[m]の顔が現れる総面積が広いフレーム画像P[i,n]が出現するほど、大きい値となり、ゲストの顔が現れる確率が高いフレーム画像P[i,n]が出現するほど、大きい値となる。 Therefore, the face recognition score S 2 [i] is such that the larger the total area where the face of the main performer ID [m] appears in the frame image P [i, n] included in the cut video V C [i], the larger the total area. The larger the value, the smaller the total area where the face of the main performer ID [m] appears, the smaller the value. In addition, the face recognition score S 2 [i] becomes a larger value as the probability that the guest's face appears in the frame image P [i, n] included in the cut image V C [i] becomes larger, and the guest's face becomes larger. The lower the probability of appearance, the smaller the value. In other words, the face recognition score S 2 [i] is such that in the cut video V C [i], the frame image P [i, n] with a large total area where the face of the main performer ID [m] appears appears. The larger the value, the larger the value as the frame image P [i, n], which has a high probability of the guest's face appearing, appears.
顔認識スコア算出部25は、顔認識スコアS2[i]からなる顔認識スコア系列S2[1],...,S2[NC]を生成し、これを総合スコア算出部13に出力する。
The face recognition
カメラワーク算出部22は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、「カメラワーク検出処理」を行う。そして、カメラワーク算出部22は、各カット映像VC[i]について、ズーム、パン等の所定のカメラワークが生じた映像区間VCW[i,q]を求め、映像区間VCW[i,q]からなる映像区間系列VCW[i,1],...,VCW[i,NCW]を生成する。
The camera work calculation unit 22 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the cut division unit 10, and "camera work detection processing". I do. The camera
パラメータq=1,...,NCWは、映像区間VCW[i,q]の番号を示し、NCWは、カット映像VC[i]から検出された映像区間VCW[i,q]の数を示す。 Parameter q = 1, ..., N CW indicates the number of video segments V CW [i, q], N CW , the video segment is detected from the cut video V C [i] V CW [ i, q ] Indicates the number.
尚、「カメラワーク検出処理」は既知であり、詳細については、例えば特開平10−243340号公報を参照されたい。 The "camera work detection process" is known, and for details, refer to, for example, Japanese Patent Application Laid-Open No. 10-243340.
カメラワーク算出部22は、各映像区間VCW[i,q]についてカメラの動き量を算出し、カメラの動き量を画像の対角線の長さで正規化(除算)した動き率rCW[i,q]を算出し、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]を生成する。そして、カメラワーク算出部22は、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]をカメラワークスコア算出部26に出力する。この動き率rCW[i,q]は、当該演出に関連する対象である「カメラワーク」の動き率である。
Camera
カメラワークスコア算出部26は、カメラワーク算出部22から、動き率rCW[i,q]からなる動き率系列rCW[i,1],...,rCW[i,NCW]を入力し、以下の式により、各カット映像VC[i]について、動き率rCW[i,q]に基づいて、当該カット映像VC[i]のカメラワークスコアS3[i]を算出する。
カメラワークスコアS3[i]の範囲は、0≦S3[i]≦1である。カメラワークスコアS3[i]は、カット映像VC[i]において、カメラの動き量が多いほど、大きい値となり、カメラの動き量が少ないほど、小さい値となる。つまり、カメラワークスコアS3[i]は、カット映像VC[i]において、カメラの動き量が多い映像区間VCW[i,q]が出現するほど、大きい値となる。 The range of the camera work score S 3 [i] is 0 ≤ S 3 [i] ≤ 1. The camera work score S 3 [i] becomes a large value as the amount of movement of the camera increases, and becomes a small value as the amount of movement of the camera decreases in the cut image V C [i]. That is, the camera work score S 3 [i] becomes larger as the video section V CW [i, q] with a large amount of camera movement appears in the cut video V C [i].
カメラワークスコア算出部26は、カメラワークスコアS3[i]からなるカメラワークスコア系列S3[1],...,S3[NC]を生成し、これを総合スコア算出部13に出力する。
The camera work
CG映像らしさ算出部23は、カット分割部10から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力すると共に、テロップ領域検出部20から、フレーム画像P[i,n]からなる画像系列P[i,1],...,P[i,NP]を入力する。 The CG image-likeness calculation unit 23 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut image V C [i] from the cut division unit 10, and also inputs the telop area detection unit. From 20, the image series P [i, 1], ..., P [i, N P ] consisting of the frame image P [i, n] is input.
CG映像らしさ算出部23は、各フレーム画像P[i,n]について、「サポートベクターマシーン(SVM)の認識モデルを用いた識別処理」を行い、CG映像である確率pCG[i,n]を算出する。そして、CG映像らしさ算出部23は、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]を生成する。CG映像である確率pCG[i,n]の範囲は、0≦pCG[i,n]≦1である。
The CG image-
サポートベクターマシーンには、CG映像の画像特徴とCG映像でない画像の画像特徴との間の違いを予め学習させておく。CG映像は彩度が高く、かつ人工的なテクスチャ特徴を持つ傾向がある。そこで、画像特徴としては、HSV色空間のS値(彩度)のヒストグラム、エッジ方向ヒストグラム、または自然物及び人工物の分類性の高いフラクタル特徴等が用いられる。 The support vector machine is made to learn in advance the difference between the image feature of the CG image and the image feature of the image that is not the CG image. CG images tend to be highly saturated and have artificial texture features. Therefore, as the image features, a histogram of the S value (saturation) of the HSV color space, an edge direction histogram, a fractal feature with high classibility of natural objects and artificial objects, and the like are used.
尚、「サポートベクターマシーン(SVM)の認識モデルを用いた識別処理」は既知であるから、ここでは詳細な説明を省略する。また、フラクタル特徴の詳細については、例えば特開2001−56820号公報を参照されたい。 Since the "identification process using the recognition model of the support vector machine (SVM)" is known, detailed description thereof will be omitted here. For details of fractal features, refer to, for example, Japanese Patent Application Laid-Open No. 2001-56820.
CG映像らしさ算出部23は、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]をCG映像らしさスコア算出部27に出力する。
CG
CG映像らしさスコア算出部27は、CG映像らしさ算出部23から、CG映像である確率pCG[i,n]からなる確率系列pCG[i,1],...,pCG[i,NP]を入力する。そして、CG映像らしさスコア算出部27は、以下の式により、各カット映像VC[i]について、CG映像である確率pCG[i,n]に基づいて、CG映像らしさスコアS4[i]を算出する。
CG映像らしさスコアS4[i]の範囲は、0≦S4[i]≦1である。CG映像らしさスコアS4[i]は、カット映像VC[i]に含まれるフレーム画像P[i,n]について、CG映像である確率pCG[i,n]の最大値が大きいほど、大きい値となり、CG映像である確率pCG[i,n]の最大値が小さいほど、小さい値となる。つまり、CG映像らしさスコアS4[i]は、カット映像VC[i]において、CG映像である確率pCG[i,n]の高いフレーム画像P[i,n]が出現するほど、大きい値となる。 The range of the CG image-likeness score S 4 [i] is 0 ≦ S 4 [i] ≦ 1. The CG image-likeness score S 4 [i] is such that the larger the maximum value of the probability p CG [i, n] of the frame image P [i, n] included in the cut image V C [i] is the CG image. It becomes a large value, and the smaller the maximum value of the probability p CG [i, n] which is a CG image, the smaller the value. That is, the CG image-likeness score S 4 [i] is so large that a frame image P [i, n] having a high probability of being a CG image p CG [i, n] appears in the cut image V C [i]. It becomes a value.
CG映像らしさスコア算出部27は、CG映像らしさスコアS4[i]からなるCG映像らしさスコア系列S4[1],...,S4[NC]を生成し、これを総合スコア算出部13に出力する。
The CG video-like score calculation unit 27 generates a CG video-like score series S 4 [1], ..., S 4 [N C ] consisting of the CG video-like score S 4 [i], and calculates the total score. Output to
〔総合スコア算出部13〕
次に、図1に示した総合スコア算出部13について詳細に説明する。前述のとおり、総合スコア算出部13は、各カット映像VC[i]について、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]を統合して総合スコアS[i]を算出する。
[Comprehensive score calculation unit 13]
Next, the total
図4は、総合スコア算出部13の構成例及び入出力データ例を示すブロック図である。この総合スコア算出部13は、重み係数設定部30及びスコア算出部31を備えている。
FIG. 4 is a block diagram showing a configuration example and an input / output data example of the total
総合スコア算出部13は、要素スコア算出部12から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]を入力し、これを要約映像生成部14に出力する。
The total score calculation unit 13 inputs the cut series V C [1], ..., V C [N C ] consisting of the cut video V C [i] from the element
重み係数設定部30は、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]の各要素について、総合スコアS[i]への反映度を定める重み係数Wr(r=1,...,4)を設定する。そして、重み係数設定部30は、重み係数W1〜W4をスコア算出部31に出力する。重み係数W1〜W4は、利用者(要約映像の制作者)の操作により自由に定められ、予め設定される
The weighting
スコア算出部31は、要素スコア算出部12のテロップスコア算出部24から、テロップスコアS1[i]からなるテロップスコア系列S1[1],...,S1[NC]を入力し、顔認識スコア算出部25から、顔認識スコアS2[i]からなる顔認識スコア系列S2[1],...,S2[NC]を入力する。また、重み係数設定部30は、カメラワークスコア算出部26から、カメラワークスコアS3[i]からなるカメラワークスコア系列S3[1],...,S3[NC]を入力し、CG映像らしさスコア算出部27から、CG映像らしさスコアS4[i]からなるCG映像らしさスコア系列S4[1],...,S4[NC]を入力する。また、スコア算出部31は、重み係数設定部30から重み係数W1〜W4を入力する。
The
スコア算出部31は、以下の式により、テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i]に重み係数Wrをそれぞれ乗算し、乗算結果を加算することで、カット映像VC[i]の総合スコアS[i]を算出する。
スコア算出部31は、カット映像VC[i]の総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を生成し、これを要約映像生成部14に出力する。
The
これにより、重み係数Wrに応じて、当該重み係数Wrに対応する要素のスコアが反映された総合スコアS[i]が算出される。重み係数Wrを高く設定した要素については、その要素のスコアが総合スコアS[i]に大きく反映され、重み係数Wrを低く設定した要素については、その要素のスコアが総合スコアS[i]にさほど反映されない。 Thus, in accordance with the weighting factor W r, the total score S score of elements corresponding to the weight coefficient W r is reflected [i] is calculated. For elements with a high weighting factor W r , the score of that element is greatly reflected in the total score S [i], and for elements with a low weighting factor W r , the score of that element is the total score S [i]. ] Is not reflected so much.
例えば、顔認識スコアS2[i]の重み係数W2に大きい値を設定し、他の重み係数W1,3,4に小さい値を設定した場合には、顔認識スコアS2[i]が大きく反映された総合スコアS[i]が生成される。そして、後述する要約映像生成部14により、メインの出演者ID[m]の顔またはゲストの顔が多く現れる要約映像が生成される。同様に、CG映像らしさスコアS4[i]の重み係数W4に大きい値を設定し、他の重み係数W1,2,3に小さい値を設定した場合には、CG映像らしさスコアS4[i]が大きく反映された総合スコアS[i]が生成される。そして、後述する要約映像生成部14により、CG映像が多く現れる要約映像が生成される。
For example, if a large value is set for the weight coefficient W 2 of the face recognition score S 2 [i] and a small value is set for the other weight coefficients W 1 , 3 and 4, the face recognition score S 2 [i] A total score S [i] that largely reflects is generated. Then, the summary
〔要約映像生成部14〕
次に、図1に示した要約映像生成部14について詳細に説明する。前述のとおり、要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまでカット映像VC[i]を選択し、選択したカット映像VC[i]を連結して要約映像を生成する。
[Summary video generation unit 14]
Next, the summary
図5は、要約映像生成部14の構成例及び入出力データ例を示すブロック図である。この要約映像生成部14は、要約映像選択部40及び要約映像出力部41を備えている。
FIG. 5 is a block diagram showing a configuration example and an input / output data example of the summary
要約映像選択部40は、総合スコア算出部13から、カット映像VC[i]からなるカット系列VC[1],...,VC[NC]、及び総合スコアS[i]からなる総合スコア系列S[1],...,S[NC]を入力する。また、要約映像選択部40は、シーン生成部11から、シーン映像VS[j]からなるシーン系列VS[1],...,VS[NS]を入力する。
The summary
要約映像選択部40は、全てのカット映像VC[i]を、総合スコアS[i]に基づいて重要度の高い順にソートし、ソート後のカット映像VC[I[i]]に対して順番に、選択したカット映像VC[I[i]]の全体の長さ(要約映像全体の長さ)が所定値を超えるまで、カット映像VC[I[i]]を選択する。重要度の高い順とは、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」を総合した演出の効果の高い順をいう。 The summary video selection unit 40 sorts all the cut video V C [i] in descending order of importance based on the total score S [i], and for the sorted cut video V C [i [i]]. In order, the cut video V C [I [i]] is selected until the total length of the selected cut video V C [I [i]] (the length of the entire summary video) exceeds a predetermined value. The order of importance refers to the order in which the effect of the production that integrates "telop", "face recognition", "camera work", and "CG image-likeness" is high.
要約映像選択部40は、カット映像VC[I[i]]を選択する際に、シーン映像VS[j]内で選択するカット映像VC[I[i]]の数が所定値を超えないようにする。そして、要約映像選択部40は、選択したカット映像VC[I[i]]を要約映像出力部41に出力する。
When the summary
要約映像出力部41は、要約映像選択部40から、選択したカット映像VC[I[i]]を入力し、選択したカット映像VC[I[i]]を時系列に連結して要約映像VC[i'1]...VC[i'L]を生成し、要約映像VC[i'1]...VC[i'L]を出力する。Lは、選択されたカット映像VC[i]の数、すなわち要約映像VC[i'1]...VC[i'L]の数である。
Summary
〔要約映像生成部14の動作〕
図6は、要約映像生成部14の処理例を示すフローチャートであり、図7は、図6のフローチャートを説明する図である。要約映像生成部14の要約映像選択部40は、総合スコア系列S[1],...,S[NC]のスコアが高い順にカット系列VC[1],...,VC[NC]をソートし、カット系列VC[I[1]],...,VC[I[NC]]を生成する(ステップS601)。
[Operation of summary video generation unit 14]
FIG. 6 is a flowchart showing a processing example of the summary
例えば図7に示すように、総合スコア系列S[1],...,S[NC]のスコアがS[8]>S[4]>S[1]>S[10]>S[3]>...>S[20]の場合、ステップS601の処理により、ソート後のカット系列は、VC[I[1]]=VC[8],VC[I[2]]=VC[4],VC[I[3]]=VC[1],VC[I[4]]=VC[10],VC[I[5]]=VC[3],...,VC[I[NC]]=VC[20]となる。 For example, as shown in FIG. 7, the scores of the total score series S [1], ..., S [N C ] are S [8]> S [4]> S [1]> S [10]> S [ 3]>. .. .. > In the case of S [20], the cut series after sorting is V C [I [1]] = V C [8], V C [I [2]] = V C [4] by the processing of step S601. , V C [I [3]] = V C [1], V C [I [4]] = V C [10], V C [I [5]] = V C [3] ,. .. .. , V C [I [N C ]] = V C [20].
図6に戻って、要約映像選択部40は、初期設定として、パラメータi=1,...,NCについての全てのフラグSelect[i]を「false」に設定し(Select[i]=false(i=1,...,NC))、パラメータj=1,...,NSについての全てのカウントCount[j]を0に設定する(Count[j]=0(j=1,...,NS)(ステップS602)。尚、このパラメータiは、図6及び図7の説明のために用いられ、カット映像VC[i]、総合スコアS[i]等のパラメータiとは異なる。
Returning to FIG. 6, the video
フラグSelect[i]は、後述するステップS604及びステップS605にてカット映像VC[I[i]]が要約映像の一部に選択された場合、「true」が設定され、カット映像VC[I[i]]が要約映像に選択されない場合、初期設定された「false」が維持される。カウントCount[j]は、パラメータjのシーン番号のシーン映像VS[j]において、当該シーン映像VS[j]に属するカット映像VC[I[i]]の中で、要約映像の一部に選択されたカット映像VC[I[i]]の数を示す。 Flag the Select [i], when the cut video V C at step S604 and step S605 described later [I [i]] is selected in a part of the video summary, "true" is set, the cut video V C [ If I [i]] is not selected for the summary video, the default "false" is maintained. Count Count [j] is the scene image V S [j] of the parameter j scene number, in the scene image V S [j] Cut belonging to the video V C [I [i]] , the video summary one The number of cut images V C [I [i]] selected in the section is shown.
以下、ソート後のカット系列VC[I[1]],...,VC[I[NC]]のそれぞれにパラメータi=1,...,NCを対応させ、ソート後のカット映像VC[I[i]]毎に、要約映像の選択処理が行われる。要約映像の選択処理は、後述するステップS606のとおり、要約映像として選択されたカット映像VC[I[i]]の全フレーム数が所定値TMAXを超えるまで行われる。 Below, the parameters i = 1, ..., N C are associated with each of the sorted cut series V C [I [1]], ..., V C [I [N C]], and after sorting The summary video is selected for each cut video V C [I [i]]. Selection process video summary, as in step S606 to be described later, the total number of frames of the selected cut image V C as summarized video [I [i]] is performed until more than a predetermined value T MAX.
要約映像選択部40は、パラメータiに1を設定し(i=1、ステップS603)、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たすか否かを判定する(ステップS604)。すなわち、要約映像選択部40は、パラメータiのカット映像VC[I[i]]が要約映像の一部に選択されている、またはパラメータiのカット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きい条件を満たすか否かを判定する。
The summary
J[i]は、カット映像VC[I[i]]の属するシーン番号を示す。NMAXは、1つのシーン映像VS[J[i]]から選択されるカット映像VC[I[i]]の数の最大値を示し、予め設定される。 J [i] indicates the scene number to which the cut video V C [I [i]] belongs. N MAX indicates the maximum value of the number of cut video V C [I [i]] selected from one scene video V S [J [i]] and is preset.
要約映像選択部40は、ステップS604において、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たさないと判定した場合(ステップS604:N)、カット映像VC[I[i]]を要約映像の一部に選択し、フラグSelect[i]に「true」を設定し(Select[i]=true)、カウントCount[J[i]]をインクリメントする(Count[J[i]]=Count[J[i]]+1)(ステップS605)。すなわち、要約映像選択部40は、フラグSelect[i]に「true」が設定されていない(「false」が設定されている)場合、かつカウントCount[J[i]]が所定値NMAXよりも大きくない場合、ステップS605の処理を行う。言い換えると、要約映像選択部40は、カット映像VC[I[i]]が要約映像の一部に選択されておらず、かつ、カット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きくない場合、ステップS605の処理を行う。
In step S604, the summary
例えば図7に示すように、ステップS605により、初期設定にて「false」に設定されたフラグSelect[1],...,Select[Nc]のうち、フラグSelect[1],...,Select[5]等が「true」に変更される。 For example, as shown in FIG. 7, among the flags Select [1], ..., Select [N c ] set to "false" in the initial setting by step S605, the flags Select [1], ... , Select [5] etc. are changed to "true".
図6に戻って、要約映像選択部40は、パラメータi=1から現在のパラメータiまでにおいて、フラグSelect[i]が「true」(Select[i]=true)に設定されている全てのカット映像VC[I[i]]の合計フレーム数を算出し、合計フレーム数が所定値TMAXよりも大きいか否かを判定する(ステップS606)。すなわち、要約映像選択部40は、要約映像の一部として選択された全てのカット映像VC[i]の全フレーム数が所定値TMAXよりも大きいか否か、つまり、要約映像全体の長さが所定値TMAXよりも大きいか否かを判定する。TMAXは、利用者が生成したい要約映像の長さ(フレーム数)を示し、予め設定される。
Returning to FIG. 6, the summary
要約映像選択部40は、ステップS606において、要約映像の一部として選択されたカット映像VC[i]の合計フレーム数が所定値TMAXよりも大きくないと判定した場合(ステップS606:N)、すなわち要約映像全体の長さが所定値TMAXよりも大きくないと判定した場合、ステップS604へ移行する。この場合、当該パラメータiのフラグSelect[i]はステップS605にて「true」に設定されているから、ステップS604からステップS607へ移行し、次のカット映像VC[I[i+1]]の処理が行われる。
Summary
一方、要約映像選択部40は、ステップS606において、要約映像の一部として選択されたカット映像VC[i]の合計フレーム数が所定値TMAXよりも大きいと判定した場合(ステップS606:Y)、すなわち要約映像全体の長さが所定値TMAXよりも大きいと判定した場合、ステップS611へ移行する。
On the other hand, the video
一方、要約映像選択部40は、ステップS604において、フラグSelect[i]に「true」が設定されている、またはカウントCount[J[i]]が所定値NMAXよりも大きい条件を満たすと判定した場合(ステップS604:Y)、パラメータiをインクリメントする(i=i+1、ステップS607)。すなわち、要約映像選択部40は、フラグSelect[i]に「true」が設定されている場合、ステップS607の処理を行う。または、要約映像選択部40は、カウントCount[J[i]]が所定値NMAXよりも大きい場合、ステップS607の処理を行う。
On the other hand, the summary
言い換えると、要約映像選択部40は、カット映像VC[I[i]]が要約映像の一部に選択されている場合、次のカット映像VC[I[i+1]]の処理を行うため、ステップS607へ移行する。または、要約映像選択部40は、カット映像VC[I[i]]の属するシーン番号J[i]のシーン映像VS[J[i]]において、要約映像の一部として選択されているカット映像数が所定値NMAXよりも大きい場合、当該シーン映像VS[J]における残りのカット映像VC[I[i]]の処理のために、ステップS607の処理を行う。この場合の残りのカット映像VC[I[i]]は、要約映像として選択されることはない。
In other words, the summary video selection unit 40 processes the next cut video V C [I [i + 1]] when the cut video V C [I [i]] is selected as a part of the summary video. To do so, the process proceeds to step S607. Alternatively, the summary
要約映像選択部40は、パラメータiが所定値NCよりも大きいか否かを判定する(i>NC、ステップS608)。すなわち、要約映像選択部40は、全てのカット映像VC[I[i]]の処理が完了したか否かを判定する。
Summary
要約映像選択部40は、ステップS608において、パラメータiが所定値NCよりも大きくないと判定した場合(ステップS608:N)、ステップS604へ移行し、当該カット映像VC[I[i]]の処理を行う。
Summary
一方、要約映像選択部40は、ステップS608において、パラメータiが所定値NCよりも大きいと判定した場合(ステップS608:Y)、すなわち全てのカット映像VC[I[i]]の処理が完了した場合、所定値NMAXをインクリメントする(NMAX=NMAX+1、ステップS609)。
On the other hand, when the summary
これにより、ステップS604にて使用する所定値NMAX(1つのシーン映像VS[j[i]]から選択されるカット映像VC[I[i]]の数の最大値)がインクリメントされる。そして、後述するステップS610からステップS603へ移行すると、最初のパラメータi=1のカット映像VC[I[i]]から順番に処理が行われる。したがって、ステップS606の条件を満たすまで、要約映像の一部として選択されるカット映像VC[I[i]]が追加される。 As a result, the predetermined value N MAX (the maximum value of the number of cut images V C [i [i]] selected from one scene image V S [j [i]]) used in step S604 is incremented. .. Then, when the process proceeds from step S610 to step S603, which will be described later, processing is performed in order from the cut video V C [I [i]] with the first parameter i = 1. Therefore, the cut video V C [I [i]] selected as a part of the summary video is added until the condition of step S606 is satisfied.
要約映像選択部40は、所定値NMAXが所定値Ncよりも大きいか否かを判定し(ステップS610)、所定値NMAXが所定値Ncよりも大きくないと判定した場合(ステップS610:N)、ステップS603へ移行する。一方、要約映像選択部40は、所定値NMAXが所定値Ncよりも大きいと判定した場合(ステップS610:Y)、ステップS611へ移行する。
The summary
要約映像出力部41は、ステップS606(Y)またはステップS610(Y)から移行して、ステップS605にて選択された全てのカット映像VC[I[i]](フラグSelect[i]=trueである全てのカット映像VC[I[i]])を時系列にソートして連結する。そして、要約映像出力部41は、連結した映像VC[i'1]...VC[i'L]を要約映像として生成し、出力する(ステップS611)。Lは、選択されたカット映像VC[I[i]]の数を示す。
The summary
例えば図7に示すように、ステップS611により、フラグSelect[i]=trueである全てのカット映像VC[I[1]]=VC[8],VC[I[2]]=VC[4],VC[I[3]]=VC[1],VC[I[4]]=VC[10],VC[I[5]]=VC[3]等が時系列にソートされ連結される。そして、連結された映像VC[i'1]=VC[1],VC[i'2]=VC[3],VC[i'3]=VC[4],...,VC[i'L]=VC[25]が要約映像として生成される。 For example, as shown in FIG. 7, according to step S611, all cut images in which the flag Select [i] = true V C [I [1]] = V C [8], V C [I [2]] = V C [4], V C [I [3]] = V C [1], V C [I [4]] = V C [10], V C [I [5]] = V C [3], etc. Are sorted and concatenated in chronological order. The linked image V C [i '1] = V C [1], V C [i' 2] = V C [3], V C [i '3] = V C [4] ,. .. .. , V C [i 'L] = V C [25] is generated as a summary image.
以上のように、本発明の実施形態による要約映像生成装置1によれば、カット分割部10は、番組映像をカット映像VC[i](i=1,...,NC)に分割し、シーン生成部11は、同じ場面のカット映像VC[i]を統合してシーン映像VS[j](j=1,...,NS)を生成する。
As described above, according to the abstract
要素スコア算出部12は、「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」からなる4つの要素の演出毎に、各カット映像VC[i]について、要素スコアS1[i]〜S4[i](テロップスコアS1[i]、顔認識スコアS2[i]、カメラワークスコアS3[i]及びCG映像らしさスコアS4[i])を算出する。
The element
総合スコア算出部13は、要素スコアS1[i]〜S4[i]及び重み係数W1〜W4に基づいて、カット映像VC[i]の総合スコアS[i]を算出する。
The total
要約映像生成部14は、総合スコアS[i]及びシーン映像VS[j]を参照し、要約映像全体の長さが所定値を超えるまでカット映像VC[i]を選択し、選択したカット映像VC[i]を時系列にソートして連結することで要約映像を生成する。
The summary
これにより、番組映像における「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」の各要素のように、番組演出上重要な場面に生じる傾向の強い要素を考慮した要約映像を生成することができる。 As a result, a summary video is generated in consideration of elements that tend to occur in important scenes in the program production, such as each element of "telop", "face recognition", "camera work", and "CG image-likeness" in the program image. be able to.
つまり、番組映像に現れる演出を考慮することで、演出による効果の度合いの高い重要な区間の映像のみで構成される要約映像を生成することが可能となる。そして、このような要約映像をネット用コンテンツとして配信することにより、視聴者の番組への関心を高める媒体として利用することできる。 That is, by considering the effect appearing in the program image, it is possible to generate a summary image composed of only the images of the important sections having a high degree of effect by the effect. Then, by distributing such a summary video as content for the Internet, it can be used as a medium for increasing the viewer's interest in the program.
また、本発明の実施形態による要約映像生成装置1によれば、総合スコア算出部13は、カット映像VC[i]の総合スコアS[i]を算出する際に、要素スコアS1[i]〜S4[i]毎に設定された重み係数W1〜W4を用いるようにした。
Further, according to the summary
これにより、重み係数W1〜W4に応じて、当該重み係数W1〜W4の要素のスコアを総合スコアS[i]へ反映することができる。つまり、どの要素に重きを置いて要約映像を作るのかを、重み係数W1〜W4に対し自由に設定することで、利用者の意図に沿った様々なバリエーションの要約映像を生成することができる。 This makes it possible in accordance with the weighting coefficients W 1 to W-4, reflecting the scores of the element of the weighting factors W 1 to W-4 to the total score S [i]. In other words, it is possible to generate various variations of summary video according to the user's intention by freely setting which element is emphasized to create the summary video for the weighting factors W 1 to W 4. can.
また、本発明の実施形態による要約映像生成装置1によれば、要約映像生成部14は、要約映像を生成するためのカット映像VC[i]を選択する際に、シーン映像VS[j]内で選択するカット映像VC[i]の数が所定値NMAXを超えないようにした。これにより、特定のシーンに偏ってカット映像VC[i]が選択されることがないから、特定のシーンに偏った要約映像が生成されることがない。つまり、番組映像の全体のシーンを考慮した要約映像が生成される。
Further, according to the summary
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、演出の種類を「テロップ」「顔認識」「カメラワーク」及び「CG映像らしさ」として、要約映像を生成するようにしたが、演出の種類は、これら4つの要素に限定されるものではなく、他の要素を用いるようにしてもよい。例えば、音の大きさ、音楽、会話、特定の物体等を演出の要素として、要約映像を生成するようにしてもよい。また、これらの演出の要素のうち任意の所定数の要素を用いて、要約映像を生成するようにしてもよい。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea. In the above-described embodiment, the summary video is generated with the types of production as "telop", "face recognition", "camera work", and "CG image-likeness", but the types of production are limited to these four elements. Other elements may be used instead of the ones. For example, a summary video may be generated by using loudness, music, conversation, a specific object, or the like as elements of production. Further, a summary video may be generated by using an arbitrary predetermined number of elements of these effects.
前述のとおり、要素スコアは、演出による効果の程度が反映された重要度を表すから、演出が「音の大きさ」の場合、要素スコアは、例えばその大きさに比例した値が設定される。また、演出が「音楽」の場合、要素スコアは、カット映像VC[i]内で音楽が流れている時間割合に応じて設定される。また、演出が「特定の物体」の場合、要素スコアは、前述の「顔認識」の場合と同様に、当該物体が検出された領域の面積比率及び当該物体である確率に基づいて設定される。 As described above, the element score represents the importance that reflects the degree of the effect of the effect. Therefore, when the effect is "loudness", the element score is set to a value proportional to the loudness, for example. .. Also, if the effect is "music", element score is set in accordance with the time ratio that music plays in the cut video V C [i]. Further, when the effect is a "specific object", the element score is set based on the area ratio of the area where the object is detected and the probability that the object is the object, as in the case of the above-mentioned "face recognition". ..
尚、本発明の実施形態による要約映像生成装置1のハードウェア構成としては、通常のコンピュータを使用することができる。要約映像生成装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。要約映像生成装置1に備えたカット分割部10、シーン生成部11、要素スコア算出部12、総合スコア算出部13及び要約映像生成部14の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
As the hardware configuration of the summary
1 要約映像生成装置
10 カット分割部
11 シーン生成部
12 要素スコア算出部
13 総合スコア算出部
14 要約映像生成部
20 テロップ領域検出部
21 顔認識処理部
22 カメラワーク算出部
23 CG映像らしさ算出部
24 テロップスコア算出部
25 顔認識スコア算出部
26 カメラワークスコア算出部
27 CG映像らしさスコア算出部
30 重み係数設定部
31 スコア算出部
40 要約映像選択部
41 要約映像出力部
1 Summary video generation device 10
Claims (5)
前記映像をカット単位の複数のカット映像に分割するカット分割部と、
前記カット分割部により分割された前記複数のカット映像から、同じ場面の一連のカット映像を統合し、シーン単位のシーン映像を生成するシーン生成部と、
前記カット分割部により分割された前記複数のカット映像のそれぞれについて、所定数の異なる演出毎に、当該演出の重要度を表すスコアを算出するスコア算出部と、
前記カット分割部により分割された前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコアに基づいて、総合スコアを算出する総合スコア算出部と、
前記総合スコア算出部により算出された前記総合スコアに基づいて、前記複数のカット映像から、前記要約映像を構成するカット映像を選択し、前記要約映像を生成する要約映像生成部と、を備え、
前記要約映像生成部は、
前記シーン生成部により生成された前記シーン映像の中から前記カット映像を選択する際に、前記シーン映像の中から選択する前記カット映像の数が所定値を超えないようにする、ことを特徴とする要約映像生成装置。 In a summary video generator that generates a summary video from video
A cut division unit that divides the image into a plurality of cut images in cut units,
A scene generation unit that integrates a series of cut images of the same scene from the plurality of cut images divided by the cut division unit and generates a scene image for each scene.
A score calculation unit that calculates a score indicating the importance of the effect for each of a predetermined number of different effects for each of the plurality of cut images divided by the cut division unit.
A total score calculation unit that calculates the total score based on the score for each effect calculated by the score calculation unit for each of the plurality of cut images divided by the cut division unit.
Based on the total score calculated by the total score calculation unit, a summary video generation unit that selects a cut video constituting the summary video from the plurality of cut videos and generates the summary video is provided .
The summary video generation unit
When selecting the cut video from the scene video generated by the scene generation unit, the feature is that the number of the cut video selected from the scene video does not exceed a predetermined value. Summary video generator.
前記総合スコア算出部は、
前記複数のカット映像のそれぞれについて、前記スコア算出部により算出された前記演出毎のスコア、及び予め設定された演出毎の重み係数に基づいて、前記総合スコアを算出する、ことを特徴とする要約映像生成装置。 In the summary video generator according to claim 1,
The total score calculation unit
A summary characterized in that, for each of the plurality of cut images, the total score is calculated based on the score for each effect calculated by the score calculation unit and the weighting coefficient for each effect set in advance. Video generator.
前記スコア算出部は、
前記演出に関連する対象が前記映像内に現れる面積、前記演出に関連する対象の動きの量、または前記演出に関連する対象が現れる確率に基づいて、前記スコアを算出する、ことを特徴とする要約映像生成装置。 In the summary video generator according to claim 1 or 2.
The score calculation unit
The score is calculated based on the area where the object related to the effect appears in the image, the amount of movement of the object related to the effect, or the probability that the object related to the effect appears. Summary video generator.
前記要約映像生成部は、
前記カット分割部により分割された前記複数のカット映像から、前記総合スコア算出部により算出された前記総合スコアに従って前記演出の重要度の高い順番に、前記シーン生成部により生成された前記シーン映像の中から選択する前記カット映像の数が所定値を超えないように、前記要約映像の全体の長さが所定値を超えるまで、前記要約映像を構成するカット映像を選択する要約映像選択部と、
前記要約映像選択部により選択された前記カット映像を時系列に連結し、前記要約映像を生成する要約映像出力部と、
を備えたことを特徴とする要約映像生成装置。 In the summary video generator according to any one of claims 1 to 3,
The summary video generation unit
From the plurality of cut images divided by the cut division unit, the scene images generated by the scene generation unit are generated in descending order of importance of the effect according to the total score calculated by the total score calculation unit. A summary video selection unit that selects the cut video constituting the summary video until the total length of the summary video exceeds the predetermined value so that the number of the cut video selected from the list does not exceed the predetermined value.
A summary video output unit that generates the summary video by connecting the cut videos selected by the summary video selection unit in chronological order.
A summary video generator characterized by being equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017114206A JP6917788B2 (en) | 2017-06-09 | 2017-06-09 | Summary video generator and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017114206A JP6917788B2 (en) | 2017-06-09 | 2017-06-09 | Summary video generator and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206292A JP2018206292A (en) | 2018-12-27 |
JP6917788B2 true JP6917788B2 (en) | 2021-08-11 |
Family
ID=64957239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017114206A Active JP6917788B2 (en) | 2017-06-09 | 2017-06-09 | Summary video generator and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6917788B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102173858B1 (en) * | 2019-08-23 | 2020-11-05 | 한국항공대학교산학협력단 | Apparatus and method for generating scene and summarizing video using preference based user input |
CN111641868A (en) * | 2020-05-27 | 2020-09-08 | 维沃移动通信有限公司 | Preview video generation method and device and electronic equipment |
JP2024024798A (en) * | 2022-08-10 | 2024-02-26 | 株式会社ユニゾンシステムズ | Video editing device, video editing program, and video editing method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004126811A (en) * | 2002-09-30 | 2004-04-22 | Toshiba Corp | Content information editing device, and editing program for the same |
JP4714647B2 (en) * | 2006-07-31 | 2011-06-29 | 日本放送協会 | Cut point detection device and cut point detection program |
JP2011124979A (en) * | 2009-11-13 | 2011-06-23 | Jvc Kenwood Holdings Inc | Video processing device, video processing method, and video processing program |
JP5537285B2 (en) * | 2010-06-28 | 2014-07-02 | 日本放送協会 | Summary video generation device and summary video generation program |
JP5600040B2 (en) * | 2010-07-07 | 2014-10-01 | 日本電信電話株式会社 | Video summarization apparatus, video summarization method, and video summarization program |
JP2012044390A (en) * | 2010-08-18 | 2012-03-01 | Nippon Telegr & Teleph Corp <Ntt> | Video digesting device and video digesting program |
JP5092000B2 (en) * | 2010-09-24 | 2012-12-05 | 株式会社東芝 | Video processing apparatus, method, and video processing system |
-
2017
- 2017-06-09 JP JP2017114206A patent/JP6917788B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018206292A (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10073861B2 (en) | Story albums | |
CN111683209B (en) | Mixed-cut video generation method and device, electronic equipment and computer-readable storage medium | |
CN107707931B (en) | Method and device for generating interpretation data according to video data, method and device for synthesizing data and electronic equipment | |
JP5366824B2 (en) | Method and system for converting 2D video to 3D video | |
US8416332B2 (en) | Information processing apparatus, information processing method, and program | |
CN107222795B (en) | Multi-feature fusion video abstract generation method | |
US8873861B2 (en) | Video processing apparatus and method | |
US20030086692A1 (en) | Special reproduction control information describing method, special reproduction control information creating apparatus and method therefor, and video reproduction apparatus and method therefor | |
CN107430780B (en) | Method for output creation based on video content characteristics | |
JP6917788B2 (en) | Summary video generator and program | |
CN111464833A (en) | Target image generation method, target image generation device, medium, and electronic apparatus | |
JP6557592B2 (en) | Video scene division apparatus and video scene division program | |
JP2011234226A (en) | Video editing apparatus, and video editing method and program | |
JP2006287319A (en) | Program digest generation apparatus and program digest generation program | |
CN110692251B (en) | Method and system for combining digital video content | |
JP2014068290A (en) | Image processing apparatus, image processing method, and program | |
JP6917210B2 (en) | Summary video generator and its program | |
CN109618111B (en) | Cloud-shear multi-channel distribution system | |
JP2006217046A (en) | Video index image generator and generation program | |
JP2010039877A (en) | Apparatus and program for generating digest content | |
JP2014170979A (en) | Information processing apparatus, information processing method, and information processing program | |
JP2012205097A (en) | Video processing device | |
JP2007079736A (en) | Data editing device, data editing method, and data editing program | |
JP2020080115A (en) | Thumbnail output device, thumbnail output method, and thumbnail output program | |
CN113297416A (en) | Video data storage method and device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6917788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |