JP7121988B2 - MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM - Google Patents
MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM Download PDFInfo
- Publication number
- JP7121988B2 JP7121988B2 JP2018168950A JP2018168950A JP7121988B2 JP 7121988 B2 JP7121988 B2 JP 7121988B2 JP 2018168950 A JP2018168950 A JP 2018168950A JP 2018168950 A JP2018168950 A JP 2018168950A JP 7121988 B2 JP7121988 B2 JP 7121988B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- content
- video
- moving image
- reading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、映像情報と音声情報とを含む第1素材コンテンツから新たな動画コンテンツを生成する方法およびプログラムに関し、特に、ユーザ自身が作成した第1素材コンテンツとプリセットされた第2素材コンテンツとを合成することにより新たな動画コンテンツを生成する方法およびプログラムに関する。 The present invention relates to a method and program for generating new video content from first material content including video information and audio information, and in particular, to a first material content created by a user himself and a preset second material content. The present invention relates to a method and program for generating new moving image content by synthesizing.
近年のスマートフォンの普及に伴い、高価な機材を用意しなくても、簡単に動画を撮影することが可能となってきている。また、高速な通信環境が整備されたことにより、近年では、スマートフォンで撮影した動画を一般に公開することも容易である。 With the spread of smartphones in recent years, it has become possible to easily shoot videos without preparing expensive equipment. Also, in recent years, with the development of high-speed communication environments, it has become easy to open videos taken with smartphones to the public.
このような状況を活かしたスマートフォン向けアプリケーションソフトウェアとして、「TikTok(登録商標)」が知られている。TikTokのユーザは、以下の手順により、オリジナルな動画を生成して一般に公開することができる(例えば、非特許文献1,2参照)。
(1)プリセットされた複数の音楽からBGMとする音楽を選択する。
(2)選択したBGMに合うような動画を撮影する。
(3)撮影した動画をアップロードする。
また、ユーザは、撮影した動画をアップロードする前に、フィルターまたはタイム効果と呼ばれる複数の特殊効果の中から選択した1以上の特殊効果を施すことにより、撮影した動画を装飾することもできる。
“TikTok (registered trademark)” is known as application software for smartphones that takes advantage of this situation. A user of TikTok can generate an original moving image and open it to the public according to the following procedure (see, for example, Non-Patent
(1) Select music as BGM from a plurality of preset music.
(2) Shoot a video that matches the selected BGM.
(3) Upload the video you shot.
In addition, before uploading the captured moving image, the user can decorate the captured moving image by applying one or more special effects selected from a plurality of special effects called filters or time effects.
上記アプリケーションソフトウェアを用いた動画の生成では、BGMに合うような動画を撮影したり、撮影した動画に特殊効果を施したりする際に、ユーザの美的センスが求められる。このため、上記アプリケーションソフトウェアは、自分自身の美的センスに自信のない者にとっては非常にとっつきづらいものとなっていた。 In generating moving images using the above application software, the user is required to have an aesthetic sense when shooting moving images that match the background music or applying special effects to the shot moving images. For this reason, the above application software is very difficult for those who do not have confidence in their own aesthetic sense.
本発明は、上記事情に鑑みてなされたものであって、誰もが簡単に見栄えのよい動画コンテンツを生成することができる動画コンテンツ生成方法および生成プログラムを提供することを課題とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a moving image content generating method and a generating program that enable anyone to easily generate moving image content that looks good.
上記課題を解決するために、本発明に係る動画コンテンツ生成方法は、映像情報と音声情報とを含む第1素材コンテンツから動画コンテンツを生成する動画コンテンツ生成方法であって、
記憶装置から前記第1素材コンテンツを読み込む第1読込工程と、読み込まれた前記第1素材コンテンツを前記映像情報と前記音声情報とに分離するコンテンツ分離工程と、分離された前記音声情報に基づいて、N個(ただし、Nは2以上の整数)の抽出開始点を決定する抽出開始点決定工程と、分離された前記映像情報から、N個の前記抽出開始点のそれぞれを始点としたN個の分割映像情報を抽出する分割映像抽出工程と、前記記憶装置から音楽情報である第2素材コンテンツと該第2素材コンテンツに対応する合成情報とを読み込む第2読込工程と、前記合成情報に基づいて前記音楽情報と前記分割映像情報とを合成することにより、前記動画コンテンツを生成するコンテンツ合成工程とを備え、
前記合成情報は、前記音楽情報が表すビートに同期した複数の映像切替点を含み、前記複数の映像切替点は、N個のグループのいずれかに属しており、前記コンテンツ合成工程において、同じグループに属する前記映像切替点のそれぞれをN個のうちのいずれかの前記分割映像情報の始点とする、との構成を有している。
In order to solve the above problems, a video content generation method according to the present invention is a video content generation method for generating video content from first material content including video information and audio information,
a first reading step of reading the first material content from a storage device; a content separation step of separating the read first material content into the video information and the audio information; and based on the separated audio information. , an extraction start point determination step of determining N extraction start points (where N is an integer equal to or greater than 2); a second reading step of reading a second material content, which is music information, and synthesis information corresponding to the second material content from the storage device; and based on the synthesis information, a content synthesizing step of synthesizing the music information and the divided video information to generate the video content,
The synthesizing information includes a plurality of video switching points synchronized with the beat represented by the music information, the plurality of video switching points belong to one of N groups, and the content synthesizing step includes: each of the video switching points belonging to N is set as the starting point of any one of the N pieces of divided video information.
上記動画コンテンツ生成方法は、前記抽出開始点決定工程において、分離された前記音声情報に含まれる複数の音量ピーク点のうちの上位N個の時間を前記抽出開始点とする、との構成を有していてもよい。 The video content generation method has a configuration in which, in the extraction start point determination step, the extraction start point is set to the top N times of a plurality of volume peak points included in the separated audio information. You may have
上記動画コンテンツ生成方法は、前記第1素材コンテンツおよび前記第2素材コンテンツの選択に関する指令を受け付ける指令受付工程をさらに備え、前記第1読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第1素材コンテンツのうちの1つを読み込み、前記第2読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第2素材コンテンツのうちの1つと該1つに対応する前記合成情報とを読み込む、との構成を有していてもよい。 The moving image content generating method further comprises a command receiving step of receiving a command regarding selection of the first material content and the second material content, wherein in the first reading step, based on the command, one of the plurality of first material contents stored in the storage device, and one of the plurality of second material contents pre-stored in the storage device based on the command in the second reading step; The composition information corresponding to the one may be read.
なお、前記合成情報は、MIDI形式で記述することができる。この場合は、前記N個のグループを音階で表現することができる。 Note that the synthesis information can be described in MIDI format. In this case, the N groups can be represented by musical scales.
また、上記課題を解決するために、本発明に係る動画コンテンツ生成プログラムは、映像情報と音声情報とを含む第1素材コンテンツから動画コンテンツを生成する動画コンテンツ生成方法を情報処理装置に実行させる動画コンテンツ生成プログラムであって、
前記情報処理装置に、記憶装置から前記第1素材コンテンツを読み込む第1読込工程と、読み込まれた前記第1素材コンテンツを前記映像情報と前記音声情報とに分離するコンテンツ分離工程と、分離された前記音声情報に基づいて、N個(ただし、Nは2以上の整数)の抽出開始点を決定する抽出開始点決定工程と、分離された前記映像情報から、N個の前記抽出開始点のそれぞれを始点としたN個の分割映像情報を抽出する分割映像抽出工程と、前記記憶装置から音楽情報である第2素材コンテンツと該第2素材コンテンツに対応する合成情報とを読み込む第2読込工程と、前記合成情報に基づいて前記音楽情報と前記分割映像情報とを合成することにより、前記動画コンテンツを生成するコンテンツ合成工程とを実行させ、
前記合成情報は、前記音楽情報が表すビートに同期した複数の映像切替点を含み、前記複数の映像切替点は、N個のグループのいずれかに属しており、前記コンテンツ合成工程において、同じグループに属する前記映像切替点のそれぞれがN個のうちのいずれかの前記分割映像情報の始点とされる、との構成を有していてもよい。
In order to solve the above-described problems, a video content generation program according to the present invention causes an information processing apparatus to execute a video content generation method for generating video content from first material content including video information and audio information. A content generation program,
a first reading step of reading the first material content from a storage device into the information processing device; a content separation step of separating the read first material content into the video information and the audio information; an extraction start point determination step of determining N extraction start points (where N is an integer of 2 or more) based on the audio information; and determining each of the N extraction start points from the separated video information. a divided video extracting step of extracting N pieces of divided video information starting from , and a second reading step of reading second material content, which is music information, and synthesis information corresponding to the second material content from the storage device and executing a content synthesizing step of synthesizing the music information and the divided video information based on the synthesizing information to generate the video content,
The synthesizing information includes a plurality of video switching points synchronized with the beat represented by the music information, the plurality of video switching points belonging to one of N groups, and the content synthesizing step comprising: may be set as the start point of any one of the N divided video information.
上記動画コンテンツ生成プログラムは、前記抽出開始点決定工程において、分離された前記音声情報に含まれる複数の音量ピーク点のうちの上位N個に対応する時間が前記抽出開始点とされる、との構成を有していてもよい。 wherein, in the extraction start point determination step, the moving image content generation program determines the extraction start point at a time corresponding to the top N of a plurality of volume peak points included in the separated audio information. may have a configuration.
上記動画コンテンツ生成プログラムは、前記情報処理装置に、前記第1素材コンテンツおよび前記第2素材コンテンツの選択に関する指令を受け付ける指令受付工程をさらに実行させ、前記第1読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第1素材コンテンツのうちの1つが読み込まれ、前記第2読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第2素材コンテンツのうちの1つと該1つに対応する前記合成情報とが読み込まれる、との構成を有していてもよい。 The video content generation program causes the information processing device to further execute a command receiving step of receiving a command regarding selection of the first material content and the second material content, and in the first reading step, based on the command one of the plurality of first material contents pre-stored in the storage device is read, and in the second reading step, the plurality of second material contents pre-stored in the storage device based on the instruction; It may have a configuration in which one of the material contents and the synthesis information corresponding to the one are read.
なお、前記合成情報は、MIDI形式で記述することができる。この場合は、前記N個のグループを音階で表現することができる。 Note that the synthesis information can be described in MIDI format. In this case, the N groups can be represented by musical scales.
本発明によれば、誰もが簡単に見栄えのよい動画コンテンツを生成することができる動画コンテンツ生成方法および生成プログラムを提供することができる。 According to the present invention, it is possible to provide a moving image content generating method and a generating program that enable anyone to easily generate moving image content that looks good.
以下、添付図面を参照しながら、本発明に係る動画コンテンツ生成方法および生成プログラムの一実施例について説明する。 An embodiment of a moving image content generation method and generation program according to the present invention will be described below with reference to the accompanying drawings.
[実施例]
図1に、スマートフォン10の概略的な構成を示す。同図に示すように、スマートフォン10は、MPU(Micro Processor Unit)からなる情報処理装置11と、メモリからなる記憶装置12と、カメラ13と、マイク14と、タッチパネルディスプレイ15と、スピーカー16とを備えている。
[Example]
FIG. 1 shows a schematic configuration of the
情報処理装置11は、第1素材コンテンツ生成部20と動画コンテンツ生成部21とを有している。このうち、第1素材コンテンツ生成部20は、標準的に備えられた動画撮影プログラムがユーザによって実行されたときに情報処理装置11内に形成される機能ブロックである。一方、動画コンテンツ生成部21は、本実施例に係る動画コンテンツ生成プログラムがユーザによって実行されたときに情報処理装置11内に形成される機能ブロックである。
The
第1素材コンテンツ生成部20は、カメラ13が出力する映像信号とマイクが出力する音声信号とに基づいて、映像情報と音声情報とを含む第1素材コンテンツ(動画ファイル)を生成し、これを記憶装置12に記憶させる。
The first material
記憶装置12は、第1素材コンテンツに加え、音楽情報である第2素材コンテンツ、およびこれに対応する合成情報をさらに記憶している。第2素材コンテンツおよび合成情報は、予め記憶されていてもよいし、本実施例に係る動画コンテンツ生成プログラムがユーザによって実行されたときに記憶されてもよい。第2素材コンテンツおよび合成情報については、後で詳しく説明する。
In addition to the first material content, the
なお、本実施例では、本実施例に係る動画コンテンツ生成プログラムがユーザによって実行された時に、各1つの第1素材コンテンツ、第2素材コンテンツおよび合成情報が記憶装置12に既に記憶されているものとする。
Note that in this embodiment, when the user executes the moving image content generation program according to this embodiment, one each of the first material content, the second material content, and the synthesis information are already stored in the
動画コンテンツ生成部21は、前述した通り、本実施例に係る動画コンテンツ生成プログラムがユーザによって実行されたときに形成される。動画コンテンツ生成部21は、本実施例に係る動画コンテンツ生成方法を実行することにより、記憶装置12に記憶された第1素材コンテンツおよび第2素材コンテンツを合成情報に基づいて合成し、新たな動画コンテンツを生成する。言い換えると、本実施例に係る動画コンテンツ生成プログラムは、情報処理装置11に本実施例に係る動画コンテンツ生成方法を実行させることにより、新たな動画コンテンツを生成する。
The moving image
動画コンテンツ生成部21は、生成した動画コンテンツをタッチパネルディスプレイ15およびスピーカー16を介して再生することができる。この他、動画コンテンツ生成部21は、生成した動画コンテンツを不図示の通信部を介してアップロードしたり、記憶装置12に記憶させたりすることもできる。
The moving image
続いて、図2を参照しながら、本実施例に係る動画コンテンツ生成方法(すなわち、動画コンテンツ生成部21の動作)について説明する。 Next, a moving image content generation method (that is, operation of the moving image content generation unit 21) according to the present embodiment will be described with reference to FIG.
第1読込工程S1において、動画コンテンツ生成部21は、記憶装置12から第1素材コンテンツを読み込む。前述した通り、第1素材コンテンツは、ユーザ自身が撮影した動画に関するファイルであり、映像情報と音声情報とを含んでいる。
In the first reading step S<b>1 , the moving image
工程S1の次に実行されるコンテンツ分離工程S2において、動画コンテンツ生成部21は、工程S1で読み込まれた第1素材コンテンツを映像情報と音声情報とに分離する(図3参照)。
In a content separation step S2 that is executed after step S1, the moving
工程S2の次に実行される抽出開始点決定工程S3において、動画コンテンツ生成部21は、工程S2で分離された音声情報を解析して当該音声情報に含まれる音量ピーク点のうちの上位N個(ただし、Nは2以上の整数。本実施例では、N=7)を特定するとともに、これらに対応する時間を抽出開始点とする。図4に示すように、本実施例では、音量ピーク点P1,P2,・・・,P6,P7に対応する時間t1,t2,・・・,t6,t7が抽出開始点となる。
In an extraction start point determination step S3 that is executed after step S2, the moving image
工程3の次に実行される分割映像抽出工程S4において、動画コンテンツ生成部21は、工程S2で分離された映像情報から、工程S3で決定された7個の抽出開始点t1,t2,・・・,t6,t7のそれぞれを始点とした7個の分割映像情報V1,V2,・・・,V6,V7を抽出する(図5参照)。より詳しくは、動画コンテンツ生成部21は、抽出開始点t1-t2間の情報を分割映像情報V1として抽出し、抽出開始点t2-t3間の情報を分割映像情報V2として抽出し、・・・、抽出開始点t6-t7間の情報を分割映像情報V6として抽出し、抽出開始点t7と当該映像情報の終端との間の情報を分割映像情報V7として抽出する。
In the divided video extraction step S4 that is executed after step 3, the moving image
工程S4の次に実行される第2読込工程S5において、動画コンテンツ生成部21は、記憶装置12から第2素材コンテンツおよびこれに対応する合成情報を読み込む。
In a second reading step S5 that is executed after step S4, the moving image
図6(A)に、読み込まれた第2素材コンテンツに含まれる音楽情報を示す。また、図6(B)に、読み込まれた合成情報を示す。これらの図から明らかなように、合成情報は、音楽情報が表すビートに同期した複数の映像切替点SW1,SW2,・・・,SW15,SW16を含んでいる。そして、複数の映像切替点SW1,SW2,・・・,SW15,SW16は、7個のグループC3,D3,E3,F3,G3,A3,B3のいずれかに属している。例えば、映像切替点SW1,SW14はグループC3に属し、映像切替点SW10,SW11,SW12,SW13はグループF3に属している。 FIG. 6A shows music information included in the read second material content. Also, FIG. 6B shows the read synthesis information. As is clear from these figures, the synthesized information includes a plurality of video switching points SW1, SW2, . , SW15, and SW16 belong to one of seven groups C3, D3, E3, F3, G3, A3, and B3. For example, video switching points SW1 and SW14 belong to group C3, and video switching points SW10, SW11, SW12, and SW13 belong to group F3.
合成情報は、MIDI(Musical Instrument Digital Interface)形式で記述されている。MIDI形式を利用することにより、7個のグループC3,D3,E3,F3,G3,A3,B3のいずれかに属する複数の映像切替点の時間的な位置を容易に記述することができる。なお、C3、D3、E3、F3、G3、A3およびB3は、それぞれ、第3オクターブの音階「ド」、「レ」、「ミ」、「ファ」、「ソ」、「ラ」および「シ」を意味する。 Synthesis information is described in MIDI (Musical Instrument Digital Interface) format. By using the MIDI format, it is possible to easily describe the temporal positions of a plurality of video switching points belonging to any one of seven groups C3, D3, E3, F3, G3, A3 and B3. Note that C3, D3, E3, F3, G3, A3 and B3 are the notes of the third octave "Do", "Re", "Mi", "Fa", "So", "La" and "Si", respectively. ” means.
工程S5の次に実行されるコンテンツ合成工程S6において、動画コンテンツ生成部21は、合成情報に含まれる映像切替点SW1,SW2,・・・,SW15,SW16に基づいて、工程S4で抽出された7個の分割映像情報V1,V2,・・・,V6,V7と第2素材コンテンツに含まれる音楽情報とを合成する。
In the content synthesizing step S6 that is executed after the step S5, the moving image
より具体的には、動画コンテンツ生成部21は、まず、7個の分割映像情報V1,V2,・・・,V6,V7と7個のグループC3,D3,E3,F3,G3,A3,B3とを対応付ける。本実施例では、この対応付けをランダムに行い、その結果、グループC3と分割映像情報V1、グループD3と分割映像情報V3、グループE3と分割映像情報V5、グループF3と分割映像情報V6、グループG3と分割映像情報V2、グループA3と分割映像情報V4、およびグループB3と分割映像情報V7が対応付けられたものとする(図7参照)。
More specifically, the moving image
続いて、動画コンテンツ生成部21は、グループC3に属する映像切替点SW1,SW14が分割映像情報V1の開始点となり、グループD3に属する映像切替点SW6が分割映像情報V3の開始点となり、グループE3に属する映像切替点SW5が分割映像情報V5の開始点となり、グループF3に属する映像切替点SW10,SW11,SW12,SW13が分割映像情報V6の開始点となり、グループG3に属する映像切替点SW15が分割映像情報V2の開始点となり、グループA3に属する映像切替点SW2,SW4,SW7,SW9,SW16が分割映像情報V4の開始点となり、グループB3に属する映像切替点SW3,SW8が分割映像情報V7の開始点となるように分割映像情報V1,V2,・・・,V6,V7を繋ぎ合わせ、繋ぎ合わせたものと音声情報とを合成する(図8参照)。
Subsequently, the moving image
このとき、動画コンテンツ生成部21は、例えば、映像切替点S1-S2間の時間が分割映像情報V1の時間よりも短い場合は、分割映像情報V1の先頭の一部分だけを使用し、映像切替点S1-S2間の時間が分割映像情報V1の時間よりも長い場合は、分割映像情報V1の最終フレーム(静止画)で穴埋めをする。
At this time, for example, if the time between the video switching points S1 and S2 is shorter than the time of the divided video information V1, the moving image
このように、本実施例に係る動画コンテンツ生成方法および生成プログラムによれば、美的センスが必要となる作業をユーザが行わなくても、ユーザが作成した第1素材コンテンツに含まれる音声情報と予め用意された合成情報とに基づいて、第1素材コンテンツに含まれる映像情報が第2素材コンテンツに含まれる音楽情報(BGM)に合うように編集され、見栄えのよい新たな動画コンテンツが得られる。 As described above, according to the moving image content generation method and generation program according to the present embodiment, even if the user does not perform work that requires an aesthetic sense, the voice information included in the first material content created by the user and the pre-generated The video information included in the first material content is edited so as to match the music information (BGM) included in the second material content based on the prepared synthesizing information, and new good-looking moving image content is obtained.
なお、本発明に係る動画コンテンツ生成方法および生成プログラムには、以下に例示する複数の変形例がある。 It should be noted that the moving image content generating method and generating program according to the present invention have a plurality of modified examples illustrated below.
[変形例1]
第2読込工程S5は、第1読込工程S1の前に実行されてもよいし(図9(A)参照)、第1読込工程S1-分割映像抽出工程S4と同時並行的に実行されてもよい(図9(B)参照)。つまり、本発明では、コンテンツ合成工程S6の前に、第1読込工程S1-分割映像抽出工程S4と第2読込工程S5とが実行されていればよい。
[Modification 1]
The second reading step S5 may be performed before the first reading step S1 (see FIG. 9A), or may be performed concurrently with the first reading step S1-divided image extraction step S4. Good (see FIG. 9(B)). That is, in the present invention, it is sufficient that the first reading step S1—divided video extracting step S4 and the second reading step S5 are performed before the content synthesizing step S6.
[変形例2]
図10に示すように、記憶装置12は、複数の第1素材コンテンツと、複数の第2素材コンテンツと、複数の第2素材コンテンツのそれぞれに対応する合成情報とを記憶していてもよい。この場合は、図11に示すように、第1読込工程S1および第2読込工程S5の前に、選択指令受付工程S7を実行する必要がある。
[Modification 2]
As shown in FIG. 10, the
選択指令受付工程S7において、動画コンテンツ生成部21は、記憶装置12に記憶されている複数の第1素材コンテンツおよび第2素材コンテンツに関する情報を選択肢としてタッチパネルディスプレイ15に表示させるとともに、タッチパネルディスプレイ15を介して入力された第1素材コンテンツおよび第2素材コンテンツの選択に関するユーザからの指令を受け付ける。そして、第1読込工程S1において、動画コンテンツ生成部21は、ユーザによって選択された第1素材コンテンツを読み込む。第2読込工程S5についても同様である。
In the selection command receiving step S7, the moving image
なお、第1読込工程S1および第2読込工程S5を直列的に実行する場合は、第1素材コンテンツおよび第2素材コンテンツの選択に関する指令を受け付ける選択指令受付工程S7を第1読込工程S1の前に実行してもよいし(図12(A)参照)、第1素材コンテンツの選択に関する指令を受け付ける選択指令受付工程S7Aを第1読込工程S1の前に実行するとともに、第2素材コンテンツの選択に関する指令を受け付ける選択指令受付工程S7Bを第2読込工程S5の前に実行してもよい(図12(B)参照)。 When executing the first reading step S1 and the second reading step S5 in series, a selection command receiving step S7 for receiving a command regarding selection of the first material content and the second material content may be performed before the first reading step S1. (See FIG. 12A), or a selection command receiving step S7A for receiving a command regarding selection of the first material content is performed before the first reading step S1, and selection of the second material content is performed. A selection command receiving step S7B for receiving a command regarding the selection command may be executed before the second reading step S5 (see FIG. 12(B)).
[変形例3]
図13に示すように、記憶装置12は、第2素材コンテンツに対応する特殊効果情報をさらに記憶していてもよい。この場合、動画コンテンツ生成部21は、第2読込工程S5において、第2素材コンテンツとともに合成情報および特殊効果情報を読み込む。ただし、動画コンテンツ生成部21は、特殊効果情報が存在しない第2素材コンテンツについては、第2素材コンテンツとともに合成情報のみを読み込む。
[Modification 3]
As shown in FIG. 13, the
図14に示すように、特殊効果情報は、複数の特殊効果適用期間EF1,EF2,・・・,EF6,EF7を含んでいる。そして、特殊効果適用期間EF1,EF2,・・・,EF6,EF7は、4個のグループC4,D4,E4,F4のいずれかに属している。 14, the special effect information includes a plurality of special effect application periods EF1, EF2, . . . , EF6, EF7. , EF6, and EF7 belong to one of four groups C4, D4, E4, and F4.
グループC4に属する特殊効果適用期間EF1,EF4,EF6は、特殊効果「拡大」を適用する期間であり、グループD4に属する特殊効果適用期間EF7は、特殊効果「フェイドアウト」を適用する期間であり、グループE4に属する特殊効果適用期間EF2,EF5は、特殊効果「早送り」を適用する期間であり、グループF4に属する特殊効果適用期間EF3は、特殊効果「スローモーション」を適用する期間である。 Special effect application periods EF1, EF4, and EF6 belonging to group C4 are periods in which the special effect "enlargement" is applied, and special effect application period EF7 belonging to group D4 is a period in which the special effect "fade out" is applied, Special effect application periods EF2 and EF5 belonging to group E4 are periods in which the special effect "fast forward" is applied, and special effect application period EF3 belonging to group F4 is a period in which the special effect "slow motion" is applied.
特殊効果情報は、MIDI形式で記述されている。MIDI形式を利用することにより、4個のグループC4,D4,E4,F4のいずれかに属する特殊効果適用期間の時間的な範囲を容易に記述することができる。なお、C4、D4、E4およびF4は、それぞれ、第4オクターブの音階「ド」、「レ」、「ミ」および「ファ」を意味する。 Special effect information is described in MIDI format. By using the MIDI format, it is possible to easily describe the temporal range of the special effect application period belonging to one of the four groups C4, D4, E4 and F4. Note that C4, D4, E4 and F4 respectively mean the notes of the fourth octave "do", "re", "mi" and "fa".
動画コンテンツ生成部21は、コンテンツ合成工程S6において、複数の分割映像情報を繋ぎ合わせたものに特殊効果情報にしたがった特殊効果を適用する。そして、動画コンテンツ生成部21は、特殊効果を適用した後の映像情報と音楽情報とを合成する。
In the content synthesizing step S6, the moving image
特殊効果の種類を増やす場合は、例えば、第4オクターブの音階「ソ」、「ラ」、「シ」を意味するG4、A4、B4を利用すればよい。また、合成情報および特殊効果情報は、MIDI形式で記述された単一のファイルであってもよい。 To increase the number of types of special effects, for example, G4, A4, and B4, which mean "So", "La", and "Si" of the scale of the fourth octave, may be used. Also, the synthesis information and special effect information may be a single file described in MIDI format.
[その他の変形例]
(1)動画コンテンツ生成部21は、第1素材コンテンツの音声情報に含まれる音量ピーク点以外のものに基づいて抽出開始点を決定してもよい。例えば、動画コンテンツ生成部21は、音声情報の音量が急激に増加/減少した点を抽出開始点としてもよい。
[Other Modifications]
(1) The moving image
(2)動画コンテンツ生成部21は、コンテンツ合成工程S6を実行した後に、N個の分割映像情報とN個のグループとのランダムな対応付けのやり直しの要否についての指令を受け付けてもよい。対応付けをやり直すことにより、第1素材コンテンツ自体および第2素材コンテンツ自体に何も変更を加えなくても、様々な動画コンテンツを生成することができる。
(2) After executing the content composition step S6, the moving image
(3)動画コンテンツ生成部21は、ランダムにではなく、予め定められたルールにしたがってN個の分割映像情報とN個のグループとを対応付けてもよい。
(3) The moving
(4)動画コンテンツ生成部21は、抽出開始点決定工程S3を実行する前に、抽出開始点の決定に関するユーザからの指令を受け付けてもよい。この指令には、抽出開始点決定工程S3において解析を行うべき範囲の指定や、抽出開始点の直接的な指定が含まれる。なお、ユーザによってM個(ただし、Mは1以上N以下の整数)の抽出開始点が指定された場合、動画コンテンツ生成部21は、音声情報を解析することによって(N-M)個の抽出開始点を決定することになる。また、ユーザによって抽出開始点が指定された場合、動画コンテンツ生成部21は、当該指定に係る抽出開始点を始点とする分割映像情報を多くの映像切替点を含むグループ(図6に示す一例では、5個の映像切替点SW2,SW4,SW7,SW9,SW16を含むグループA3)に対応付けることが好ましい。
(4) The moving image
(5)動画コンテンツ生成部21は、コンテンツ合成工程S6を実行した後に、抽出開始点の決定に関する指令を受け付けてもよい。指令を受け付けた場合、動画コンテンツ生成部21は、抽出開始点決定工程S3、分割映像抽出工程S4およびコンテンツ合成工程S6を再度実行する。なお、動画コンテンツ生成部21は、コンテンツ合成工程S6を実行した後に、抽出開始点の決定に関する指令に加え、対応付けのやり直しの要否についての指令を受け付けてもよい。
(5) The moving
(6)動画コンテンツ生成部21は、選択指令受付工程S7,S7Bにおいて、第2素材コンテンツに関する情報をユーザに提示する代わりに、曲調に関する選択肢(例えば、楽しい、悲しい等)と曲のテンポに関する選択肢(例えば、ゆっくり、はやい等)をユーザに提示してもよい。この場合、ユーザは、曲調とテンポを選択することにより、間接的に第2素材コンテンツを選択することになる。
(6) In the selection command receiving steps S7 and S7B, instead of presenting the user with information about the second material content, the moving image
(7)第1素材コンテンツに含まれる音声情報は、右側音声情報および左側音声情報からなっていてもよい。この場合は、例えば、右側音声情報および左側音声情報の一方、またはこれらを平均化したものに基づいて、抽出開始点を決定することができる。 (7) The audio information included in the first material content may consist of right audio information and left audio information. In this case, for example, the extraction start point can be determined based on one of the right audio information and the left audio information, or an average of these.
(8)合成情報および特殊効果情報は、MIDI以外の形式で記述されていてもよい。 (8) Synthesis information and special effect information may be described in formats other than MIDI.
(9)情報処理装置11は、スマートフォンに備えられたものに限定されない。
(9) The
10 スマートフォン
11 情報処理装置
12 記憶装置
13 カメラ
14 マイク
15 タッチパネルディスプレイ
16 スピーカー
20 第1素材コンテンツ生成部
21 動画コンテンツ生成部
10
Claims (8)
記憶装置から前記第1素材コンテンツを読み込む第1読込工程と、
読み込まれた前記第1素材コンテンツを前記映像情報と前記音声情報とに分離するコンテンツ分離工程と、
分離された前記音声情報に基づいて、N個(ただし、Nは2以上の整数)の抽出開始点を決定する抽出開始点決定工程と、
分離された前記映像情報から、N個の前記抽出開始点のそれぞれを始点としたN個の分割映像情報を抽出する分割映像抽出工程と、
前記記憶装置から音楽情報である第2素材コンテンツと該第2素材コンテンツに対応する合成情報とを読み込む第2読込工程と、
前記合成情報に基づいて前記音楽情報と前記分割映像情報とを合成することにより、前記動画コンテンツを生成するコンテンツ合成工程と、
を備え、
前記合成情報は、前記音楽情報が表すビートに同期した複数の映像切替点を含み、
前記複数の映像切替点は、N個のグループのいずれかに属しており、
前記コンテンツ合成工程において、同じグループに属する前記映像切替点のそれぞれをN個のうちのいずれかの前記分割映像情報の始点とする
ことを特徴とする動画コンテンツ生成方法。 A video content generation method for generating video content from first material content including video information and audio information,
a first reading step of reading the first material content from a storage device;
a content separation step of separating the read first material content into the video information and the audio information;
an extraction start point determination step of determining N extraction start points (where N is an integer equal to or greater than 2) based on the separated audio information;
a divided image extracting step of extracting N pieces of divided image information starting from each of the N extraction start points from the separated image information;
a second reading step of reading second material content, which is music information, and synthesis information corresponding to the second material content from the storage device;
a content synthesizing step of synthesizing the music information and the divided video information based on the synthesizing information to generate the video content;
with
the synthesis information includes a plurality of video switching points synchronized with the beat represented by the music information;
The plurality of video switching points belong to one of N groups,
A moving image content generating method, wherein in the content synthesizing step, each of the video switching points belonging to the same group is set as a starting point of any of the N divided video information.
ことを特徴とする請求項1に記載の動画コンテンツ生成方法。 2. The moving image content according to claim 1, wherein, in said extraction start point determination step, the extraction start point is set to the top N times of a plurality of volume peak points included in said separated audio information. generation method.
前記第1読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第1素材コンテンツのうちの1つを読み込み、
前記第2読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第2素材コンテンツのうちの1つと該1つに対応する前記合成情報とを読み込む
ことを特徴とする請求項1または請求項2に記載の動画コンテンツ生成方法。 further comprising a command receiving step of receiving a command regarding selection of the first material content and the second material content;
In the first reading step, reading one of the plurality of first material contents pre-stored in the storage device based on the command;
In the second reading step, one of the plurality of second material contents stored in advance in the storage device and the synthesis information corresponding to the one are read based on the command. 3. The moving image content generating method according to claim 1 or 2.
前記N個のグループは、音階に対応している
ことを特徴とする請求項1~3のいずれか一項に記載の動画コンテンツ生成方法。 The synthesis information is described in MIDI format,
4. The moving image content generation method according to any one of claims 1 to 3, wherein the N groups correspond to musical scales.
前記情報処理装置に、
記憶装置から前記第1素材コンテンツを読み込む第1読込工程と、
読み込まれた前記第1素材コンテンツを前記映像情報と前記音声情報とに分離するコンテンツ分離工程と、
分離された前記音声情報に基づいて、N個(ただし、Nは2以上の整数)の抽出開始点を決定する抽出開始点決定工程と、
分離された前記映像情報から、N個の前記抽出開始点のそれぞれを始点としたN個の分割映像情報を抽出する分割映像抽出工程と、
前記記憶装置から音楽情報である第2素材コンテンツと該第2素材コンテンツに対応する合成情報とを読み込む第2読込工程と、
前記合成情報に基づいて前記音楽情報と前記分割映像情報とを合成することにより、前記動画コンテンツを生成するコンテンツ合成工程と、
を実行させ、
前記合成情報は、前記音楽情報が表すビートに同期した複数の映像切替点を含み、
前記複数の映像切替点は、N個のグループのいずれかに属しており、
前記コンテンツ合成工程において、同じグループに属する前記映像切替点のそれぞれがN個のうちのいずれかの前記分割映像情報の始点とされる
ことを特徴とする動画コンテンツ生成プログラム。 A video content generation program for causing an information processing apparatus to execute a video content generation method for generating video content from first material content including video information and audio information,
In the information processing device,
a first reading step of reading the first material content from a storage device;
a content separation step of separating the read first material content into the video information and the audio information;
an extraction start point determination step of determining N extraction start points (where N is an integer equal to or greater than 2) based on the separated audio information;
a divided image extracting step of extracting N pieces of divided image information starting from each of the N extraction start points from the separated image information;
a second reading step of reading second material content, which is music information, and synthesis information corresponding to the second material content from the storage device;
a content synthesizing step of synthesizing the music information and the divided video information based on the synthesizing information to generate the video content;
and
the synthesis information includes a plurality of video switching points synchronized with the beat represented by the music information;
The plurality of video switching points belong to one of N groups,
A moving image content generating program, wherein in the content synthesizing step, each of the video switching points belonging to the same group is set as a starting point of any one of the N divided video information.
ことを特徴とする請求項5に記載の動画コンテンツ生成プログラム。 6. The extraction start point according to claim 5, wherein, in said extraction start point determination step, a time corresponding to top N of a plurality of volume peak points included in said separated audio information is set as said extraction start point. video content generator.
前記第1読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第1素材コンテンツのうちの1つが読み込まれ、
前記第2読込工程において、前記指令に基づいて前記記憶装置に予め記憶されている複数の前記第2素材コンテンツのうちの1つと該1つに対応する前記合成情報とが読み込まれる
ことを特徴とする請求項5または請求項6に記載の動画コンテンツ生成プログラム。 causing the information processing device to further execute a command receiving step of receiving a command regarding selection of the first material content and the second material content;
In the first reading step, one of the plurality of first material contents pre-stored in the storage device is read based on the command,
In the second reading step, one of the plurality of second material contents pre-stored in the storage device and the synthesis information corresponding to the one are read based on the command. 7. The moving image content generation program according to claim 5 or 6.
前記N個のグループは、音階に対応している
ことを特徴とする請求項5~7のいずれか一項に記載の動画コンテンツ生成プログラム。 The synthesis information is described in MIDI format,
8. The moving image content generation program according to any one of claims 5 to 7, wherein the N groups correspond to musical scales.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168950A JP7121988B2 (en) | 2018-09-10 | 2018-09-10 | MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168950A JP7121988B2 (en) | 2018-09-10 | 2018-09-10 | MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020043454A JP2020043454A (en) | 2020-03-19 |
JP7121988B2 true JP7121988B2 (en) | 2022-08-19 |
Family
ID=69798860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168950A Active JP7121988B2 (en) | 2018-09-10 | 2018-09-10 | MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7121988B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115250360A (en) * | 2021-04-27 | 2022-10-28 | 北京字节跳动网络技术有限公司 | Rhythm interaction method and equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002112113A (en) | 2000-09-27 | 2002-04-12 | Nippon Columbia Co Ltd | Video-editing apparatus and storage medium |
JP2004096617A (en) | 2002-09-03 | 2004-03-25 | Sharp Corp | Video editing method, video editing apparatus, video editing program, and program recording medium |
JP2006512820A (en) | 2002-12-24 | 2006-04-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for enhancing an audio signal |
JP2011024033A (en) | 2009-07-16 | 2011-02-03 | Mitsubishi Electric Corp | Video section determination device, method of determining video section, and summarized video reproduction apparatus |
JP2016111386A (en) | 2014-12-02 | 2016-06-20 | キヤノン株式会社 | Control method of video editing device, video editing device, video editing method, computer program, and storing medium |
-
2018
- 2018-09-10 JP JP2018168950A patent/JP7121988B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002112113A (en) | 2000-09-27 | 2002-04-12 | Nippon Columbia Co Ltd | Video-editing apparatus and storage medium |
JP2004096617A (en) | 2002-09-03 | 2004-03-25 | Sharp Corp | Video editing method, video editing apparatus, video editing program, and program recording medium |
JP2006512820A (en) | 2002-12-24 | 2006-04-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for enhancing an audio signal |
JP2011024033A (en) | 2009-07-16 | 2011-02-03 | Mitsubishi Electric Corp | Video section determination device, method of determining video section, and summarized video reproduction apparatus |
JP2016111386A (en) | 2014-12-02 | 2016-06-20 | キヤノン株式会社 | Control method of video editing device, video editing device, video editing method, computer program, and storing medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020043454A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI774967B (en) | Method and device for audio synthesis, storage medium and calculating device | |
US9997153B2 (en) | Information processing method and information processing device | |
CN110675886A (en) | Audio signal processing method, audio signal processing device, electronic equipment and storage medium | |
JP2008066956A (en) | Method, program, and apparatus for generating music image synchronized moving image scenario | |
JP7121988B2 (en) | MOVIE CONTENT GENERATION METHOD AND GENERATION PROGRAM | |
JP2010066789A (en) | Avatar editing server and avatar editing program | |
CN113014477A (en) | Gift processing method, device and equipment of voice platform and storage medium | |
KR20180080642A (en) | Video editing method with music source | |
KR101414217B1 (en) | Real time image synthesis apparatus and image synthesis method | |
JP6641045B1 (en) | Content generation system and content generation method | |
JP2012198380A (en) | Display control device | |
JP5044503B2 (en) | Effect image playback device, effect image playback method, effect image playback program, and recording medium | |
JP6227456B2 (en) | Music performance apparatus and program | |
Einbond | Subtractive Synthesis: noise and digital (un) creativity | |
KR20210150724A (en) | Video Authoring System and Method | |
KR20190080086A (en) | The apparatus which manages a composition service process based on the graphic contents | |
JP7456232B2 (en) | Photo movie generation system, photo movie generation device, user terminal, photo movie generation method, and program | |
JP2023174364A (en) | Karaoke device | |
JP2012203071A (en) | Karaoke device | |
JP6554634B1 (en) | Information processing system and information processing apparatus | |
CN112954481A (en) | Special effect processing method and device | |
Wang et al. | Method for Creation of Original Music by the VR Panorama Based Virtual Instrument | |
KR20220014038A (en) | Service and method for producing collections based on user experience data | |
JP2023042862A (en) | Content creation support system, content creation support method, and program | |
JP2013114088A (en) | Sound reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7121988 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |