JP2023125039A - 映像作成プログラム - Google Patents
映像作成プログラム Download PDFInfo
- Publication number
- JP2023125039A JP2023125039A JP2022028945A JP2022028945A JP2023125039A JP 2023125039 A JP2023125039 A JP 2023125039A JP 2022028945 A JP2022028945 A JP 2022028945A JP 2022028945 A JP2022028945 A JP 2022028945A JP 2023125039 A JP2023125039 A JP 2023125039A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- shooting
- content
- cuts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 140
- 230000008569 process Effects 0.000 claims abstract description 139
- 230000008859 change Effects 0.000 claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 184
- 238000013459 approach Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 22
- 238000012790 confirmation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- 102220486681 Putative uncharacterized protein PRO1854_S10A_mutation Human genes 0.000 description 5
- 102220470087 Ribonucleoside-diphosphate reductase subunit M2_S20A_mutation Human genes 0.000 description 5
- 102220021091 rs28897672 Human genes 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 241000238370 Sepia Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】作成する動画に適したコンテンツを、複数のコンテンツの中から適切に選ぶこと。【解決手段】映像作成プログラムは、映像プロジェクトで使用する動画カット間における撮影情報の変化を検出する処理(S52)と、検出結果に基づいて、映像プロジェクトで動画の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ処理(S54)と、複数のコンテンツ候補を表示部に表示する処理(図5B)と、操作信号に基づいて、複数のコンテンツ候補から動画の作成時に適用するコンテンツを選択する処理(図5B)と、選択したコンテンツを、映像プロジェクトで動画の作成に適用する処理(図5B)と、をコンピュータに実行させる。【選択図】図5A
Description
本発明は、動画を作成する映像作成プログラムに関する。
旅行先で撮影した映像を用いて、旅行記として一つの映像プロジェクトを作成する技術が知られている(特許文献1参照)。旅行先で撮影した画像等をデータセンターに記憶し、旅行記としての履歴データがデータセンターに格納される。
しかしながら、従来の技術では利用者自身が撮影した画像や映像を用いるため、例えば音楽やフィルタといったコンテンツの演出を付加することはできない。一方で、仮にコンテンツの演出を自由に付加できたとしても、音楽やフィルタは無数にあるため、どのようなコンテンツを適用して良いのか、利用者にとって選択が難しい。
本発明の一態様によるプログラムは、位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を撮影情報として含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する動画カット間における撮影情報の変化を検出する第1処理と、検出結果に基づいて、映像プロジェクトで動画の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第2処理と、複数のコンテンツ候補を表示部に表示する第3処理と、操作信号に基づいて、複数のコンテンツ候補から動画の作成時に適用するコンテンツを選択する第4処理と、選択したコンテンツを、映像プロジェクトで動画の作成に適用する第5処理と、をコンピュータに実行させる。
本発明によれば、映像作成プログラムで作成する動画に適したコンテンツを、複数のコンテンツの中から適切に選ぶことが可能になる。
以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。
図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。
実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
映像作成アプリは、画像処理効果がそれぞれ異なる複数のフィルタ処理のプログラムを、それぞれモジュールとして含んでいる。また、映像作成アプリには、動画10の作成に用いる動画カットC1~C6の撮影情報の変化に対応させて、利用者に推奨するフィルタ処理があらかじめ定められている。撮影情報とは、動画カットC1~C6の撮影地を示す位置情報および/または撮影日時を示す時刻情報(撮影時刻と呼んでもよい)をいう。
実施の形態では、動画10の作成に用いる動画カットC1~C6の撮影情報の変化に対応するフィルタ処理を利用者に推奨する。目的地へ向かって移動しながら動画カットC1~C6を撮影する場合、動画カットC1~C6間で撮影地が異なったり、撮影日時が異なったりするので、その撮影情報の変化に対応するフィルタ処理を推奨することが好ましいという考え方に基づく。
動画カットC1~C6の撮影情報の変化と、映像作成アプリで推奨するフィルタ処理との対応付けを以下に例示する。
(1)位置情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての位置情報に基づいて、各動画カットの撮影地を割り出す。
(1-1)移動距離が長い
例えば、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離と呼ぶ)が、あらかじめ定めた所定距離以上である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像を明るく鮮やかに表現するフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を活動的に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第1ジャンルのフィルタ処理と呼ぶことにする。第1ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(1-2)移動距離が短い
また、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、上記所定距離未満である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像の明るさを抑えるフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を落ち着いた雰囲気に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第2ジャンルのフィルタ処理と呼ぶことにする。第2ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(1)位置情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての位置情報に基づいて、各動画カットの撮影地を割り出す。
(1-1)移動距離が長い
例えば、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離と呼ぶ)が、あらかじめ定めた所定距離以上である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像を明るく鮮やかに表現するフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を活動的に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第1ジャンルのフィルタ処理と呼ぶことにする。第1ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(1-2)移動距離が短い
また、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、上記所定距離未満である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像の明るさを抑えるフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を落ち着いた雰囲気に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第2ジャンルのフィルタ処理と呼ぶことにする。第2ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(1-3)居住地から遠ざかる
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地から離れている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第1ジャンルのフィルタ処理を推奨する。
(1-4)居住地に近づく
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地に近い場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第2ジャンルのフィルタ処理を推奨する。
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地から離れている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第1ジャンルのフィルタ処理を推奨する。
(1-4)居住地に近づく
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地に近い場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第2ジャンルのフィルタ処理を推奨する。
(2)時刻情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての時刻情報に基づいて、各動画カットの撮影時刻を割り出す。
(2-1)移動時間が長い
例えば、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間と呼ぶ)が、あらかじめ定めた所定時間以上である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像を明るく鮮やかに表現するフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を活動的に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第3ジャンルのフィルタ処理と呼ぶことにする。第3ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(2-2)移動時間が短い
また、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、上記所定時間未満である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像の明るさを抑えるフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を落ち着いた雰囲気に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第4ジャンルのフィルタ処理と呼ぶことにする。第4ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
映像作成アプリは、動画カットC1~C6の撮影情報としての時刻情報に基づいて、各動画カットの撮影時刻を割り出す。
(2-1)移動時間が長い
例えば、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間と呼ぶ)が、あらかじめ定めた所定時間以上である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像を明るく鮮やかに表現するフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を活動的に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第3ジャンルのフィルタ処理と呼ぶことにする。第3ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(2-2)移動時間が短い
また、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、上記所定時間未満である場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、画像の明るさを抑えるフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を落ち着いた雰囲気に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第4ジャンルのフィルタ処理と呼ぶことにする。第4ジャンルのフィルタ処理は、動画カットCxに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせる。
(2-3)正午に近づく
動画カットCx(x=1~6)の撮影時刻が、正午に近づいている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第3ジャンルのフィルタ処理を推奨する。
(2-4)正午を過ぎる
動画カットCx(x=1~6)の撮影時刻が、正午を過ぎている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第4ジャンルのフィルタ処理を推奨する。
動画カットCx(x=1~6)の撮影時刻が、正午に近づいている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第3ジャンルのフィルタ処理を推奨する。
(2-4)正午を過ぎる
動画カットCx(x=1~6)の撮影時刻が、正午を過ぎている場合、映像作成アプリは、動画カットCxに適用するフィルタ処理として、上記第4ジャンルのフィルタ処理を推奨する。
実施の形態では、各フィルタ処理のプログラムに、そのフィルタ処理による画像処理効果が上記第1~第4ジャンルのうちのいずれのジャンルに該当するかを示すタグ(Tag)が付されている。処理部250は、動画カットC1~C6の撮影情報に対応するジャンルを示すタグが付されたフィルタ処理を選ぶ。
以上説明した動画カットC1~C6の撮影情報と、映像作成アプリで推奨するフィルタ処理との対応付けは一例に過ぎず、適宜変更しても構わない。また、上記第1~第4ジャンルには、同じフィルタ処理が共通に含まれていてもよい。さらにまた、第1~第4ジャンル以外の他のジャンルを加えてもよい。
図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。
(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
映像作成アプリは、複数の曲の情報を含んでいる。同じ曲名であっても演奏の速さとしてのテンポが異なったり、曲全体の音の高さとしてのキーが異なったり、長調または短調に編曲されている等、曲調が異なる場合は、それぞれ異なる曲として映像作成アプリに含めることが可能である。
また、映像作成アプリには、動画10の作成に用いる動画カットC1~C6の撮影情報の変化に対応させて、利用者に推奨する曲の情報があらかじめ定められている。
また、映像作成アプリには、動画10の作成に用いる動画カットC1~C6の撮影情報の変化に対応させて、利用者に推奨する曲の情報があらかじめ定められている。
動画カットC1~C6の撮影情報の変化と、映像作成アプリで推奨する曲の情報との対応付けを以下に例示する。
(1)位置情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての位置情報に基づいて、各動画カットの撮影地を割り出す。
(1-1)移動距離が長い
例えば、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、あらかじめ定めた所定距離以上である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がハイテンポの曲、明るく伸びやかで活動的な印象を与える曲、または元気な楽想の曲等を推奨する。これらの曲を第10ジャンルの曲と呼ぶことにする。
(1-2)移動距離が短い
また、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、上記所定距離未満である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がスローテンポの曲、ゆったり穏やかで落ち着いた印象を与える曲、または静かな楽想の曲等を推奨する。これらの曲を第11ジャンルの曲と呼ぶことにする。
(1)位置情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての位置情報に基づいて、各動画カットの撮影地を割り出す。
(1-1)移動距離が長い
例えば、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、あらかじめ定めた所定距離以上である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がハイテンポの曲、明るく伸びやかで活動的な印象を与える曲、または元気な楽想の曲等を推奨する。これらの曲を第10ジャンルの曲と呼ぶことにする。
(1-2)移動距離が短い
また、動画カットCx(x=2~6)の撮影地と、動画カットCx-1の撮影地との間の移動距離(動画カット間の移動距離)が、上記所定距離未満である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がスローテンポの曲、ゆったり穏やかで落ち着いた印象を与える曲、または静かな楽想の曲等を推奨する。これらの曲を第11ジャンルの曲と呼ぶことにする。
(1-3)居住地から遠ざかる
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地から離れている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第10ジャンルの曲を推奨する。
(1-4)居住地に近づく
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地に近い場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第11ジャンルの曲を推奨する。
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地から離れている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第10ジャンルの曲を推奨する。
(1-4)居住地に近づく
動画カットCx(x=2~6)の撮影地が、動画カットCx-1の撮影地よりも居住地に近い場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第11ジャンルの曲を推奨する。
(2)時刻情報を用いる場合
映像作成アプリは、動画カットC1~C6の撮影情報としての時刻情報に基づいて、各動画カットの撮影時刻を割り出す。
(2-1)移動時間が長い
例えば、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、あらかじめ定めた所定時間以上である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がハイテンポの曲、明るく伸びやかで活動的な印象を与える曲、または元気な楽想の曲等を推奨する。これらの曲を第12ジャンルの曲と呼ぶことにする。
(2-2)移動時間が短い
また、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、上記所定時間未満である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がスローテンポの曲、ゆったり穏やかで落ち着いた印象を与える曲、または静かな楽想の曲等を推奨する。これらの曲を第13ジャンルの曲と呼ぶことにする。
映像作成アプリは、動画カットC1~C6の撮影情報としての時刻情報に基づいて、各動画カットの撮影時刻を割り出す。
(2-1)移動時間が長い
例えば、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、あらかじめ定めた所定時間以上である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がハイテンポの曲、明るく伸びやかで活動的な印象を与える曲、または元気な楽想の曲等を推奨する。これらの曲を第12ジャンルの曲と呼ぶことにする。
(2-2)移動時間が短い
また、動画カットCx(x=2~6)の撮影時刻と、動画カットCx-1の撮影時刻との差(動画カット間の移動時間)が、上記所定時間未満である場合、映像作成アプリは、動画カットCxに適用する音楽として、曲の演奏がスローテンポの曲、ゆったり穏やかで落ち着いた印象を与える曲、または静かな楽想の曲等を推奨する。これらの曲を第13ジャンルの曲と呼ぶことにする。
(2-3)正午に近づく
動画カットCx(x=1~6)の撮影時刻が、正午に近づいている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第12ジャンルの曲を推奨する。
(2-4)正午を過ぎる
動画カットCx(x=1~6)の撮影時刻が、正午を過ぎている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第13ジャンルの曲を推奨する。
動画カットCx(x=1~6)の撮影時刻が、正午に近づいている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第12ジャンルの曲を推奨する。
(2-4)正午を過ぎる
動画カットCx(x=1~6)の撮影時刻が、正午を過ぎている場合、映像作成アプリは、動画カットCxに適用する音楽として、上記第13ジャンルの曲を推奨する。
実施の形態では、各曲の情報に、その曲が上記第10~第13ジャンルのうちのいずれのジャンルに該当するかを示すタグ(Tag)が付されている。処理部250は、動画カットC1~C6の撮影情報に対応するジャンルを示すタグが付された曲を選ぶ。
以上説明した動画カットC1~C6の撮影情報と、映像作成アプリで推奨する曲の情報との対応付けは一例に過ぎず、適宜変更しても構わない。また、第10~第13ジャンル以外の他のジャンルを加えてもよい。
以上説明した動画カットC1~C6の撮影情報と、映像作成アプリで推奨する曲の情報との対応付けは一例に過ぎず、適宜変更しても構わない。また、第10~第13ジャンル以外の他のジャンルを加えてもよい。
映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。
以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。
このような映像作成アプリについて、以下に詳細に説明する。
このような映像作成アプリについて、以下に詳細に説明する。
<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。
映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。
なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。
<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。
通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。
処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
さらにまた、記憶部260は、映像作成アプリを実行中に、映像作成アプリで定められている情報(動画カットC1~C6の撮影情報と、推奨するフィルタ処理との対応付けを示す情報、動画カットC1~C6の撮影情報と、推奨する曲との対応付けを示す情報)を推奨コンテンツ情報として記憶することが可能である。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
さらにまた、記憶部260は、映像作成アプリを実行中に、映像作成アプリで定められている情報(動画カットC1~C6の撮影情報と、推奨するフィルタ処理との対応付けを示す情報、動画カットC1~C6の撮影情報と、推奨する曲との対応付けを示す情報)を推奨コンテンツ情報として記憶することが可能である。
測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。
電子機器3Aへ映像作成アプリを供給するサーバ装置4の構成の図示については省略するが、サーバ装置4は、利用者情報を記憶する利用者データベースと、映像作成アプリを記憶するアプリ保存部とを含む。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記録される。利用者は、入力部230を介して利用者情報を入力することができる。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記録される。利用者は、入力部230を介して利用者情報を入力することができる。
<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。
測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。
通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。
センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。
ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。
制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。
情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。
情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。
<フローチャートの説明>
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5AのステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。
ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。ステップS10で行う処理を、第1処理と呼んでもよい。
ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図7C)がタップ操作されると、4秒間の動画カットを撮影させる。ステップS20で行う処理を、第2処理と呼んでもよい。
ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。ステップS30で行う処理を、第3処理と呼んでもよい。
測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図5BのステップS120へ進む。
以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。
ステップS50において、処理部250は、動画カットに対する編集を行ってステップS52へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。
ステップS52において、処理部250は、動画10の作成に用いる動画カットC1~C6を解析する解析処理を行ってステップS54へ進む。解析処理では、各動画カットに含まれる撮影情報としての位置情報の変化に基づいて、各動画カットの撮影地を検出するとともに、撮影情報としての時刻情報の変化に基づいて、各動画カットの撮影日時を検出する。このような解析処理を第1処理と呼んでもよい。
ステップS54において、処理部250は、解析結果に基づいて、動画カットC1~C6の撮影地または撮影日時に対応する複数のコンテンツ候補を選ぶ。実施の形態では、動画10の作成に適用可能なフィルタ処理と、BGMの情報とをコンテンツと呼ぶ。また、実施の形態では撮影地または撮影日時に対応する複数のコンテンツ候補を選ぶが、撮影地および撮影日時に対応するコンテンツ候補を選んでもよい。
処理部250は、先に例示した、動画カットC1~C6の撮影地を示す位置情報または撮影日時を示す時刻情報と、推奨するフィルタ処理との対応付けに基づき、対応する複数のBGMの情報と、対応する複数のフィルタ処理の情報とを選んで図5BのステップS60へ進む。処理部250は、ステップS54で選んだ複数のBGMの情報と複数のフィルタ処理の情報とを、それぞれ音楽とフィルタ処理とのおすすめランキング情報として記憶部260のコンテンツ情報記憶部267に記録する。ステップS54の処理を第2処理と呼んでもよい。
図5BのステップS60において、処理部250は、フィルタ処理を選択し決定する。図6Dに例示するように、処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理のうちのステップS54で選んだフィルタ処理を、フィルタ処理の候補として出力部240に表示させる。表示するフィルタ処理の候補の順番は、例えば、映像作成アプリが推奨する順位(例えば利用頻度が高い順、または利用頻度が低い順)に基づく。複数のフィルタ処理の候補を表示する処理を、第3処理と呼んでもよい。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。複数のフィルタ処理の候補の中から採用するフィルタ処理を選択する処理を、第4処理と呼んでもよい。
処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。複数のフィルタ処理の候補の中から採用するフィルタ処理を選択する処理を、第4処理と呼んでもよい。
処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
ステップS70において、処理部250は、動画10の情報101に付加する音楽を選択し決定する。処理部250は、図7Aに例示するように、映像作成アプリであらかじめ用意された複数のBGM曲のうちのステップS54で選んだBGM曲を、候補曲として出力部240に表示させる。表示する候補曲の順番は、例えば、映像作成アプリが推奨する順位(例えば利用頻度が高い順、または利用頻度が低い順)に基づく。複数の候補曲を表示する処理についても、第3処理と呼んでもよい。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。複数の候補曲の中からBGMの情報を選択する処理についても、第4処理と呼んでもよい。
処理部250は、音楽を選択、決定するとステップS80へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。複数の候補曲の中からBGMの情報を選択する処理についても、第4処理と呼んでもよい。
処理部250は、音楽を選択、決定するとステップS80へ進む。
ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。
ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。
ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS100の処理の中で、ステップS60で決定したフィルタ処理も行う。すなわち、動画10の作成に適用可能なコンテンツとしてのフィルタ処理を適用する。ステップS100で行うフィルタ処理を、第5処理と呼んでもよい。
ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録して図5Bによる処理を終了する。ステップS110の処理の中では動画10の情報101にステップS70で決定した音楽の情報を付加する。すなわち、動画10の作成に適用可能なコンテンツとしての音楽を適用する。ステップS110で行う音楽の情報の付加処理についても、第5処理と呼んでもよい。
実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定してステップS20へ戻る。
ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Bによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
上述した図5AのステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合に、ステップS140からステップS50へ進む。
<表示画面の例示>
図6A~図6Dおよび図7A~図7Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
図6A~図6Dおよび図7A~図7Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図5A)の処理へ進む。撮影一覧ボタン52は、当画面(図6A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図7C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。
<編集画面>
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
撮影画面ボタン76は、撮影画面(図6C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
編集ボタン71は、当画面(図6B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図6D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図7A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図7B)に表示を切替えるための操作ボタンである。
実施の形態では、編集画面(図6B)、後述するフィルタ決定画面(図6D)、後述する音楽決定画面(図7A)、および後述する確認画面(図7B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図6B、図6D、図7A、および図7B)において共通に表示されている。
<撮影画面>
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図6Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図6B)に表示を切替えて編集を行うための操作ボタンである。
<フィルタ決定画面>
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図6D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図6D)において、フィルタボタン72は、当画面(図6D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<音楽決定画面>
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
なお、映像作成アプリが推奨する順位に関係なく、自身が好きな音楽の情報を選択したいという利用者のために、お気に入り音楽の候補を音楽決定画面に表示させるようにしてもよい。
また、フィルタ決定画面(図6D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図7)において、音楽ボタン73は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<確認画面>
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図7B)において、確認ボタン74は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<地図確認画面>
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。
映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。
撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図6A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図7C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を撮影情報として含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する動画カット間における撮影情報の変化を検出する第1処理(ステップS52)と、検出結果に基づいて、映像プロジェクトで動画10の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第2処理(ステップS54)と、複数のコンテンツ候補を表示部としての出力部240に表示する第3処理(ステップS60、ステップS70)と、操作信号に基づいて、複数のコンテンツ候補から動画10の作成時に適用するコンテンツを選択する第4処理(同ステップS60、ステップS70)と、選択したコンテンツを、映像プロジェクトで動画10の作成に適用する第5処理(ステップS100、ステップS110)とを、映像プロジェクトとしてコンピュータに実行させる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を撮影情報として含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する動画カット間における撮影情報の変化を検出する第1処理(ステップS52)と、検出結果に基づいて、映像プロジェクトで動画10の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第2処理(ステップS54)と、複数のコンテンツ候補を表示部としての出力部240に表示する第3処理(ステップS60、ステップS70)と、操作信号に基づいて、複数のコンテンツ候補から動画10の作成時に適用するコンテンツを選択する第4処理(同ステップS60、ステップS70)と、選択したコンテンツを、映像プロジェクトで動画10の作成に適用する第5処理(ステップS100、ステップS110)とを、映像プロジェクトとしてコンピュータに実行させる。
このように構成したので、映像作成アプリであらかじめ用意された複数のコンテンツの中から複数のコンテンツ候補が自動で表示部としての出力部240に表示される。そのため、利用者にとって、多数の候補がある場合でもコンテンツを選択しやすくなる。
映像プロジェクトで使用する動画カットC1~C6間の撮影情報の変化に基づいて複数のコンテンツ候補を選ぶようにしたので、例えば、動画カットC1~C6の撮影地間の移動距離(動画カット間の移動距離)の長さ、あるいは動画カットC1~C6の撮影間隔(動画カット間の移動時間)の長さに基づき、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補を選ぶことが可能になる。
以上説明したように、利用者は、映像作成アプリで作成する動画10に適したコンテンツを、複数の候補の中から適切に選ぶことが可能になる。
映像プロジェクトで使用する動画カットC1~C6間の撮影情報の変化に基づいて複数のコンテンツ候補を選ぶようにしたので、例えば、動画カットC1~C6の撮影地間の移動距離(動画カット間の移動距離)の長さ、あるいは動画カットC1~C6の撮影間隔(動画カット間の移動時間)の長さに基づき、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補を選ぶことが可能になる。
以上説明したように、利用者は、映像作成アプリで作成する動画10に適したコンテンツを、複数の候補の中から適切に選ぶことが可能になる。
(2)上記(1)の動画作成アプリの第2処理(ステップS54)は、動画カット間における撮影情報の変化に基づきテンポが異なる音楽(第10または第11ジャンル、第12または第13ジャンル)をコンテンツ候補として選び、第5処理(ステップS100、S110)は、映像プロジェクトで作成する動画10の情報に、第4処理(ステップS60、ステップS70)で選択した音楽の情報を付す。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
(3)上記(1)、(2)の動画作成アプリの第1処理(ステップS52)は、撮影情報のうちの少なくとも時刻情報の変化を検出し、第2処理(ステップS54)は、動画カットC1~C6の撮影時刻が所定時刻に近づく場合に第12ジャンルの音楽をコンテンツ候補として選ぶとともに、動画カットC1~C6の撮影時刻が所定時刻から離れる場合に第12ジャンルと異なる第13ジャンルの音楽をコンテンツ候補として選び、第5処理(ステップS100、ステップS110)は、映像プロジェクトで作成する動画10の情報に、第4処理(ステップS60、ステップS70)で選択した音楽の情報を付す。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
(4)上記(1)から(3)の動画作成アプリの第1処理(ステップS52)は、撮影情報のうちの少なくとも位置情報の変化を検出し、第2処理(ステップS54)は、動画カットC1~C6の撮影地が居住地から離れる場合に第10ジャンルの音楽をコンテンツ候補として選ぶとともに、動画カットの撮影地が居住地へ近づく場合に第10ジャンルと異なる第11ジャンルの音楽をコンテンツ候補として選び、第5処理(ステップS100、ステップS110)は、映像プロジェクトで作成する動画10の情報に、第4処理(ステップS60、ステップS70)で選択した音楽の情報を付す。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としての音楽を選ぶことが可能になる。
(5)上記(1)の動画作成アプリの第2処理(ステップS54)は、動画カットC1~C6間における撮影情報の変化に基づき、動画カットC1~C6に写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせるフィルタ処理をコンテンツ候補として選び、第5処理(ステップS100、ステップS110)は、映像プロジェクトで作成する動画10に第4処理(ステップS60、ステップS70)で選択したフィルタ処理を行う。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
(6)上記(1)から(5)の動画作成アプリの第1処理(ステップS52)は、撮影情報のうちの少なくとも時刻情報の変化を検出し、第2処理(ステップS54)は、動画カットC1~C6の撮影時刻が所定時刻に近づく場合に第3ジャンルのフィルタ処理をコンテンツ候補として選ぶとともに、動画カットC1~C6の撮影時刻が所定時刻から離れる場合に第3ジャンルと異なる第4ジャンルのフィルタ処理をコンテンツ候補として選び、第5処理(ステップS100、ステップS110)は、映像プロジェクトで作成する動画10に第4処理(ステップS60、ステップS70)で選択したフィルタ処理を行う。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
(7)上記(1)、(5)または(6)の動画作成アプリの第1処理(ステップS52)は、撮影情報のうちの少なくとも位置情報の変化を検出し、第2処理(ステップS54)は、動画カットC1~C6の撮影地が居住地から離れる場合に第1ジャンルのフィルタ処理をコンテンツ候補として選ぶとともに、動画カットC1~C6の撮影地が居住地へ近づく場合に第1ジャンルと異なる第2ジャンルのフィルタ処理をコンテンツ候補として選び、第5処理(ステップS100、ステップS110)は、映像プロジェクトで作成する動画10に、第4処理(ステップS60、ステップS70)で選択したフィルタ処理を行う。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
このように構成したので、動画カットC1~C6間の雰囲気の変化に合致した適切なコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例2)
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
変形例2において、処理部250は、図5AのステップS10~S20に代えて以下の代替ステップS10Aを、図5AのステップS40に代えて、以下の代替ステップS20Aの処理を行う。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
ステップS30の次に進む代替ステップS20Aにおいて、処理部250は、動画カットの総録画時間が24秒を超えているか否かを判定する。処理部250は、総録画時間が24秒を超えている場合に代替ステップS20Aを肯定判定し、ステップS50へ進む。ステップS50以降の処理は、上述した実施の形態の説明と同様である。
処理部250は、総録画時間が24秒に満たない場合には、代替ステップS20Aを否定判定して図5BのステップS120へ進む。ステップS120で一時終了をしない(否定判定)場合には、図5Aの代替ステップS10Aへ戻って上記処理を繰り返す。すなわち、処理部250は、総録画時間が24秒を超えるまで、タップ時間に応じた撮影時間で動画カットの撮影を行わせる。ステップS140において撮影を判定する場合も、代替ステップS10Aへ進む。
なお、処理部250は、総録画時間が24秒を超えている場合において、カメラ210で最後に撮影された動画カットのうち総録画時間24秒を超過した分については、出力部240にメッセージを表示させる等して、超過分を削除する編集操作を行うように、利用者に促してもよい。また、総録画時間24秒を超過した分を自動的に削除してもよい。
以上説明した変形例2による代替ステップS10AおよびS20Aの処理では、動画10を構成する動画カットの録画時間を、利用者による撮影操作の継続時間に基づいて決定させることが可能になる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、220 通信部、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、265 プロジェクト記憶部、267 コンテンツ情報記憶部、270 測位部、400 サービス提供システム、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル
Claims (7)
- 位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を撮影情報として含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、前記記憶部に記憶されている前記情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、
前記映像プロジェクトで使用する動画カット間における前記撮影情報の変化を検出する第1処理と、
前記検出結果に基づいて、前記映像プロジェクトで前記動画の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第2処理と、
前記複数のコンテンツ候補を前記表示部に表示する第3処理と、
前記操作信号に基づいて、前記複数のコンテンツ候補から前記動画の作成時に適用するコンテンツを選択する第4処理と、
前記選択したコンテンツを、前記映像プロジェクトで前記動画の作成に適用する第5処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第2処理は、前記動画カット間における前記撮影情報の変化に基づきテンポが異なる音楽を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画の情報に、前記第4処理で選択した音楽の情報を付すことを特徴とする映像作成プログラム。 - 請求項1または2に記載の映像作成プログラムにおいて、
前記第1処理は、前記撮影情報のうちの少なくとも前記時刻情報の変化を検出し、
前記第2処理は、前記動画カットの撮影時刻が所定時刻に近づく場合に第1ジャンルの音楽を前記コンテンツ候補として選ぶとともに、前記動画カットの撮影時刻が前記所定時刻から離れる場合に前記第1ジャンルと異なる第2ジャンルの音楽を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画の情報に、前記第4処理で選択した音楽の情報を付すことを特徴とする映像作成プログラム。 - 請求項1から3のいずれか一項に記載の映像作成プログラムにおいて、
前記第1処理は、前記撮影情報のうちの少なくとも前記位置情報の変化を検出し、
前記第2処理は、前記動画カットの撮影地が居住地から離れる場合に第1ジャンルの音楽を前記コンテンツ候補として選ぶとともに、前記動画カットの撮影地が前記居住地へ近づく場合に前記第1ジャンルと異なる第2ジャンルの音楽を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画の情報に、前記第4処理で選択した音楽の情報を付すことを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第2処理は、前記動画カット間における前記撮影情報の変化に基づき、前記動画カットに写る主要被写体の色相、彩度および明度のうち少なくとも一つを異ならせるフィルタ処理を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画に前記第4処理で選択したフィルタ処理を行うことを特徴とする映像作成プログラム。 - 請求項1または5に記載の映像作成プログラムにおいて、
前記第1処理は、前記撮影情報のうちの少なくとも前記時刻情報の変化を検出し、
前記第2処理は、前記動画カットの撮影時刻が所定時刻に近づく場合に第1ジャンルのフィルタ処理を前記コンテンツ候補として選ぶとともに、前記動画カットの撮影時刻が前記所定時刻から離れる場合に前記第1ジャンルと異なる第2ジャンルのフィルタ処理を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画に前記第4処理で選択したフィルタ処理を行うことを特徴とする映像作成プログラム。 - 請求項1、5または6に記載の映像作成プログラムにおいて、
前記第1処理は、前記撮影情報のうちの少なくとも前記位置情報の変化を検出し、
前記第2処理は、前記動画カットの撮影地が居住地から離れる場合に第1ジャンルのフィルタ処理を前記コンテンツ候補として選ぶとともに、前記動画カットの撮影地が前記居住地へ近づく場合に前記第1ジャンルと異なる第2ジャンルのフィルタ処理を前記コンテンツ候補として選び、
前記第5処理は、前記映像プロジェクトで作成する動画に前記第4処理で選択したフィルタ処理を行うことを特徴とする映像作成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028945A JP2023125039A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028945A JP2023125039A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125039A true JP2023125039A (ja) | 2023-09-07 |
Family
ID=87887874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028945A Pending JP2023125039A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023125039A (ja) |
-
2022
- 2022-02-28 JP JP2022028945A patent/JP2023125039A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8467402B2 (en) | Digital audio communication system | |
JP2006338553A (ja) | コンテンツ再生装置 | |
JP4963269B2 (ja) | 画像対応楽曲推薦提示システム | |
KR20070033778A (ko) | 동영상 촬영 기능이 구비된 이동통신 단말기의 동작방법 | |
JP2008039573A (ja) | 思い出情報提示システム | |
JP2015069313A (ja) | 電子アルバム装置 | |
KR101523971B1 (ko) | 녹음 기능을 수행하는 단말기 및 그 단말기의 이미지 처리 방법 | |
JP7342087B2 (ja) | 映像作成プログラム | |
JP2023125039A (ja) | 映像作成プログラム | |
JP2023125038A (ja) | 映像作成プログラム | |
JP2023125033A (ja) | 映像作成プログラム | |
JP2023125037A (ja) | 映像作成プログラム | |
JP2023125040A (ja) | 映像作成プログラム | |
JP7451999B2 (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
JP2023125031A (ja) | 映像作成プログラム | |
JP2023125032A (ja) | 映像作成プログラム | |
JP2023125029A (ja) | 映像作成プログラム | |
JP2023125041A (ja) | 映像作成プログラム | |
JP2023125034A (ja) | サーバ装置 | |
JP2023125030A (ja) | 映像作成プログラム | |
JP2023125042A (ja) | 映像作成プログラム | |
US11956498B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2021101530A (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
US12125502B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP4963722B2 (ja) | 記録データ再生装置等 |