JP2023125040A - 映像作成プログラム - Google Patents
映像作成プログラム Download PDFInfo
- Publication number
- JP2023125040A JP2023125040A JP2022028946A JP2022028946A JP2023125040A JP 2023125040 A JP2023125040 A JP 2023125040A JP 2022028946 A JP2022028946 A JP 2022028946A JP 2022028946 A JP2022028946 A JP 2022028946A JP 2023125040 A JP2023125040 A JP 2023125040A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- creation program
- video creation
- cuts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 89
- 230000008569 process Effects 0.000 claims abstract description 83
- 238000012545 processing Methods 0.000 claims description 137
- 238000004891 communication Methods 0.000 description 22
- 238000012790 confirmation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 102220486681 Putative uncharacterized protein PRO1854_S10A_mutation Human genes 0.000 description 5
- 102220470087 Ribonucleoside-diphosphate reductase subunit M2_S20A_mutation Human genes 0.000 description 5
- 102220021091 rs28897672 Human genes 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 241000238370 Sepia Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000019646 color tone Nutrition 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
Images
Abstract
【課題】利用者による動画撮影の機会を増やすこと。【解決手段】映像作成プログラムは、映像プロジェクトで使用する各動画カットを解析する第1処理(ステップS51)と、解析結果に基づいて動画の主題を決定する第2処理(ステップS52)と、主題の数が所定数に達したか否かを判定する第3処理(ステップS54)と、主題の数が所定数に達した場合にインセンティブを付与する第4処理(ステップS56)と、をコンピュータに実行させる。【選択図】図5A
Description
本発明は、動画を作成する映像作成プログラムに関する。
スマートフォン等の携帯無線端末では、静止画に加えて動画を撮影することが可能である。一般に、携帯無線端末を用いた動画撮影機能は、静止画撮影機能に比べて利用機会が少ないことから、動画撮影機能の利用機会を増やすためには何らかの工夫が必要である。
携帯無線端末に備わる機能の利用を促す手法として、従来から、利用者に対してコンテンツ等のインセンティブを付与する手法が知られている。例えば特許文献1には、位置情報に関連するコンテンツを受信し再生する技術が開示されている。
また、特許文献2には、コンテンツをインセンティブとして提供する技術として、移動体の移動距離に基づいてゲーム上で使用するポイント得点を決定する技術が開示されている。
携帯無線端末に備わる機能の利用を促す手法として、従来から、利用者に対してコンテンツ等のインセンティブを付与する手法が知られている。例えば特許文献1には、位置情報に関連するコンテンツを受信し再生する技術が開示されている。
また、特許文献2には、コンテンツをインセンティブとして提供する技術として、移動体の移動距離に基づいてゲーム上で使用するポイント得点を決定する技術が開示されている。
しかしながら、いずれの技術も、積極的に動画撮影しようとする利用者の動機につなげることが難しい。すなわち、特典を付与する技術は存在するものの、動画撮影機能の利用につながっていない。
本発明の一態様によるプログラムは、位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する各動画カットを解析する第1処理と、解析結果に基づいて動画の主題を決定する第2処理と、主題の数が所定数に達したか否かを判定する第3処理と、主題の数が所定数に達した場合にインセンティブを付与する第4処理と、をコンピュータに実行させる。
本発明によれば、利用者による動画撮影の機会を増やすことが可能になる。
以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。
図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。
実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。
(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。
以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。
また、映像作成アプリは、付与条件を満たした映像作成アプリの利用者にインセンティブを付与する。実施の形態においてインセンティブの付与は、動画10の作成に適用可能なコンテンツを特典として与えることに対応する。コンテンツは、上記フィルタ処理と、上記BGMの情報とを含む。
このような映像作成アプリについて、以下に詳細に説明する。
また、映像作成アプリは、付与条件を満たした映像作成アプリの利用者にインセンティブを付与する。実施の形態においてインセンティブの付与は、動画10の作成に適用可能なコンテンツを特典として与えることに対応する。コンテンツは、上記フィルタ処理と、上記BGMの情報とを含む。
このような映像作成アプリについて、以下に詳細に説明する。
<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。
映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。
なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。
<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。
通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。
処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。
電子機器3Aへ映像作成アプリを供給するサーバ装置4の構成の図示については省略するが、サーバ装置4は、利用者情報を記憶する利用者データベースと、映像作成アプリを記憶するアプリ保存部とを含む。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記録される。利用者は、入力部230を介して利用者情報を入力することができる。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記録される。利用者は、入力部230を介して利用者情報を入力することができる。
<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。
測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。
通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。
センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。
ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。
制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。
情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。
情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。
<フローチャートの説明>
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5AのステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。
ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。
ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図6C)がタップ操作されると、4秒間の動画カットを撮影させる。
ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図5BのステップS120へ進む。
以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。
ステップS50において、処理部250は、動画カットに対する編集を行ってステップS51へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。
ステップS51において、処理部250は、動画10の作成に用いる動画カットC1~C6を解析する解析処理を行ってステップS52へ進む。解析処理により、動画カットに写る主要被写体を認識したり、動画カットの位置情報に基づいて撮影地の名称または建物名、施設名等を割り出したりする。このような解析処理を第1処理と呼んでもよい。
ステップS52において、処理部250は、解析結果(主要被写体または撮影地の名称等)に基づいて動画10の主題を決めてステップS54へ進む。決定される主題を主要被写体または撮影地等に基づいて分類した種別を例示すると、風景、動物、人物(大人、子供、男性、女性)、建物、自然、昼間、夜間、等である。主題の種別をさらに細かく定めてもよい。このような主題を決める処理を第2処理と呼んでもよい。
ステップS54において、処理部250は、ステップS52で決定した主題の数を集計する。実施の形態では、例えば、風景に分類される主題の数、動物に分類される主題の数、…というように、主題の種別毎の数を集計する。処理部250はさらに、主題の種別毎の数が、それぞれ所定数に達したか否かを判定する。処理部250は、所定数に達した場合にステップS54を肯定判定してステップS56へ進み、所定数に達しない場合にはステップS54を否定判定して図5BのステップS60へ進む。処理部250は、集計値等の集計に用いた情報を記憶部260のインセンティブ情報記憶部267に記録し、次回の集計処理に役立てる。
ステップS54の判定処理に用いる所定数は、ステップS54を肯定判定する回数、換言すると、ステップS54を肯定判定して進むステップS56でインセンティブを付与した回数に伴って変化させてもよい。上述したように、インセンティブの付与は、映像作成アプリの利用者に特典を与えることに対応する。処理部250は、例えば、所定数の初期値を10とし、インセンティブを10回付与した利用者には、以降の所定数を20に増加させる。そして、同じ利用者に対してインセンティブをさらに10回(累計20回)付与した場合には、その利用者に対する以降の所定数を30に増加させる。処理部250は、インセンティブを付与した回数および所定数を示す情報についても記憶部260のインセンティブ情報記憶部267に記録し、次回の判定処理に役立てる。
なお、ステップS54の判定処理に用いる所定数は、主題の種別毎に異なる値を設定してよい。また、ステップS54で行う処理を、第3処理と呼んでもよい。
なお、ステップS54の判定処理に用いる所定数は、主題の種別毎に異なる値を設定してよい。また、ステップS54で行う処理を、第3処理と呼んでもよい。
ステップS56において、処理部250は、インセンティブを付与して図5BのステップS60へ進む。例えば、後述するステップS70において選択、決定する音楽の情報の候補曲の数を、インセンティブとして増やす。インセンティブを付与された利用者は、付与されていない利用者に比べて、より多くの候補曲の中から楽曲を選ぶことが可能になる。つまり、インセンティブが付与される前は使用可能な候補曲の数が少なく、インセンティブが付与される毎に使用可能な候補曲の数が増加する。
また、同様に処理部250は、後述するステップS60において選択、決定するフィルタ処理の候補の数を、インセンティブとして増やしてもよい。インセンティブを付与された利用者は、付与されていない利用者に比べて、より多くのフィルタ処理の候補の中からフィルタ処理を選ぶことが可能になる。つまり、インセンティブが付与される前は使用可能なフィルタ処理の数が少なく、インセンティブが付与される毎に使用可能なフィルタ処理の数が増加する。ステップS56で行う処理を、第4処理と呼んでもよい。
図5BのステップS60において、処理部250は、フィルタ処理を選択し決定する。図6Dに例示するように、処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理のうち、初期設定として使用が認められるフィルタ処理と、インセンティブが付与された場合に使用が認められるフィルタ処理とを、フィルタ処理の候補として出力部240に表示させる。表示するフィルタ処理の候補の順番は、例えば、映像作成アプリが推奨する順位に基づく。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
ステップS70において、処理部250は、動画10の情報101に付加する音楽を選択し決定する。処理部250は、図7Aに例示するように、映像作成アプリであらかじめ用意された複数のBGM曲のうち、初期設定として使用が認められるBGM曲と、インセンティブが付与された場合に使用が認められるBGM曲とを、候補曲として出力部240に表示させる。表示する候補曲の順番は、例えば、映像作成アプリが推奨する順位に基づく。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。処理部250は、音楽を選択、決定するとステップS80へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。処理部250は、音楽を選択、決定するとステップS80へ進む。
ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。
ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。
ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS100の処理の中で、ステップS60で決定したフィルタ処理も行う。すなわち、動画10の作成に適用可能なコンテンツとしてのフィルタ処理を適用する。ステップS100で行うフィルタ処理を、第5処理と呼んでもよい。
ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録して図5Bによる処理を終了する。ステップS110の処理の中では動画10の情報101にステップS70で決定した音楽の情報を付加する。すなわち、動画10の作成に適用可能なコンテンツとしての音楽を適用する。ステップS110で行う音楽の情報の付加処理も、第5処理と呼んでよい。
実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定してステップS20へ戻る。
ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Bによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
上述した図5AのステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合に、ステップS140からステップS50へ進む。
<表示画面の例示>
図6A~図6Dおよび図7A~図7Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
図6A~図6Dおよび図7A~図7Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図5A)の処理へ進む。撮影一覧ボタン52は、当画面(図6A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図7C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。
<編集画面>
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
撮影画面ボタン76は、撮影画面(図6C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
編集ボタン71は、当画面(図6B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図6D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図7A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図7B)に表示を切替えるための操作ボタンである。
実施の形態では、編集画面(図6B)、後述するフィルタ決定画面(図6D)、後述する音楽決定画面(図7A)、および後述する確認画面(図7B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図6B、図6D、図7A、および図7B)において共通に表示されている。
<撮影画面>
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図6Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図6B)に表示を切替えて編集を行うための操作ボタンである。
<フィルタ決定画面>
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図6D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図6D)において、フィルタボタン72は、当画面(図6D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<音楽決定画面>
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
なお、映像作成アプリが推奨する順位に関係なく、自身が好きな音楽の情報を選択したいという利用者のために、お気に入り音楽の候補を音楽決定画面に表示させるようにしてもよい。
また、フィルタ決定画面(図6D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図7A)において、音楽ボタン73は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<確認画面>
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図7B)において、確認ボタン74は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<地図確認画面>
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。
映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。
撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図6A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図7C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する動画カットC1~C6を解析する第1処理(ステップS51)と、解析結果に基づいて動画10の主題を決定する第2処理(ステップS52)と、主題の数が所定数に達したか否かを判定する第3処理(ステップS54)と、主題の数が所定数に達した場合にインセンティブを付与する第4処理(ステップS56)と、を映像プロジェクトとしてコンピュータに実行させる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する動画カットC1~C6を解析する第1処理(ステップS51)と、解析結果に基づいて動画10の主題を決定する第2処理(ステップS52)と、主題の数が所定数に達したか否かを判定する第3処理(ステップS54)と、主題の数が所定数に達した場合にインセンティブを付与する第4処理(ステップS56)と、を映像プロジェクトとしてコンピュータに実行させる。
このように構成したので、特典に惹かれた利用者による動画撮影の機会を増やすことが可能になる。
利用者に対するインセンティブを、映像作成アプリを用いて作成された動画10の主題の数に基づいて付与するようにしたことにより、利用者にとっては、動画撮影の機会を増やすことがインセンティブにつながる。そのため、積極的に動画撮影しようとする利用者の動機につなげることが可能になる。
映像作成アプリを提供する事業体等にとっては、従来技術のような位置情報に関連させたコンテンツをインセンティブとして準備しなくてよい。そのため、インセンティブに関する事業体等の負担を抑えることが可能になる。
利用者に対するインセンティブを、映像作成アプリを用いて作成された動画10の主題の数に基づいて付与するようにしたことにより、利用者にとっては、動画撮影の機会を増やすことがインセンティブにつながる。そのため、積極的に動画撮影しようとする利用者の動機につなげることが可能になる。
映像作成アプリを提供する事業体等にとっては、従来技術のような位置情報に関連させたコンテンツをインセンティブとして準備しなくてよい。そのため、インセンティブに関する事業体等の負担を抑えることが可能になる。
(2)第2処理(ステップS52)は、動画カットC1~C6に写る主要被写体に基づいて動画10の主題を決定する。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る人物、動物、風景等の雰囲気等に合致した主題を、適切に決定することが可能になる。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る人物、動物、風景等の雰囲気等に合致した主題を、適切に決定することが可能になる。
(3)第2処理(ステップS52)は、動画カットC1~C6の位置情報に基づいて動画10の主題を決定する。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る場所、公園、観光地等の雰囲気に合致した主題を、適切に決定することが可能になる。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る場所、公園、観光地等の雰囲気に合致した主題を、適切に決定することが可能になる。
(4)第3処理(ステップS54)は、主題の種別毎に数を集計し、所定数に達したか否かを種別毎に判定する。
このように構成したので、多数の主題を分類した種別毎に数が集計されるため、分類しないで集計する場合と比べて所定数に達しやすくなる。つまり、利用者にとって特典が得やすくなるので、積極的に動画撮影しようとする利用者の動機につなげることが可能になる。
また、映像作成アプリを提供する事業体等にとっても、分類しないで集計する場合と比べて集計処理の負担を軽減することが可能になる。
このように構成したので、多数の主題を分類した種別毎に数が集計されるため、分類しないで集計する場合と比べて所定数に達しやすくなる。つまり、利用者にとって特典が得やすくなるので、積極的に動画撮影しようとする利用者の動機につなげることが可能になる。
また、映像作成アプリを提供する事業体等にとっても、分類しないで集計する場合と比べて集計処理の負担を軽減することが可能になる。
(5)第3処理(ステップS54)は、インセンティブを付与した回数により所定数を増加させる。
このように構成したので、使い始めの利用者が特典を得やすいサービスを提供することが可能になる。
このように構成したので、使い始めの利用者が特典を得やすいサービスを提供することが可能になる。
(6)映像作成アプリは、映像プロジェクトで動画10の作成時に所定のコンテンツを適用する第5処理(ステップS100、S110)を、さらにコンピュータに実行させる。第4処理(ステップS56)で付与するインセンティブは、第5処理で適用可能なコンテンツとしての音楽またはフィルタ処理の情報である。
このように構成したので、例えばコンテンツとしてBGM音楽を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。また、例えばコンテンツとしてフィルタ処理を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
このように構成したので、例えばコンテンツとしてBGM音楽を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。また、例えばコンテンツとしてフィルタ処理を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
(7)第4処理(ステップS56)は、主題によって異なるコンテンツをインセンティブとして付与する。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る人物、動物、風景、場所、公園、観光地等の雰囲気に合致したコンテンツを、利用者に対して付与することが可能になる。利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
このように構成したので、動画カットC1~C6をつなげて作成される動画10に写る人物、動物、風景、場所、公園、観光地等の雰囲気に合致したコンテンツを、利用者に対して付与することが可能になる。利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例2)
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
変形例2において、処理部250は、図5AのステップS10~S20に代えて以下の代替ステップS10Aを、図5AのステップS40に代えて、以下の代替ステップS20Aの処理を行う。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
ステップS30の次に進む代替ステップS20Aにおいて、処理部250は、動画カットの総録画時間が24秒を超えているか否かを判定する。処理部250は、総録画時間が24秒を超えている場合に代替ステップS20Aを肯定判定し、ステップS50へ進む。ステップS50以降の処理は、上述した実施の形態の説明と同様である。
処理部250は、総録画時間が24秒に満たない場合には、代替ステップS20Aを否定判定して図5BのステップS120へ進む。ステップS120で一時終了をしない(否定判定)場合には、図5Aの代替ステップS10Aへ戻って上記処理を繰り返す。すなわち、処理部250は、総録画時間が24秒を超えるまで、タップ時間に応じた撮影時間で動画カットの撮影を行わせる。ステップS140において撮影を判定する場合も、代替ステップS10Aへ進む。
なお、処理部250は、総録画時間が24秒を超えている場合において、カメラ210で最後に撮影された動画カットのうち総録画時間24秒を超過した分については、出力部240にメッセージを表示させる等して、超過分を削除する編集操作を行うように、利用者に促してもよい。また、総録画時間24秒を超過した分を自動的に削除してもよい。
以上説明した変形例2による代替ステップS10AおよびS20Aの処理では、動画10を構成する動画カットの録画時間を、利用者による撮影操作の継続時間に基づいて決定させることが可能になる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、220 通信部、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、265 プロジェクト記憶部、267 インセンティブ情報記憶部、270 測位部、400 サービス提供システム、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル
Claims (7)
- 位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、前記記憶部に記憶されている前記情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、
前記映像プロジェクトで使用する各動画カットを解析する第1処理と、
前記解析結果に基づいて前記動画の主題を決定する第2処理と、
前記主題の数が所定数に達したか否かを判定する第3処理と、
前記主題の数が前記所定数に達した場合にインセンティブを付与する第4処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第2処理は、前記動画カットに写る主要被写体に基づいて前記動画の主題を決定することを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第2処理は、前記動画カットの前記位置情報に基づいて前記動画の主題を決定することを特徴とする映像作成プログラム。 - 請求項1から3のいずれか一項に記載の映像作成プログラムにおいて、
前記第3処理は、前記主題の種別毎に数を集計し、前記所定数に達したか否かを前記種別毎に判定することを特徴とする映像作成プログラム。 - 請求項1から4のいずれか一項に記載の映像作成プログラムにおいて、
前記第3処理は、前記インセンティブを付与した回数により前記所定数を増加させることを特徴とする映像作成プログラム。 - 請求項1から5のいずれか一項に記載の映像作成プログラムにおいて、
前記映像プロジェクトで前記動画の作成時に所定のコンテンツを適用する第5処理を、さらにコンピュータに実行させ、
前記第4処理で付与する前記インセンティブは、前記第5処理で適用可能な前記コンテンツとしての音楽またはフィルタ処理の情報であることを特徴とする映像作成プログラム。 - 請求項6に記載の映像作成プログラムにおいて、
前記第4処理は、前記主題によって異なるコンテンツを前記インセンティブとして付与することを特徴とする映像作成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028946A JP2023125040A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028946A JP2023125040A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125040A true JP2023125040A (ja) | 2023-09-07 |
Family
ID=87887871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028946A Pending JP2023125040A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023125040A (ja) |
-
2022
- 2022-02-28 JP JP2022028946A patent/JP2023125040A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100061197A1 (en) | Digital audio communication system | |
JP4965475B2 (ja) | 仮想移動表示装置 | |
US20130100329A1 (en) | Image pickup apparatus | |
JP2006338553A (ja) | コンテンツ再生装置 | |
JP7028608B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20130204414A1 (en) | Digital audio communication system | |
JP2023125040A (ja) | 映像作成プログラム | |
JP7451999B2 (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
JP2023125033A (ja) | 映像作成プログラム | |
JP2023125041A (ja) | 映像作成プログラム | |
JP2023125039A (ja) | 映像作成プログラム | |
JP2023125042A (ja) | 映像作成プログラム | |
JP2023125038A (ja) | 映像作成プログラム | |
JP2023125030A (ja) | 映像作成プログラム | |
JP2023125037A (ja) | 映像作成プログラム | |
JP2023125032A (ja) | 映像作成プログラム | |
JP2023125029A (ja) | 映像作成プログラム | |
JP2021101530A (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
JP2023125034A (ja) | サーバ装置 | |
JP2023125031A (ja) | 映像作成プログラム | |
US11956498B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2006109151A (ja) | 画像記録装置及び電子アルバム作成システム | |
JP4047834B2 (ja) | 携帯情報端末 | |
JP7342087B2 (ja) | 映像作成プログラム | |
JP7452000B2 (ja) | 録画装置、録画方法、及びプログラム |