JP2023125041A - 映像作成プログラム - Google Patents
映像作成プログラム Download PDFInfo
- Publication number
- JP2023125041A JP2023125041A JP2022028947A JP2022028947A JP2023125041A JP 2023125041 A JP2023125041 A JP 2023125041A JP 2022028947 A JP2022028947 A JP 2022028947A JP 2022028947 A JP2022028947 A JP 2022028947A JP 2023125041 A JP2023125041 A JP 2023125041A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- creation program
- shooting
- cut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 95
- 230000008569 process Effects 0.000 claims abstract description 94
- 238000012545 processing Methods 0.000 claims description 145
- 238000004891 communication Methods 0.000 claims description 38
- 238000012790 confirmation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 6
- 102220486681 Putative uncharacterized protein PRO1854_S10A_mutation Human genes 0.000 description 5
- 102220470087 Ribonucleoside-diphosphate reductase subunit M2_S20A_mutation Human genes 0.000 description 5
- 102220021091 rs28897672 Human genes 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 241000238370 Sepia Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【課題】利用者による動画撮影の機会を増やすこと。【解決手段】映像作成プログラムは、映像作成プログラムの使用者に対するインセンティブの付与条件情報を取得する第1処理(S0)と、映像プロジェクトで使用する各動画カットを解析する第2処理(S51)と、解析結果および付与条件情報に基づいて、動画カットが付与条件を満たしたか否かを判定する第3処理(S52)と、動画カットが付与条件を満たした場合にインセンティブを付与する第4処理(S54)と、をコンピュータに実行させる。【選択図】図6A
Description
本発明は、動画を作成する映像作成プログラムに関する。
スマートフォン等の携帯無線端末では、静止画に加えて動画を撮影することが可能である。一般に、携帯無線端末を用いた動画撮影機能は、静止画撮影機能に比べて撮影するきっかけがないと使われないため、動画撮影機能の利用が一部の利用者にとどまっていた。そのため、利用者に対してコンテンツ等のインセンティブを付与することにより機能の利用を促す工夫が必要である。例えば特許文献1には、位置情報に関連するコンテンツを受信し再生する技術が開示されている。
しかしながら、従来の技術では、利用者が所定の位置へ移動すればよいため、積極的に動画撮影しようとする利用者の動機につなげることが難しい。すなわち、動画撮影機能の利用につながっていない。
本発明の一態様によるプログラムは、位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、外部機器と情報を送受する通信部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像作成プログラムの使用者に対するインセンティブの付与条件情報を取得する第1処理と、映像プロジェクトで使用する各動画カットを解析する第2処理と、解析結果および付与条件情報に基づいて、動画カットが付与条件を満たしたか否かを判定する第3処理と、動画カットが付与条件を満たした場合にインセンティブを付与する第4処理と、をコンピュータに実行させる。
本発明によれば、利用者による動画撮影の機会を増やすことが可能になる。
以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。
図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。
実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。
(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。
以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。
また、映像作成アプリは、付与条件を満たした映像作成アプリの利用者にインセンティブを付与する。実施の形態においてインセンティブの付与は、動画10の作成に適用可能なコンテンツを特典として与えることに対応する。コンテンツは、上記フィルタ処理と、上記BGMの情報とを含む。
このような映像作成アプリについて、以下に詳細に説明する。
また、映像作成アプリは、付与条件を満たした映像作成アプリの利用者にインセンティブを付与する。実施の形態においてインセンティブの付与は、動画10の作成に適用可能なコンテンツを特典として与えることに対応する。コンテンツは、上記フィルタ処理と、上記BGMの情報とを含む。
このような映像作成アプリについて、以下に詳細に説明する。
<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。
映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。
なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。
<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。
通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。
処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。
<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。
測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。
通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。
センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。
ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。
制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。
情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。
情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。
<サーバ装置>
図5は、図2のサーバ装置4の要部構成を示すブロック図である。上述したように、サーバ装置4はサービスを提供する事業体等で管理される。サーバ装置4は、クラウド上の仮想サーバ機能を利用して構成してもよく、複数の端末に分散して構成してもよい。
図5は、図2のサーバ装置4の要部構成を示すブロック図である。上述したように、サーバ装置4はサービスを提供する事業体等で管理される。サーバ装置4は、クラウド上の仮想サーバ機能を利用して構成してもよく、複数の端末に分散して構成してもよい。
サーバ装置4は、通信部41と、入出力部42と、処理部43と、記憶部44とを有する。通信部41は、通信網5を介して、電子機器3Aおよび3B、車載端末2等の外部機器と無線通信可能に構成される。このような構成により、サーバ装置4は、映像作成アプリの利用者A、Bの電子機器3A、3Bとの間で必要な情報を送受することができる。
映像作成アプリの使用を希望する利用者A、B、…は、サービスを提供する事業体等に利用者情報を登録した上で、記憶部44のアプリ保存部444に保存されている映像作成アプリの供給を受けるものとする。登録された複数の利用者A、B、…の利用者情報は、記憶部44の利用者情報記憶部441に記録されるものとする。
利用者情報の登録は、サーバ装置4と通信可能な、電子機器3A等を用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、電話番号、連絡先等を含めることが可能である。
利用者情報の登録は、サーバ装置4と通信可能な、電子機器3A等を用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、電話番号、連絡先等を含めることが可能である。
入出力部42は、例えばキーボード、ポインティングデバイス、ディスプレイ、およびタッチパネル等を有する。入出力部42は、キーボード、ポインティングデバイス、およびタッチパネル等の操作に基づいて入力された信号を処理部43へ送出するとともに、処理部43から出力された信号に基づく情報をディスプレイ等に表示する。
処理部43は、CPU(マイクロプロセッサ)およびその周辺回路等を有するコンピュータを含んで構成される。処理部43は、入出力部42を介して入力された信号、通信部41を介してサーバ装置4の外部から受信した信号、および記憶部44に記憶されたデータ等に基づいて所定の処理を実行し、通信部41、入出力部42および記憶部44に対する制御信号を出力する。
処理部43は、あらかじめ記憶部44に記憶されているプログラムを実行することにより、付与情報管理部431および課金情報管理部432として機能する。
処理部43は、あらかじめ記憶部44に記憶されているプログラムを実行することにより、付与情報管理部431および課金情報管理部432として機能する。
付与情報管理部431は、インセンティブの付与情報を管理する。付与情報は、インセンティブの付与条件と、付与条件を設定した設定者の設定者情報とを含む。
インセンティブの付与条件は、例えば、映像作成アプリを使って撮影する動画カットの撮影場所を指定する撮影場所情報(例:ABC公園内、またはOKビル5階のレストランPP内、またはPQR競技場内等)と、期間を指定する日時情報(例:2022年3月1日10時から2022年3月15日20時等)および動画カットの撮影対象(例:主要被写体としての人物、動物、マスコットキャラクター、商品、ランドマーク等)を指定する被写体情報のうち少なくとも一方の情報とによって構成される。
インセンティブの付与条件は、例えば、映像作成アプリを使って撮影する動画カットの撮影場所を指定する撮影場所情報(例:ABC公園内、またはOKビル5階のレストランPP内、またはPQR競技場内等)と、期間を指定する日時情報(例:2022年3月1日10時から2022年3月15日20時等)および動画カットの撮影対象(例:主要被写体としての人物、動物、マスコットキャラクター、商品、ランドマーク等)を指定する被写体情報のうち少なくとも一方の情報とによって構成される。
設定者は、付与条件の設定を希望する人(または事業体等)のうち、サービス提供システム400を管理する事業体等に登録した人(または事業体等)をいう。例えば、店舗経営者またはイベント開催者等の集客を希望する人(または事業体等)が、設定者として登録される。設定者情報は、例えば設定者ID、住所、氏名、電話番号、連絡先等を含む。登録された複数の設定者の設定者情報は、記憶部44の設定者情報記憶部442に記録される。
設定者は、任意に付与条件を定めることが可能である。設定者がサービス提供システム400を管理する事業体等に付与条件の設定を依頼すると、付与条件情報が記憶部44のアプリ保存部444に、映像作成アプリの情報の一つとして記録される。アプリ保存部444に記憶されている付与条件情報は、電子機器3A等における映像作成アプリの起動時に、通信部41を介して電子機器3A等へ送信される。
付与条件情報は、その付与条件を設定した設定者の設定者情報と対応づけられている。
付与条件情報は、その付与条件を設定した設定者の設定者情報と対応づけられている。
課金情報管理部432は、付与条件を設定した(換言すると、サービス提供システム400を管理する事業体等に設定を依頼した)設定者に課金する課金情報を管理する。実施の形態では、映像作成アプリが利用者にインセンティブを付与した場合に、インセンティブの付与に要する費用の額を設定者が負担するものとする。費用は、例えば付与したコンテンツとしての音楽の著作権使用料、または、付与したコンテンツとしてのフィルタ処理を行うコンピュータプログラムの使用料に相当する額と、映像作成アプリを提供する事業体等が、付与条件情報をアプリ保存部444に記録したり、通信部41を介して電子機器3A等へ送信したりする手数料に相当する額とを含む。
課金情報管理部432は、付与条件を満たした利用者にインセンティブを付与したことを示す付与通知情報が電子機器3A等からサーバ装置4へ送信されると、付与条件の設定者へ請求するための上記費用の額を算出する。課金情報管理部432は、電子機器3A等からの付与通知情報に基づいて費用の額を設定者毎に集計し、設定者毎の集計値を設定者毎の課金情報として記憶部44の課金情報記憶部443に記録する。
課金情報管理部432は、課金情報記憶部443に記憶されている課金情報に基づき、各設定者へ請求情報を送信する。
課金情報管理部432は、課金情報記憶部443に記憶されている課金情報に基づき、各設定者へ請求情報を送信する。
記憶部44は、不図示の揮発性または不揮発性メモリを有する。記憶部44は、処理部43が実行する各種のプログラムや各種のデータ等を記憶する。また記憶部44は、利用者情報記憶部441と、設定者情報記憶部442と、課金情報記憶部443と、アプリ保存部444として機能する。
利用者情報記憶部441は、登録された複数の利用者A、B、…の利用者情報を記憶する。
設定者情報記憶部442は、登録された複数の設定者の設定者情報を記憶する。
設定者情報記憶部442は、登録された複数の設定者の設定者情報を記憶する。
課金情報記憶部443は、設定者ごとに集計された上記課金情報を記憶する。
アプリ保存部444は、利用者へ提供する映像作成アプリと、上記付与条件情報とを記憶する。
アプリ保存部444は、利用者へ提供する映像作成アプリと、上記付与条件情報とを記憶する。
<フローチャートの説明>
図6Aおよび図6Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図6Aおよび図6Bによる処理を行う映像作成アプリを起動する。
図6Aおよび図6Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図6Aおよび図6Bによる処理を行う映像作成アプリを起動する。
図6AのステップS0において、処理部250は、インセンティブの付与条件情報をサーバ装置4から取得してステップS1へ進む。上述したように、インセンティブの付与条件情報は、サーバ装置4のアプリ保存部444に記憶されている。処理部250は、サーバ装置4から取得した付与条件情報を、記憶部260の所定領域(例えば、付与条件記憶部267A)に記録する。付与条件情報を取得する処理を、第1処理と呼んでもよい。
電子機器3Aは、ステップS0において付与条件情報をサーバ装置4から取得する場合と、後述するステップS115において付与通知情報をサーバ装置4へ送信する場合とに、通信部220により通信網5を介してサーバ装置4と通信を行う。
電子機器3Aは、ステップS0において付与条件情報をサーバ装置4から取得する場合と、後述するステップS115において付与通知情報をサーバ装置4へ送信する場合とに、通信部220により通信網5を介してサーバ装置4と通信を行う。
ステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。
ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。
ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図7C)がタップ操作されると、4秒間の動画カットを撮影させる。
ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図6BのステップS120へ進む。
以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。
ステップS50において、処理部250は、動画カットに対する編集を行ってステップS51へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。
ステップS51において、処理部250は、動画10の作成に用いる動画カットC1~C6を解析する解析処理を行ってステップS52へ進む。解析処理により、動画カットに写る主要被写体を認識したり、動画カットの位置情報に基づいて撮影地の名称または建物名、施設名等を割り出したりする。このような解析処理を第2処理と呼んでもよい。
ステップS52において、処理部250は、解析結果(主要被写体または撮影地の名称等)に基づいて、インセンティブの付与条件を満たすか否かを判定する、処理部250は、付与条件のうちの撮影場所情報と動画カットに含まれる位置情報とが合致するとともに、付与条件のうちの日時情報と動画カットに含まれる時刻情報(タイムコード)とが合致または、付与条件のうちの撮影対象(主要被写体)と動画カットに写る主要被写体とが合致すると、ステップS52を肯定判定してステップS54へ進む。処理部250は、撮影場所情報と動画カットに含まれる位置情報とが合致しない、または、撮影場所情報と動画カットに含まれる位置情報とが合致するものの、日時情報と動画カットに含まれる時刻情報とが合致せず、撮影対象(主要被写体)と動画カットに写る主要被写体とが合致しない場合には、ステップS52を否定判定して図6BのステップS60へ進む。ステップS52の処理を第3処理と呼んでもよい。
ステップS54において、処理部250は、インセンティブを付与してステップS56へ進む。例えば、後述するステップS70において選択、決定する音楽の情報の候補曲の数を、インセンティブとして増やす。インセンティブを付与された利用者は、付与されていない利用者に比べて、より多くの候補曲の中から楽曲を選ぶことが可能になる。つまり、インセンティブが付与される前は使用可能な候補曲の数が少なく、インセンティブが付与される毎に使用可能な候補曲の数が増加する。
また、同様に処理部250は、後述するステップS60において選択、決定するフィルタ処理の候補の数を、インセンティブとして増やしてもよい。インセンティブを付与された利用者は、付与されていない利用者に比べて、より多くのフィルタ処理の候補の中からフィルタ処理を選ぶことが可能になる。つまり、インセンティブが付与される前は使用可能なフィルタ処理の数が少なく、インセンティブが付与される毎に使用可能なフィルタ処理の数が増加する。インセンティブを付与する処理を、第4処理と呼んでもよい。
ステップS56において、処理部250は、付与通知情報を作成して図6BのステップS60へ進む。付与通知情報は、ステップS52で使用した付与条件情報と、ステップS54で付与したインセンティブの内容(例えば、フィルタ処理の名称またはBGM曲の名称)とを含む。処理部250は、作成した付与通知情報を、記憶部260の所定領域(例えば、付与通知記憶部267B)に記録する。付与通知情報を作成する処理を、第5処理と呼んでもよい。
図6BのステップS60において、処理部250は、フィルタ処理を選択し決定する。図7Dに例示するように、処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理のうち、初期設定として使用が認められるフィルタ処理と、インセンティブが付与された場合に使用が認められるフィルタ処理とを、フィルタ処理の候補として出力部240に表示させる。表示するフィルタ処理の候補の順番は、例えば、映像作成アプリが推奨する順位に基づく。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
ステップS70において、処理部250は、動画10の情報101に付加する音楽を選択し決定する。処理部250は、図8Aに例示するように、映像作成アプリであらかじめ用意された複数のBGM曲のうち、初期設定として使用が認められるBGM曲と、インセンティブが付与された場合に使用が認められるBGM曲とを、候補曲として出力部240に表示させる。表示する候補曲の順番は、例えば、映像作成アプリが推奨する順位に基づく。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。処理部250は、音楽を選択、決定するとステップS80へ進む。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。処理部250は、音楽を選択、決定するとステップS80へ進む。
ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。
ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。
ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS100の処理の中で、ステップS60で決定したフィルタ処理も行う。すなわち、コンテンツとしてのフィルタ処理を適用する。ステップS100で行うフィルタ処理を、第7処理と呼んでもよい。
ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録してステップS115へ進む。ステップS110の処理の中では、動画10の情報101にステップS70で決定した音楽の情報を付加する。すなわち、コンテンツとしての音楽を適用する。ステップS110で行う音楽の情報の付加処理も、第7処理と呼んでよい。
ステップS115において、処理部250は、ステップS56で作成した付与通知情報を、通信部41からサーバ装置4へ送信させて図6Bによる処理を終了する。サーバ装置4へ送信する付与通知情報は、サーバ装置4において、インセンティブの付与条件を設定した設定者に対してインセンティブに要する費用の額を課金するために必要な情報として扱われる。ステップS115において付与通知情報を送信する処理を、第6処理と呼んでもよい。
実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定して図6AのステップS20へ戻る。
ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図6Bによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
上述した図6AのステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合に、ステップS140からステップS50へ進む。
<表示画面の例示>
図7A~図7Dおよび図8A~図8Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図7Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図7Aに示す撮影一覧画面は、例えば、フローチャート(図6A)による処理の開始時に処理部250が出力部240に表示させる。
図7A~図7Dおよび図8A~図8Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図7Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図7Aに示す撮影一覧画面は、例えば、フローチャート(図6A)による処理の開始時に処理部250が出力部240に表示させる。
符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図6A)の処理へ進む。撮影一覧ボタン52は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図8C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。
<編集画面>
図7Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図7Bに示す編集画面は、例えば、利用者が撮影一覧画面(図7A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
図7Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図7Bに示す編集画面は、例えば、利用者が撮影一覧画面(図7A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
撮影画面ボタン76は、撮影画面(図7C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図7A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
編集ボタン71は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図7D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図8A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図8B)に表示を切替えるための操作ボタンである。
実施の形態では、編集画面(図7B)、後述するフィルタ決定画面(図7D)、後述する音楽決定画面(図8A)、および後述する確認画面(図8B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図7A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図7B、図7D、図8A、および図8B)において共通に表示されている。
<撮影画面>
図7Cは、撮影画面を例示する図である。図7Cに示す撮影画面は、処理部250がフローチャート(図6A)のステップS20の処理を行う場合に表示させる。図7Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
図7Cは、撮影画面を例示する図である。図7Cに示す撮影画面は、処理部250がフローチャート(図6A)のステップS20の処理を行う場合に表示させる。図7Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図7Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図7B)に表示を切替えて編集を行うための操作ボタンである。
<フィルタ決定画面>
図7Dは、フィルタ決定画面を例示する図である。図7Dに示すフィルタ決定画面は、処理部250がフローチャート(図6B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
図7Dは、フィルタ決定画面を例示する図である。図7Dに示すフィルタ決定画面は、処理部250がフローチャート(図6B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図7D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。
上述したように、各画面(図7B、図7D、図8Aおよび図8B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図7D)において、フィルタボタン72は、当画面(図7D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<音楽決定画面>
図8Aは、音楽決定画面を例示する図である。図8Aに示す音楽決定画面は、処理部250がフローチャート(図6B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
図8Aは、音楽決定画面を例示する図である。図8Aに示す音楽決定画面は、処理部250がフローチャート(図6B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
なお、映像作成アプリが推奨する順位に関係なく、自身が好きな音楽の情報を選択したいという利用者のために、お気に入り音楽の候補を音楽決定画面に表示させるようにしてもよい。
また、フィルタ決定画面(図7D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。
上述したように、各画面(図7B、図7D、図8Aおよび図8B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図8A)において、音楽ボタン73は、当画面(図8A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<確認画面>
図8Bは、確認画面を例示する図である。図8Bに示す確認画面は、処理部250がフローチャート(図6B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
図8Bは、確認画面を例示する図である。図8Bに示す確認画面は、処理部250がフローチャート(図6B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
上述したように、各画面(図7B、図7D、図8Aおよび図8B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図8B)において、確認ボタン74は、当画面(図8B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<地図確認画面>
図8Cは、地図確認画面を例示する図である。図8Cに示す地図確認画面は、撮影一覧画面(図7A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
図8Cは、地図確認画面を例示する図である。図8Cに示す地図確認画面は、撮影一覧画面(図7A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。
映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。
撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図7A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図8C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、外部機器と情報を送受する通信部220と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像作成アプリの利用者に対するインセンティブの付与条件情報を取得する第1処理(ステップS0)と、映像プロジェクトで使用する動画カットC1~C6を解析する第2処理(ステップS51)と、解析結果および付与条件情報に基づいて、動画カットC1~C6が付与条件を満たしたか否かを判定する第3処理(ステップS52)と、動画カットC1~C6が付与条件を満たした場合にインセンティブを付与する第4処理(ステップS54)と、を映像プロジェクトとしてコンピュータに実行させる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、外部機器と情報を送受する通信部220と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像作成アプリの利用者に対するインセンティブの付与条件情報を取得する第1処理(ステップS0)と、映像プロジェクトで使用する動画カットC1~C6を解析する第2処理(ステップS51)と、解析結果および付与条件情報に基づいて、動画カットC1~C6が付与条件を満たしたか否かを判定する第3処理(ステップS52)と、動画カットC1~C6が付与条件を満たした場合にインセンティブを付与する第4処理(ステップS54)と、を映像プロジェクトとしてコンピュータに実行させる。
映像作成アプリは、利用者へ付与するインセンティブの付与条件情報を取得するので、電子機器3A等で実行される映像作成アプリにおけるインセンティブの付与条件を、サーバ装置4側から適宜変更することが可能になる。
映像作成アプリは、動画10の作成に使用する動画カットC1~C6を解析し、解析結果が付与条件を満たした場合にインセンティブを付与するので、利用者に対し、付与条件に合致した動画撮影を促すことが可能になる。
以上のことから、特典に惹かれた利用者による動画撮影の機会を増やすことが可能になる。
映像作成アプリは、動画10の作成に使用する動画カットC1~C6を解析し、解析結果が付与条件を満たした場合にインセンティブを付与するので、利用者に対し、付与条件に合致した動画撮影を促すことが可能になる。
以上のことから、特典に惹かれた利用者による動画撮影の機会を増やすことが可能になる。
(2)映像作成アプリの第1処理(ステップS0)は、撮影場所情報および撮影日時情報を付与条件情報として取得し、第3処理(ステップS52)は、動画カットC1~C6に含まれる位置情報および時刻情報が、撮影場所情報および撮影日時情報と合致するか否かを判定する。
このように構成したので、付与条件に含まれる撮影地で、付与条件に含まれる撮影期間に動画カットC1~C6を撮影することを、利用者に対して促すことが可能になる。
このように構成したので、付与条件に含まれる撮影地で、付与条件に含まれる撮影期間に動画カットC1~C6を撮影することを、利用者に対して促すことが可能になる。
(3)映像作成アプリの第1処理(ステップS0)は、撮影場所情報および被写体情報を付与条件情報として取得し、第2処理(ステップS51)は、被写体認識処理により動画カットC1~C6に写る主要被写体を認識し、第3処理(ステップS52)は、動画カットC1~C6に含まれる位置情報が撮影場所情報と合致するとともに、動画カットC1~C6に写る主要被写体が被写体情報と合致するか否かを判定する。
このように構成したので、付与条件に含まれる撮影地で、付与条件に含まれる主要被写体が写る動画カットC1~C6の撮影を、利用者に対して促すことが可能になる。
このように構成したので、付与条件に含まれる撮影地で、付与条件に含まれる主要被写体が写る動画カットC1~C6の撮影を、利用者に対して促すことが可能になる。
(4)映像作成アプリは、インセンティブの付与条件を設定した設定者に対し、インセンティブに要する費用の額を課金するために必要な情報としての付与通知情報を作成する第5処理(ステップS56)と、通信部220により、付与通知情報を外部機器としてのサーバ装置4へ送信する第6処理(ステップS115)とを、さらにコンピュータに実行させる。
このように構成したので、映像作成アプリを実行する電子機器3A等からサーバ装置4へ、インセンティブを付与したことを示す付与通知情報が集まる。サーバ装置4を管理する事業体等は、集まった付与通知情報に基づき、付与条件の設定者に対し、利用者へのインセンティブに係る費用を請求することが可能になる。利用者にとっては、費用を負担することなく特典を受けることが可能になる。
また、付与条件の設定者にとっては、インセンティブに係る費用の負担と引き換えに、自らの事業の集客につながる付与条件を設定することが可能になる。そのため、例えば設定者が経営する店舗における動画カットC1~C6の撮影を利用者に促したり、設定者が開催するイベント会場における動画カットC1~C6の撮影を利用者に促したりすることが可能になる。
このように構成したので、映像作成アプリを実行する電子機器3A等からサーバ装置4へ、インセンティブを付与したことを示す付与通知情報が集まる。サーバ装置4を管理する事業体等は、集まった付与通知情報に基づき、付与条件の設定者に対し、利用者へのインセンティブに係る費用を請求することが可能になる。利用者にとっては、費用を負担することなく特典を受けることが可能になる。
また、付与条件の設定者にとっては、インセンティブに係る費用の負担と引き換えに、自らの事業の集客につながる付与条件を設定することが可能になる。そのため、例えば設定者が経営する店舗における動画カットC1~C6の撮影を利用者に促したり、設定者が開催するイベント会場における動画カットC1~C6の撮影を利用者に促したりすることが可能になる。
(5)映像作成アプリは、映像プロジェクトで動画10の作成時に所定のコンテンツを適用する第7処理(ステップS100、S110)を、さらにコンピュータに実行させる。第4処理(ステップS54)で付与するインセンティブは、第7処理(ステップS100、S110)で適用可能なコンテンツとしての音楽またはフィルタ処理の情報である。
このように構成したので、例えばコンテンツとしてBGM音楽を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。また、例えばコンテンツとしてフィルタ処理を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
このように構成したので、例えばコンテンツとしてBGM音楽を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。また、例えばコンテンツとしてフィルタ処理を適用することにより、利用者は、魅力を高めた動画10を手軽に作成することが可能になる。
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例2)
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
変形例2において、処理部250は、図6AのステップS10~S20に代えて以下の代替ステップS10Aを、図6AのステップS40に代えて、以下の代替ステップS20Aの処理を行う。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
ステップS30の次に進む代替ステップS20Aにおいて、処理部250は、動画カットの総録画時間が24秒を超えているか否かを判定する。処理部250は、総録画時間が24秒を超えている場合に代替ステップS20Aを肯定判定し、ステップS50へ進む。ステップS50以降の処理は、上述した実施の形態の説明と同様である。
処理部250は、総録画時間が24秒に満たない場合には、代替ステップS20Aを否定判定して図6BのステップS120へ進む。ステップS120で一時終了をしない(否定判定)場合には、図6Aの代替ステップS10Aへ戻って上記処理を繰り返す。すなわち、処理部250は、総録画時間が24秒を超えるまで、タップ時間に応じた撮影時間で動画カットの撮影を行わせる。ステップS140において撮影を判定する場合も、代替ステップS10Aへ進む。
なお、処理部250は、総録画時間が24秒を超えている場合において、カメラ210で最後に撮影された動画カットのうち総録画時間24秒を超過した分については、出力部240にメッセージを表示させる等して、超過分を削除する編集操作を行うように、利用者に促してもよい。また、総録画時間24秒を超過した分を自動的に削除してもよい。
以上説明した変形例2による代替ステップS10AおよびS20Aの処理では、動画10を構成する動画カットの録画時間を、利用者による撮影操作の継続時間に基づいて決定させることが可能になる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、41,220 通信部、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、265 プロジェクト記憶部、267A 付与条件記憶部、267B 付与通知記憶部、270 測位部、400 サービス提供システム、431 付与情報管理部、432 課金情報管理部、441 利用者情報記憶部、442 設定者情報記憶部、443 課金情報記憶部、444 アプリ保存部、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル
Claims (5)
- 位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、外部機器と情報を送受する通信部と、を含む電子機器に、前記記憶部に記憶されている前記情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、
前記映像作成プログラムの使用者に対するインセンティブの付与条件情報を取得する第1処理と、
前記映像プロジェクトで使用する各動画カットを解析する第2処理と、
前記解析結果および前記付与条件情報に基づいて、前記動画カットが付与条件を満たしたか否かを判定する第3処理と、
前記動画カットが前記付与条件を満たした場合に前記インセンティブを付与する第4処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第1処理は、撮影場所情報および撮影日時情報を前記付与条件情報として取得し、
前記第3処理は、前記動画カットに含まれる前記位置情報および前記時刻情報が、前記撮影場所情報および撮影日時情報と合致するか否かを判定することを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第1処理は、撮影場所情報および被写体情報を前記付与条件情報として取得し、
前記第2処理は、被写体認識処理により前記動画カットに写る主要被写体を認識し、
前記第3処理は、前記動画カットに含まれる前記位置情報が前記撮影場所情報と合致するとともに、前記動画カットに写る主要被写体が前記被写体情報と合致するか否かを判定することを特徴とする映像作成プログラム。 - 請求項1から3のいずれか一項に記載の映像作成プログラムにおいて、
前記インセンティブの付与条件を設定した設定者に対し、前記インセンティブに要する費用の額を課金するために必要な情報を作成する第5処理と、
前記通信部により、前記情報を前記外部機器へ送信する第6処理と、
をさらにコンピュータに実行させることを特徴とする映像作成プログラム。 - 請求項1から4のいずれか一項に記載の映像作成プログラムにおいて、
前記映像プロジェクトで前記動画の作成時に所定のコンテンツを適用する第7処理を、さらにコンピュータに実行させ、
前記第4処理で付与する前記インセンティブは、前記第7処理で適用可能な前記コンテンツとしての音楽またはフィルタ処理の情報であることを特徴とする映像作成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028947A JP2023125041A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028947A JP2023125041A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125041A true JP2023125041A (ja) | 2023-09-07 |
Family
ID=87887810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028947A Pending JP2023125041A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023125041A (ja) |
-
2022
- 2022-02-28 JP JP2022028947A patent/JP2023125041A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8467402B2 (en) | Digital audio communication system | |
US20130100329A1 (en) | Image pickup apparatus | |
JP7028608B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2006338553A (ja) | コンテンツ再生装置 | |
JP2019121319A (ja) | 車両撮影支援装置及びプログラム | |
US20230133148A1 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
US20130204414A1 (en) | Digital audio communication system | |
JP2023125041A (ja) | 映像作成プログラム | |
JP2023125040A (ja) | 映像作成プログラム | |
JP6278404B2 (ja) | カラオケ管理システム、プログラム、及び、カラオケシステム | |
JP2023125039A (ja) | 映像作成プログラム | |
JP2023125033A (ja) | 映像作成プログラム | |
JP7451999B2 (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
JP2023125038A (ja) | 映像作成プログラム | |
JP2023125042A (ja) | 映像作成プログラム | |
JP2023125034A (ja) | サーバ装置 | |
JP2023125030A (ja) | 映像作成プログラム | |
JP2023125037A (ja) | 映像作成プログラム | |
JP2023125029A (ja) | 映像作成プログラム | |
US11956498B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2023125032A (ja) | 映像作成プログラム | |
JP2023125031A (ja) | 映像作成プログラム | |
JP2021101530A (ja) | 録画装置、動画システム、録画方法、及びプログラム | |
JP4963722B2 (ja) | 記録データ再生装置等 | |
JP7470726B2 (ja) | 画像処理装置、及び、画像処理方法 |