JP2023125029A - 映像作成プログラム - Google Patents
映像作成プログラム Download PDFInfo
- Publication number
- JP2023125029A JP2023125029A JP2022028934A JP2022028934A JP2023125029A JP 2023125029 A JP2023125029 A JP 2023125029A JP 2022028934 A JP2022028934 A JP 2022028934A JP 2022028934 A JP2022028934 A JP 2022028934A JP 2023125029 A JP2023125029 A JP 2023125029A
- Authority
- JP
- Japan
- Prior art keywords
- video
- cut
- information
- cuts
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 67
- 230000008569 process Effects 0.000 claims abstract description 66
- 230000004044 response Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 144
- 238000004891 communication Methods 0.000 description 22
- 238000012790 confirmation Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 238000010079 rubber tapping Methods 0.000 description 6
- 102220021091 rs28897672 Human genes 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000238370 Sepia Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】動画カットよりも長い第2動画から、第1動画の作成に用いる特定の動画カットを切出すこと。【解決手段】映像作成プログラムは、撮影時間が4秒である動画カット以外の他の画像情報を映像プロジェクトで使用することを判断する処理(S210)と、他の画像情報のうち、撮影時間が4秒よりも長い第2動画を記憶部から読出す処理(S220)と、第2動画から、時間軸上の再生位置がそれぞれ異なり、再生時間が4秒である複数の動画カット候補を切出す処理(S230)と、複数の動画カット候補を表示部に表示する処理(S240)と、操作信号に基づいて複数の動画カット候補から少なくとも一つの動画カット候補を選択する処理(S250)と、選択した動画カット候補を、第1動画の作成に用いる動画カットとして記憶部に記録する処理(S260)と、をコンピュータに実行させる。【選択図】図5B
Description
本発明は、動画を作成する映像作成プログラムに関する。
旅行先で撮影した映像を用いて、旅行記として一つの映像プロジェクトを作成する技術が知られている(特許文献1参照)。旅行先で撮影した画像等をデータセンターに記憶し、旅行記としての履歴データがデータセンターに格納される。
従来の技術では、旅行先で撮影した画像、映像等が大量に保存されてしまう。そのため、旅行記の中から特定のカットを選ぶことが困難であった。
本発明の一態様によるプログラムは、被写体像を撮影して時刻情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて第1動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、記憶部に記憶されている動画カット以外の他の画像情報を映像プロジェクトで使用することを判断する第1処理と、他の画像情報のうち、時刻情報を含むとともに撮影時間が所定秒よりも長い第2動画を記憶部から読出す第2処理と、第2動画から、時間軸上の再生位置がそれぞれ異なり、再生時間が所定秒である複数の動画カット候補を切出す第3処理と、複数の動画カット候補を表示部に表示する第4処理と、操作信号に基づいて複数の動画カット候補から少なくとも一つの動画カット候補を選択する第5処理と、選択した動画カット候補を、第1動画の作成に用いる動画カットとして記憶部に記録する第6処理と、をコンピュータに実行させる。
本発明によれば、映像作成プログラムで使用する動画カットよりも撮影時間が長い動画から、映像作成プログラムで使用する特定のカットを簡単に切出すことが可能になる。
以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。なお、後述するように、電子機器で取得した動画カットと、当該電子機器で取得した動画カット以外の画像情報とに基づいて動画を作成することも可能である。
図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。
実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。
(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。
以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。このような映像作成アプリについて、以下に詳細に説明する。
<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。
映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。
なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。
<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。
通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。
処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。
電子機器3Aへ映像作成アプリを供給するサーバ装置4の構成の図示については省略するが、サーバ装置4は、利用者情報を記憶する利用者データベースと、映像作成アプリを記憶するアプリ保存部とを含む。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記憶される。利用者は、入力部230を介して利用者情報を入力することができる。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記憶される。利用者は、入力部230を介して利用者情報を入力することができる。
<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。
測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。
通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。
センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。
ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。
制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。
情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。
情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。
<フローチャートの説明>
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
図5AのステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。
ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。
ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図6C)がタップ操作されると、4秒間の動画カットを撮影させる。
ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図5BのステップS210へ進む。
以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。また、映像作成アプリは、ステップS40の時点で総録画時間が24秒に満たなくても、動画カット以外の他の画像情報を使用して動画10を作成するように設定されている場合には、後述する図5BのステップS210~S260の処理を行った上で、ステップS150を経てステップS50以降の処理へ進むことが可能である。
ステップS50において、処理部250は、動画カットに対する編集を行ってステップS60へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。
ステップS60において、処理部250は、フィルタ処理を決定してステップS70へ進む。処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理の候補の中から利用者により選択されたフィルタ処理を、動画10に用いるフィルタ処理に決定する。
ステップS70において、処理部250は、動画10の情報101に付加する音楽を決定してステップS80へ進む。処理部250は、映像作成アプリであらかじめ用意された複数のBGMの候補曲の中から利用者により選択されたBGMの情報を、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。
ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。
ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。
ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS60で決定したフィルタ処理も行う。作成した動画10を第1動画と呼んでもよい。
ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録して図5Aによる処理を終了する。換言すると、ステップS110では動画10の情報101にステップS70で決定した音楽の情報が付加される。
実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定してステップS140へ進む。ステップS140へ進む場合、処理部250は動画カットの撮影または編集等を継続する。
ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Aによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
上述したように、動画カットの撮影回数がN回に満たない(換言すると、動画カット数がN未満)場合に図5BのステップS210へ進む。ステップS40を否定判定して進むステップS210において、処理部250は、動画カット以外の他の画像情報を使用するか否かを判断する。処理部250は、動画カット以外の他の画像情報を使用して動画10を作成するように設定されている場合には、ステップS210を肯定判定してステップS220へ進む。処理部250は、動画カット以外の他の画像情報を使用して動画10を作成するように設定されていない場合には、ステップS210を否定判定してステップS160へ進む。
ステップS220において、処理部250は、記憶部260の所定領域(例えば、画像情報用の画像情報記憶部262)に記憶されている画像情報としての第2動画を読出してステップS230へ進む。処理部250は、画像情報記憶部262に記憶されている画像情報のうち、ステップS10で入力した動画カットの数Nに基づいて決定した1カット当たりの撮影時間4秒よりも撮影時間が長い動画を、第2動画として読出す。なお、第2動画の撮影時間は、少なくとも12秒(1カット当たりの撮影時間4秒の3倍)以上あるものが好ましい。
ステップS230において、処理部250は、各第2動画から、3つの動画カット候補を切出してステップS240へ進む。処理部250は、第2動画のそれぞれから、時間軸上の再生位置が最初の4秒間に相当する第1の動画カット候補、上記時間軸上で最後の4秒間に相当する第2の動画カット候補、および、第1の動画カット候補および第2の動画カット候補を除く部分から4秒間の第3の動画カット候補を切出す。処理部250は、第3の動画カット候補として、主要被写体としての人物が写るフレームを含む4秒間のカットを選ぶ。処理部250は、例えば人工知能を用いた被写体認識処理を行うことにより、第2動画に写る人物を認識する。主要被写体としての人物が写るフレームを含む4秒間のカットが一つの第2動画の中に複数存在する場合、処理部250は、例えば人物が写るフレーム数がより多いカット、人物の顔がより大きく写るカット、および人物の笑顔がより多く写るカットのうちのいずれかを、第3の動画カット候補として選ぶ。
ステップS240において、処理部250は、出力部240に3つの動画カット候補を表示させてステップS250へ進む。利用者は、出力部240に表示される、一つの第2動画につき3つの動画カット候補を確認しながら、気に入った動画カット候補を選択することが可能になる。
ステップS250において、処理部250は、入力部230を介して入力される、動画カット候補の中から動画カットを選択する選択操作に基づき、動画カットを選択してステップS260へ進む。
ステップS260において、処理部250は、選択した動画カットの情報を、記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に記録して図5AのステップS150へ進む。
なお、処理部250は、ステップS210以降の処理を行う前からプロジェクト記憶部265に記憶されている動画カットと、ステップS250の処理で選択した動画カットとを、例えば動画に記録されているタイムコード等の時刻情報に基づいて、撮影日時が早い動画カットから時系列に並べて記録する。
ステップS260の処理により、画像情報記憶部262に記憶されている画像情報のうち、動画カット以外の他の画像情報である第2動画に基づいて切出された動画カットが、映像プロジェクトの動画カットとしてプロジェクト記憶部265に記録される。つまり、映像プロジェクト用に撮影されたものではない第2動画から切出した動画カットを、映像プロジェクトにおいて動画10の作成に用いることが可能になる。
なお、処理部250は、ステップS210以降の処理を行う前からプロジェクト記憶部265に記憶されている動画カットと、ステップS250の処理で選択した動画カットとを、例えば動画に記録されているタイムコード等の時刻情報に基づいて、撮影日時が早い動画カットから時系列に並べて記録する。
ステップS260の処理により、画像情報記憶部262に記憶されている画像情報のうち、動画カット以外の他の画像情報である第2動画に基づいて切出された動画カットが、映像プロジェクトの動画カットとしてプロジェクト記憶部265に記録される。つまり、映像プロジェクト用に撮影されたものではない第2動画から切出した動画カットを、映像プロジェクトにおいて動画10の作成に用いることが可能になる。
実施の形態では、動画カットの撮影回数がN回に満たない(換言すると、動画カット数がN未満)場合に、映像作成アプリを中断することも可能である。上述したステップS210を否定判定して進むステップS160において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS160を肯定判定してステップS170へ進む。処理部250は、映像作成アプリを継続する場合にはステップS160を否定判定して図5AのステップS20へ戻る。ステップS20へ戻る場合、処理部250は動画カットの撮影を継続する。
ステップS170において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Bによる処理を終了する。ステップS170により、撮影途中(動画カットの撮影回数がN回に達する前)の動画カットの情報(撮影位置の情報を含む)が記憶部260に記録される。
そのため、例えば次の撮影位置へ移動中、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が一時終了される場合でも、撮影途中の動画カットを適切に保存しておくことが可能になる。
そのため、例えば次の撮影位置へ移動中、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が一時終了される場合でも、撮影途中の動画カットを適切に保存しておくことが可能になる。
上述したステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合、または、動画カット以外の他の画像情報である第2動画に基づいて動画カットを切出す場合に、ステップS140からステップS150へ進む。
ステップS150において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS150を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS150を否定判定して図5BのステップS210へ進む。
<表示画面の例示>
図6A~図6Dおよび図7A~図7Dは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
図6A~図6Dおよび図7A~図7Dは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図5A)の処理へ進む。撮影一覧ボタン52は、当画面(図6A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図7C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。
<編集画面>
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
撮影画面ボタン76は、撮影画面(図6C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
動画カット追加画面ボタン78は、後述する動画カット追加画面(図7D)に表示を切替える場合(例えばステップS220~ステップS260の処理を行う場合)の操作ボタンである。
編集ボタン71は、当画面(図6B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図6D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図7A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図7B)に表示を切替えるための操作ボタンである。
実施の形態では、編集画面(図6B)、後述するフィルタ決定画面(図6D)、後述する音楽決定画面(図7A)、および後述する確認画面(図7B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図6B、図6D、図7A、および図7B)において共通に表示されている。
<撮影画面>
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図6Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図6B)に表示を切替えて編集を行うための操作ボタンである。
<フィルタ決定画面>
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5A)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、映像作成アプリにあらかじめ用意されている複数のフィルタ処理の候補を示す。フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5A)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、映像作成アプリにあらかじめ用意されている複数のフィルタ処理の候補を示す。フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図6D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図6D)において、フィルタボタン72は、当画面(図6D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<音楽決定画面>
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5A)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、映像作成アプリにあらかじめ用意されている複数のおすすめ音楽の候補を示す。音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5A)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、映像作成アプリにあらかじめ用意されている複数のおすすめ音楽の候補を示す。音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
音楽候補ボタン94、95、96、…は、映像作成アプリにあらかじめ用意されている複数のお気に入り音楽の候補を示す。音楽候補ボタン94、95、96、…には、利用者が過去にお気に入り選択した音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。上述したように、利用者は、音楽候補ボタン94、95、96、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を試聴することも可能である。
なお、フィルタ決定画面(図6D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図7A)において、音楽ボタン73は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<確認画面>
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5A)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5A)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図7B)において、確認ボタン74は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<地図確認画面>
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。
映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。
撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図6A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図7C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
<動画カット追加画面>
図7Dは、動画カット追加画面を例示する図である。図7Dに示す動画カット追加画面は、処理部250がフローチャート(図5B)のステップS220~S260の処理を行う場合に出力部240に表示させる。
図7Dは、動画カット追加画面を例示する図である。図7Dに示す動画カット追加画面は、処理部250がフローチャート(図5B)のステップS220~S260の処理を行う場合に出力部240に表示させる。
複数のサムネイル表示M1、M2、M3、…は、処理部250がステップS220の処理において画像情報記憶部262から読出した複数の第2動画をそれぞれ代表する複数のサムネイル表示である。第2動画を代表するサムネイル表示は、静止画として表示する場合に、例えば第2動画の先頭フレームの画像に基づいて生成される。
複数のサムネイル表示85、86、87は、処理部250がステップS230の処理において各第2動画から切出した3つの動画カット候補(第1の動画カット、第2の動画カットおよび第3の動画カット)のうち、斜線で示すカーソルで選択されたサムネイル表示M3に対応する第2動画から切出された、3つの動画カット候補をそれぞれ代表するサムネイル表示である。
3つのサムネイル表示85、86、87は、それぞれサムネイル動画として再生表示させてもよい。処理部250は、第1の動画カット候補、第3の動画カット候補および第2の動画カット候補に基づく3つのサムネイル動画を、サムネイル表示85、86、87として撮影日時が早い順に表示させる。
利用者は、画像情報記憶部262から読出された複数の第2動画のうち、任意の第2動画から切出された3つの動画カット候補の内容を確認することが可能である。例えば、利用者が複数のサムネイル表示M1、M2、M3、…のうちサムネイル表示M3以外の他のサムネイル表示(例えばM5)をタップ操作した場合、処理部250は、サムネイル表示M5に斜線で示すカーソルを移動するとともに、サムネイル表示M5に対応する第2動画から切出された3つの動画カット候補に基づく3つのサムネイル動画を、サムネイル表示85、86、87として表示させる。
サムネイル表示85、86、87として表示させる3つのサムネイル動画は、同時に再生表示してもよいし、第1の動画カット、第3の動画カットおよび第2の動画カットの順に、撮影日時が早い方から一つずつ再生表示してもよい。
利用者は、3つのサムネイル表示85、86、87のうち任意のサムネイル表示をタップして選択する。選択されたサムネイル表示には太枠カーソルが表示される。利用者が動画カット追加ボタン79をタップ操作することにより、太枠カーソルで囲まれたサムネイル表示87に対応する動画カット候補を動画カットとして追加することができる。処理部250は、追加する動画カットの情報を、記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に記録する。
複数のサムネイル表示に太枠カーソルが表示された状態で動画カット追加ボタン79をタップ操作した場合、処理部250は、複数のサムネイル表示に対応する複数の動画カットの情報を、それぞれ記憶部260のプロジェクト記憶部265に記録する。
複数のサムネイル表示に太枠カーソルが表示された状態で動画カット追加ボタン79をタップ操作した場合、処理部250は、複数のサムネイル表示に対応する複数の動画カットの情報を、それぞれ記憶部260のプロジェクト記憶部265に記録する。
利用者が削除ボタン75をタップ操作することにより、太枠カーソルで囲まれたサムネイル表示87に対応する動画カット候補を削除することができる。動画カット候補を削除した処理部250は、削除した動画カット候補の代わりに、対応する第2動画から新たな動画カット候補を切出してサムネイル表示する。例えば、処理部250は、新たな動画カット候補として、主要被写体として人物が写る、削除した動画カット候補とは異なる4秒間のカットを切出す。
なお、戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。また、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74は、上述した各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンと同様であるので説明を省略する。
以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、被写体像を撮影して時刻情報としてのタイムコードを含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて第1動画としての動画10を作成する映像プロジェクトを実行させるアプリであって、記憶部260(画像情報記憶部262)に記憶されている動画カット以外の他の画像情報を映像プロジェクトで使用することを判断する第1処理(ステップS210)と、他の画像情報のうち、時刻情報を含むとともに撮影時間が12秒よりも長い第2動画を画像情報記憶部262から読出す第2処理(ステップS220)と、第2動画から、時間軸上の再生位置がそれぞれ異なり、再生時間が4秒である複数の動画カット候補を切出す第3処理(ステップS230)と、複数の動画カット候補としてのサムネイル表示85、86、87を出力部240に表示する第4処理(ステップS240)と、操作信号に基づいて複数の動画カット候補としてのサムネイル表示85、86、87から少なくとも一つの動画カット候補を選択する第5処理(ステップS250)と、選択した動画カット候補を、動画10の作成に用いる動画カットとして記憶部260(プロジェクト記憶部265)に記録する第6処理(ステップS260)と、を映像プロジェクトとしてコンピュータに実行させる。
(1)映像作成アプリは、被写体像を撮影して時刻情報としてのタイムコードを含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて第1動画としての動画10を作成する映像プロジェクトを実行させるアプリであって、記憶部260(画像情報記憶部262)に記憶されている動画カット以外の他の画像情報を映像プロジェクトで使用することを判断する第1処理(ステップS210)と、他の画像情報のうち、時刻情報を含むとともに撮影時間が12秒よりも長い第2動画を画像情報記憶部262から読出す第2処理(ステップS220)と、第2動画から、時間軸上の再生位置がそれぞれ異なり、再生時間が4秒である複数の動画カット候補を切出す第3処理(ステップS230)と、複数の動画カット候補としてのサムネイル表示85、86、87を出力部240に表示する第4処理(ステップS240)と、操作信号に基づいて複数の動画カット候補としてのサムネイル表示85、86、87から少なくとも一つの動画カット候補を選択する第5処理(ステップS250)と、選択した動画カット候補を、動画10の作成に用いる動画カットとして記憶部260(プロジェクト記憶部265)に記録する第6処理(ステップS260)と、を映像プロジェクトとしてコンピュータに実行させる。
このように構成したので、第1動画としての動画10の作成に用いる動画カットよりも撮影時間が長い第2動画から、動画10の作成に用いる特定の動画カットを簡単に切出すことが可能になる。
一般に、利用者は、撮影地の風景が気に入った場合、または同行した人物の表情または仕草が気に入った場合等に第2動画の撮影を開始する。また、撮影中に気になった被写体をズームアップして第2動画の撮影を続ける。さらに、撮影中に満足できるカットが撮れたと感じた場合に第2動画の撮影を終了する。以上のことから、上記第3処理で第2動画から時間軸上の再生位置がそれぞれ異なる複数の動画カット候補を切出すことにより、利用者の好みに合う可能性が高いカットを適切に切出すことができる。また、複数の動画カット候補が自動で切出されるので、利用者にとって利便性がよい。
一般に、利用者は、撮影地の風景が気に入った場合、または同行した人物の表情または仕草が気に入った場合等に第2動画の撮影を開始する。また、撮影中に気になった被写体をズームアップして第2動画の撮影を続ける。さらに、撮影中に満足できるカットが撮れたと感じた場合に第2動画の撮影を終了する。以上のことから、上記第3処理で第2動画から時間軸上の再生位置がそれぞれ異なる複数の動画カット候補を切出すことにより、利用者の好みに合う可能性が高いカットを適切に切出すことができる。また、複数の動画カット候補が自動で切出されるので、利用者にとって利便性がよい。
さらに、第2動画から切出した複数の動画カット候補のうち利用者から選択された動画カット候補をプロジェクト記憶部265に記録することで、例えば、カメラ210で撮影した動画カット数が動画10の作成に必要な数(例えば6)を満たしていない場合、または、撮影済の第2動画のうちの特定の場面のカットを動画10に含めたい場合に、利用者が選択した動画カット候補を使用して動画10を作成することが可能になる。
(2)第3処理(ステップS230)は、第2動画のうち、時間軸上で最初の4秒の第1の動画カット候補、時間軸上で最後の4秒の第2の動画カット候補、および、第1の動画カット候補および第2の動画カット候補を除く部分から4秒の第3の動画カット候補をそれぞれ切出す。
このように構成したので、第2動画から時間軸上の再生位置がそれぞれ異なる複数の動画カット候補を適切に切出すことが可能になる。また、複数の動画カット候補が自動的に切出されることで、利用者にとって利便性がよくなる。
このように構成したので、第2動画から時間軸上の再生位置がそれぞれ異なる複数の動画カット候補を適切に切出すことが可能になる。また、複数の動画カット候補が自動的に切出されることで、利用者にとって利便性がよくなる。
(3)第6処理(ステップS260)は、第1処理(ステップS210)の前から記憶部260(プロジェクト記憶部265)に記憶されている動画カットおよび第5処理(ステップS250)で選択した動画カット候補を、時刻情報に基づき時系列に並べてプロジェクト記憶部265に記録する。
このように構成したので、動画10の作成において動画カットを撮影日時の順につなぐ場合、プロジェクト記憶部265に記録されている順番に動画カットをつなげればよく、動画10の作成処理を簡素化できる。また、作成した動画10を観賞する際に古い動画カットが先に、新しい動画カットが後に再生されるので、観賞者に違和感を与えない動画10を作成することが可能になる。
このように構成したので、動画10の作成において動画カットを撮影日時の順につなぐ場合、プロジェクト記憶部265に記録されている順番に動画カットをつなげればよく、動画10の作成処理を簡素化できる。また、作成した動画10を観賞する際に古い動画カットが先に、新しい動画カットが後に再生されるので、観賞者に違和感を与えない動画10を作成することが可能になる。
(4)第4処理(ステップS240)は、複数の動画カット候補を出力部240に同時に表示する。
このように構成したので、利用者は、同時に表示される複数の動画カット候補としてのサムネイル表示85、86、87を見比べて、動画カット候補を選択することが可能になる。
このように構成したので、利用者は、同時に表示される複数の動画カット候補としてのサムネイル表示85、86、87を見比べて、動画カット候補を選択することが可能になる。
(5)第4処理(ステップS240)は、複数の動画カット候補を出力部240に順番に表示する。
このように構成したので、利用者は、順番に表示される複数の動画カット候補としてのサムネイル表示85、86、87を順番に見て、動画カット候補を選択することが可能になる。
このように構成したので、利用者は、順番に表示される複数の動画カット候補としてのサムネイル表示85、86、87を順番に見て、動画カット候補を選択することが可能になる。
(6)第3処理(ステップS230)は、第2動画のうち人物が写るフレームを含む4秒のカットを、第3の動画カット候補として切出す。
このように構成したので、利用者が気に入る可能性が高い動画カット候補を適切に切出すことが可能になる。
このように構成したので、利用者が気に入る可能性が高い動画カット候補を適切に切出すことが可能になる。
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
(変形例2)
実施の形態では、処理部250が、ステップS230の第3処理において各第2動画から3つの動画カット候補を切出すようにしたが、動画カット候補を3つ以上切出してもよい。例えば5つの動画カット候補を切出す場合、処理部250は、第2動画のそれぞれから時間軸上の再生位置が最初の4秒間に相当する第1の動画カット候補と、上記時間軸上で最後の4秒間に相当する第2の動画カット候補と、第1の動画カット候補および第2の動画カット候補を除く部分から4秒間の第3の動画カット候補と、4秒間の第4の動画カット候補と、4秒間の第5の動画カット候補とをそれぞれ切出す。
実施の形態では、処理部250が、ステップS230の第3処理において各第2動画から3つの動画カット候補を切出すようにしたが、動画カット候補を3つ以上切出してもよい。例えば5つの動画カット候補を切出す場合、処理部250は、第2動画のそれぞれから時間軸上の再生位置が最初の4秒間に相当する第1の動画カット候補と、上記時間軸上で最後の4秒間に相当する第2の動画カット候補と、第1の動画カット候補および第2の動画カット候補を除く部分から4秒間の第3の動画カット候補と、4秒間の第4の動画カット候補と、4秒間の第5の動画カット候補とをそれぞれ切出す。
処理部250は、上記第3~第5の動画カット候補として、それぞれ人物が写るフレームを含む4秒間のカットを選ぶ。主要被写体としての人物が写るフレームを含む4秒間のカットが一つの第2動画の中に複数存在する場合には、処理部250は、人物が写るフレーム数がより多いカットと、人物の顔がより大きく写るカットと、人物の笑顔がより多く写るカットとを、いずれも第3~第5の動画カット候補として切出す。
このように、選択基準が異なる第3~第5の動画カット候補をいずれも切出すことにより、利用者が気に入る可能性が高い動画カット候補を適切に切出すことが可能になる。
このように、選択基準が異なる第3~第5の動画カット候補をいずれも切出すことにより、利用者が気に入る可能性が高い動画カット候補を適切に切出すことが可能になる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、78 動画カット追加画面ボタン、79 動画カット追加ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、220 通信部、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、265 プロジェクト記憶部、270 測位部、400 サービス提供システム、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル
Claims (6)
- 被写体像を撮影して時刻情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、前記記憶部に記憶されている前記情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて第1動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、
前記記憶部に記憶されている前記動画カット以外の他の画像情報を前記映像プロジェクトで使用することを判断する第1処理と、
前記他の画像情報のうち、時刻情報を含むとともに撮影時間が前記所定秒よりも長い第2動画を前記記憶部から読出す第2処理と、
前記第2動画から、時間軸上の再生位置がそれぞれ異なり、再生時間が前記所定秒である複数の動画カット候補を切出す第3処理と、
前記複数の動画カット候補を前記表示部に表示する第4処理と、
前記操作信号に基づいて前記複数の動画カット候補から少なくとも一つの動画カット候補を選択する第5処理と、
前記選択した動画カット候補を、前記第1動画の作成に用いる動画カットとして前記記憶部に記録する第6処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。 - 請求項1に記載の映像作成プログラムにおいて、
前記第3処理は、前記第2動画のうち、前記時間軸上で最初の所定秒の第1の動画カット候補、前記時間軸上で最後の前記所定秒の第2の動画カット候補、および、前記第1の動画カット候補および前記第2の動画カット候補を除く部分から前記所定秒の第3の動画カット候補をそれぞれ切出すことを特徴とする映像作成プログラム。 - 請求項1または2に記載の映像作成プログラムにおいて、
前記第6処理は、前記第1処理の前から前記記憶部に記憶されている動画カットおよび前記第5処理で選択した動画カット候補を、前記時刻情報に基づき時系列に並べて記録することを特徴とする映像作成プログラム。 - 請求項1から3のいずれか一項に記載の映像作成プログラムにおいて、
前記第4処理は、前記複数の動画カット候補を前記表示部に同時に表示することを特徴とする映像作成プログラム。 - 請求項1から3のいずれか一項に記載の映像作成プログラムにおいて、
前記第4処理は、前記複数の動画カット候補を前記表示部に順番に表示することを特徴とする映像作成プログラム。 - 請求項2に記載の映像作成プログラムにおいて、
前記第3処理は、前記第2動画のうち人物が写るフレームを含む前記所定秒のカットを、前記第3の動画カット候補として切出すことを特徴とする映像作成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028934A JP2023125029A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028934A JP2023125029A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125029A true JP2023125029A (ja) | 2023-09-07 |
Family
ID=87887891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028934A Pending JP2023125029A (ja) | 2022-02-28 | 2022-02-28 | 映像作成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023125029A (ja) |
-
2022
- 2022-02-28 JP JP2022028934A patent/JP2023125029A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8467402B2 (en) | Digital audio communication system | |
JP4965475B2 (ja) | 仮想移動表示装置 | |
US20130100329A1 (en) | Image pickup apparatus | |
EP1347455A2 (en) | Contents recording/playback apparatus and contents edit method | |
JP2006338553A (ja) | コンテンツ再生装置 | |
KR101523971B1 (ko) | 녹음 기능을 수행하는 단말기 및 그 단말기의 이미지 처리 방법 | |
JP4829839B2 (ja) | 携帯通信端末 | |
JP7342087B2 (ja) | 映像作成プログラム | |
US20130204414A1 (en) | Digital audio communication system | |
JP2023125029A (ja) | 映像作成プログラム | |
JP2023125030A (ja) | 映像作成プログラム | |
JP2023125031A (ja) | 映像作成プログラム | |
JP2023125032A (ja) | 映像作成プログラム | |
JP2023125033A (ja) | 映像作成プログラム | |
JP2023125034A (ja) | サーバ装置 | |
JP4363272B2 (ja) | ナビゲーションアルバムシステム | |
JP2023125039A (ja) | 映像作成プログラム | |
JP2023125040A (ja) | 映像作成プログラム | |
US11956498B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP4363318B2 (ja) | ナビゲーションアルバムシステム | |
JP2023125037A (ja) | 映像作成プログラム | |
US12125502B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2023125042A (ja) | 映像作成プログラム | |
JP2023125041A (ja) | 映像作成プログラム | |
JP2023125038A (ja) | 映像作成プログラム |