JP2023125031A - video creation program - Google Patents
video creation program Download PDFInfo
- Publication number
- JP2023125031A JP2023125031A JP2022028936A JP2022028936A JP2023125031A JP 2023125031 A JP2023125031 A JP 2023125031A JP 2022028936 A JP2022028936 A JP 2022028936A JP 2022028936 A JP2022028936 A JP 2022028936A JP 2023125031 A JP2023125031 A JP 2023125031A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- image
- cut
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 61
- 230000008569 process Effects 0.000 claims abstract description 60
- 230000004044 response Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 143
- 238000004891 communication Methods 0.000 description 22
- 238000012790 confirmation Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000010079 rubber tapping Methods 0.000 description 6
- 102220021091 rs28897672 Human genes 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000238370 Sepia Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、動画を作成する映像作成プログラムに関する。 The present invention relates to a video creation program for creating a video.
旅行先で撮影した映像を用いて、旅行記として一つの映像プロジェクトを作成する技術が知られている(特許文献1参照)。旅行先で撮影した画像等をデータセンターに記憶し、旅行記としての履歴データがデータセンターに格納される。 2. Description of the Related Art There is a known technique for creating a video project as a travel diary using videos taken at a travel destination (see Patent Document 1). Images taken at travel destinations are stored in the data center, and historical data as a travelogue is stored in the data center.
従来の技術では、旅行者自身が撮影した画像、映像等を用いるため、例えば、旅行者自身が写る画像がなかったり、旅行者の意図通りの画像が撮れていなかったりする場合がある。 Conventional technology uses images, videos, etc. taken by the traveler himself, so there are cases where, for example, there are no images of the traveler himself, or the images are not taken as intended by the traveler.
本発明の一態様によるプログラムは、被写体像を撮影して時刻情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて第1動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、記憶部に記憶されている動画カット以外の他の情報を映像プロジェクトで使用することを判断する第1処理と、映像プロジェクトで使用する動画カットの時刻情報に基づいて、記憶部から他の情報を読出す第2処理と、読出した他の情報に基づいて、表示時間が所定秒である複数の画像候補を生成する第3処理と、複数の画像候補を表示部に表示する第4処理と、操作信号に基づいて複数の画像候補から少なくとも一つの画像候補を選択する第5処理と、選択した画像候補を、第1動画の作成に用いる動画カットとともに記憶部に記録する第6処理と、をコンピュータに実行させる。 A program according to one aspect of the present invention includes a photographing unit that photographs a subject image and generates image information including time information, a storage unit that stores information, a display unit that displays information, and an operation signal that responds to an operation. A video project that creates a first video by connecting a predetermined number of video cuts whose shooting time is a predetermined second from image information stored in a storage unit to an electronic device including an operation unit that outputs an image. A video creation program to be executed, which includes a first process of determining whether information other than video cuts stored in a storage unit is to be used in a video project, and a first process based on time information of video cuts used in the video project. a second process of reading other information from the storage unit; a third process of generating a plurality of image candidates whose display time is a predetermined second based on the other read information; and a third process of generating a plurality of image candidates whose display time is a predetermined second. a fourth process of selecting at least one image candidate from a plurality of image candidates based on the operation signal; and a storage unit of displaying the selected image candidate together with a video cut used to create the first video. The computer is caused to execute the sixth process of recording the data.
本発明によれば、映像作成プログラムで使用する特定のカットを、電子機器に記憶されている情報から簡単に得ることが可能になる。 According to the present invention, it becomes possible to easily obtain a specific cut used in a video creation program from information stored in an electronic device.
以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
<Overview of the video creation program>
First, a video creation program according to an embodiment will be outlined.
The video creation program is an application program executed on an electronic device such as a smartphone. From now on, it will simply be referred to as a video creation application. The electronic device is not limited to a portable wireless terminal such as a smartphone, but may also be a tablet computer with a built-in or connectable camera and positioning unit.
電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。なお、後述するように、電子機器で取得した動画カットと、当該電子機器の記憶部に記憶されている動画カット以外の他の情報とに基づいて動画を作成することも可能である。 By executing a video creation application, an electronic device can create a video based on multiple video cuts taken with a camera. Note that, as described later, it is also possible to create a video based on a video cut acquired by an electronic device and information other than the video cut stored in the storage unit of the electronic device.
図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
FIG. 1A is a schematic diagram illustrating a moving
Note that the recording time of 4 seconds per cut, the number of cuts of 6, the total recording time, and the playback time of the
動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
Each of the video cuts C1 to C6 is a video recorded as a continuous video from the start to the end of the video cut (also referred to as recording). For example, when the number of frames per second is 30 frames (30 fps), a video cut C1 with a recording time of 4 seconds per cut is composed of 4 seconds x 30 fps = 120 frames. The same applies to video cuts C2 to C6. The
Note that in the embodiment, it is assumed that the shooting positions for shooting the video cuts C1 to C6 are different. In other words, it is assumed that the user of the electronic device moves to a different shooting location and shoots video cuts C1 to C6.
(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
(filter processing)
In the video creation application of the embodiment, one
フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。 Filter processing can, for example, process the colors of video cuts C1 to C6 to monochrome, process the hues of video cuts C1 to C6 to sepia tone, emphasize specific colors of video cuts C1 to C6, This process adds image processing effects, such as blurring a specific part of the screen of cuts C1 to C6 or blurring the entire screen of video cuts C1 to C6.
実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
In the video creation application of the embodiment, it is possible to create a
When creating the
Note that the filtering process may be omitted in order to create the
図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。
FIG. 1B is a schematic diagram illustrating the
(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
(music added)
In the video creation application of the embodiment, it is possible to record music information arbitrarily selected by the user from among a plurality of music candidates prepared in advance in the
映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。
When playing a video based on a
以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。このような映像作成アプリについて、以下に詳細に説明する。
According to the video creation app outlined above, multiple video cuts C1 to C6 are shot with an electronic device, filter processing is applied to the multiple video cuts C1 to C6, and the multiple video cuts C1 to C6 after filter processing are connected. One
<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
<System overview>
FIG. 2 is a schematic diagram showing an example of a
電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。
The
映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。
The
なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。
Note that the
<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
<Electronic equipment>
FIG. 3 is a block diagram illustrating a main configuration of the
カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。
The
通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
The
Note that the
Note that, unless otherwise specified, it is assumed that the
入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。
The
処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
The
Through the processing performed by the
記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
The
The
測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。
The
電子機器3Aへ映像作成アプリを供給するサーバ装置4の構成の図示については省略するが、サーバ装置4は、利用者情報を記憶する利用者データベースと、映像作成アプリを記憶するアプリ保存部とを含む。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記憶される。利用者は、入力部230を介して利用者情報を入力することができる。
Although illustration of the configuration of the
A user who wishes to use a video creation application shall register user information with an entity providing the service, and then receive the video creation application stored in the application storage unit. Registration of user information is performed using, for example, an
<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
<In-vehicle device>
FIG. 4 is a block diagram illustrating a main configuration of the in-
入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。
The input/
測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。
The
通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。
The
センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。
The
ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。
The
制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。
The
情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。
The
情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。
The
<フローチャートの説明>
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
<Explanation of flowchart>
5A and 5B are flowcharts illustrating the flow of processing by the video creation application executed by the
図5AのステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。
In step S1 of FIG. 5A, the
ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。
In step S10, the
ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図6C)がタップ操作されると、4秒間の動画カットを撮影させる。
In step S20, the
ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
In step S30, the
Since the
ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図5BのステップS210へ進む。
In step S40, the
以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。また、映像作成アプリは、ステップS40の時点で総録画時間が24秒に満たなくても、動画カット以外の他の情報を使用して動画10を作成するように設定されている場合には、後述する図5BのステップS210~S260の処理を行った上で、ステップS150を経てステップS50以降の処理へ進むことが可能である。
In the processes of steps S10 to S40 described above, in order to create the moving
ステップS50において、処理部250は、動画カットに対する編集を行ってステップS60へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。
In step S50, the
ステップS60において、処理部250は、フィルタ処理を決定してステップS70へ進む。処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理の候補の中から利用者により選択されたフィルタ処理を、動画10に用いるフィルタ処理に決定する。
In step S60, the
ステップS70において、処理部250は、動画10の情報101に付加する音楽を決定してステップS80へ進む。処理部250は、映像作成アプリであらかじめ用意された複数のBGMの候補曲の中から利用者により選択されたBGMの情報を、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。
In step S70, the
ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。
In step S80, the
ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。
In step S90, the
ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS60で決定したフィルタ処理も行う。作成した動画10を第1動画と呼んでもよい。
In step S100, the
ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録して図5Aによる処理を終了する。換言すると、ステップS110では動画10の情報101にステップS70で決定した音楽の情報が付加される。
In step S110, the
実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定してステップS140へ進む。ステップS140へ進む場合、処理部250は動画カットの撮影または編集等を継続する。
In the embodiment, it is also possible to interrupt the video creation application without proceeding to the process of creating the video 10 (S100). In step S120, the
ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Aによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
In step S130, the
Therefore, even if, for example, you run another video project or another application is started on the
上述したように、動画カットの撮影回数がN回に満たない(換言すると、動画カット数がN未満)場合に図5BのステップS210へ進む。ステップS40を否定判定して進むステップS210において、処理部250は、動画カット以外の他の情報を使用するか否かを判断する。処理部250は、動画カット以外の他の情報を使用して動画10を作成するように設定されている場合には、ステップS210を肯定判定してステップS220へ進む。処理部250は、動画カット以外の他の情報を使用して動画10を作成するように設定されていない場合には、ステップS210を否定判定してステップS160へ進む。
As described above, if the number of video cuts is less than N (in other words, the number of video cuts is less than N), the process advances to step S210 in FIG. 5B. In step S210, which proceeds after making a negative determination in step S40, the
実施の形態では、動画カットの情報が、記憶部260のプロジェクト記憶部265に記録される。また、動画カット以外の他の情報が、記憶部260の情報記憶部263に記録される。さらに、映像作成アプリで作成した動画10(第1動画)の動画ファイル100が、記憶部260の画像情報記憶部262に記録される。なお、画像情報記憶部262には、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報も記録される。
In the embodiment, video cut information is recorded in the
ステップS220において、処理部250は、情報記憶部263に記憶されている上記他の情報のうち、プロジェクト記憶部265に記憶されている動画カットと略同じ時間帯に電子機器3Aで取得されたWeb情報、地図画像の情報、メール等のメッセージ情報を読出してステップS230へ進む。Web情報、地図画像の情報、メッセージ情報は、例えば、出力部240による表示画面を写した画像情報(Web検索情報表示画、地図情報表示画、テキスト表示画等)として情報記憶部263に記憶されている。
処理部250は、動画カットに記録されているタイムコード等の時刻情報に基づいて、動画カットの撮影時刻と同じ、または、相前後する時刻に情報記憶部263に記録された上記他の情報を読出す。
In step S220, the
The
ステップS230において、処理部250は、読出した上記他の情報のそれぞれから画像候補を生成してステップS240へ進む。処理部250は、各画像情報(Web検索情報表示画、地図情報表示画、テキスト表示画等)をそれぞれ4秒間表示する動画カット候補を、画像候補として生成する。4秒は、上述した動画カットの数N=6に対応させた時間であり、適宜変更して構わない。
In step S230, the
ステップS240において、処理部250は、出力部240に、例えば3つの動画カット候補を表示させてステップS250へ進む。利用者は、出力部240に表示される、動画カット候補を確認しながら、気に入った動画カット候補を選択することが可能になる。なお、ステップS230で画像候補としての動画カット候補が4つ以上生成され、これらの動画カット候補を一度に表示できない場合には、利用者は、スクロール操作によって表示されていない動画カット候補を閲覧することが可能になる。
In step S240, the
ステップS250において、処理部250は、入力部230を介して入力される、動画カット候補の中から動画カットを選択する選択操作に基づき、動画カットを選択してステップS260へ進む。
In step S250, the
ステップS260において、処理部250は、選択した動画カットの情報を、記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に記録して図5AのステップS150へ進む。
なお、処理部250は、ステップS210以降の処理を行う前からプロジェクト記憶部265に記憶されている動画カットと、ステップS250の処理で選択した動画カットとを、例えば動画に記録されているタイムコード等の時刻情報に基づいて、取得された日時が早い動画カットから時系列に並べて記録する。
ステップS260の処理により、情報記憶部263に記憶されている上記他の情報のうち、プロジェクト記憶部265に記憶されている動画カットと略同じ時間帯に電子機器3Aで取得されたWeb情報、地図画像の情報、メール等のメッセージ情報に基づいて生成された動画カットが、映像プロジェクトの動画カットとしてプロジェクト記憶部265に記録される。つまり、映像プロジェクト用に取得されたものではない他の情報に基づき生成した動画カットを、映像プロジェクトにおいて動画10の作成に用いることが可能になる。
In step S260, the
Note that the
Through the process of step S260, among the other information stored in the
実施の形態では、動画カットの撮影回数がN回に満たない(換言すると、動画カット数がN未満)場合に、映像作成アプリを中断することも可能である。上述したステップS210を否定判定して進むステップS160において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS160を肯定判定してステップS170へ進む。処理部250は、映像作成アプリを継続する場合にはステップS160を否定判定して図5AのステップS20へ戻る。ステップS20へ戻る場合、処理部250は動画カットの撮影を継続する。
In the embodiment, it is also possible to interrupt the video creation application when the number of video cuts is less than N times (in other words, the number of video cuts is less than N). In step S160, which proceeds after making a negative determination in step S210 described above, the
ステップS170において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Bによる処理を終了する。ステップS170により、撮影途中(動画カットの撮影回数がN回に達する前)の動画カットの情報(撮影位置の情報を含む)が記憶部260に記録される。
そのため、例えば次の撮影位置へ移動中、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が一時終了される場合でも、撮影途中の動画カットを適切に保存しておくことが可能になる。
In step S170, the
Therefore, for example, even if the processing of the video creation application is temporarily terminated while moving to the next shooting position or when another application is started on the
上述したステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合、または、動画カット以外の他の情報に基づいて動画カットを生成する場合に、ステップS140からステップS150へ進む。
In step S140, which proceeds after making a negative determination in step S1 described above, the
ステップS150において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS150を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS150を否定判定して図5BのステップS210へ進む。
In step S150, the
<表示画面の例示>
図6A~図6Dおよび図7A~図7Dは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
<Example of display screen>
6A to 6D and FIGS. 7A to 7D are display screens displayed on the
<Shooting list screen>
FIG. 6A is a shooting list screen that displays a list of video cuts shot in a video project, and corresponds to the home screen of the video creation application. The imaging list screen shown in FIG. 6A is displayed on the
符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
Thumbnail displays 61, 63, 64, and 66 are thumbnail displays when the
新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図5A)の処理へ進む。撮影一覧ボタン52は、当画面(図6A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図7C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。
The
<編集画面>
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
<Edit screen>
FIG. 6B is a diagram illustrating an editing screen for video cuts C1 to C6 shot in a video project. The editing screen shown in FIG. 6B is displayed, for example, when the user taps the
The user can check the video cut corresponding to the thumbnail display selected with the cursor C61S by moving the cursor C61S to any one of the six thumbnail displays and tapping the
Furthermore, by tapping the
撮影画面ボタン76は、撮影画面(図6C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
The photographing
動画カット追加画面ボタン78は、後述する動画カット追加画面(図7D)に表示を切替える場合(例えばステップS220~ステップS260の処理を行う場合)の操作ボタンである。
The video cut
編集ボタン71は、当画面(図6B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図6D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図7A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図7B)に表示を切替えるための操作ボタンである。
The
実施の形態では、編集画面(図6B)、後述するフィルタ決定画面(図6D)、後述する音楽決定画面(図7A)、および後述する確認画面(図7B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図6B、図6D、図7A、および図7B)において共通に表示されている。
In the embodiment, mutual screen switching is possible between the editing screen (FIG. 6B), the filter determination screen (FIG. 6D) described later, the music determination screen (FIG. 7A) described later, and the confirmation screen (FIG. 7B) described later. In order to do this, an
<撮影画面>
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
<Shooting screen>
FIG. 6C is a diagram illustrating a photographing screen. The photographing screen shown in FIG. 6C is displayed when the
実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図6Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図6B)に表示を切替えて編集を行うための操作ボタンである。
In the embodiment, each time the
<フィルタ決定画面>
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5A)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、映像作成アプリにあらかじめ用意されている複数のフィルタ処理の候補を示す。フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
<Filter selection screen>
FIG. 6D is a diagram illustrating a filter determination screen. The filter determination screen shown in FIG. 6D is displayed when the
なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図6D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。
Note that a keyword button (not shown) indicating a plurality of keyword candidates prepared in advance in the video creation application is displayed on the filter selection screen (FIG. 6D), and the user can tap any keyword button. Accordingly, a filter candidate button indicating a plurality of filter processing candidates corresponding to the operated keyword button may be displayed on the filter determination screen again. When the user taps any filter candidate button, a thumbnail image that has undergone filter processing corresponding to the operated filter candidate button is displayed in the
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図6D)において、フィルタボタン72は、当画面(図6D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that in the filter determination screen (FIG. 6D), the
<音楽決定画面>
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5A)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、映像作成アプリにあらかじめ用意されている複数のおすすめ音楽の候補を示す。音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
<Music selection screen>
FIG. 7A is a diagram illustrating a music selection screen. The music determination screen shown in FIG. 7A is displayed when the
By tapping the playback buttons displayed on the right side of the
音楽候補ボタン94、95、96、…は、映像作成アプリにあらかじめ用意されている複数のお気に入り音楽の候補を示す。音楽候補ボタン94、95、96、…には、利用者が過去にお気に入り選択した音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。上述したように、利用者は、音楽候補ボタン94、95、96、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を試聴することも可能である。
なお、フィルタ決定画面(図6D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。 Note that, as in the case of the filter selection screen (FIG. 6D), a keyword button indicating multiple keyword candidates prepared in advance in the video creation application is displayed on the music selection screen, and the user can press any keyword button. By tapping , a music candidate button indicating a plurality of music candidates corresponding to the operated keyword button may be displayed on the music selection screen again.
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図7A)において、音楽ボタン73は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that on the music selection screen (FIG. 7A), the
<確認画面>
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5A)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
<Confirmation screen>
FIG. 7B is a diagram illustrating a confirmation screen. The confirmation screen shown in FIG. 7B is displayed when the
バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
A
上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図7B)において、確認ボタン74は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that in the confirmation screen (FIG. 7B), the
<地図確認画面>
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
<Map confirmation screen>
FIG. 7C is a diagram illustrating a map confirmation screen. The map confirmation screen shown in FIG. 7C is displayed in place of the shooting list screen when the
地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。
On the map confirmation screen, a
映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
The video cut representing the video project is, for example, the last video cut shot in each video project, and the
The numerical value "6" or "12" displayed together with the
また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。
In addition, the
撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図6A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図7C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。
The
<動画カット追加画面>
図7Dは、動画カット追加画面を例示する図である。図7Dに示す動画カット追加画面は、処理部250がフローチャート(図5B)のステップS220~S260の処理を行う場合に出力部240に表示させる。
<Video cut addition screen>
FIG. 7D is a diagram illustrating a video cut addition screen. The video cut addition screen shown in FIG. 7D is displayed on the
複数のサムネイル表示M1、M2、M3、…は、処理部250がステップS220の処理において読出した複数の情報をそれぞれ代表する複数のサムネイル表示である。読出した情報を代表するサムネイル表示は、読出した情報(例えばWeb検索情報表示画等の画像情報)のデータサイズを縮小したものが表示される。
The plurality of thumbnail displays M1, M2, M3, . . . are a plurality of thumbnail displays each representing a plurality of pieces of information read by the
複数のサムネイル表示85、86、87は、斜線で示すカーソルで選択されたサムネイル表示M3に対応する情報から、処理部250がステップS230の処理において生成した画像候補を示すサムネイル表示である。処理部250は、サムネイル表示M3に対応する情報が複数ページ分のWeb検索情報である場合には、複数ページ分の画像候補を示すサムネイル表示85、86、87を表示させる。なお、サムネイル表示M3に対応する情報が1ページ分のWeb検索情報である場合には、1ページ分の画像候補を示すサムネイル表示85のみを表示させる。
上述したように、画像候補は読出した情報(例えばWeb検索情報表示画等の画像情報)を4秒間表示する動画カット候補として生成される。
The plurality of thumbnail displays 85, 86, and 87 are thumbnail displays indicating image candidates generated by the
As described above, the image candidate is generated as a video cut candidate that displays read information (for example, image information such as a web search information display image) for 4 seconds.
利用者は、情報記憶部263から読出された複数の情報のうち、任意の情報から生成された画像候補の内容を確認することが可能である。例えば、利用者が複数のサムネイル表示M1、M2、M3、…のうちサムネイル表示M3以外の他のサムネイル表示(例えばM5)をタップ操作した場合、処理部250は、サムネイル表示M5に斜線で示すカーソルを移動するとともに、サムネイル表示M5に対応する情報から生成された画像候補を示すサムネイル表示を表示させる。サムネイル表示M5に対応する情報が1ページ分のWeb検索情報である場合には、1ページ分の画像候補を示すサムネイル表示85のみを表示させ、サムネイル表示M5に対応する情報が複数ページ分のWeb検索情報である場合には、複数ページ分の画像候補を示すサムネイル表示を表示させる。
The user can check the content of the image candidate generated from any information among the plurality of pieces of information read out from the
利用者は、複数のサムネイル表示85、86、87のうち任意のサムネイル表示をタップして選択する。選択されたサムネイル表示には太枠カーソルが表示される。利用者が動画カット追加ボタン79をタップ操作することにより、太枠カーソルで囲まれたサムネイル表示87に対応する動画カット候補を動画カットとして追加することができる。処理部250は、追加する動画カットの情報を、記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に記録する。
複数のサムネイル表示に太枠カーソルが表示された状態で動画カット追加ボタン79をタップ操作した場合、処理部250は、複数のサムネイル表示に対応する複数の動画カットの情報を、それぞれ記憶部260のプロジェクト記憶部265に記録する。
The user taps and selects any thumbnail display among the plurality of thumbnail displays 85, 86, and 87. A thick frame cursor is displayed on the selected thumbnail display. When the user taps the video cut
When the video cut
利用者が削除ボタン75をタップ操作することにより、太枠カーソルで囲まれたサムネイル表示87に対応する動画カット候補を削除することができる。
When the user taps the
なお、戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。また、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74は、上述した各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンと同様であるので説明を省略する。
Note that the
以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、被写体像を撮影して時刻情報としてのタイムコードを含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて第1動画としての動画10を作成する映像プロジェクトを実行させるアプリであって、記憶部260に記憶されている動画カット以外の他の情報を映像プロジェクトで使用することを判断する第1処理(ステップS210)と、映像プロジェクトで使用する動画カットの時刻情報に基づいて、記憶部260(情報記憶部263)から他の情報を読出す第2処理(ステップS220)と、読出した他の情報に基づいて、表示時間が4秒である複数の画像候補を生成する第3処理(ステップS230)と、複数の画像候補としてのサムネイル表示85、86、87を出力部240に表示する第4処理(ステップS240)と、操作信号に基づいて複数の画像候補としてのサムネイル表示85、86、87から少なくとも一つの画像候補を選択する第5処理(ステップS250)と、選択した画像候補を、動画10の作成に用いる動画カットとともに記憶部260(プロジェクト記憶部265)に記録する第6処理(ステップS260)と、を映像プロジェクトとしてコンピュータに実行させる。
According to the embodiment described above, the following effects can be achieved.
(1) The video creation application includes a
The video creation application connects six video cuts with a shooting time of 4 seconds from the image information stored in the storage unit 260 (project storage unit 265) to the
このように構成したので、映像プロジェクトで使用する動画カットに記録されているタイムコード等の時刻情報に基づき、動画カットの撮影時刻と同じ、または、相前後する時刻に情報記憶部263に記録された他の情報を読出し、読出した他の情報に基づいて複数の画像候補としての動画カットを生成することができる。このように、映像作成プログラムで使用する特定のカットを、カメラ210で新たに撮影することなしに、記憶部260に記憶されている情報から簡単に得ることが可能になる。
また、複数の画像候補としての動画カットが自動で生成されるので、利用者にとって利便性がよい。
With this configuration, based on the time information such as the time code recorded in the video cut used in the video project, the information is recorded in the
Furthermore, since video cuts are automatically generated as a plurality of image candidates, it is convenient for the user.
さらに、複数の画像候補のうち利用者から選択された画像候補としての動画カットをプロジェクト記憶部265に記録することで、例えば、カメラ210で撮影した動画カット数が動画10の作成に必要な数(例えば6)を満たしていない場合、または、撮影地に関して取得した情報に基づくカットを動画10に含めたい場合に、利用者が選択した画像候補を使用して動画10を作成することが可能になる。
Furthermore, by recording a video cut as an image candidate selected by the user among a plurality of image candidates in the
(2)上記(1)において第3処理(ステップS230)は、動画10の作成に用いる動画カットの時刻情報と略同じ時間帯に記憶部260(情報記憶部263)に記録された他の情報に基づいて、複数の画像候補を生成する。
このように構成したので、動画10の作成に用いる動画カットの撮影日時と、複数の画像候補の生成に用いる他の情報が取得された日時とが略一致するため、観賞者に違和感を与えない動画10を作成することが可能になる。
(2) In the above (1), the third process (step S230) includes other information recorded in the storage unit 260 (information storage unit 263) in approximately the same time period as the time information of the video cut used to create the
With this configuration, the shooting date and time of the video cut used to create the
(3)上記(1)において第3処理(ステップS230)は、動画10の作成に用いる動画カットの時刻情報に基づく最先の撮影時刻の所定時間前から、最後の撮影時刻の所定時間後までに記憶部260(情報記憶部263)に記録された他の情報に基づいて、複数の画像候補を生成する。
このように構成したので、動画10の作成に用いる動画カットの撮影時期と、複数の画像候補の生成に用いる他の情報が取得された時期とが略一致するため、観賞者に違和感を与えない動画10を作成することが可能になる。
(3) In (1) above, the third process (step S230) starts from a predetermined time before the earliest shooting time based on the time information of the video cut used to create the
With this configuration, the time when the video cut used to create the
(4)上記(1)において第3処理(ステップS230)は、他の情報としてのテキスト表示画、Web検索情報表示画、および地図情報表示画の少なくとも一つに基づいて、複数の画像候補を生成する。
このように構成したので、例えばスクリーンショット操作に基づいて情報記憶部263に記憶されているWeb検索情報表示画、地図情報表示画、およびテキスト表示画等に基づく画像候補を生成することが可能になる。
(4) In the above (1), the third process (step S230) selects a plurality of image candidates based on at least one of a text display image, a web search information display image, and a map information display image as other information. generate.
With this configuration, it is possible to generate image candidates based on a web search information display image, a map information display image, a text display image, etc. stored in the
(5)上記(1)から(4)において第3処理(ステップS230)は、複数の画像候補をそれぞれ、表示時間が4秒である動画カットとして生成する。
このように構成したので、各画像候補がそれぞれ、動画10の作成に用いる動画カットと同じ表示時間の動画カットとして生成される。そのため、作成された動画10はカットが4秒ごとに切替わることとなり、観賞者に違和感を与えない動画10を作成することが可能になる。
(5) In the above (1) to (4), the third process (step S230) generates each of the plurality of image candidates as a video cut with a display time of 4 seconds.
With this configuration, each image candidate is generated as a video cut with the same display time as the video cut used to create the
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
The embodiments described above can be modified into various forms. Modifications will be described below.
(Modification 1)
As described above, the recording time of 4 seconds per video cut, the number of cuts of 6, the total recording time, and the playback time of
(変形例2)
実施の形態では、処理部250が、ステップS220において動画カットの撮影時刻と同じ、または、相前後する時刻に情報記憶部263に記録された、動画カット以外の他の情報を読出すようにした。他の情報に加えて、動画カットの撮影時刻と同じ、または、相前後する時刻にカメラ210で撮影され、画像情報記憶部262に記録された画像情報(動画、静止画)を画像情報記憶部262から読出してもよい。
(Modification 2)
In the embodiment, in step S220, the
(動画)
ステップS220で画像情報記憶部262に記憶されている動画を読出す場合、処理部250は、ステップS10で入力した動画カットの数Nに基づいて決定した1カット当たりの撮影時間4秒よりも撮影時間が長い動画を、第2動画として読出す。なお、第2動画の撮影時間は、少なくとも12秒(1カット当たりの撮影時間4秒の3倍)以上あるものが好ましい。
(movie)
When reading the video stored in the image
ステップS230で画像候補としての動画カット候補を生成する場合、処理部250は、第2動画から例えば3つの動画カット候補を生成する。処理部250は、第2動画から、時間軸上の再生位置が最初の4秒間に相当する第1の動画カット候補、上記時間軸上で最後の4秒間に相当する第2の動画カット候補、および、第1の動画カット候補および第2の動画カット候補を除く部分から4秒間の第3の動画カット候補を切出す。処理部250は、第3の動画カット候補として、主要被写体としての人物が写るフレームを含む4秒間のカットを選ぶ。
処理部250は、例えば人工知能を用いた被写体認識処理を行うことにより、第2動画に写る人物を認識する。主要被写体としての人物が写るフレームを含む4秒間のカットが一つの第2動画の中に複数存在する場合、処理部250は、例えば人物が写るフレーム数がより多いカット、人物の顔がより大きく写るカット、および人物の笑顔がより多く写るカットのうちのいずれかを、第3の動画カット候補として選ぶ。
When generating video cut candidates as image candidates in step S230, the
The
ステップS240で動画カット候補を表示する場合、処理部250は、出力部240に3つの動画カット候補を表示させる。利用者は、出力部240に表示される、一つの第2動画につき3つの動画カット候補を確認しながら、気に入った動画カット候補を選択することが可能になる。
When displaying video cut candidates in step S240, the
(静止画)
ステップS220で画像情報記憶部262に記憶されている静止画を読出し、ステップS230で画像候補としての動画カット候補を生成する場合、処理部250は、読出した静止画の画像情報に基づき、静止画を4秒間表示する動画カット候補として生成する。
(Still image)
When reading still images stored in the image
また、ステップS240で静止画の画像情報としての動画カット候補を表示する場合、処理部250は、読出した静止画を代表するサムネイル表示を、読出した静止画のデータサイズを縮小して表示させる。
Furthermore, when displaying video cut candidates as image information of a still image in step S240, the
変形例2によれば、映像プロジェクト用に撮影されたものではない第2動画から切出した動画カットを、映像プロジェクトにおいて動画10の作成に用いることが可能になる。同様に、映像プロジェクト用に撮影されたものではない静止画から生成した動画カットを、映像プロジェクトにおいて動画10の作成に用いることが可能になる。
According to the second modification, a video cut taken from a second video that was not shot for the video project can be used to create the
また、映像プロジェクト用に撮影された動画カットの撮影時刻と同じ、または、相前後する時刻に撮影され画像情報記憶部262に記憶されている画像情報(動画、静止画)に基づいて複数の画像候補としての動画カットを生成するので、動画10の作成に用いる動画カットの撮影日時と、複数の画像候補の生成に用いる画像情報が取得された日時とが略一致するため、観賞者に違和感を与えない動画10を作成することが可能になる。
In addition, multiple images can be created based on image information (videos, still images) that are taken at the same time as the video cut taken for the video project, or at times that are adjacent to each other and stored in the image
さらに、複数の画像候補のうち利用者から選択された画像候補としての動画カットをプロジェクト記憶部265に記録することで、例えば、カメラ210で撮影した動画カット数が動画10の作成に必要な数(例えば6)を満たしていない場合、または、映像プロジェクト用に撮影されたものではない画像情報に基づくカットを動画10に含めたい場合に、利用者が選択した画像候補を使用して動画10を作成することが可能になる。
Furthermore, by recording a video cut as an image candidate selected by the user among a plurality of image candidates in the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the embodiments and modifications described above unless the characteristics of the present invention are impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.
1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、78 動画カット追加画面ボタン、79 動画カット追加ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、220 通信部、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、263 情報記憶部、265 プロジェクト記憶部、270 測位部、400 サービス提供システム、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル 1 Vehicle, 2 In-vehicle terminal, 3A, 3B Electronic equipment, 4 Server device, 5 Communication network, 10 Video, 31 Mark, 32, 61-66 Thumbnail display, 33 Display, 51 New button, 52 Shooting list button, 53 Map confirmation Button, 54 Other work buttons, 55 Back button, 56 Shoot button, 71, 77 Edit button, 72 Filter button, 73 Music button, 74 Confirm button, 78 Video cut addition screen button, 79 Video cut addition button, 81-83 Filter candidate button, 91 to 96 Music candidate button, 100 Video file, 101 Video information, 102 Sound information, 210 Camera, 220 Communication section, 230 Input section, 240 Output section, 250 Processing section, 260 Storage section, 262 Image Information storage unit, 263 Information storage unit, 265 Project storage unit, 270 Positioning unit, 400 Service provision system, 600, C61 Display area, 601 Bar display, 602 Play button, C1 to C6 Video cut, C61S Cursor
Claims (5)
前記記憶部に記憶されている前記動画カット以外の他の情報を前記映像プロジェクトで使用することを判断する第1処理と、
前記映像プロジェクトで使用する動画カットの時刻情報に基づいて、前記記憶部から前記他の情報を読出す第2処理と、
前記読出した他の情報に基づいて、表示時間が前記所定秒である複数の画像候補を生成する第3処理と、
前記複数の画像候補を前記表示部に表示する第4処理と、
前記操作信号に基づいて前記複数の画像候補から少なくとも一つの画像候補を選択する第5処理と、
前記選択した画像候補を、前記第1動画の作成に用いる動画カットとともに前記記憶部に記録する第6処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。 It includes a photographing section that photographs a subject image and generates image information including time information, a storage section that stores information, a display section that displays information, and an operation section that outputs an operation signal in response to an operation. A video creation program that causes an electronic device to execute a video project that creates a first video by connecting a predetermined number of video cuts whose shooting times are predetermined seconds out of the image information as the information stored in the storage unit. hand,
a first process of determining whether information other than the video cut stored in the storage unit is to be used in the video project;
a second process of reading out the other information from the storage unit based on time information of a video cut used in the video project;
a third process of generating a plurality of image candidates whose display time is the predetermined second based on the read other information;
a fourth process of displaying the plurality of image candidates on the display unit;
a fifth process of selecting at least one image candidate from the plurality of image candidates based on the operation signal;
a sixth process of recording the selected image candidate in the storage unit together with a video cut used to create the first video;
A video creation program that causes a computer to execute.
前記第3処理は、前記第1動画の作成に用いる動画カットの時刻情報と略同じ時間帯に前記記憶部に記録された前記他の情報に基づいて、前記複数の画像候補を生成することを特徴とする映像作成プログラム。 The video creation program according to claim 1,
The third process includes generating the plurality of image candidates based on the other information recorded in the storage unit in approximately the same time period as the time information of the video cut used to create the first video. Featured video creation program.
前記第3処理は、前記第1動画の作成に用いる動画カットの時刻情報に基づく最先の撮影時刻の所定時間前から、最後の撮影時刻の所定時間後までに前記記憶部に記録された前記他の情報に基づいて、前記複数の画像候補を生成することを特徴とする映像作成プログラム。 The video creation program according to claim 1,
The third process is performed on the video recorded in the storage unit from a predetermined time before the earliest shooting time to a predetermined time after the last shooting time based on time information of a video cut used to create the first video. A video creation program that generates the plurality of image candidates based on other information.
前記第3処理は、前記他の情報としての第2動画、静止画、テキスト表示画、Web検索情報表示画、および地図情報表示画の少なくとも一つに基づいて、前記複数の画像候補を生成することを特徴とする映像作成プログラム。 The video creation program according to claim 1,
The third process generates the plurality of image candidates based on at least one of a second moving image, a still image, a text display image, a web search information display image, and a map information display image as the other information. A video creation program characterized by:
前記第3処理は、前記複数の画像候補をそれぞれ、表示時間が前記所定秒である動画カットとして生成することを特徴とする映像作成プログラム。 The video creation program according to any one of claims 1 to 4,
The video creation program is characterized in that the third process generates each of the plurality of image candidates as a video cut whose display time is the predetermined second.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028936A JP2023125031A (en) | 2022-02-28 | 2022-02-28 | video creation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028936A JP2023125031A (en) | 2022-02-28 | 2022-02-28 | video creation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125031A true JP2023125031A (en) | 2023-09-07 |
Family
ID=87887879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028936A Pending JP2023125031A (en) | 2022-02-28 | 2022-02-28 | video creation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023125031A (en) |
-
2022
- 2022-02-28 JP JP2022028936A patent/JP2023125031A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8467402B2 (en) | Digital audio communication system | |
JP4965475B2 (en) | Virtual moving display device | |
US20130100329A1 (en) | Image pickup apparatus | |
JP4470105B2 (en) | Navigation system and program | |
JP2006338553A (en) | Content reproducing device | |
KR101523971B1 (en) | Terminal executing function of voice recording and method for processing image thereof | |
US20230133148A1 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2023125031A (en) | video creation program | |
JP2023125032A (en) | video creation program | |
JP2023125029A (en) | video creation program | |
JP2023125030A (en) | video creation program | |
JP2023125033A (en) | video creation program | |
JP2023125034A (en) | Server device | |
JP2023125039A (en) | video creation program | |
US11956498B2 (en) | Movie creation method, non-transitory computer readable medium, and movie creation apparatus | |
JP2023125040A (en) | video creation program | |
JP4363318B2 (en) | Navigation album system | |
JP2023125042A (en) | video creation program | |
JP2023125037A (en) | video creation program | |
JP2023125038A (en) | video creation program | |
JP2023125041A (en) | video creation program | |
JP4366486B2 (en) | Image playback device | |
JP2006080737A (en) | Navigation album system | |
JP2006038515A (en) | Navigation album system | |
JPH10336576A (en) | Image recording system |