JP2023125037A - video creation program - Google Patents

video creation program Download PDF

Info

Publication number
JP2023125037A
JP2023125037A JP2022028943A JP2022028943A JP2023125037A JP 2023125037 A JP2023125037 A JP 2023125037A JP 2022028943 A JP2022028943 A JP 2022028943A JP 2022028943 A JP2022028943 A JP 2022028943A JP 2023125037 A JP2023125037 A JP 2023125037A
Authority
JP
Japan
Prior art keywords
video
information
cuts
project
creation program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022028943A
Other languages
Japanese (ja)
Inventor
太也 樋口
Taiya Higuchi
真紀子 五十嵐
Makiko Igarashi
春香 宮田
Haruka Miyata
杏里紗 大村
Arisa Omura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022028943A priority Critical patent/JP2023125037A/en
Publication of JP2023125037A publication Critical patent/JP2023125037A/en
Pending legal-status Critical Current

Links

Images

Abstract

To properly select content suitable for a video to be created, from among multiple pieces of content.SOLUTION: A video creation program causes a computer to execute: a process (S52) for analyzing video cuts to be used for a video project; a process (S54) for estimating an attribute of a video on the basis of analysis results; a process (S56) for selecting, based on the attribute of the video, multiple content candidates from among pieces of content applicable to creation of a video in the video project; a process (FIG. 5B) for displaying the content candidates on a display unit; a process (FIG. 5B) for selecting, on the basis of an operation signal, content to be applied in creating a video from among the content candidates; and a process (FIG. 5B) for applying the selected content to creation of a video in the video project.SELECTED DRAWING: Figure 5A

Description

本発明は、動画を作成する映像作成プログラムに関する。 The present invention relates to a video creation program for creating a video.

旅行先で撮影した映像を用いて、旅行記として一つの映像プロジェクトを作成する技術が知られている(特許文献1参照)。旅行先で撮影した画像等をデータセンターに記憶し、旅行記としての履歴データがデータセンターに格納される。 2. Description of the Related Art There is a known technique for creating a video project as a travel diary using videos taken at a travel destination (see Patent Document 1). Images taken at travel destinations are stored in the data center, and historical data as a travelogue is stored in the data center.

特開2003-44552号公報Japanese Patent Application Publication No. 2003-44552

しかしながら、従来の技術では利用者自身が撮影した画像や映像を用いるため、例えば音楽やフィルタといったコンテンツの演出を付加することはできない。一方で、仮にコンテンツの演出を自由に付加できたとしても、音楽やフィルタは無数にあるため、どのようなコンテンツを適用して良いのか、利用者にとって選択が難しい。 However, since the conventional technology uses images and videos taken by the user himself, it is not possible to add content effects such as music and filters. On the other hand, even if it were possible to freely add effects to the content, since there are countless types of music and filters, it would be difficult for the user to choose what kind of content to apply.

本発明の一態様によるプログラムは、位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、記憶部に記憶されている情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する各動画カットを解析する第1処理と、解析結果に基づいて動画の属性を推定する第2処理と、動画の属性に基づいて、映像プロジェクトで動画の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第3処理と、複数のコンテンツ候補を表示部に表示する第4処理と、操作信号に基づいて、複数のコンテンツ候補から動画の作成時に適用するコンテンツを選択する第5処理と、選択したコンテンツを、映像プロジェクトで動画の作成に適用する第6処理と、をコンピュータに実行させる。 A program according to one aspect of the present invention includes a positioning unit that acquires position information, a photographing unit that photographs a subject image and generates image information including time information and position information, a storage unit that stores information, and a positioning unit that acquires position information. An electronic device including a display section for displaying a display and an operation section for outputting an operation signal in response to an operation is provided with a predetermined video cut whose shooting time is a predetermined second from among the image information stored in the storage section. This is a video creation program that executes a video project that creates a video by connecting multiple video cuts, and includes a first process that analyzes each video cut used in the video project, and a second process that estimates video attributes based on the analysis results. , a third process of selecting a plurality of content candidates from content applicable to the creation of a video in a video project based on attributes of the video; a fourth process of displaying a plurality of content candidates on a display unit; and an operation signal. Based on this, the computer is caused to execute a fifth process of selecting content to be applied when creating a moving image from a plurality of content candidates, and a sixth process of applying the selected content to creating a moving image in a video project.

本発明によれば、映像作成プログラムで作成する動画に適したコンテンツを、複数のコンテンツの中から適切に選ぶことが可能になる。 According to the present invention, it becomes possible to appropriately select content suitable for a moving image created by a video creation program from among a plurality of contents.

実施の形態に係る映像作成アプリを実行した電子機器で作成された動画を説明する模式図。FIG. 3 is a schematic diagram illustrating a video created by an electronic device that executes a video creation application according to an embodiment. 動画ファイルを説明する模式図。A schematic diagram explaining a video file. サービス提供システムの一例を示す模式図。FIG. 1 is a schematic diagram showing an example of a service providing system. 映像作成アプリを実行する電子機器の要部構成を説明するブロック図。FIG. 2 is a block diagram illustrating a main configuration of an electronic device that executes a video creation application. 図2の車載端末の要部構成を例示するブロック図。FIG. 3 is a block diagram illustrating a main configuration of the in-vehicle terminal shown in FIG. 2. FIG. 図3の処理部で実行される映像作成アプリによる処理の流れを説明するフローチャート。4 is a flowchart illustrating the flow of processing by the video creation application executed by the processing unit in FIG. 3. FIG. 図3の処理部で実行される映像作成アプリによる処理の流れを説明するフローチャート。4 is a flowchart illustrating the flow of processing by the video creation application executed by the processing unit in FIG. 3. FIG. 撮影一覧画面の一例を示す図。FIG. 3 is a diagram showing an example of a shooting list screen. 編集画面の一例を示す図。The figure which shows an example of an editing screen. 撮影画面の一例を示す図。The figure which shows an example of a photography screen. フィルタ決定画面の一例を示す図。The figure which shows an example of a filter determination screen. 音楽決定画面の一例を示す図。The figure which shows an example of a music decision screen. 確認画面の一例を示す図。The figure which shows an example of a confirmation screen. 地図確認画面の一例を示す図。The figure which shows an example of a map confirmation screen.

以下、図面を参照して発明を実施するための形態について説明する。
<映像作成プログラムの概要>
はじめに、実施の形態による映像作成プログラムを概説する。
映像作成プログラムは、スマートフォン等の電子機器で実行されるアプリケーションプログラム(application program)である。以後、単に映像作成アプリと呼ぶ。電子機器は、スマートフォン等の携帯無線端末に限らず、カメラおよび測位部が内蔵または接続可能なタブレット型コンピュータでもよい。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
<Overview of the video creation program>
First, a video creation program according to an embodiment will be outlined.
The video creation program is an application program executed on an electronic device such as a smartphone. From now on, it will simply be referred to as a video creation application. The electronic device is not limited to a portable wireless terminal such as a smartphone, but may also be a tablet computer with a built-in or connectable camera and positioning unit.

電子機器は、映像作成アプリを実行することにより、カメラで撮影された複数の動画カットに基づいて動画を作成することが可能になる。 By executing a video creation application, an electronic device can create a video based on multiple video cuts taken with a camera.

図1Aは、電子機器で作成された動画10を説明する模式図である。図1Aに例示する動画10は、1カット当たりの録画時間が4秒の動画カットを6カット分(動画カットC1、動画カットC2、動画カットC3、…、動画カットC6)つなげた構成を有している(4秒×6カット)。作成された動画10の再生時間は、エンドタイトル(end-title)等の表示時間を除いて24秒であり、動画カットC1~C6の総録画時間と等しい。
なお、1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例であり、適宜変更してかまわない。動画カットを動画クリップと呼んでもよい。
FIG. 1A is a schematic diagram illustrating a moving image 10 created with an electronic device. The video 10 illustrated in FIG. 1A has a configuration in which six video cuts (video cut C1, video cut C2, video cut C3, ..., video cut C6) each having a recording time of 4 seconds are connected. (4 seconds x 6 cuts). The playback time of the created video 10 is 24 seconds, excluding the display time of the end title, etc., and is equal to the total recording time of the video cuts C1 to C6.
Note that the recording time of 4 seconds per cut, the number of cuts of 6, the total recording time, and the playback time of the video 10 of 24 seconds are examples, and may be changed as appropriate. A video cut may also be called a video clip.

動画カットC1~C6はそれぞれ、動画カットの撮影(録画とも称する)を開始してから終了するまでのひとつながりの映像として記録された動画をいう。例えば、1秒当たりのフレーム数を30フレーム(30fps)にする場合、1カット当たりの録画時間が4秒の動画カットC1は4秒×30fps=120フレームで構成される。動画カットC2~C6についても同様である。動画カットC1~C6をつなげた動画10は、120フレーム×6カット=720フレームで構成される。
なお、実施の形態では、動画カットC1~C6を撮影する撮影位置が異なることを想定している。つまり、電子機器の利用者に、異なる撮影地へ移動して動画カットC1~C6を撮影してもらうことを想定している。
Each of the video cuts C1 to C6 is a video recorded as a continuous video from the start to the end of the video cut (also referred to as recording). For example, when the number of frames per second is 30 frames (30 fps), a video cut C1 with a recording time of 4 seconds per cut is composed of 4 seconds x 30 fps = 120 frames. The same applies to video cuts C2 to C6. The video 10, which is a combination of video cuts C1 to C6, is composed of 120 frames x 6 cuts = 720 frames.
Note that in the embodiment, it is assumed that the shooting positions for shooting the video cuts C1 to C6 are different. In other words, it is assumed that the user of the electronic device moves to a different shooting location and shoots video cuts C1 to C6.

(フィルタ処理)
実施の形態の映像作成アプリでは、動画カットC1~C6をつなげて一つの動画10を作成するが、加工処理を施した動画10を作成することも可能である。映像作成アプリで行う加工処理を、フィルタ処理と呼ぶことにする。
(filter processing)
In the video creation application of the embodiment, one video 10 is created by connecting video cuts C1 to C6, but it is also possible to create a video 10 that has been processed. The processing performed by the video creation application will be referred to as filter processing.

フィルタ処理は、例えば、動画カットC1~C6のカラーをモノクロに加工したり、動画カットC1~C6の色合いをセピア調に加工したり、動画カットC1~C6の特定の色を強調したり、動画カットC1~C6の画面の特定部分をぼかしたり、動画カットC1~C6の画面全体をぼかしたりする等、画像処理効果を付加する処理である。 Filter processing can, for example, process the colors of video cuts C1 to C6 to monochrome, process the hues of video cuts C1 to C6 to sepia tone, emphasize specific colors of video cuts C1 to C6, This process adds image processing effects, such as blurring a specific part of the screen of cuts C1 to C6 or blurring the entire screen of video cuts C1 to C6.

実施の形態の映像作成アプリでは、あらかじめ用意された複数のフィルタ処理の候補の中から利用者が任意に選んだフィルタ処理を施した動画10を作成することが可能である。利用者は、全ての動画カットC1~C6に対して同じフィルタ処理を選ぶことが可能である。また、動画10を構成する動画カット毎に異なるフィルタ処理を選ぶことも可能である。
映像作成アプリで動画10を作成する際に、撮影した動画カットC1~C6に対してそれぞれフィルタ処理を行い、フィルタ処理後の動画カットC1~C6をつなげて一つの動画10を作成してもよいし、撮影した動画カットC1~C6を一つにつなげた後にフィルタ処理を行って動画10を作成してもよい。
なお、動画カットC1~C6の色調等をそのまま生かした動画10を作成するために、フィルタ処理を省略してもよい。
In the video creation application of the embodiment, it is possible to create a video 10 subjected to filter processing arbitrarily selected by the user from among a plurality of filter processing candidates prepared in advance. The user can select the same filter processing for all video cuts C1 to C6. It is also possible to select different filter processing for each video cut that makes up the video 10.
When creating the video 10 with a video creation application, filter processing may be performed on each of the video cuts C1 to C6 that have been shot, and one video 10 may be created by connecting the video cuts C1 to C6 after the filter processing. However, the video 10 may be created by connecting the captured video cuts C1 to C6 and then performing filter processing.
Note that the filtering process may be omitted in order to create the video 10 that takes advantage of the color tones and the like of the video cuts C1 to C6 as they are.

映像作成アプリは、画像処理効果がそれぞれ異なる複数のフィルタ処理のプログラムを、それぞれモジュールとして含んでいる。また、映像作成アプリには、動画10の作成に用いる動画カットC1~C6の属性に対応させて、利用者に推奨するフィルタ処理があらかじめ定められている。実施の形態において動画カットC1~C6の属性とは、動画カットC1~C6に含まれる色の三属性(色相、彩度、明度)をいう。 The video creation application includes a plurality of filter processing programs each having a different image processing effect as modules. Further, in the video creation application, filter processing recommended to the user is predetermined in correspondence with the attributes of the video cuts C1 to C6 used to create the video 10. In the embodiment, the attributes of the video cuts C1 to C6 refer to the three attributes (hue, saturation, and brightness) of the colors included in the video cuts C1 to C6.

動画カットC1~C6の属性と、映像作成アプリで推奨するフィルタ処理との対応付けを以下に例示する。
動画カットC1~C6に写る主要被写体の色相が、例えば後から撮影した動画カットほど赤に近づく場合、映像作成アプリは赤色をきれいに表現するフィルタ処理、赤色をくっきりと表現するフィルタ処理、または赤色をしっとりと落ち着いた色味に表現するフィルタ処理を推奨する。これらのフィルタ処理を第1ジャンルのフィルタ処理と呼ぶことにする。
また、主要被写体の色相が、例えば後から撮影した動画カットほど青に近づく場合、映像作成アプリは青色をきれいに表現するフィルタ処理、青色をくっきりと表現するフィルタ処理、または青色をしっとりと落ち着いた色味に表現するフィルタ処理を推奨する。これらのフィルタ処理を第2ジャンルのフィルタ処理と呼ぶことにする。
さらに、主要被写体の色相が、例えば後から撮影した動画カットほど緑に近づく場合、映像作成アプリは緑色をきれいに表現するフィルタ処理、緑色をくっきりと表現するフィルタ処理、または緑色をしっとりと落ち着いた色味に表現するフィルタ処理を推奨する。これらのフィルタ処理を第3ジャンルのフィルタ処理と呼ぶことにする。
The following is an example of the correspondence between the attributes of video cuts C1 to C6 and the filter processing recommended by the video creation application.
For example, if the hue of the main subject in video cuts C1 to C6 becomes closer to red the later the video is shot, the video creation app may apply filter processing to express red clearly, filter processing to express red clearly, or We recommend filter processing to create a soft and calm color tone. These filter processes will be referred to as first category filter processes.
In addition, if the hue of the main subject approaches blue in a later video cut, for example, the video creation application may apply filter processing to express blue clearly, filter processing to express blue clearly, or make blue a soft and calm color. We recommend filter processing that expresses taste. These filter processes will be referred to as second category filter processes.
Furthermore, if the hue of the main subject becomes greener in a later video cut, for example, the video creation app may apply filter processing to express the green more clearly, filter processing to express the green more clearly, or to make the green a softer, calmer color. We recommend filter processing that expresses taste. These filter processes will be referred to as third category filter processes.

映像作成アプリは、動画カットC1~C6に写る主要被写体の彩度が、例えば後から撮影した動画カットほど低下する場合、画像を暗く表現するフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を落ち着いた雰囲気に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第4ジャンルのフィルタ処理と呼ぶことにする。
反対に、主要被写体の彩度が、例えば後から撮影した動画カットほど上昇する場合、映像作成アプリは、画像を明るく表現するフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を活動的に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第5ジャンルのフィルタ処理と呼ぶことにする。
For example, if the saturation of the main subject in video cuts C1 to C6 decreases as the video cuts are shot later, the video creation app may apply filter processing to make the image darker, filter processing to make the image more subtle, or filter processing to make the image more subtle. We recommend filtering to create a calm atmosphere. These filter processes will be referred to as fourth category filter processes.
On the other hand, if the saturation of the main subject increases, for example, in a later video cut, the video creation app may apply filter processing to make the image brighter, filter processing to make the image clearer, or filter processing to make the image more active. Recommended filter processing etc. for expression. These filter processes will be referred to as filter processes of the fifth category.

映像作成アプリは、動画カットC1~C6に写る主要被写体の明度が、例えば後から撮影した動画カットほど低下する場合、画像をくすませるフィルタ処理、画像を控えめに表現するフィルタ処理、または画像を地味に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第6ジャンルのフィルタ処理と呼ぶことにする。
反対に、主要被写体の明度が、例えば後から撮影した動画カットほど上昇する場合、画像を鮮やかにするフィルタ処理、画像をくっきりと表現するフィルタ処理、または画像を派手に表現するフィルタ処理等を推奨する。これらのフィルタ処理を第7ジャンルのフィルタ処理と呼ぶことにする。
For example, if the brightness of the main subject in video cuts C1 to C6 decreases in later video cuts, the video creation app may apply filter processing to dull the image, filter processing to understate the image, or filter processing to make the image more subdued. We recommend filter processing, etc. that expresses the These filter processes will be referred to as filter processes of the sixth category.
On the other hand, if the brightness of the main subject increases, for example, in a later video cut, we recommend filtering to make the image more vivid, to make the image clearer, or to make the image more flashy. do. These filter processes will be referred to as filter processes of the seventh category.

実施の形態では、各フィルタ処理のプログラムに、そのフィルタ処理による画像処理効果が上記第1~第7ジャンルのうちのどれに該当するかを示すタグ(Tag)が付されている。処理部250は、動画カットC1~C6の属性に対応するジャンルを示すタグが付されたフィルタ処理を選ぶ。
以上説明した動画カットC1~C6の属性と、推奨するフィルタ処理との対応付けは一例に過ぎず、適宜変更しても構わない。また、上記第1~第7ジャンルには、同じフィルタ処理が共通に含まれていてもよい。
In the embodiment, each filter processing program is attached with a tag indicating to which of the first to seventh genres the image processing effect resulting from the filter processing falls. The processing unit 250 selects filter processing that is tagged with a genre that corresponds to the attributes of the video cuts C1 to C6.
The above-described association between the attributes of the video cuts C1 to C6 and the recommended filter processing is merely an example, and may be changed as appropriate. Further, the first to seventh genres may include the same filter processing in common.

図1Bは、動画ファイル100を説明する模式図である。一般に、動画10のデータ(動画10の情報101)は、オーディオ(Audio)のデータ(音の情報102)とともに、例えばMP4等のファイル形式で記録される。以後、動画10の情報101および音の情報102を格納するファイルを動画ファイル100と呼ぶことにする。動画10の情報101には、撮影位置および撮影時刻の情報を含めることが可能である。 FIG. 1B is a schematic diagram illustrating the video file 100. Generally, data of the moving image 10 (information 101 of the moving image 10) is recorded together with audio data (sound information 102) in a file format such as MP4. Hereinafter, the file that stores the information 101 and the sound information 102 of the moving image 10 will be referred to as a moving image file 100. The information 101 of the video 10 can include information on the shooting position and shooting time.

(音楽付加)
実施の形態の映像作成アプリでは、あらかじめ用意された複数の音楽の候補の中から利用者が任意に選んだ音楽の情報を、作成した動画10の情報101とともに動画ファイル100に記録することが可能である。映像作成アプリで用意される複数の音楽の情報は、例えば、BGM(background music)の情報である。音楽は、全ての動画カットC1~C6に同じ曲を付してもよいし、動画カット毎に異なる曲を付してもよい。
(music added)
In the video creation application of the embodiment, it is possible to record music information arbitrarily selected by the user from among a plurality of music candidates prepared in advance in the video file 100 together with the information 101 of the created video 10. It is. The plural pieces of music information prepared by the video creation application are, for example, BGM (background music) information. As for the music, the same song may be attached to all the video cuts C1 to C6, or a different song may be attached to each video cut.

映像作成アプリは、複数の曲の情報を含んでいる。同じ曲名であっても演奏の速さとしてのテンポが異なったり、曲全体の音の高さとしてのキーが異なったり、長調または短調に編曲されている等、曲調が異なる場合は、それぞれ異なる曲として映像作成アプリに含めることが可能である。
また、映像作成アプリには、動画10の作成に用いる動画カットC1~C6の属性に対応させて、利用者に推奨する曲の情報があらかじめ定められている。
The video creation application includes information on multiple songs. Even if the song name is the same, if the tempo of the performance is different, the key of the overall pitch is different, the song is arranged in a major or minor key, etc., and the tone is different, each song is considered to be a different song. It can be included in a video creation application as a.
Further, in the video creation application, information on songs recommended to the user is predefined in correspondence with the attributes of the video cuts C1 to C6 used to create the video 10.

動画カットC1~C6の属性と、映像作成アプリで推奨する曲の情報との対応付けを以下に例示する。
動画カットC1~C6に写る主要被写体の色相が、例えば後から撮影した動画カットほど赤色等の暖色系の色に近づく場合、映像作成アプリは、曲の演奏がハイテンポの曲、明るく伸びやかで活動的な印象を与える曲、または元気な楽想の曲等を推奨する。これらの曲を第10ジャンルの曲と呼ぶことにする。
また、主要被写体の色相が、例えば後から撮影した動画カットほど青色等の寒色系の色に近づく場合、映像作成アプリは、曲の演奏がスローテンポの曲、ゆったり穏やかで落ち着いた印象を与える曲、または静かな楽想の曲等を推奨する。これらの曲を第11ジャンルの曲と呼ぶことにする。
The following is an example of the correspondence between the attributes of video cuts C1 to C6 and information on songs recommended by the video creation application.
For example, if the hue of the main subject in video cuts C1 to C6 is closer to a warm color such as red the later the video cut is shot, the video creation app may indicate that the song is a high-tempo song, bright, easy-going, and active. We recommend songs that give a positive impression or songs with energetic melodies. These songs will be referred to as songs of the 10th genre.
In addition, if the hue of the main subject approaches a cooler color such as blue the later the video is shot, the video creation app may recommend songs that are played at a slow tempo or songs that give a slow, calm and calm impression. , or quiet melodic songs. These songs will be referred to as songs of the 11th genre.

映像作成アプリは、動画カットC1~C6に写る主要被写体の彩度が、例えば後から撮影した動画カットほど低下する場合、上記第11ジャンルの曲を推奨する。
反対に、主要被写体の彩度が、例えば後から撮影した動画カットほど上昇する場合、映像作成アプリは、上記第10ジャンルの曲を推奨する。
The video creation application recommends songs of the eleventh genre if, for example, the saturation of the main subjects in the video cuts C1 to C6 decreases as the video cuts are shot later.
On the other hand, if the saturation of the main subject increases, for example, in video cuts shot later, the video creation application recommends songs of the tenth genre.

映像作成アプリは、動画カットC1~C6に写る主要被写体の明度が、例えば後から撮影した動画カットほど低下する場合、上記第11ジャンルの曲を推奨する。
反対に、主要被写体の明度が、例えば後から撮影した動画カットほど上昇する場合、映像作成アプリは、上記第10ジャンルの曲を推奨する。
The video creation application recommends songs of the eleventh genre when the brightness of the main subjects in the video cuts C1 to C6 decreases as the video cuts are shot later, for example.
On the other hand, if the brightness of the main subject increases, for example, in video cuts shot later, the video creation application recommends songs of the tenth genre.

実施の形態では、各曲の情報に、その曲の曲調が上記第10および第11ジャンルのうちのどちらに該当するかを示すタグ(Tag)が付されている。処理部250は、動画カットC1~C6の属性に対応するジャンルを示すタグが付された曲を選ぶ。
以上説明した動画カットC1~C6の属性と、推奨する曲の情報との対応付けは一例に過ぎず、適宜変更しても構わない。また、上記第10および第11ジャンル以外の他のジャンルを加えてもよい。
In the embodiment, a tag indicating which of the tenth and eleventh genres the melody of the song corresponds to is attached to information about each song. The processing unit 250 selects songs that are tagged with genres that correspond to the attributes of the video cuts C1 to C6.
The above-described correspondence between the attributes of the video cuts C1 to C6 and the recommended song information is merely an example, and may be changed as appropriate. Furthermore, genres other than the tenth and eleventh genres may be added.

映像作成アプリで作成された動画ファイル100に基づく動画を一般の再生機器で再生させる場合、利用者は、音の情報102に基づいて再生されたBGMを聴きながら、動画10の情報101に基づく再生映像を観賞することが可能である。なお、上記映像作成アプリを実行した電子機器は、再生機器として動画10の情報101に基づく映像を再生する(BGM再生を含む)ことも可能である。 When playing a video based on a video file 100 created with a video creation application on a general playback device, the user plays the video 10 based on the information 101 while listening to the BGM played based on the sound information 102. It is possible to watch the video. Note that the electronic device that has executed the video creation application can also act as a playback device to play back a video based on the information 101 of the video 10 (including BGM playback).

以上概説した映像作成アプリによれば、電子機器で複数の動画カットC1~C6を撮影し、複数の動画カットC1~C6にフィルタ処理を施し、フィルタ処理後の複数の動画カットC1~C6をつなげて一つの動画10を作成することができる。そして、作成した動画10の情報101を、BGMの情報(音の情報102)とともに動画ファイル100に格納することができる。
このような映像作成アプリについて、以下に詳細に説明する。
According to the video creation app outlined above, multiple video cuts C1 to C6 are shot with an electronic device, filter processing is applied to the multiple video cuts C1 to C6, and the multiple video cuts C1 to C6 after filter processing are connected. One video 10 can be created by Information 101 of the created video 10 can be stored in the video file 100 together with BGM information (sound information 102).
Such a video creation application will be described in detail below.

<システムの概要>
図2は、上記映像作成アプリを供給するサーバ装置4を含む、サービス提供システム400の一例を示す模式図である。実施の形態では、サービス提供システム400として、映像作成アプリを利用する利用者Aが使用する電子機器3Aと、映像作成アプリを利用する利用者Bが使用する電子機器3Bと、サービスを提供する事業体等で管理されるサーバ装置4と、利用者Aまたは利用者Bが移動手段として使用する車両1に搭載される車載端末2とを例示する。
<System overview>
FIG. 2 is a schematic diagram showing an example of a service providing system 400 including the server device 4 that supplies the video creation application. In the embodiment, the service providing system 400 includes an electronic device 3A used by a user A who uses a video creation application, an electronic device 3B used by a user B who uses a video creation application, and a business that provides services. A server device 4 managed by a user's body or the like, and an in-vehicle terminal 2 mounted on a vehicle 1 used as a means of transportation by user A or user B are illustrated.

電子機器3A、電子機器3B、サーバ装置4および車載端末2は、通信網5を介して互いに通信可能に構成される。通信網5には、インターネット網や携帯電話網等に代表される公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN(Local Area Network)、Wi-Fi(登録商標)等も含まれる。 The electronic device 3A, the electronic device 3B, the server device 4, and the in-vehicle terminal 2 are configured to be able to communicate with each other via the communication network 5. The communication network 5 includes not only public wireless communication networks such as the Internet and mobile phone networks, but also closed communication networks established for each predetermined management area, such as wireless LAN (Local Area Network), Wi-Fi network, etc. -Fi (registered trademark) etc. are also included.

映像作成アプリを供給するサーバ装置4は、電子機器3A、電子機器3Bからの要求により、通信網5を介して電子機器3A、電子機器3Bへ映像作成アプリを供給する。サーバ装置4から映像作成アプリの供給を受けた、換言すると、映像作成アプリをダウンロード(Download)した電子機器3A、電子機器3Bは、映像作成アプリを実行することが可能になる。 The server device 4 that supplies the video creation application supplies the video creation application to the electronic device 3A and the electronic device 3B via the communication network 5 in response to a request from the electronic device 3A and the electronic device 3B. The electronic devices 3A and 3B that have received the video creation application from the server device 4, in other words, have downloaded the video creation application, can execute the video creation application.

なお、車両1は、利用者A、利用者Bが異なる撮影地へ移動するための移動手段の一例である。利用者Aおよび利用者Bは、それぞれが別の車両1を利用して移動してもよく、車両1の代わりに、鉄道、バス、船舶および航空機等の他の交通手段を利用してもよい。 Note that the vehicle 1 is an example of a means of transportation for the user A and the user B to travel to different shooting locations. User A and user B may each use a separate vehicle 1 to move, or may use other means of transportation such as a train, bus, ship, or aircraft instead of the vehicle 1. .

<電子機器>
図3は、図2の電子機器3Aの要部構成を例示するブロック図である。電子機器3Bの要部構成も同様である。上述したように、電子機器3Aはスマートフォン等により構成されており、カメラ210と、通信部220と、入力部230と、出力部240と、処理部250と、記憶部260と、測位部270とを含む。
<Electronic equipment>
FIG. 3 is a block diagram illustrating a main configuration of the electronic device 3A of FIG. 2. As shown in FIG. The main part configuration of the electronic device 3B is also similar. As described above, the electronic device 3A is composed of a smartphone or the like, and includes a camera 210, a communication section 220, an input section 230, an output section 240, a processing section 250, a storage section 260, and a positioning section 270. including.

カメラ210は、被写体を撮影し、画像のデータを画像情報として処理部250へ出力する。カメラ210は、静止画を撮影することも、動画を撮影することも可能である。実施の形態では、4秒間の動画(上述した動画カットC1~C6に対応)を複数回(上述した6回に対応)撮影する。 The camera 210 photographs a subject and outputs image data to the processing unit 250 as image information. The camera 210 can take still images and videos. In the embodiment, a 4-second video (corresponding to the video cuts C1 to C6 described above) is shot multiple times (corresponding to the six times described above).

通信部220は、通信網5を介してサーバ装置4等の外部機器と無線通信を行う。
なお、映像作成アプリを実行中の電子機器3Aは、映像作成アプリに関する全ての処理を電子機器3Aで行うことが可能である。そのため、利用者Aは、外部機器と通信できない環境下でも電子機器3Aに映像作成アプリを実行させることが可能である。
なお、特に説明しない限り、電子機器3Aは映像作成アプリに関してサーバ装置4等の外部機器と通信を行わないものとする。
The communication unit 220 performs wireless communication with external devices such as the server device 4 via the communication network 5.
Note that the electronic device 3A running the video creation application can perform all processes related to the video creation application. Therefore, user A can cause the electronic device 3A to execute the video creation application even in an environment where communication with external devices is not possible.
Note that, unless otherwise specified, it is assumed that the electronic device 3A does not communicate with external devices such as the server device 4 regarding the video creation application.

入力部230は、タッチ操作部材およびスイッチ等の利用者が操作する各種操作部と、利用者が発する音声を入力するマイク部等を含む。出力部240は、例えば文字情報や画像等を表示する表示部と、音声等を再生するスピーカ部等を含む。利用者は、入力部230を介して映像作成アプリの起動操作および映像作成アプリ実行中における設定操作、選択操作等の入力を、タップ操作または音声入力により行う。 The input unit 230 includes various operation units operated by the user, such as a touch operation member and a switch, and a microphone unit for inputting voice emitted by the user. The output unit 240 includes, for example, a display unit that displays text information, images, etc., and a speaker unit that reproduces audio and the like. The user uses the input unit 230 to perform input operations such as starting the video creation application and setting operations and selection operations during the execution of the video creation application by tapping or voice input.

処理部250は、マイクロコンピュータおよびその周辺回路等から構成される。処理部250は、入力部230を介して入力された信号、通信部220を介して外部から受信した信号、および記憶部260に記録されたデータ等に基づいて所定の処理を実行し、カメラ210、通信部220、出力部240、記憶部260、および測位部270等の電子機器3Aの各部に対する制御信号を出力する。
処理部250で行う処理により、利用者は、図5A、図5Bを参照して後述する映像作成アプリの処理の流れに従って、カメラ210による動画カットC1~C6の撮影、上述したフィルタ処理および音楽の選択、および動画の作成処理等を、出力部240に表示される情報を確認しながら進めることができる。
The processing section 250 is composed of a microcomputer, its peripheral circuits, and the like. The processing unit 250 executes predetermined processing based on the signal input via the input unit 230, the signal received from the outside via the communication unit 220, the data recorded in the storage unit 260, etc., and processes the camera 210. , the communication section 220, the output section 240, the storage section 260, the positioning section 270, and other sections of the electronic device 3A.
Through the processing performed by the processing unit 250, the user can shoot the video cuts C1 to C6 with the camera 210, perform the above-mentioned filter processing, and perform the music processing according to the processing flow of the video creation application, which will be described later with reference to FIGS. 5A and 5B. The selection, video creation process, etc. can be performed while checking the information displayed on the output unit 240.

記憶部260は、図示しない揮発性または不揮発性メモリを有する。記憶部260は、処理部250が実行する映像作成アプリを含む各種プログラムと、撮影される動画カットC1~C6の情報および作成される動画ファイル100等を含む各種のデータと、を記憶する。
また、記憶部260は、映像作成アプリを実行させないでカメラ210で撮影した動画および静止画を含む画像情報と、通信網5を介してインターネット上で検索して取得した情報(Web情報と呼んでもよい)と、外部機器等から取得した地図画像または他の情報と、外部機器等から送信されたメール等のメッセージ情報とを記憶することが可能である。
Web情報、地図情報およびメッセージ情報は、いわゆるスクリーンショットと呼ばれる操作により、出力部240の表示画面を画像情報として記憶することが可能である。
さらにまた、記憶部260は、映像作成アプリを実行中に、映像作成アプリで定められている情報(動画カットC1~C6の属性と、推奨するフィルタ処理との対応付けを示す情報、動画カットC1~C6の属性と、推奨する曲との対応付けを示す情報)を推奨コンテンツ情報として記憶することが可能である。
The storage unit 260 includes a volatile or nonvolatile memory (not shown). The storage unit 260 stores various programs including a video creation application executed by the processing unit 250, and various data including information on the video cuts C1 to C6 to be shot and the video file 100 to be created.
The storage unit 260 also stores image information including videos and still images taken with the camera 210 without running the video creation application, and information obtained by searching on the Internet via the communication network 5 (also referred to as web information). It is possible to store information such as a map image or other information obtained from an external device, and message information such as an email sent from an external device.
Web information, map information, and message information can be stored as image information on the display screen of the output unit 240 by an operation called a screenshot.
Furthermore, while the video creation application is being executed, the storage unit 260 stores information defined by the video creation application (information indicating the association between the attributes of video cuts C1 to C6 and recommended filter processing, video cut C1 ~ Information indicating the correspondence between attributes of C6 and recommended songs) can be stored as recommended content information.

測位部270は、GPS(Global Positioning System)衛星や準天頂衛星等からの測位信号に基づいて電子機器3Aの現在位置を検出する。電子機器3Aの現在位置を示す信号は、処理部250へ出力される。 The positioning unit 270 detects the current position of the electronic device 3A based on positioning signals from GPS (Global Positioning System) satellites, quasi-zenith satellites, and the like. A signal indicating the current position of the electronic device 3A is output to the processing section 250.

電子機器3Aへ映像作成アプリを供給するサーバ装置4の構成の図示については省略するが、サーバ装置4は、利用者情報を記憶する利用者データベースと、映像作成アプリを記憶するアプリ保存部とを含む。
映像作成アプリの使用を希望する利用者は、サービスを提供する事業体等に利用者情報を登録した上で、アプリ保存部に保存されている映像作成アプリの供給を受けるものとする。利用者情報の登録は、例えばサーバ装置4と通信可能な、電子機器3Aを用いて行われる。利用者情報には、例えば利用者ID(identification)、住所、氏名、連絡先等を含めることが可能である。登録された利用者情報は、利用者データベースに記録される。利用者は、入力部230を介して利用者情報を入力することができる。
Although illustration of the configuration of the server device 4 that supplies the video creation application to the electronic device 3A is omitted, the server device 4 includes a user database that stores user information and an application storage section that stores the video creation application. include.
A user who wishes to use a video creation application shall register user information with an entity providing the service, and then receive the video creation application stored in the application storage unit. Registration of user information is performed using, for example, an electronic device 3A that can communicate with the server device 4. The user information can include, for example, user ID (identification), address, name, contact information, and the like. Registered user information is recorded in a user database. The user can input user information via the input section 230.

<車載装置>
図4は、図2の車載端末2の要部構成を例示するブロック図である。図4に示すように、車載端末2は、制御部20と、制御部20に電気的に接続された入出力装置21と、測位センサ22と、ナビゲーション装置23と、通信ユニット24と、センサ群25と、ドライブレコーダ26とを含む。
<In-vehicle device>
FIG. 4 is a block diagram illustrating a main configuration of the in-vehicle terminal 2 of FIG. 2. As shown in FIG. As shown in FIG. 4, the in-vehicle terminal 2 includes a control section 20, an input/output device 21 electrically connected to the control section 20, a positioning sensor 22, a navigation device 23, a communication unit 24, and a sensor group. 25 and a drive recorder 26.

入出力装置21は、車両1に乗車する利用者からの指令が入力されたり、利用者に対する情報が出力されたりする装置の総称である。例えば入出力装置21には、操作部材の操作により利用者が各種指令を入力する各種スイッチ、利用者が音声で指令を入力するマイク、利用者に表示画像を介して情報を提供するモニタ、利用者に音声で情報を提供するスピーカ等が含まれる。 The input/output device 21 is a general term for devices through which commands from a user riding in the vehicle 1 are input and information for the user is output. For example, the input/output device 21 includes various switches through which the user inputs various commands by manipulating operating members, a microphone through which the user inputs commands by voice, a monitor that provides information to the user via a display image, and a This includes speakers, etc. that provide audio information to users.

測位センサ22は、測位衛星から送信された測位信号を受信する。測位センサ22は、受信した測位信号に基づいて車両1の現在位置を測位する。ナビゲーション装置23は、利用者により入力された目的地までの道路上の目標経路を検索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置21を介して行われる。 The positioning sensor 22 receives positioning signals transmitted from positioning satellites. The positioning sensor 22 positions the current position of the vehicle 1 based on the received positioning signal. The navigation device 23 is a device that searches for a target route on a road to a destination input by a user and provides guidance along the target route. Input of the destination and guidance along the target route are performed via the input/output device 21.

通信ユニット24は、通信網5を介してサーバ装置4等の外部機器と無線通信可能に構成される。なお、通信ユニット24は、例えば電子機器3Aを携帯する利用者が車両1に乗車中である場合に、通信網5を介することなくBluetooth(登録商標)等の近距離無線通信により電子機器3Aとの間で情報を送受することが可能に構成されている。 The communication unit 24 is configured to be able to communicate wirelessly with external devices such as the server device 4 via the communication network 5 . Note that, for example, when a user carrying the electronic device 3A is riding in the vehicle 1, the communication unit 24 communicates with the electronic device 3A by short-range wireless communication such as Bluetooth (registered trademark) without going through the communication network 5. It is configured so that information can be sent and received between the two.

センサ群25は、車両1の状態等を検出する複数のセンサの総称である。センサ群25は、一例として、車両1の車速を検出する車速センサ、車両1の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、駆動源の回転数等を検出する回転数センサ、アクセルペダルやステアリングの操作等を検出するセンサ等を含む。 The sensor group 25 is a general term for a plurality of sensors that detect the state of the vehicle 1 and the like. The sensor group 25 includes, for example, a vehicle speed sensor that detects the vehicle speed of the vehicle 1, an acceleration sensor that detects the longitudinal acceleration and the lateral acceleration (lateral acceleration) of the vehicle 1, and the rotation speed of the drive source. It includes a rotation speed sensor, a sensor that detects the operation of the accelerator pedal, steering wheel, etc.

ドライブレコーダ26は、車両1の外部(例えば前方と後方)および車室内(例えば乗員の顔等)を撮影し、動画等の画像情報を記憶部261に記録する。記憶部261に記録する画像情報には、測位センサ22で取得された位置情報および撮影時刻の情報を含めることが可能である。 The drive recorder 26 photographs the exterior (for example, the front and rear) of the vehicle 1 and the interior of the vehicle (for example, the faces of passengers, etc.), and records image information such as a moving image in the storage unit 261. The image information recorded in the storage unit 261 can include position information acquired by the positioning sensor 22 and information on the photographing time.

制御部20は、CPU(マイクロプロセッサ)等の処理部201と、ROM、RAM、ハードディスク等の記憶部202と、図示しないその他の周辺回路と、を有するコンピュータを含んで構成される。処理部201は、あらかじめ記憶部202に記憶されているプログラムを実行することで、情報受信部201aおよび情報送信部201bとして機能する。 The control unit 20 includes a computer having a processing unit 201 such as a CPU (microprocessor), a storage unit 202 such as a ROM, RAM, or hard disk, and other peripheral circuits (not shown). The processing unit 201 functions as an information receiving unit 201a and an information transmitting unit 201b by executing a program stored in advance in the storage unit 202.

情報受信部201aは、車載端末2の各部により検出等される各種情報や各種信号を受信する。例えば、情報受信部201aは、測位センサ22により測位された車両1の位置情報およびセンサ群25による検出信号等を受信する。 The information receiving section 201a receives various information and various signals detected by each section of the in-vehicle terminal 2. For example, the information receiving unit 201a receives position information of the vehicle 1 determined by the positioning sensor 22, detection signals from the sensor group 25, and the like.

情報送信部201bは、必要に応じて、情報受信部201aが受信した各種情報および各種信号を、通信ユニット24を介して、電子機器3A、3B、またはサーバ装置4等の外部機器に送信することが可能に構成される。例えば、情報送信部201bは、ドライブレコーダ26の記憶部261に記憶されている画像情報を電子機器3Aに送信する。 The information transmitting unit 201b transmits various information and various signals received by the information receiving unit 201a to external devices such as the electronic devices 3A and 3B or the server device 4 via the communication unit 24, as necessary. can be configured. For example, the information transmitting unit 201b transmits image information stored in the storage unit 261 of the drive recorder 26 to the electronic device 3A.

<フローチャートの説明>
図5Aおよび図5Bは、図3の処理部250で実行される映像作成アプリによる処理の流れを説明するフローチャートである。処理部250は、出力部240に表示されている図示しないアイコンのうち、映像作成アプリに関連付けられたアイコンが利用者によってタップ操作されると、図5Aおよび図5Bによる処理を行う映像作成アプリを起動する。
<Explanation of flowchart>
5A and 5B are flowcharts illustrating the flow of processing by the video creation application executed by the processing unit 250 of FIG. 3. When the user taps an icon associated with a video creation app among the icons (not shown) displayed on the output unit 240, the processing unit 250 starts the video creation app that performs the processing shown in FIGS. 5A and 5B. to start.

図5AのステップS1において、処理部250は、新規のプロジェクトか否かを判定する。実施の形態では、複数の動画カット(例えばN=6枚の動画カットC1~C6)を撮影し、撮影した動画カットC1~C6をつなげた動画10を作成する一連の処理を、映像プロジェクトと呼ぶことにする。実施の形態では、複数の映像プロジェクトを並行して進めることが可能である。処理部250は、新規の映像プロジェクトとして新しい動画カットC1~C6を撮影する場合にステップS1を肯定判定してステップS10へ進む。処理部250は、実行中の映像プロジェクトとして記憶部260の中に記憶されている既存の動画カットに追加する新たな動画カットを撮影したり、既存の動画カットと差替える新たな動画カットを撮影したりする場合には、ステップS1を否定判定してステップS140へ進む。 In step S1 of FIG. 5A, the processing unit 250 determines whether the project is a new project. In the embodiment, a series of processing for shooting a plurality of video cuts (for example, N = 6 video cuts C1 to C6) and creating a video 10 by connecting the shot video cuts C1 to C6 is called a video project. I'll decide. In the embodiment, it is possible to proceed with multiple video projects in parallel. When shooting new video cuts C1 to C6 as a new video project, the processing unit 250 makes an affirmative determination in step S1 and proceeds to step S10. The processing unit 250 shoots a new video cut to be added to an existing video cut stored in the storage unit 260 as a video project being executed, or shoots a new video cut to replace an existing video cut. If so, a negative determination is made in step S1 and the process proceeds to step S140.

ステップS10において、処理部250は、動画カットの数Nを入力してステップS20へ進む。動画カットの数Nは、一つの動画10を構成する動画カット数である。実施の形態では、利用者によってN=6が入力されるものとする。処理部250は、N=6が入力されると、総録画時間を24秒にするように、1カット当たりの撮影時間を4秒に決定する。仮に、N=12が入力される場合、処理部250は、総録画時間を24秒にするように、1カット当たりの撮影時間を2秒に決定する。ステップS10で行う処理を、第1処理と呼んでもよい。 In step S10, the processing unit 250 inputs the number N of video cuts and proceeds to step S20. The number N of video cuts is the number of video cuts that make up one video 10. In the embodiment, it is assumed that N=6 is input by the user. When N=6 is input, the processing unit 250 determines the shooting time per cut to be 4 seconds so that the total recording time is 24 seconds. If N=12 is input, the processing unit 250 determines the shooting time per cut to be 2 seconds so that the total recording time is 24 seconds. The process performed in step S10 may be referred to as the first process.

ステップS20において、処理部250は、カメラ210により動画カットを撮影させてステップS30へ進む。処理部250は、例えば、出力部240に表示される後述する撮影ボタン56(図7C)がタップ操作されると、4秒間の動画カットを撮影させる。ステップS20で行う処理を、第2処理と呼んでもよい。 In step S20, the processing unit 250 causes the camera 210 to take a video cut, and proceeds to step S30. For example, when a shooting button 56 (FIG. 7C), which will be described later and is displayed on the output unit 240, is tapped, the processing unit 250 causes a 4-second video cut to be shot. The process performed in step S20 may be referred to as second process.

ステップS30において、処理部250は、測位部270により電子機器3Aの現在位置を測位させてステップS40へ進む。ステップS30で行う処理を、第3処理と呼んでもよい。
測位部270は、例えば、動画カットの撮影を開始した時点の現在位置を示す情報を取得し、当該動画カットの撮影位置の情報として処理部250へ出力する。
測位部270は、動画カットの撮影開始時点でのみ測位するので、動画カットの撮影中(実施の形態では4秒間)にも測位を継続する場合に比べて、電子機器3Aにおける消費電力を抑えることが可能になる。
In step S30, the processing unit 250 causes the positioning unit 270 to measure the current position of the electronic device 3A, and proceeds to step S40. The process performed in step S30 may be referred to as third process.
The positioning unit 270, for example, acquires information indicating the current position at the time when shooting of the video cut was started, and outputs it to the processing unit 250 as information on the shooting position of the video cut.
Since the positioning unit 270 performs positioning only at the start of shooting a video cut, power consumption in the electronic device 3A can be reduced compared to a case where positioning continues even during video cut shooting (for 4 seconds in the embodiment). becomes possible.

ステップS40において、処理部250は、動画カット数≧Nか否かを判定する。処理部250は、動画カット数がN以上存在する場合にステップS40を肯定判定してステップS50へ進む。処理部250は、動画カット数がN未満の場合にはステップS40を否定判定して図5BのステップS120へ進む。 In step S40, the processing unit 250 determines whether the number of video cuts≧N. If the number of video cuts is N or more, the processing unit 250 makes an affirmative determination in step S40 and proceeds to step S50. If the number of video cuts is less than N, the processing unit 250 makes a negative determination in step S40 and proceeds to step S120 in FIG. 5B.

以上説明したステップS10~S40の処理では、動画10を作成するために撮影時間4秒の動画カットを6回撮影するので総録画時間が24秒になる。映像作成アプリは、総録画時間が24秒に達する(換言すると、動画カット数がN以上存在する)と、ステップS50以降の処理へ進むことが可能である。 In the processes of steps S10 to S40 described above, in order to create the moving image 10, six moving image cuts each having a shooting time of 4 seconds are shot, resulting in a total recording time of 24 seconds. When the total recording time reaches 24 seconds (in other words, the number of video cuts is N or more), the video creation application can proceed to the processing from step S50 onwards.

ステップS50において、処理部250は、動画カットに対する編集を行ってステップS52へ進む。編集は、映像プロジェクトにおいて撮影した動画カットの確認、不要な動画カットの削除等を含む。 In step S50, the processing unit 250 edits the video cut and proceeds to step S52. Editing includes checking video cuts taken in a video project, deleting unnecessary video cuts, etc.

ステップS52において、処理部250は、動画10の作成に用いる動画カットC1~C6を解析する解析処理を行ってステップS54へ進む。解析処理では、例えば被写体認識処理を行うことにより、各動画カットを構成するフレーム画像に写る主要被写体が認識される。このような解析処理を第1処理と呼んでもよい。 In step S52, the processing unit 250 performs analysis processing to analyze the video cuts C1 to C6 used to create the video 10, and proceeds to step S54. In the analysis process, for example, by performing subject recognition processing, the main subject appearing in the frame images forming each video cut is recognized. Such analysis processing may be referred to as first processing.

ステップS54において、処理部250は、解析結果に基づいて動画カットC1~C6の属性を推定する。処理部250は、例えば各動画カットを構成するフレーム画像の主要被写体の色相、彩度、明度の少なくとも一つを動画10の属性として推定し、ステップS56へ進む。このような推定処理を第2処理と呼んでもよい。 In step S54, the processing unit 250 estimates the attributes of the video cuts C1 to C6 based on the analysis results. The processing unit 250 estimates, for example, at least one of the hue, saturation, and brightness of the main subject of the frame images constituting each video cut as an attribute of the video 10, and proceeds to step S56. Such estimation processing may be referred to as second processing.

ステップS56において、処理部250は、推定した属性に対応する複数のコンテンツ候補を選ぶ。実施の形態では、動画10の作成に適用可能なフィルタ処理と、BGMの情報とをコンテンツと呼ぶ。処理部250は、先に例示した動画カットC1~C6の属性と推奨する曲の情報との対応付け、および、先に例示した動画カットC1~C6の属性と推奨するフィルタ処理との対応付けに基づき、推定したも属性に対応する複数のBGMの情報と、推定した属性に対応する複数のフィルタ処理の情報とを選んで図5BのステップS60へ進む。処理部250は、ステップS56で選んだ複数のBGMの情報と複数のフィルタ処理の情報とを、それぞれ音楽とフィルタ処理とのおすすめランキング情報として記憶部260のコンテンツ情報記憶部267に記録する。ステップS56の処理を第3処理と呼んでもよい。 In step S56, the processing unit 250 selects a plurality of content candidates corresponding to the estimated attributes. In the embodiment, filter processing applicable to creating the video 10 and BGM information are referred to as content. The processing unit 250 associates the attributes of the video cuts C1 to C6 exemplified above with the recommended song information, and the correspondence between the attributes of the video cuts C1 to C6 exemplified previously and the recommended filter processing. Based on the information, a plurality of BGM information corresponding to the estimated attribute and a plurality of filter processing information corresponding to the estimated attribute are selected, and the process proceeds to step S60 of FIG. 5B. The processing unit 250 records the information on the plurality of BGMs and the information on the plurality of filter processes selected in step S56 in the content information storage unit 267 of the storage unit 260 as recommended ranking information for music and filter processing, respectively. The process in step S56 may also be referred to as third process.

図5BのステップS60において、処理部250は、フィルタ処理を選択し決定する。図6Dに例示するように、処理部250は、映像作成アプリであらかじめ用意された複数のフィルタ処理のうちのステップS56で選んだフィルタ処理を、フィルタ処理の候補として出力部240に表示させる。表示するフィルタ処理の候補の順番は、例えば、映像作成アプリが推奨する順位(例えば利用頻度が高い順、または利用頻度が低い順)に基づく。複数のフィルタ処理の候補を表示する処理を、第4処理と呼んでもよい。
処理部250はさらに、利用者の選択操作に基づいて、複数のフィルタ処理の候補の中から採用するフィルタ処理を選択し、動画10に用いるフィルタ処理として決定する。複数のフィルタ処理の候補の中から採用するフィルタ処理を選択する処理を、第5処理と呼んでもよい。
処理部250は、フィルタ処理を選択、決定するとステップS70へ進む。
In step S60 of FIG. 5B, the processing unit 250 selects and determines filter processing. As illustrated in FIG. 6D, the processing unit 250 causes the output unit 240 to display the filter process selected in step S56 from among the plurality of filter processes prepared in advance in the video creation application as a filter process candidate. The order of the filter processing candidates to be displayed is based, for example, on the order recommended by the video creation application (for example, in order of highest frequency of use or lowest frequency of use). The process of displaying a plurality of filter processing candidates may be referred to as a fourth process.
The processing unit 250 further selects a filter process to be adopted from among the plurality of filter process candidates based on the user's selection operation, and determines it as the filter process to be used for the video 10. The process of selecting a filter process to be adopted from among a plurality of filter process candidates may be referred to as a fifth process.
When the processing unit 250 selects and determines filter processing, the process proceeds to step S70.

ステップS70において、処理部250は、動画10の情報101に付加する音楽を選択し決定する。処理部250は、図7Aに例示するように、映像作成アプリであらかじめ用意された複数のBGM曲のうちのステップS56で選んだBGM曲を、候補曲として出力部240に表示させる。表示する候補曲の順番は、例えば、映像作成アプリが推奨する順位(例えば利用頻度が高い順、または利用頻度が低い順)に基づく。複数の候補曲を表示する処理についても、第4処理と呼んでもよい。
処理部250はさらに、利用者の選択操作に基づいて、複数の候補曲の中からBGMの情報を選択し、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定する。複数の候補曲の中からBGMの情報を選択する処理についても、第5処理と呼んでもよい。
処理部250は、音楽を選択、決定するとステップS80へ進む。
In step S70, the processing unit 250 selects and determines music to be added to the information 101 of the video 10. As illustrated in FIG. 7A, the processing unit 250 causes the output unit 240 to display the BGM song selected in step S56 from among the plurality of BGM songs prepared in advance by the video creation application as a candidate song. The order of the candidate songs to be displayed is based on, for example, the order recommended by the video creation application (for example, the order of the most frequently used or the least frequently used). The process of displaying a plurality of candidate songs may also be called the fourth process.
The processing unit 250 further selects BGM information from among the plurality of candidate songs based on the user's selection operation, and determines it as the sound information 102 to be recorded in the video file 100 together with the information 101 of the video 10. The process of selecting BGM information from a plurality of candidate songs may also be referred to as the fifth process.
When the processing unit 250 selects and determines the music, the process proceeds to step S80.

ステップS80において、処理部250は、利用者による確認のためにN個の動画カットを出力部240に再生表示させる。処理部250は、再生表示する動画カットに対してステップS60で決定したフィルタ処理も行う。処理部250はさらに、ステップS70で決定した音の情報102に基づく音楽の再生も行わせる。 In step S80, the processing unit 250 causes the output unit 240 to play and display the N video cuts for confirmation by the user. The processing unit 250 also performs the filtering process determined in step S60 on the video cut to be played back and displayed. The processing unit 250 further causes music to be played based on the sound information 102 determined in step S70.

ステップS90において、処理部250は、動画10を記録するか否かを判定する。処理部250は、利用者によって記録を指示する操作が行われるとステップS90を肯定判定してステップS100へ進む。処理部250は、利用者によって記録を指示する操作が行われない場合はステップS90を否定判定してステップS120へ進む。 In step S90, the processing unit 250 determines whether or not the moving image 10 is to be recorded. When the user performs an operation instructing recording, the processing unit 250 makes an affirmative determination in step S90 and proceeds to step S100. If the user does not perform an operation to instruct recording, the processing unit 250 makes a negative determination in step S90 and proceeds to step S120.

ステップS100において、処理部250は、N個の動画カットをつなげて一つの動画10を作成し、ステップS110へ進む。処理部250は、ステップS100の処理の中で、ステップS60で決定したフィルタ処理も行う。すなわち、動画10の作成に適用可能なコンテンツとしてのフィルタ処理を適用する。ステップS100で行うフィルタ処理を、第6処理と呼んでもよい。 In step S100, the processing unit 250 connects N video cuts to create one video 10, and proceeds to step S110. The processing unit 250 also performs the filtering process determined in step S60 during the process in step S100. That is, filter processing is applied as content applicable to the creation of the video 10. The filtering process performed in step S100 may be referred to as the sixth process.

ステップS110において、処理部250は、作成した動画10の情報101に、ステップS70で決定した音の情報102を付加して動画ファイル100に記録するとともに、動画ファイル100を記憶部260の所定の領域(例えば、画像情報用の画像情報記憶部262)に記録して図5Bによる処理を終了する。ステップS110の処理の中では動画10の情報101にステップS70で決定した音楽の情報を付加する。すなわち、動画10の作成に適用可能なコンテンツとしての音楽を適用する。ステップS110で行う音楽の情報の付加処理についても、第6処理と呼んでもよい。 In step S110, the processing unit 250 adds the sound information 102 determined in step S70 to the information 101 of the created video 10 and records it in the video file 100, and also stores the video file 100 in a predetermined area of the storage unit 260. (For example, the image information storage section 262 for image information) is recorded, and the processing shown in FIG. 5B is ended. In the process of step S110, the music information determined in step S70 is added to the information 101 of the moving image 10. That is, music is applied as content applicable to the creation of the video 10. The process of adding music information performed in step S110 may also be referred to as the sixth process.

実施の形態では、動画10を作成する処理(S100)へ進まずに映像作成アプリを中断することも可能である。ステップS120において、処理部250は、映像作成アプリを一時終了するか否かを判定する。処理部250は、映像作成アプリを一時終了する場合にはステップS120を肯定判定してステップS130へ進む。処理部250は、映像作成アプリを継続する場合にはステップS120を否定判定してステップS20へ戻る。 In the embodiment, it is also possible to interrupt the video creation application without proceeding to the process of creating the video 10 (S100). In step S120, the processing unit 250 determines whether to temporarily terminate the video creation application. When temporarily terminating the video creation application, the processing unit 250 makes an affirmative determination in step S120 and proceeds to step S130. When continuing the video creation application, the processing unit 250 makes a negative determination in step S120 and returns to step S20.

ステップS130において、処理部250は、映像プロジェクトのデータ等を記憶部260の所定領域(例えば、映像プロジェクト用のプロジェクト記憶部265)に一時的に保存して図5Bによる処理を終了する。ステップS130により、取得済の動画カットの情報(撮影位置の情報、決定されている音楽の情報、決定されているフィルタの情報を含む)が記憶部260に記録される。
そのため、例えば他の映像プロジェクトを実行する、あるいは、電子機器3Aで他のアプリが起動され、映像作成アプリの処理が中断される場合でも、取得済の動画カットを適切に保存しておくことが可能になる。
In step S130, the processing unit 250 temporarily stores the video project data and the like in a predetermined area of the storage unit 260 (for example, the project storage unit 265 for video projects), and ends the process shown in FIG. 5B. In step S<b>130 , information on the acquired video cut (including information on the shooting position, information on the music that has been determined, and information on the filter that has been determined) is recorded in the storage unit 260 .
Therefore, even if, for example, you run another video project or another application is started on the electronic device 3A and the processing of the video creation application is interrupted, it is possible to properly save the captured video cuts. It becomes possible.

上述した図5AのステップS1を否定判定して進むステップS140において、処理部250は、カメラ210で動画カットの撮影を行うか、あるいは撮影を行わずに編集を行うかを判定する。処理部250は、例えば一時終了により中断されていた映像プロジェクトで動画カットの撮影を行う場合に、ステップS140からステップS20へ進む。処理部250は、例えば一時終了により中断されていた映像プロジェクトで撮影済の動画カットの編集を行う場合に、ステップS140からステップS50へ進む。 In step S140, which proceeds after making a negative determination in step S1 of FIG. 5A described above, the processing unit 250 determines whether to shoot a video cut with the camera 210 or to perform editing without shooting. For example, when shooting a video cut in a video project that has been interrupted due to temporary termination, the processing unit 250 proceeds from step S140 to step S20. For example, when editing a video cut that has already been shot in a video project that has been interrupted due to temporary termination, the processing unit 250 proceeds from step S140 to step S50.

<表示画面の例示>
図6A~図6Dおよび図7A~図7Cは、映像作成アプリを起動した電子機器3Aの処理部250から送出される制御信号に基づいて出力部240に表示される表示画面であって、入力部230としての操作画面の一例を示す図である。
<撮影一覧画面>
図6Aは、映像プロジェクトにおいて撮影した動画カットの一覧を表示する撮影一覧画面であり、映像作成アプリのホーム画面に相当する。図6Aに示す撮影一覧画面は、例えば、フローチャート(図5A)による処理の開始時に処理部250が出力部240に表示させる。
<Example of display screen>
6A to 6D and FIGS. 7A to 7C are display screens displayed on the output unit 240 based on a control signal sent from the processing unit 250 of the electronic device 3A that has started the video creation application, and are displayed on the input unit. 23 is a diagram showing an example of an operation screen as 230. FIG.
<Shooting list screen>
FIG. 6A is a shooting list screen that displays a list of video cuts shot in a video project, and corresponds to the home screen of the video creation application. The imaging list screen shown in FIG. 6A is displayed on the output unit 240 by the processing unit 250 at the start of the process according to the flowchart (FIG. 5A), for example.

符号61~66は、それぞれが映像プロジェクトを代表する1フレーム(1コマと呼んでもよい)のサムネイル(thumbnail)表示を示す。サムネイル表示は、動画カットのデータサイズのままで表示すると大きすぎて一覧性が悪くなることを避けるために、データサイズを縮小した縮小画像(サムネイル画像)の表示をいう。
サムネイル表示61、63、64および66は、電子機器3Aを横長に構えて撮影した場合のサムネイル表示であり、サムネイル表示62および65は、電子機器3Aを縦長に構えて撮影した場合のサムネイル表示である。撮影した映像プロジェクトが多数ありサムネイル表示を一度に表示できない場合には、利用者は、スクロール操作によって表示されていないサムネイル表示を閲覧することが可能になる。
Reference numerals 61 to 66 indicate thumbnail displays of one frame (which may also be called one frame) each representing a video project. Thumbnail display refers to the display of reduced images (thumbnail images) whose data size is reduced in order to prevent video cuts from being too large and difficult to view when displayed as-is.
Thumbnail displays 61, 63, 64, and 66 are thumbnail displays when the electronic device 3A is held horizontally when shooting, and thumbnail displays 62 and 65 are thumbnail displays when the electronic device 3A is held vertically when shooting. be. If there are a large number of video projects that have been shot and the thumbnails cannot be displayed at once, the user can view the thumbnails that are not displayed by scrolling.

新規ボタン51は、新規の映像プロジェクトとして撮影を始める場合に利用者がタップ操作する操作ボタンである。処理部250は、新規ボタン51がタップ操作されるとステップS10(図5A)の処理へ進む。撮影一覧ボタン52は、当画面(図6A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。地図確認ボタン53は、地図画面上で、映像プロジェクトで撮影した動画カットC1~C6の撮影位置を表示する画面(後述する図7C)に表示を切替えるための操作ボタンである。その他の作業ボタン54は、ここで説明する以外の他の作業項目に関する表示(図示省略)を行わせるための操作ボタンである。 The new button 51 is an operation button that the user taps to start shooting as a new video project. When the new button 51 is tapped, the processing unit 250 proceeds to step S10 (FIG. 5A). The shooting list button 52 is an operation button for returning to the initial display of this screen (FIG. 6A) (in other words, switching the display). The map confirmation button 53 is an operation button for switching the display on the map screen to a screen (FIG. 7C, which will be described later) that displays the shooting positions of video cuts C1 to C6 shot in the video project. The other work button 54 is an operation button for displaying other work items (not shown) other than those described here.

<編集画面>
図6Bは、映像プロジェクトで撮影した動画カットC1~C6の編集画面を例示する図である。図6Bに示す編集画面は、例えば、利用者が撮影一覧画面(図6A)におけるサムネイル表示61をタップ操作した場合に表示される。表示領域C61は、サムネイル表示61に対応する映像プロジェクトで撮影した動画カットC1~C6を再生表示する領域を示す。処理部250は、動画カットC1~C6をそれぞれ代表する6つのサムネイル表示のうち、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを表示領域C61に再生表示させる。
利用者は、6つのサムネイル表示のうち任意のサムネイル表示へカーソルC61Sを移動させ、再生ボタン602をタップ操作することにより、カーソルC61Sで選択されたサムネイル表示に対応する動画カットを確認できる。バー表示601は、再生中の動画カットの録画時間4秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。
また、利用者は、削除ボタン75をタップ操作することにより、カーソルC61Sに対応する動画カットの削除操作を行うことができる。
<Edit screen>
FIG. 6B is a diagram illustrating an editing screen for video cuts C1 to C6 shot in a video project. The editing screen shown in FIG. 6B is displayed, for example, when the user taps the thumbnail display 61 on the shooting list screen (FIG. 6A). The display area C61 indicates an area where video cuts C1 to C6 shot in the video project corresponding to the thumbnail display 61 are played back and displayed. The processing unit 250 causes the display area C61 to reproduce and display the video cut corresponding to the thumbnail display selected by the cursor C61S among the six thumbnail displays representing the video cuts C1 to C6, respectively.
The user can check the video cut corresponding to the thumbnail display selected with the cursor C61S by moving the cursor C61S to any one of the six thumbnail displays and tapping the playback button 602. A bar display 601 indicates how much of the 4 seconds of recording time of the video cut being played back has been played. The user can move the playback position forward or backward by moving the knob on the bar display 601 to the left or right.
Furthermore, by tapping the delete button 75, the user can delete the video cut corresponding to the cursor C61S.

撮影画面ボタン76は、撮影画面(図6C)に表示を切替えて撮影を始める場合(例えばステップS140からステップS20へ進む場合)の操作ボタンである。戻るボタン55は、撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。 The photographing screen button 76 is an operation button used when switching the display to the photographing screen (FIG. 6C) and starting photographing (for example, when proceeding from step S140 to step S20). The return button 55 is an operation button for returning to the display of the shooting list screen (FIG. 6A) (in other words, switching the display).

編集ボタン71は、当画面(図6B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。フィルタボタン72は、後述するフィルタ決定画面(図6D)に表示を切替えるための操作ボタンである。音楽ボタン73は、後述する音楽決定画面(図7A)に表示を切替えるための操作ボタンである。確認ボタン74は、後述する確認画面(図7B)に表示を切替えるための操作ボタンである。 The edit button 71 is an operation button for returning to the initial display of this screen (FIG. 6B) (in other words, switching the display). The filter button 72 is an operation button for switching the display to a filter determination screen (FIG. 6D), which will be described later. The music button 73 is an operation button for switching the display to a music selection screen (FIG. 7A), which will be described later. The confirmation button 74 is an operation button for switching the display to a confirmation screen (FIG. 7B), which will be described later.

実施の形態では、編集画面(図6B)、後述するフィルタ決定画面(図6D)、後述する音楽決定画面(図7A)、および後述する確認画面(図7B)の間で相互の画面切替えを可能にするため、編集ボタン71、フィルタボタン72、音楽ボタン73、および確認ボタン74が共通に表示されている。また、上記撮影一覧画面(図6A)の表示へ戻る(換言すると、表示を切替える)ための戻るボタン55も、各画面(図6B、図6D、図7A、および図7B)において共通に表示されている。 In the embodiment, mutual screen switching is possible between the editing screen (FIG. 6B), the filter determination screen (FIG. 6D) described later, the music determination screen (FIG. 7A) described later, and the confirmation screen (FIG. 7B) described later. In order to do this, an edit button 71, a filter button 72, a music button 73, and a confirmation button 74 are displayed in common. Further, a return button 55 for returning to the display of the shooting list screen (FIG. 6A) (in other words, switching the display) is also displayed in common on each screen (FIGS. 6B, 6D, 7A, and 7B). ing.

<撮影画面>
図6Cは、撮影画面を例示する図である。図6Cに示す撮影画面は、処理部250がフローチャート(図5A)のステップS20の処理を行う場合に表示させる。図6Cには電子機器3Aを縦長に構えて撮影する場合の撮影画面を例示するが、電子機器3Aを横長に構えて撮影することも可能である。
<Shooting screen>
FIG. 6C is a diagram illustrating a photographing screen. The photographing screen shown in FIG. 6C is displayed when the processing unit 250 performs the process in step S20 of the flowchart (FIG. 5A). Although FIG. 6C shows an example of a photographing screen when photographing with the electronic device 3A held vertically, it is also possible to photograph the electronic device 3A with the electronic device 3A held horizontally.

実施の形態では、撮影ボタン56がタップ操作される毎に、カメラ210により動画カットが4秒間撮影される。インジケータ57および表示58は、総録画時間のうち録画済時間を示す。図6Cでは、4秒間の動画カットC1~C3を録画した状態、換言すると、総録画時間24秒のうちの12秒が録画済である状態を示す。編集ボタン77は、編集画面(図6B)に表示を切替えて編集を行うための操作ボタンである。 In the embodiment, each time the shooting button 56 is tapped, the camera 210 shoots a video cut for 4 seconds. Indicator 57 and display 58 indicate the recorded time out of the total recording time. FIG. 6C shows a state in which 4 seconds of video cuts C1 to C3 have been recorded, in other words, 12 seconds out of a total recording time of 24 seconds have been recorded. The edit button 77 is an operation button for switching the display to the edit screen (FIG. 6B) and performing editing.

<フィルタ決定画面>
図6Dは、フィルタ決定画面を例示する図である。図6Dに示すフィルタ決定画面は、処理部250がフローチャート(図5B)のステップS60の処理を行う場合に表示させる。表示領域600には、撮影済の動画カットのデータサイズを縮小したサムネイル画像が表示される。フィルタ候補ボタン81、82、83、…は、複数のフィルタ処理の候補を示す。上述したように、フィルタ処理の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々なフィルタ処理を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがあるフィルタ処理を表示対象から除外してもよい。
フィルタ候補ボタン81、82、83、…には、上述したセピア調、モノクロ等のフィルタ処理がそれぞれ対応付けられている。利用者が、任意のフィルタ候補ボタン82をタップ操作することにより、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、動画10の作成に用いる動画カットC1~C6に施すフィルタ処理に決定される。また、操作されたフィルタ候補ボタン82に対応するフィルタ処理が、表示領域600に表示されているサムネイル画像に行われる。利用者は、フィルタ処理による画像処理効果を表示領域600に表示されるサムネイル画像でリアルタイムに確認することが可能である。利用者は、他のフィルタ候補ボタンを操作しなおして、表示領域600に表示されているサムネイル画像に異なるフィルタ処理を行わせ、画像処理効果の違いを比較することも可能である。
<Filter selection screen>
FIG. 6D is a diagram illustrating a filter determination screen. The filter determination screen shown in FIG. 6D is displayed when the processing unit 250 performs the process of step S60 of the flowchart (FIG. 5B). In the display area 600, thumbnail images with reduced data sizes of video cuts that have been shot are displayed. Filter candidate buttons 81, 82, 83, . . . indicate a plurality of filter processing candidates. As described above, the display order of filter processing candidates is based on the order recommended by the video creation application. However, based on the idea that various filter processes should be used, filter processes that have been selected in video projects executed in the past may be excluded from the display targets.
The filter candidate buttons 81, 82, 83, . . . are associated with filter processing such as the above-mentioned sepia tone, monochrome, etc., respectively. When the user taps any filter candidate button 82, the filter processing corresponding to the operated filter candidate button 82 is determined as the filter processing to be applied to the video cuts C1 to C6 used to create the video 10. . Further, filter processing corresponding to the operated filter candidate button 82 is performed on the thumbnail image displayed in the display area 600. The user can check the image processing effect of the filter processing in real time on the thumbnail images displayed in the display area 600. The user can also perform different filter processing on the thumbnail images displayed in the display area 600 by operating other filter candidate buttons and compare the differences in image processing effects.

なお、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタン(図示省略)をフィルタ決定画面(図6D)に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数のフィルタ処理の候補を示すフィルタ候補ボタンを改めてフィルタ決定画面に表示させてもよい。利用者が、任意のフィルタ候補ボタンをタップ操作することにより、操作されたフィルタ候補ボタンに対応するフィルタ処理が行われたサムネイル画像が表示領域600に表示される。 Note that a keyword button (not shown) indicating a plurality of keyword candidates prepared in advance in the video creation application is displayed on the filter selection screen (FIG. 6D), and the user can tap any keyword button. Accordingly, a filter candidate button indicating a plurality of filter processing candidates corresponding to the operated keyword button may be displayed on the filter determination screen again. When the user taps any filter candidate button, a thumbnail image that has undergone filter processing corresponding to the operated filter candidate button is displayed in the display area 600.

上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、フィルタ決定画面(図6D)において、フィルタボタン72は、当画面(図6D)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。 As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that in the filter determination screen (FIG. 6D), the filter button 72 is an operation button for returning to the initial display (in other words, switching the display) of this screen (FIG. 6D).

<音楽決定画面>
図7Aは、音楽決定画面を例示する図である。図7Aに示す音楽決定画面は、処理部250がフローチャート(図5B)のステップS70の処理を行う場合に表示させる。音楽候補ボタン91、92、93、…は、複数の音楽の候補を示す。上述したように、音楽の候補の表示順は、映像作成アプリが推奨する順位に基づく。ただし、色々な音楽の情報を使用してもらうという考え方に基づき、過去に実行した映像プロジェクトにおいて選択したことがある音楽候補を表示対象から除外してもよい。
音楽候補ボタン91、92、93、…には、音楽を再生するための音の情報がそれぞれ対応付けられている。利用者が、任意の音楽候補ボタンをタップ操作することにより、操作された音楽候補ボタンに対応する音の情報が、動画10の情報101とともに動画ファイル100に記録する音の情報102として決定される。
利用者は、音楽候補ボタン91、92、93、…の右側に表示されている再生ボタンをタップ操作することにより、対応する音楽を再生させて試聴することも可能である。
<Music selection screen>
FIG. 7A is a diagram illustrating a music selection screen. The music determination screen shown in FIG. 7A is displayed when the processing unit 250 performs the process of step S70 of the flowchart (FIG. 5B). Music candidate buttons 91, 92, 93, . . . indicate a plurality of music candidates. As described above, the display order of music candidates is based on the order recommended by the video creation application. However, based on the idea that information on various music can be used, music candidates that have been selected in a video project executed in the past may be excluded from the display target.
Music candidate buttons 91, 92, 93, . . . are associated with sound information for reproducing music, respectively. When the user taps an arbitrary music candidate button, the sound information corresponding to the operated music candidate button is determined as the sound information 102 to be recorded in the video file 100 together with the information 101 of the video 10. .
By tapping the playback buttons displayed on the right side of the music candidate buttons 91, 92, 93, . . . , the user can also play and listen to the corresponding music.

なお、映像作成アプリが推奨する順位に関係なく、自身が好きな音楽の情報を選択したいという利用者のために、お気に入り音楽の候補を音楽決定画面に表示させるようにしてもよい。 Note that for users who wish to select information about their favorite music regardless of the ranking recommended by the video creation application, candidates for favorite music may be displayed on the music selection screen.

また、フィルタ決定画面(図6D)の場合と同様に、映像作成アプリにあらかじめ用意されている複数のキーワードの候補を示すキーワードボタンを音楽決定画面に表示させて、利用者が、任意のキーワードボタンをタップ操作することにより、操作されたキーワードボタンに対応する複数の音楽の候補を示す音楽候補ボタンを改めて音楽決定画面に表示させてもよい。 In addition, as in the case of the filter selection screen (FIG. 6D), a keyword button indicating multiple keyword candidates prepared in advance in the video creation application is displayed on the music selection screen, and the user can select any keyword button. By tapping , a music candidate button indicating a plurality of music candidates corresponding to the operated keyword button may be displayed on the music selection screen again.

上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、音楽決定画面(図7)において、音楽ボタン73は、当画面(図7A)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。 As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that on the music selection screen (FIG. 7), the music button 73 is an operation button for returning to the initial display (in other words, switching the display) of this screen (FIG. 7A).

<確認画面>
図7Bは、確認画面を例示する図である。図7Bに示す確認画面は、処理部250がフローチャート(図5B)のステップS80の処理を行う場合に表示させる。利用者は、N=6回に分けて撮影された動画カットC1~C6をつなげた動画10を記録するステップS90以降の処理へ進む前に、6つの動画カットC1~C6を確認する。表示領域600には、ステップS70で決定した音の情報102に基づくBGM再生とともに、ステップS60で決定したフィルタ処理が行われた動画カットC1~C6のサムネイル表示が続けて表示される。
<Confirmation screen>
FIG. 7B is a diagram illustrating a confirmation screen. The confirmation screen shown in FIG. 7B is displayed when the processing unit 250 performs the process in step S80 of the flowchart (FIG. 5B). The user confirms the six video cuts C1 to C6 before proceeding to the process from step S90 onward to record the video 10 that is a concatenation of video cuts C1 to C6 shot N=6 times. In the display area 600, the BGM is played back based on the sound information 102 determined in step S70, and thumbnails of the video cuts C1 to C6 that have been subjected to the filter processing determined in step S60 are successively displayed.

バー表示601は、動画カットC1~C6の総録画時間24秒のうちどこまで再生済かを示す。利用者がバー表示601のつまみを左右にずらす操作により、再生位置を進めたり、戻したりすることが可能である。 A bar display 601 indicates how much of the total recording time of 24 seconds of video cuts C1 to C6 has been played. The user can move the playback position forward or backward by moving the knob on the bar display 601 to the left or right.

上述したように、各画面(図6B、図6D、図7Aおよび図7B)において共通に表示されているボタンの説明については省略する。なお、確認画面(図7B)において、確認ボタン74は、当画面(図7B)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。 As described above, explanations of the buttons commonly displayed on each screen (FIGS. 6B, 6D, 7A, and 7B) will be omitted. Note that in the confirmation screen (FIG. 7B), the confirmation button 74 is an operation button for returning to the initial display (in other words, switching the display) of this screen (FIG. 7B).

<地図確認画面>
図7Cは、地図確認画面を例示する図である。図7Cに示す地図確認画面は、撮影一覧画面(図6A)において地図確認ボタン53がタップ操作されると、撮影一覧画面に代えて表示される。
<Map confirmation screen>
FIG. 7C is a diagram illustrating a map confirmation screen. The map confirmation screen shown in FIG. 7C is displayed in place of the shooting list screen when the map confirmation button 53 is tapped on the shooting list screen (FIG. 6A).

地図確認画面では、電子機器3Aの現在位置を示すマーク31が、複数の映像プロジェクトを代表する動画カットの撮影位置に表示され、各映像プロジェクトを代表するサムネイル表示32が、地図上に表示される。 On the map confirmation screen, a mark 31 indicating the current position of the electronic device 3A is displayed at the shooting position of a video cut representing a plurality of video projects, and a thumbnail display 32 representing each video project is displayed on the map. .

映像プロジェクトを代表する動画カットは、例えば、各映像プロジェクトで最後に撮影された動画カットであり、この動画カットの先頭フレームの画像に基づいて映像プロジェクトを代表するサムネイル表示32が生成される。
サムネイル表示32とともに表示されている数値「6」または「12」は、当該映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していることを示す。映像プロジェクトで撮影した動画カットの数がステップS10において入力された数Nに到達していない場合は、数値表示をしない。利用者は、撮影した動画カットの数が所定数に達した映像プロジェクトと、所定数に達していない映像プロジェクトとを、容易に識別することが可能になる。
The video cut representing the video project is, for example, the last video cut shot in each video project, and the thumbnail display 32 representing the video project is generated based on the image of the first frame of this video cut.
The numerical value "6" or "12" displayed together with the thumbnail display 32 indicates that the number of video cuts shot in the video project has reached the number N input in step S10. If the number of video cuts shot in the video project has not reached the number N input in step S10, the numerical value is not displayed. The user can easily identify video projects in which the number of video cuts shot has reached a predetermined number and video projects in which the number of video cuts has not reached the predetermined number.

また、表示33には、全ての映像プロジェクトで撮影された動画カットの撮影位置に基づいて算出された総移動距離(実施の形態では198km)が、撮影された動画カットの数の総和(実施の形態では48カット)とともに表示される。 In addition, the display 33 shows the total travel distance (198 km in the embodiment) calculated based on the shooting positions of the video cuts shot in all the video projects, and the sum of the number of video cuts shot (in the embodiment). In the format, it is displayed with 48 cuts).

撮影一覧ボタン52、地図確認ボタン53、およびその他の作業ボタン54は、撮影一覧画面(図6A)において説明したボタンと同様であるため、説明を省略する、なお、地図確認ボタン53は、当画面(図7C)の初期表示へ戻る(換言すると、表示を切替える)ための操作ボタンである。 The shooting list button 52, map confirmation button 53, and other work buttons 54 are the same as the buttons explained on the shooting list screen (FIG. 6A), so their explanation will be omitted. This is an operation button for returning to the initial display (in other words, switching the display) of (FIG. 7C).

以上説明した実施の形態によれば、以下のような作用効果を奏することができる。
(1)映像作成アプリは、位置情報を取得する測位部270と、被写体像を撮影して時刻情報としてのタイムコードおよび位置情報を含む画像情報を生成する、撮影部としてのカメラ210と、情報を記憶する記憶部260と、情報を表示する表示部としての出力部240と、操作に応じて操作信号を出力する操作部としての入力部230と、を含む電子機器3Aの処理部250で実行される映像作成プログラムである。
映像作成アプリは、電子機器3Aに、記憶部260(プロジェクト記憶部265)に記憶されている情報としての画像情報のうち撮影時間が4秒である動画カットを6つつなげて動画10を作成する映像プロジェクトを実行させる映像作成プログラムであって、映像プロジェクトで使用する各動画カットを解析する第1処理(ステップS52)と、解析結果に基づいて動画10の属性を推定する第2処理(ステップS54)と、動画10の属性に基づいて、映像プロジェクトで動画10の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第3処理(ステップS56)と、複数のコンテンツ候補を表示部としての出力部240に表示する第4処理(ステップS60、ステップS70)と、操作信号に基づいて、複数のコンテンツ候補から動画10の作成時に適用するコンテンツを選択する第5処理(同ステップS60、ステップS70)と、選択したコンテンツを、映像プロジェクトで動画10の作成に適用する第6処理(ステップS100およびステップS110)とを、映像プロジェクトとしてコンピュータに実行させる。
According to the embodiment described above, the following effects can be achieved.
(1) The video creation application includes a positioning unit 270 that acquires position information, a camera 210 as a shooting unit that shoots a subject image and generates image information including a time code as time information and position information, and information The processing unit 250 of the electronic device 3A includes a storage unit 260 for storing information, an output unit 240 as a display unit for displaying information, and an input unit 230 as an operation unit for outputting an operation signal in response to an operation. This is a video creation program.
The video creation application creates a video 10 by connecting six video cuts with a shooting time of 4 seconds from the image information stored in the storage unit 260 (project storage unit 265) in the electronic device 3A. This is a video creation program that executes a video project, and includes a first process (step S52) that analyzes each video cut used in the video project, and a second process (step S54) that estimates the attributes of the video 10 based on the analysis results. ), a third process (step S56) of selecting a plurality of content candidates from among the contents applicable to the creation of the video 10 in the video project based on the attributes of the video 10; A fourth process (step S60, step S70) for displaying on the output unit 240, and a fifth process (step S60, step S70) for selecting content to be applied when creating the video 10 from a plurality of content candidates based on the operation signal. ) and a sixth process (step S100 and step S110) of applying the selected content to the creation of the moving image 10 as a video project, which are executed by the computer as a video project.

このように構成したので、映像作成アプリであらかじめ用意された複数のコンテンツの中から複数のコンテンツ候補が自動で表示部としての出力部240に表示される。そのため、利用者にとって、多数の候補がある場合でもコンテンツを選択しやすくなる。
利用者に提示する複数のコンテンツ候補を、動画10の作成に用いる動画カットC1~C6の属性に基づいて選ぶようにしたので、動画10の雰囲気に合致した適切なコンテンツ候補を選ぶことが可能になる。動画10の作成に用いる動画カットC1~C6の属性を考慮しないでコンテンツ候補が選ばれる場合と比べて、利用者に安心感を与える。
以上説明したように、利用者は、映像作成アプリで作成する動画10に適したコンテンツを、複数の候補の中から適切に選ぶことが可能になる。
With this configuration, a plurality of content candidates are automatically displayed on the output section 240 as a display section from among a plurality of contents prepared in advance by the video creation application. Therefore, it becomes easier for the user to select the content even when there are many candidates.
Since the multiple content candidates presented to the user are selected based on the attributes of video cuts C1 to C6 used to create video 10, it is possible to select appropriate content candidates that match the atmosphere of video 10. Become. This gives the user a sense of security compared to the case where content candidates are selected without considering the attributes of the video cuts C1 to C6 used to create the video 10.
As explained above, the user can appropriately select content suitable for the video 10 created by the video creation application from among a plurality of candidates.

(2)上記(1)の動画作成アプリの第2処理(ステップS54)は、各動画カットに写る主要被写体の色相、彩度および明度のうち少なくとも一つを属性として推定する。
このように構成したので、動画カットC1~C6に写る被写体の色が、暖色系の色を基調とするのか、寒色系の色を基調とするのか、鮮やかな色を基調とするのか、くすんだ色を基調とするのか、明るい色を基調とするのか、暗い色を基調とするのかを、分類することが可能になる。
(2) The second process (step S54) of the video creation application in (1) above estimates at least one of the hue, saturation, and brightness of the main subject in each video cut as an attribute.
With this configuration, it is possible to determine whether the colors of the subjects in video cuts C1 to C6 are based on warm colors, cool colors, bright colors, or dull colors. It becomes possible to classify whether the color is the base tone, the base tone is a bright color, or the base tone is a dark color.

(3)上記動画作成アプリの第3処理(ステップS56)は、動画カットC1~C6間における属性(色の三属性)の変化に基づいて複数のコンテンツ候補を選ぶ。
このように構成したので、動画カットC1~C6に写る主要被写体の例えば色相の変化に基づいて、その色相が生み出す雰囲気に適したジャンル(例えば第1~第3ジャンル)に含まれるコンテンツ候補としてのフィルタ処理を選ぶことが可能になる。
また、動画カットC1~C6の、例えば彩度の変化に基づいて、その彩度が生み出す雰囲気に適したジャンル(例えば第10または第11ジャンル)に含まれるコンテンツ候補としての楽曲を選ぶことが可能になる。
このように、作成する動画10の雰囲気に合うコンテンツ候補を利用者に提示することが可能になる。
(3) The third process (step S56) of the video creation application selects a plurality of content candidates based on changes in attributes (three color attributes) between video cuts C1 to C6.
With this configuration, based on changes in the hue of the main subjects in video cuts C1 to C6, for example, content candidates included in genres (for example, genres 1 to 3) that are suitable for the atmosphere created by the hue are selected. It becomes possible to select filter processing.
Furthermore, based on the change in saturation, for example, of video cuts C1 to C6, it is possible to select a song as a content candidate that is included in a genre (for example, the 10th or 11th genre) that is suitable for the atmosphere created by the saturation. become.
In this way, content candidates that match the atmosphere of the video 10 to be created can be presented to the user.

(4)上記(3)において第3処理(ステップS56)は、映像プロジェクトで使用する動画カットC1~C6の撮影順に、各動画カットに写る主要被写体の色相が暖色に近づく場合と、色相が寒色に近づく場合とで異なるコンテンツ候補を選ぶ。
このように構成したので、例えば後から撮影した動画カットほど暖色系の色に近づく場合には曲の演奏がハイテンポの曲を選び、例えば後から撮影した動画カットほど寒色系の色に近づく場合には曲の演奏がスローテンポの曲を選ぶ等、作成する動画10の雰囲気に合うコンテンツ候補としての楽曲を利用者に提示することが可能になる。
(4) In the above (3), the third process (step S56) is performed in the shooting order of video cuts C1 to C6 used in the video project, in cases where the hue of the main subject in each video cut approaches a warm color, and in cases where the hue approaches a cool color. Select different content candidates depending on whether the content is close to .
With this configuration, for example, if the later a video cut is taken, the closer the colors will be to warm colors, a song with a high tempo performance will be selected, and for example, if the later the video cut is taken, the closer the colors will be to cold colors It becomes possible to present to the user songs as content candidates that match the atmosphere of the video 10 to be created, such as selecting a song with a slow tempo performance.

(5)上記(3)または(4)において第3処理(ステップS56)は、映像プロジェクトで使用する動画カットC1~C6の撮影順に、各動画カットに写る主要被写体の彩度が高くなる場合と、彩度が低くなる場合とで異なるコンテンツ候補を選ぶ。
このように構成したので、例えば後から撮影した動画カットほど彩度が上昇する場合には元気な楽想の曲等(第10ジャンル)を選び、例えば後から撮影した動画カットほど彩度が低下する場合には静かな楽想の曲等(第11ジャンル)を選ぶ等、作成する動画10の雰囲気に合うコンテンツ候補としての楽曲を利用者に提示することが可能になる。
(5) In (3) or (4) above, the third process (step S56) is performed when the saturation of the main subject in each video cut increases in the shooting order of video cuts C1 to C6 used in the video project. , select different content candidates depending on whether the saturation is low or not.
With this configuration, for example, if the saturation increases as the video cut is taken later, a cheerful musical song (genre 10) is selected, and for example, the saturation decreases as the video cut is taken later. In this case, it is possible to present to the user songs as content candidates that match the atmosphere of the video 10 to be created, such as selecting quiet melodic songs (eleventh genre).

(6)上記(3)から(5)において第3処理(ステップS56)は、映像プロジェクトで使用する動画カットC1~C6の撮影順に、各動画カットに写る主要被写体の明度が高くなる場合と、明度が低くなる場合とで異なるコンテンツ候補を選ぶ。
このように構成したので、例えば後から撮影した動画カットほど明度が上昇する場合には画像をくっきりと表現するフィルタ処理等(第7ジャンル)を選び、例えば後から撮影した動画カットほど明度が低下する場合には画像を控えめに表現するフィルタ処理等(第6ジャンル)を選ぶ等、作成する動画10の雰囲気に合うコンテンツ候補としてのフィルタ処理を利用者に提示することが可能になる。
(6) In (3) to (5) above, the third process (step S56) is performed when the brightness of the main subject in each video cut becomes higher in the shooting order of video cuts C1 to C6 used in the video project. Select different content candidates depending on when the brightness is low.
With this configuration, for example, if the brightness increases as the video cut is taken later, filter processing etc. (genre 7) that expresses the image clearly is selected, and for example, the brightness decreases as the video cut is taken later. In this case, it is possible to present to the user filter processing as content candidates that match the atmosphere of the video 10 to be created, such as selecting filter processing that understates the image (sixth genre).

(7)上記(1)から(6)において、コンテンツは、音楽またはフィルタ処理の情報であり、第6処理(ステップS100、S110)は、映像プロジェクトで作成する動画10の情報に音楽の情報を付す、および/または、映像プロジェクトで作成する動画10にフィルタ処理を行う。
このように構成したので、利用者は、動画10の雰囲気に適したBGM曲、フィルタ処理により魅力を高めた動画10を作成することが可能になる。
(7) In (1) to (6) above, the content is music or filter processing information, and the sixth process (steps S100 and S110) adds music information to the information of the video 10 created in the video project. Filter processing is performed on the video 10 that is attached and/or created in a video project.
With this configuration, the user can create the video 10 with enhanced appeal through BGM music suitable for the atmosphere of the video 10 and filter processing.

上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
上述したように、実施の形態における動画カットの1カット当たりの録画時間4秒、カット数6、総録画時間および動画10の再生時間24秒は一例である。総録画時間および動画10の再生時間は、12秒に縮めてもよいし、48秒に延ばしてもよい。
The embodiments described above can be modified into various forms. Modifications will be described below.
(Modification 1)
As described above, the recording time of 4 seconds per video cut, the number of cuts of 6, the total recording time, and the playback time of video 10 of 24 seconds in the embodiment are examples. The total recording time and the playback time of the moving image 10 may be shortened to 12 seconds or extended to 48 seconds.

(変形例2)
上述した実施の形態では、映像作成アプリを実行する電子機器3Aの処理部250が、ステップS10で入力された撮影回数Nに応じて総録画時間が24秒となるように1カット当たりの録画時間4秒を決定した。この代わりに、1カット当たりの録画時間を、利用者による撮影操作の継続時間に基づいて決定するように構成してもよい。
(Modification 2)
In the embodiment described above, the processing unit 250 of the electronic device 3A that executes the video creation application sets the recording time per cut so that the total recording time is 24 seconds according to the number of shooting times N input in step S10. 4 seconds was decided. Alternatively, the recording time per cut may be determined based on the duration of the user's shooting operation.

変形例2において、処理部250は、図5AのステップS10~S20に代えて以下の代替ステップS10Aを、図5AのステップS40に代えて、以下の代替ステップS20Aの処理を行う。
処理部250は、代替ステップS10Aにおいて、出力部240に表示される撮影ボタン56に対するタップ時間に応じて、カメラ210により動画カットを撮影させてステップS30へ進む。例えば、タップ時間が0.1秒から0.5秒の場合は、1カット当たりの撮影時間を0.5秒とする。タップ時間が0.5秒から1.0秒の場合は、1カット当たりの撮影時間を1.0秒とする。タップ時間が1.0秒から1.5秒の場合は、1カット当たりの撮影時間を1.5秒とする。以降同様に、0.5秒刻みで動画カットの撮影時間を決定する。ただし、1カット当たりの最長の撮影時間を4秒とする。
In modification 2, the processing unit 250 performs the following alternative step S10A in place of steps S10 to S20 in FIG. 5A, and performs the following alternative step S20A in place of step S40 in FIG. 5A.
In alternative step S10A, the processing unit 250 causes the camera 210 to shoot a video cut according to the tap time on the shooting button 56 displayed on the output unit 240, and proceeds to step S30. For example, when the tap time is 0.1 seconds to 0.5 seconds, the shooting time per cut is set to 0.5 seconds. When the tap time is from 0.5 seconds to 1.0 seconds, the shooting time per cut is set to 1.0 seconds. When the tap time is 1.0 seconds to 1.5 seconds, the shooting time per cut is set to 1.5 seconds. Thereafter, similarly, the shooting time of the video cut is determined in 0.5 second increments. However, the maximum shooting time per cut shall be 4 seconds.

ステップS30の次に進む代替ステップS20Aにおいて、処理部250は、動画カットの総録画時間が24秒を超えているか否かを判定する。処理部250は、総録画時間が24秒を超えている場合に代替ステップS20Aを肯定判定し、ステップS50へ進む。ステップS50以降の処理は、上述した実施の形態の説明と同様である。 In alternative step S20A following step S30, the processing unit 250 determines whether the total recording time of the video cut exceeds 24 seconds. If the total recording time exceeds 24 seconds, the processing unit 250 makes an affirmative determination in alternative step S20A, and proceeds to step S50. The processing after step S50 is the same as that described in the embodiment described above.

処理部250は、総録画時間が24秒に満たない場合には、代替ステップS20Aを否定判定して図5BのステップS120へ進む。ステップS120で一時終了をしない(否定判定)場合には、図5Aの代替ステップS10Aへ戻って上記処理を繰り返す。すなわち、処理部250は、総録画時間が24秒を超えるまで、タップ時間に応じた撮影時間で動画カットの撮影を行わせる。ステップS140において撮影を判定する場合も、代替ステップS10Aへ進む。 If the total recording time is less than 24 seconds, the processing unit 250 makes a negative determination in alternative step S20A and proceeds to step S120 in FIG. 5B. If the temporary termination is not performed in step S120 (negative determination), the process returns to alternative step S10A in FIG. 5A and the above process is repeated. That is, the processing unit 250 causes video cuts to be shot at a shooting time corresponding to the tap time until the total recording time exceeds 24 seconds. If photographing is determined in step S140, the process also proceeds to alternative step S10A.

なお、処理部250は、総録画時間が24秒を超えている場合において、カメラ210で最後に撮影された動画カットのうち総録画時間24秒を超過した分については、出力部240にメッセージを表示させる等して、超過分を削除する編集操作を行うように、利用者に促してもよい。また、総録画時間24秒を超過した分を自動的に削除してもよい。 Note that when the total recording time exceeds 24 seconds, the processing unit 250 sends a message to the output unit 240 for the video cut last shot by the camera 210 that exceeds the total recording time of 24 seconds. The user may be prompted to perform an editing operation to delete the excess content by displaying the information. Alternatively, the total recording time exceeding 24 seconds may be automatically deleted.

以上説明した変形例2による代替ステップS10AおよびS20Aの処理では、動画10を構成する動画カットの録画時間を、利用者による撮影操作の継続時間に基づいて決定させることが可能になる。 In the processing of alternative steps S10A and S20A according to the second modification described above, it becomes possible to determine the recording time of the video cuts that constitute the video 10 based on the duration of the shooting operation by the user.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the embodiments and modifications described above unless the characteristics of the present invention are impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.

1 車両、2 車載端末、3A,3B 電子機器、4 サーバ装置、5 通信網、10 動画、31 マーク、32,61~66 サムネイル表示、33 表示、51 新規ボタン、52 撮影一覧ボタン、53 地図確認ボタン、54 その他の作業ボタン、55 戻るボタン、56 撮影ボタン、71,77 編集ボタン、72 フィルタボタン、73 音楽ボタン、74 確認ボタン、81~83 フィルタ候補ボタン、91~96 音楽候補ボタン、100 動画ファイル、101 動画の情報、102 音の情報、210 カメラ、220 通信部、230 入力部、240 出力部、250 処理部、260 記憶部、262 画像情報記憶部、265 プロジェクト記憶部、267 コンテンツ情報記憶部、270 測位部、400 サービス提供システム、600,C61 表示領域、601 バー表示、602 再生ボタン、C1~C6 動画カット、C61S カーソル 1 Vehicle, 2 In-vehicle terminal, 3A, 3B Electronic equipment, 4 Server device, 5 Communication network, 10 Video, 31 Mark, 32,61-66 Thumbnail display, 33 Display, 51 New button, 52 Shooting list button, 53 Map confirmation Button, 54 Other work button, 55 Back button, 56 Shooting button, 71,77 Edit button, 72 Filter button, 73 Music button, 74 Confirm button, 81-83 Filter candidate button, 91-96 Music candidate button, 100 Video file, 101 video information, 102 sound information, 210 camera, 220 communication section, 230 input section, 240 output section, 250 processing section, 260 storage section, 262 image information storage section, 265 project storage section, 267 content information storage section, 270 positioning section, 400 service provision system, 600, C61 display area, 601 bar display, 602 play button, C1 to C6 video cut, C61S cursor

Claims (7)

位置情報を取得する測位部と、被写体像を撮影して時刻情報および位置情報を含む画像情報を生成する撮影部と、情報を記憶する記憶部と、情報を表示する表示部と、操作に応じて操作信号を出力する操作部と、を含む電子機器に、前記記憶部に記憶されている前記情報としての画像情報のうち撮影時間が所定秒である動画カットを所定数つなげて動画を作成する映像プロジェクトを実行させる映像作成プログラムであって、
前記映像プロジェクトで使用する各動画カットを解析する第1処理と、
前記解析結果に基づいて前記動画の属性を推定する第2処理と、
前記動画の属性に基づいて、前記映像プロジェクトで前記動画の作成に適用可能なコンテンツの中から複数のコンテンツ候補を選ぶ第3処理と、
前記複数のコンテンツ候補を前記表示部に表示する第4処理と、
前記操作信号に基づいて、前記複数のコンテンツ候補から前記動画の作成時に適用するコンテンツを選択する第5処理と、
前記選択したコンテンツを、前記映像プロジェクトで前記動画の作成に適用する第6処理と、
をコンピュータに実行させることを特徴とする映像作成プログラム。
A positioning unit that acquires position information, a photographing unit that photographs a subject image and generates image information including time information and position information, a storage unit that stores information, a display unit that displays information, and a and an operation section that outputs an operation signal by connecting an electronic device with a predetermined number of video cuts having a predetermined shooting time of a predetermined second from among the image information as the information stored in the storage section to create a video. A video creation program that executes a video project,
a first process of analyzing each video cut used in the video project;
a second process of estimating an attribute of the video based on the analysis result;
a third process of selecting a plurality of content candidates from content applicable to creating the video in the video project, based on attributes of the video;
a fourth process of displaying the plurality of content candidates on the display unit;
a fifth process of selecting content to be applied when creating the video from the plurality of content candidates based on the operation signal;
a sixth process of applying the selected content to the creation of the video in the video project;
A video creation program that causes a computer to execute.
請求項1に記載の映像作成プログラムにおいて、
前記第2処理は、前記各動画カットに写る主要被写体の色相、彩度および明度のうち少なくとも一つを前記属性として推定することを特徴とする映像作成プログラム。
The video creation program according to claim 1,
The video creation program is characterized in that the second process estimates at least one of hue, saturation, and brightness of the main subject in each video cut as the attribute.
請求項1または2に記載の映像作成プログラムにおいて、
前記第3処理は、前記動画カット間における前記属性の変化に基づいて前記複数のコンテンツ候補を選ぶことを特徴とする映像作成プログラム。
The video creation program according to claim 1 or 2,
The video creation program is characterized in that the third process selects the plurality of content candidates based on changes in the attributes between the video cuts.
請求項3に記載の映像作成プログラムにおいて、
前記第3処理は、前記映像プロジェクトで使用する動画カットの撮影順に、前記各動画カットに写る主要被写体の色相が暖色に近づく場合と、前記色相が寒色に近づく場合とで異なるコンテンツ候補を選ぶことを特徴とする映像作成プログラム。
The video creation program according to claim 3,
The third process is to select different content candidates depending on whether the hue of the main subject in each video cut approaches a warm color and the case where the hue approaches a cool color in the shooting order of the video cuts used in the video project. A video creation program featuring:
請求項3または4に記載の映像作成プログラムにおいて、
前記第3処理は、前記映像プロジェクトで使用する動画カットの撮影順に、前記各動画カットに写る主要被写体の彩度が高くなる場合と、前記彩度が低くなる場合とで異なるコンテンツ候補を選ぶことを特徴とする映像作成プログラム。
The video creation program according to claim 3 or 4,
The third process is to select different content candidates depending on whether the saturation of the main subject in each video cut is high and the saturation is low in the shooting order of the video cuts used in the video project. A video creation program featuring:
請求項3から5のいずれか一項に記載の映像作成プログラムにおいて、
前記第3処理は、前記映像プロジェクトで使用する動画カットの撮影順に、前記各動画カットに写る主要被写体の明度が高くなる場合と、前記明度が低くなる場合とで異なるコンテンツ候補を選ぶことを特徴とする映像作成プログラム。
The video creation program according to any one of claims 3 to 5,
The third process is characterized in that, in the shooting order of the video cuts used in the video project, different content candidates are selected depending on whether the brightness of the main subject in each video cut is high and when the brightness is low. A video creation program.
請求項1から6のいずれか一項に記載の映像作成プログラムにおいて、
前記コンテンツは、音楽またはフィルタ処理の情報であり、
前記第6処理は、前記映像プロジェクトで作成する動画の情報に前記音楽の情報を付す、および/または、前記映像プロジェクトで作成する動画に前記フィルタ処理を行うことを特徴とする映像作成プログラム。
The video creation program according to any one of claims 1 to 6,
The content is music or filter processing information,
The sixth process is a video creation program characterized in that the music information is added to the video information created in the video project, and/or the filter process is applied to the video created in the video project.
JP2022028943A 2022-02-28 2022-02-28 video creation program Pending JP2023125037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022028943A JP2023125037A (en) 2022-02-28 2022-02-28 video creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022028943A JP2023125037A (en) 2022-02-28 2022-02-28 video creation program

Publications (1)

Publication Number Publication Date
JP2023125037A true JP2023125037A (en) 2023-09-07

Family

ID=87887878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022028943A Pending JP2023125037A (en) 2022-02-28 2022-02-28 video creation program

Country Status (1)

Country Link
JP (1) JP2023125037A (en)

Similar Documents

Publication Publication Date Title
US8467402B2 (en) Digital audio communication system
KR101523971B1 (en) Terminal executing function of voice recording and method for processing image thereof
US20130204414A1 (en) Digital audio communication system
JP2023125037A (en) video creation program
JP2023125039A (en) video creation program
JP2023125033A (en) video creation program
JP2023125038A (en) video creation program
JP2023125040A (en) video creation program
JP7451999B2 (en) Recording device, video system, recording method, and program
US11956498B2 (en) Movie creation method, non-transitory computer readable medium, and movie creation apparatus
JP2023125029A (en) video creation program
JP2023125030A (en) video creation program
JP2023125041A (en) video creation program
JP2023125031A (en) video creation program
CN113051233A (en) Processing method and device
JP2023125032A (en) video creation program
JP4047834B2 (en) Portable information terminal
JP6144477B2 (en) Collaboration singing video display system
JP2023125042A (en) video creation program
JP2023125034A (en) Server device
JP7342087B2 (en) video creation program
JP2006109151A (en) Image recording device and electronic album creation system
JP4963722B2 (en) Recorded data playback device, etc.
JPH10336576A (en) Image recording system
US20230328393A1 (en) Image processing device, and image processing method