JP7505219B2 - Video creation system, video creation device, and program - Google Patents

Video creation system, video creation device, and program Download PDF

Info

Publication number
JP7505219B2
JP7505219B2 JP2020052137A JP2020052137A JP7505219B2 JP 7505219 B2 JP7505219 B2 JP 7505219B2 JP 2020052137 A JP2020052137 A JP 2020052137A JP 2020052137 A JP2020052137 A JP 2020052137A JP 7505219 B2 JP7505219 B2 JP 7505219B2
Authority
JP
Japan
Prior art keywords
video
subject
user
videos
drone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020052137A
Other languages
Japanese (ja)
Other versions
JP2021153218A (en
Inventor
雄幸 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2020052137A priority Critical patent/JP7505219B2/en
Publication of JP2021153218A publication Critical patent/JP2021153218A/en
Application granted granted Critical
Publication of JP7505219B2 publication Critical patent/JP7505219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、動画作成システム、動画作成装置、ドローンおよびプログラムに関する。 The present invention relates to a video creation system, a video creation device, a drone, and a program.

観光地などでは、ユーザの写真を撮影し、その画像をユーザに提供するサービスが存在する。ユーザはその画像を見返して、観光地であった出来事などを思い出して楽しむことができる。 At tourist spots, there are services that take photos of users and provide those images to them. Users can enjoy looking back at those images and remembering events that happened at the tourist spot.

このようなサービスをより魅力的なものとするため、ユーザに動画を提供することが考えられる。ただし、観光中のユーザを撮影者によって撮影し続けることは難しい。 To make such services more appealing, it is possible to provide users with videos. However, it is difficult for a photographer to continue filming users while they are sightseeing.

このような問題を解決するための一つの手段として、ドローンを用いてユーザを撮影し続けることが考えられる。特許文献1にはドローンを用いた撮影技術の一例が記載されており、ドローンが指定されたルートで飛行して撮影を行うことが開示されている。 One possible solution to this problem would be to use a drone to continuously capture images of the user. Patent Document 1 describes an example of a technology for capturing images using a drone, and discloses that the drone flies along a designated route to capture images.

特許第6369538号Patent No. 6369538

ドローンの操作には専門的な技術が必要であり、だれでもできるといったわけではない。ドローンの自動追尾機能を利用した撮影を行うことで操作の負担は軽減できるものの、自動追尾機能は、最初に設定したアングルで被写体が撮影されつづけるようにドローンの機体制御を行うものであるため、動画が単調になりがちである。 Operating a drone requires specialized skills, and not just anyone can do it. The burden of operation can be reduced by using the drone's automatic tracking function to film, but the automatic tracking function controls the drone so that the subject continues to be filmed at the angle initially set, which can make the video tend to be monotonous.

この点、ドローンで撮影した動画の編集により興趣のある動画を作成することも考えられるが、動画編集には時間や手間もかかり、専門的な技術も必要である。 In this regard, it is possible to create interesting videos by editing videos shot by drones, but video editing takes time and effort, and requires specialized skills.

本発明は上記の問題に鑑みてなされたものであり、ドローン等を用いて撮影した興趣のある動画を簡単に提供できる動画作成システム等を提供することを目的とする。 The present invention was made in consideration of the above problems, and aims to provide a video creation system etc. that can easily provide interesting videos shot using a drone etc.

前述した課題を解決するための第1の発明は、ドローンを含む複数の撮影装置で撮影した被写体であるユーザの動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成システムであって、それぞれ異なるアングルで被写体の動画を撮影する前記複数の撮影装置と、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置と、前記動画作成装置によって作成された動画を前記ユーザのユーザ端末に送信する動画送信装置と、を有し、前記動画作成装置は、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更することを特徴とする動画作成システムである The first invention for solving the above-mentioned problems is a video creation system that uses video of a user as a subject captured by multiple imaging devices including a drone to create a new video in which footage of the subject is played at different angles for each time period, the video creation system comprising: a multiple imaging devices that capture video of the subject at different angles; a video creation device that creates the new video by cutting out parts of the video of the subject captured by each imaging device and connecting the parts based on an editing pattern that defines which time periods to cut out from the video of the subject captured at each angle and in what order to connect the cut-out parts; and a video transmission device that transmits the video created by the video creation device to a user terminal of the user, wherein the video creation device performs video analysis to change the time periods for cutting out the video from the original editing pattern depending on the content of the video .

本発明では、観光地を訪れたユーザ等の被写体をドローンを含む複数の撮影装置により異なるアングルで撮影した複数の動画から、上記の編集パターンに基づいて新たな動画を作成する。これにより、時間帯ごとに異なるアングルの被写体の映像が再生される興趣のある動画を得ることができる。また動画の切り貼りは編集パターンに基づき自動的に行われるので、編集に時間や手間がかかることもなく、専門的な技術も不要である。 In the present invention, a new video is created based on the above editing pattern from multiple videos taken from different angles of subjects such as users visiting tourist spots using multiple imaging devices, including drones. This makes it possible to obtain an interesting video in which footage of the subject is played back from different angles for each time period. In addition, because the videos are cut and pasted automatically based on the editing pattern, editing does not take much time or effort, and no specialized skills are required.

前記ドローンは、例えば、一定のアングルで被写体が撮影されるように自動追尾を行う。また前記複数の撮影装置には、異なるアングルで被写体を撮影する複数の前記ドローンが含まれることも望ましい。
ドローンの自動追尾機能を利用することでドローンの操作負担が軽減され、また異なるアングルで被写体を撮影する複数のドローンを用いることで、ドローンの自動追尾機能を利用した場合であっても各ドローンで撮影した動画の切り貼りによって興趣のある動画を作成できる。
The drone may perform automatic tracking so that the subject is photographed at a constant angle, and it is also preferable that the multiple image capturing devices include multiple drones that capture the subject at different angles.
Using the drone's automatic tracking function reduces the burden of operating the drone, and by using multiple drones to shoot the subject from different angles, interesting videos can be created by cutting and pasting together the videos shot by each drone, even when using the drone's automatic tracking function.

また本発明では、作成された動画を動画送信装置によりユーザに提供することで、観光地等での動画提供サービスを実現できる。 Furthermore, in the present invention, the created video can be provided to users by a video transmission device, thereby realizing a video providing service at tourist spots and the like.

第2の発明は、それぞれ異なるアングルで被写体であるユーザの動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記ユーザのユーザ端末に送信される前記新たな動画を作成し、前記新たな動画を作成する際、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更することを特徴とする動画作成装置である。
第2の発明は、第1の発明の動画作成システムにおける動画作成装置である。
The second invention is a video creation device that uses videos of a subject shot by multiple shooting devices including a drone, each of which shoots videos of the subject at different angles, to create a new video in which footage of the subject is played at different angles for each time period, and creates the new video, which is sent to the user terminal of the user, by cutting out parts of the videos of the subject shot by each shooting device and connecting the parts based on an editing pattern that defines which parts of the videos shot of the subject at each angle will be cut out and the order in which the cut-out parts will be connected, and when creating the new video, the video creation device performs video analysis to change the time periods for cutting out the video from the original editing pattern depending on the content of the video .
A second invention is a moving image creating device in the moving image creating system of the first invention.

第3の発明は、コンピュータを、それぞれ異なるアングルで被写体であるユーザの動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記ユーザのユーザ端末に送信される前記新たな動画を作成し、前記新たな動画を作成する際、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更する動画作成装置として機能させるためのプログラムである。
第3の発明は、第2の発明の動画作成装置のプログラムである。
A third invention is a video creation device that uses videos of a subject shot by multiple shooting devices including a drone, each of which shoots videos of a user as a subject at different angles, to create a new video in which footage of the subject is played back at different angles for each time period, and creates the new video by cutting out parts of the videos of the subject shot by each shooting device and connecting the parts based on an editing pattern that defines which time periods to cut out from the videos of the subject shot at each angle and the order in which to connect the cut-out parts , to create the new video that is to be sent to the user terminal of the user, and when creating the new video, performs video analysis to change the time periods for cutting out the video from the original editing pattern depending on the content of the video .
A third invention is a program for the moving image creation device of the second invention.

本発明により、ドローン等を用いて撮影した興趣のある動画を簡単に提供できる動画作成システム等を提供することができる。 The present invention provides a video creation system that can easily provide interesting videos shot using a drone or the like.

動画作成システム1を示す図。FIG. 1 shows a video creation system 1. ドローン2のハードウェア構成を示す図。FIG. 2 is a diagram showing the hardware configuration of drone 2. 動画作成装置3のハードウェア構成を示す図。FIG. 2 is a diagram showing a hardware configuration of a moving image creation device 3. 動画送信装置4のハードウェア構成を示す図。FIG. 2 is a diagram showing the hardware configuration of a video transmission device 4. 編集パターン100を示す図。FIG. 1 shows an editing pattern 100. ドローン2によるユーザの撮影と編集後の新たな動画200について説明する図。A diagram explaining a new video 200 taken by a user using drone 2 and edited. 動画作成システム1において実行される処理を示すフローチャート。4 is a flowchart showing a process executed in the moving image creation system 1. 追尾対象の設定について説明する図。FIG. 4 is a diagram illustrating setting of a tracking target. 一台のドローン2によりユーザを撮影する例。An example of photographing a user using a single drone 2.

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。 The following describes in detail a preferred embodiment of the present invention with reference to the drawings.

(1.動画作成システム1)
図1は、本発明の実施形態に係る動画作成システム1を示す図である。本実施形態の動画作成システム1は、ドローン2、動画作成装置3、動画送信装置4等を有し、観光地等を訪れたユーザに対し、ユーザを撮影した動画を提供するために用いられる。
(1. Video Creation System 1)
1 is a diagram showing a video creation system 1 according to an embodiment of the present invention. The video creation system 1 of the present embodiment includes a drone 2, a video creation device 3, a video transmission device 4, etc., and is used to provide a user who visits a tourist spot or the like with a video of the user.

ドローン2は、飛行しつつユーザ(被写体)の動画を撮影する撮影装置であり、特に本実施形態では画像認識を用いた既知の技術によりユーザを一定のアングルで自動追尾する自動追尾機能を有している。 The drone 2 is a photographing device that shoots video of the user (subject) while flying, and in this embodiment in particular, has an automatic tracking function that automatically tracks the user at a fixed angle using known technology that uses image recognition.

本実施形態では複数台のドローン2が用意され、それぞれ異なるアングルでユーザを撮影する。本実施形態において、「アングル」とは、撮影装置(ドローン2)によってユーザが撮影されるときの撮影方向やユーザの大きさ(「寄り」「引き」等)をいい、ユーザと撮影装置との位置関係等によって定まる。 In this embodiment, multiple drones 2 are prepared, each capturing an image of the user at a different angle. In this embodiment, "angle" refers to the direction in which the user is captured by the image capture device (drone 2) and the size of the user (e.g., "close-up," "long-distance," etc.), and is determined by factors such as the positional relationship between the user and the image capture device.

図2はドローン2のハードウェア構成を示す図である。図2に示すように、ドローン2は、制御部21、記憶部22、撮像部23、機体駆動部24、無線通信部25等を有する。 Figure 2 is a diagram showing the hardware configuration of the drone 2. As shown in Figure 2, the drone 2 has a control unit 21, a memory unit 22, an imaging unit 23, an aircraft driving unit 24, a wireless communication unit 25, etc.

制御部21は、例えばCPU等を有する演算処理装置であり、ドローン2の飛行および撮影を行うための各種の機体制御を行う。 The control unit 21 is, for example, a processing device having a CPU, and performs various aircraft controls for flying and photographing the drone 2.

記憶部22は、例えばフラッシュメモリ等であり、撮像部23によって撮像された動画データを格納する。 The storage unit 22 is, for example, a flash memory, and stores video data captured by the imaging unit 23.

撮像部23は、光学レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子、A/D(Analog/Digital)変換部等から構成される高解像度のエリアカメラである。撮像部23は、光学レンズを介して入力された被写体像を撮像素子により光電変換し、アナログ画像信号を生成する。そして、A/D変換部によりアナログ画像信号をデジタル画像データに変換する。 The imaging unit 23 is a high-resolution area camera composed of an optical lens, an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), an A/D (Analog/Digital) conversion unit, etc. The imaging unit 23 photoelectrically converts the subject image input through the optical lens using the imaging element to generate an analog image signal. The A/D conversion unit then converts the analog image signal into digital image data.

機体駆動部24は、ドローン2の機体を動作させるための駆動機構である。機体駆動部24は、例えば、ドローン2の飛行用のプロペラを回転させたり、撮像部23の位置や向きを変化させたりすることができる。 The aircraft drive unit 24 is a drive mechanism for operating the aircraft of the drone 2. The aircraft drive unit 24 can, for example, rotate the propellers for flying the drone 2 and change the position and orientation of the imaging unit 23.

無線通信部25は、ドローン2の操作端末(不図示)や動画作成装置3との間で信号やデータの送受信を無線にて行うものである。 The wireless communication unit 25 wirelessly transmits and receives signals and data between the drone 2's operation terminal (not shown) and the video creation device 3.

図1の説明に戻る。動画作成装置3は、ドローン2で撮影した動画を編集することで、新たな動画を作成するものである。 Returning to the explanation of Figure 1, the video creation device 3 creates a new video by editing the video captured by the drone 2.

図3は動画作成装置3のハードウェア構成を示す図である。図3に示すように、動画作成装置3は、例えば制御部31、記憶部32、入力部33、表示部34、通信部35等をバスにより接続して構成したコンピュータにより実現できる。但しこれに限ることなく、適宜様々な構成をとることができる。 Figure 3 is a diagram showing the hardware configuration of the video creation device 3. As shown in Figure 3, the video creation device 3 can be realized by a computer configured by connecting, for example, a control unit 31, a storage unit 32, an input unit 33, a display unit 34, a communication unit 35, etc. via a bus. However, the present invention is not limited to this, and various configurations can be used as appropriate.

制御部31はCPU、ROM、RAMなどから構成される。CPUは、記憶部32、ROMなどの記憶媒体に格納された動画作成装置3の処理に係るプログラムをRAM上のワークエリアに呼び出して実行する。ROMは不揮発性メモリであり、ブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは揮発性メモリであり、記憶部32、ROMなどからロードしたプログラムやデータを一時的に保持するとともに、制御部31が各種処理を行うために使用するワークエリアを備える。 The control unit 31 is composed of a CPU, ROM, RAM, etc. The CPU loads programs related to the processing of the video creation device 3 stored in storage media such as the memory unit 32 and ROM into a work area on the RAM and executes them. The ROM is a non-volatile memory, and permanently stores programs such as the boot program and BIOS, as well as data. The RAM is a volatile memory, and temporarily stores programs and data loaded from the memory unit 32, ROM, etc., and also has a work area that the control unit 31 uses to perform various processes.

記憶部32はハードディスクドライブやソリッドステートドライブ、フラッシュメモリ等であり、制御部31が実行するプログラム、プログラム実行に必要なデータ、OSなどが格納される。これらのプログラムやデータは、制御部31により必要に応じて読み出され実行される。 The storage unit 32 is a hard disk drive, solid state drive, flash memory, etc., and stores the programs executed by the control unit 31, data necessary for program execution, the OS, etc. These programs and data are read and executed by the control unit 31 as necessary.

入力部33は動画作成装置3に各種の設定入力を行うものである。
表示部34は例えば液晶ディスプレイ等である。
通信部35はネットワーク等を介した通信を媒介する通信インタフェースであり、ドローン2や動画送信装置4等との間で通信を行う。
The input unit 33 is used to input various settings to the moving image creation device 3 .
The display unit 34 is, for example, a liquid crystal display.
The communication unit 35 is a communication interface that mediates communication via a network, etc., and communicates with the drone 2, video transmission device 4, etc.

図1の説明に戻る。動画送信装置4は、動画作成装置3により作成された新たな動画をユーザの求めに応じてユーザ端末(不図示)に送信し、ダウンロードさせるものである。 Returning to the explanation of FIG. 1, the video transmission device 4 transmits new videos created by the video creation device 3 to a user terminal (not shown) at the user's request, allowing the user to download the videos.

図4は動画送信装置4のハードウェア構成を示す図である。動画送信装置4としては、動画作成装置3の制御部31、記憶部32、通信部35と同様の制御部41、記憶部42、通信部43を有するコンピュータを用いることができる。 Figure 4 is a diagram showing the hardware configuration of the video transmission device 4. As the video transmission device 4, a computer having a control unit 41, a storage unit 42, and a communication unit 43 similar to the control unit 31, storage unit 32, and communication unit 35 of the video creation device 3 can be used.

(2.編集パターン100)
本実施形態では、動画作成装置3の記憶部32に、各ドローン2により撮影された動画を編集し、新たな動画を作成するための編集パターンが格納される。
(2. Editing Pattern 100)
In this embodiment, the memory unit 32 of the video creation device 3 stores editing patterns for editing the videos shot by each drone 2 and creating new videos.

図5はこの編集パターン100の内容を示す図である。編集パターン100では、各ドローン2でユーザを撮影した動画のどの時間帯の部分を切り出すか、および、当該切り出した部分をどの順でつなげるかが定められる。 Figure 5 shows the contents of this editing pattern 100. Editing pattern 100 determines which time periods of the video footage of the user captured by each drone 2 are to be cut out, and in what order the cut-out parts are to be connected.

例えば図5の例では、3台のドローンA、B、Cが、それぞれユーザを正面から寄りのアングルで撮影するもの、ユーザを背面から引きのアングルで撮影するもの、ユーザを正面から引きのアングルで撮影するものであり、ドローンAで撮影した動画の0~10秒の部分a、ドローンBで撮影した動画の10~20秒の部分b、ドローンCで撮影した動画の20~30秒の部分c、ドローンAで撮影した動画の30~40秒の部分dを切り出し、これらをa~dの順につなげて新たな動画を作成することが示されている。 For example, in the example in Figure 5, three drones A, B, and C film the user from the front at a close angle, one from behind at a wide angle, and one from the front at a wide angle, respectively. A section a from 0 to 10 seconds into the video filmed by drone A, a section b from 10 to 20 seconds into the video filmed by drone B, a section c from 20 to 30 seconds into the video filmed by drone C, and a section d from 30 to 40 seconds into the video filmed by drone A are cut out and then joined in the order a to d to create a new video.

ドローンA~Cは、例えば図6(a)に示すように、山間部でスタート地点10からゴール地点20まで掛け渡したワイヤを滑車により滑り降りるジップラインなどのアクティビティーにおいて、ユーザSがスタート地点10からゴール地点20に到達するまでの間、ユーザSの動画を撮影し続ける。 For example, as shown in FIG. 6(a), drones A to C continuously capture video of user S from start point 10 to goal point 20 during an activity such as zip lining, where user S slides down a wire suspended from a start point 10 to a goal point 20 in a mountainous area using a pulley.

各ドローンA~Cで撮影した動画を図5で説明した編集パターン100を用いて編集することで、図6(b)に示すように、スタート地点10にいて期待を述べるユーザSを正面・寄りで撮影した映像~滑車でワイヤを滑り降りるユーザSを背面から引きで撮影した映像~同ユーザSを正面から引きで撮影した映像~ゴール地点20で感想を述べるユーザSを正面・寄りで撮影した映像、といったストーリーを有する動画200を新たに作成できる。 By editing the videos taken by each drone A to C using the editing pattern 100 described in FIG. 5, a new video 200 can be created with a story, as shown in FIG. 6(b), including a close-up frontal shot of user S expressing his/her expectations at the starting point 10, a long-distance shot of user S sliding down a wire on a pulley, a long-distance shot of user S from the front, and a close-up frontal shot of user S expressing his/her impressions at the goal point 20.

(4.動画作成方法)
次に、図7等を参照して本実施形態の動画作成システム1において実行される処理(動画作成方法)について説明する。図7はこの処理について示すフローチャートであり、S1~S4の処理はドローン2の制御部21がドローン2の各部を制御して実行し、S5~S8の処理は動画作成装置3の制御部31が動画作成装置3の各部を制御して実行する。
(4. How to create a video)
Next, the process (movie creation method) executed in the movie creation system 1 of this embodiment will be described with reference to Fig. 7 etc. Fig. 7 is a flowchart showing this process, in which the control unit 21 of the drone 2 controls each unit of the drone 2 to execute the processes of S1 to S4, and the control unit 31 of the movie creation device 3 controls each unit of the movie creation device 3 to execute the processes of S5 to S8.

本実施形態では、まず各ドローン2によって図8に示すようにユーザSの画像101を撮影し(S1)、当該画像101中のユーザSを各ドローン2によって追尾する追尾対象として設定する(S2)。 In this embodiment, first, an image 101 of a user S is captured by each drone 2 as shown in FIG. 8 (S1), and the user S in the image 101 is set as a tracking target to be tracked by each drone 2 (S2).

その後、ユーザSはジップラインを楽しみ、各ドローン2は、図6(a)に示したように、ユーザSがスタート地点10からゴール地点20に到達するまでの間、ユーザSを自動追尾しつつ動画撮影を行う(S3)。各ドローン2は、撮影している動画中のユーザSの大きさや姿勢(形状)がS2で設定した画像101中のユーザSと変わらないように、一定のアングルでユーザSを撮影するべく撮像部23を含む機体の制御を行う。 After that, user S enjoys riding the zip line, and each drone 2 automatically tracks user S and shoots video from the time user S reaches starting point 10 to goal point 20, as shown in FIG. 6(a) (S3). Each drone 2 controls the aircraft, including the imaging unit 23, to shoot user S at a certain angle so that the size and posture (shape) of user S in the video being shot remain the same as those of user S in the image 101 set in S2.

撮影を終えると、各ドローン2はユーザを撮影した動画を動画作成装置3に送信し(S4)、動画作成装置3はこれらの動画を受信する(S5)。 After completing the filming, each drone 2 transmits the video of the user to the video creation device 3 (S4), and the video creation device 3 receives these videos (S5).

そして、動画作成装置3は、前記した編集パターン100に基づき、各ドローン2で撮影した動画の一部を切り出して当該一部をつなぎ合わせる編集処理を行い、新たな動画200を作成する(S6)。 Then, based on the editing pattern 100 described above, the video creation device 3 performs an editing process of cutting out parts of the videos shot by each drone 2 and splicing the parts together to create a new video 200 (S6).

動画作成装置3は、作成した動画200を動画送信装置4に送信する(S7)とともに、当該動画200をダウンロードするためのダウンロードチケットを図示しないプリンタで印刷するなどしてユーザSに発行する(S8)。 The video creation device 3 transmits the created video 200 to the video transmission device 4 (S7), and issues a download ticket for downloading the video 200 to the user S, for example by printing it on a printer not shown (S8).

ダウンロードチケットでは、例えば動画送信装置4が提供する動画ダウンロード用のウェブサイトのURLなどが二次元コードなどとして印刷される。ユーザは、当該二次元コードをユーザ端末(不図示)で読み取るなどして上記ウェブサイトにアクセスし、S6で作成された動画200を動画送信装置4からユーザ端末にダウンロードすることができる。 On the download ticket, for example, the URL of a website for downloading videos provided by the video transmission device 4 is printed as a two-dimensional code. The user can access the website by reading the two-dimensional code with a user terminal (not shown), and download the video 200 created in S6 from the video transmission device 4 to the user terminal.

以上説明したように、本実施形態によれば、ユーザSを複数台のドローン2により異なるアングルで撮影した複数の動画から、編集パターン100に基づいて新たな動画200を作成する。これにより、時間帯ごとに異なるアングルの被写体の映像が再生される興趣のある動画200を得ることができる。また動画の切り貼りは編集パターン100に基づき自動的に行われるので、編集に時間や手間がかかることもなく、専門的な技術も不要である。 As described above, according to this embodiment, a new video 200 is created based on the editing pattern 100 from multiple videos of the user S captured at different angles by multiple drones 2. This makes it possible to obtain an interesting video 200 in which footage of the subject is played at different angles for each time period. In addition, the videos are automatically cut and pasted based on the editing pattern 100, so editing does not take much time or effort, and no specialized skills are required.

また本実施形態ではドローン2の自動追尾機能を利用することでドローン2の操作負担が軽減され、また異なるアングルでユーザを撮影する複数台のドローン2を用いることで、ドローン2の自動追尾機能を利用した場合であっても各ドローン2で撮影した動画の切り貼りによって興趣のある動画200を作成できる。 In addition, in this embodiment, the automatic tracking function of the drone 2 is used to reduce the burden of operating the drone 2, and by using multiple drones 2 that shoot the user from different angles, an interesting video 200 can be created by cutting and pasting together videos shot by each drone 2, even when the automatic tracking function of the drone 2 is used.

また、作成した動画200は動画送信装置4によりユーザに提供することで、観光地等での動画提供サービスを実現できる。 In addition, the created video 200 can be provided to users via the video transmission device 4, making it possible to realize a video provision service at tourist spots, etc.

しかしながら、本発明が以上の実施形態に限られることはない。例えば編集パターン100は前記に限らず何パターンか考えられ、ユーザSを正面・引きのアングルで撮影した映像~ユーザSを正面・寄りのアングルで撮影した映像~ユーザSを正面・引きのアングルで撮影した映像~ユーザSを背面・引きのアングルで撮影した映像~ユーザSを背面・寄りのアングルで撮影した映像をこの順に連続して再生するパターンとすることも可能である。 However, the present invention is not limited to the above embodiment. For example, the editing pattern 100 is not limited to the above, and several patterns are possible, and it is also possible to play back the following images in succession in the order: video of user S shot from a frontal wide angle - video of user S shot from a frontal close-up angle - video of user S shot from a frontal wide-up angle - video of user S shot from a rear wide-up angle - video of user S shot from a rearal close-up angle.

また動画の切り出しを行う範囲(時間帯)を、動画の内容に応じて当初の編集パターン100から変更することも可能である。例えば動画解析により、引きのアングルの動画でユーザSが喋っていると推定される場合は、ユーザSが喋っている時間帯の動画を編集後の動画200に盛り込むため、当該動画の切り出しを行う範囲をユーザSが喋っている間だけ当初の編集パターン100より延長してもよい。また、いずれかのドローン2で撮影された動画において、ユーザSの声が大きいと判定される時間帯がある場合は、その時間帯の動画を新たな動画200に盛り込むといったことも可能である。 The range (time period) for cutting out the video can also be changed from the original editing pattern 100 depending on the content of the video. For example, if video analysis indicates that user S is speaking in a video shot from a wide angle, the range for cutting out the video can be extended from the original editing pattern 100 by the time while user S is speaking, in order to include the video during the time period when user S is speaking in the edited video 200. Also, if there is a time period in the video shot by any drone 2 where user S's voice is determined to be loud, it is possible to include the video during that time period in the new video 200.

また、ユーザの撮影を行う撮影装置は、そのうち少なくとも1つがドローン2であればよく、他の撮影装置は固定カメラやユーザが装着するヘルメットに取り付けたカメラであってもよい。この場合も、これらの撮影装置に対応して前記の編集パターン100を予め作成しておけば、前記と同様に編集パターン100を用いて動画編集を行うことで興趣のある動画が簡単に得られる。 In addition, at least one of the imaging devices that captures the user's image may be a drone 2, and the other imaging devices may be fixed cameras or cameras attached to a helmet worn by the user. In this case, if the editing patterns 100 are created in advance in correspondence with these imaging devices, an interesting video can be easily obtained by editing the video using the editing patterns 100 in the same manner as described above.

また、ドローン2によってユーザを自動追尾しつつ動画を撮影する際のアングルを、前記の編集パターン100と同様の考え方により撮影パターンとして設定し、記憶部22に格納することで、前記した編集後の動画200と同等の動画を1台のドローン2により撮影することも可能である。 In addition, by setting the angle at which the drone 2 automatically tracks the user while shooting the video as a shooting pattern based on the same concept as the editing pattern 100 described above and storing it in the memory unit 22, it is possible to shoot a video equivalent to the edited video 200 described above using a single drone 2.

図9(a)は上記の撮影パターン100aの一例であり、それぞれのアングルでユーザSを撮影する時間帯を定めたものである。各アングルは互いに異なり、図9(a)の例では、0~10秒の間は正面・寄りのアングルで、10~20秒の間は背面・引きのアングルで、20~30秒の間は正面・引きのアングルで、30~40秒の間は正面・寄りのアングルでユーザSを撮影することが示されている。 Figure 9(a) is an example of the above-mentioned shooting pattern 100a, which defines the time periods during which user S is shot at each angle. Each angle is different, and in the example of Figure 9(a), user S is shot at a frontal close-up angle from 0 to 10 seconds, a rearward wide-angle from 10 to 20 seconds, a frontal wide-angle from 20 to 30 seconds, and a frontal close-up angle from 30 to 40 seconds.

このような撮影パターン100aを、必要に応じて前記の特許文献1で示されるようなドローンの飛行ルート設定技術と組み合わせることで、図9(b)の矢印に示すようにドローン2が飛行しながらユーザSの撮影を行い、前記した編集後の動画200と同等の動画を得ることができる。なお各アングルで自動追尾を行う際の追尾対象は前記のS1~S2と同様に予め設定しておき、ドローン2は飛行中、撮影パターン100aで指定された時間帯ごとに追尾対象を切り替える。 By combining such shooting pattern 100a with the drone flight route setting technology as shown in the above-mentioned Patent Document 1 as necessary, the drone 2 can fly while shooting the user S as shown by the arrow in Figure 9 (b), and a video equivalent to the above-mentioned edited video 200 can be obtained. Note that the tracking target when performing automatic tracking at each angle is set in advance in the same way as S1 to S2 described above, and the drone 2 switches the tracking target during flight for each time period specified in the shooting pattern 100a.

また本実施形態では被写体を人物(ユーザS)としたが、被写体はこれに限ることはない。例えば動物であってもよいし、自転車や自動車などの乗り物であってもよい。 In this embodiment, the subject is a person (user S), but the subject is not limited to this. For example, the subject may be an animal or a vehicle such as a bicycle or a car.

また本発明の動画作成システム1を適用する場面は、前記のようなジップラインに限らず、ラフティングやスキー、巨大滑り台などの各種のアクティビティーであってよく、またその他の観光地に適用することも可能である。さらに、本発明の動画作成システム1は観光地以外で適用することも可能であり、例えば運動会などで適用することも可能である。 The video creation system 1 of the present invention can be used in a variety of activities, such as rafting, skiing, and giant slides, and can also be used in other tourist destinations. The video creation system 1 of the present invention can also be used in other places than tourist destinations, such as sports days.

以上、添付図面を参照して、本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The above describes preferred embodiments of the present invention with reference to the attached drawings, but the present invention is not limited to these examples. It is clear that a person skilled in the art can come up with various modified or revised examples within the scope of the technical ideas disclosed in this application, and it is understood that these also naturally fall within the technical scope of the present invention.

1:動画作成システム
2:ドローン
3:動画作成装置
4:動画送信装置
100:編集パターン
100a:撮影パターン
200:動画
1: Video creation system 2: Drone 3: Video creation device 4: Video transmission device 100: Editing pattern 100a: Shooting pattern 200: Video

Claims (5)

ドローンを含む複数の撮影装置で撮影した被写体であるユーザの動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成システムであって、
それぞれ異なるアングルで被写体の動画を撮影する前記複数の撮影装置と、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置と、
前記動画作成装置によって作成された動画を前記ユーザのユーザ端末に送信する動画送信装置と、
を有し、
前記動画作成装置は、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更することを特徴とする動画作成システム。
A video creation system that uses videos of a user, the subject of the video, captured by multiple imaging devices including a drone, to create a new video in which footage of the subject from different angles is played back for each time period,
The plurality of image capturing devices each capture a moving image of a subject from a different angle;
a video creation device that creates the new video by cutting out parts of the videos of the subject captured by each of the image capture devices and connecting the parts based on an editing pattern that defines which time periods to cut out from the videos of the subject captured at each angle and in what order to connect the cut out parts;
a video transmission device that transmits the video created by the video creation device to a user terminal of the user;
having
The video creation system is characterized in that the video creation device performs video analysis to change the time period for cutting out the video from the initial editing pattern depending on the content of the video .
前記ドローンは、一定のアングルで被写体が撮影されるように自動追尾を行うことを特徴とする請求項1記載の動画作成システム。 The video production system according to claim 1, characterized in that the drone automatically tracks the subject so that the subject is photographed at a fixed angle. 前記複数の撮影装置には、異なるアングルで被写体を撮影する複数の前記ドローンが含まれることを特徴とする請求項2記載の動画作成システム。 The video production system according to claim 2, characterized in that the multiple image capture devices include multiple drones that capture images of a subject from different angles. それぞれ異なるアングルで被写体であるユーザの動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記ユーザのユーザ端末に送信される前記新たな動画を作成し、
前記新たな動画を作成する際、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更することを特徴とする動画作成装置。
A video creation device that uses videos of a subject taken by a plurality of imaging devices, including a drone, each of which takes a video of a user as a subject from a different angle, to create a new video in which the video of the subject is played back at different angles for each time period,
creating the new video to be transmitted to the user terminal of the user by cutting out portions of the videos of the subject shot by each shooting device and connecting the portions based on an editing pattern that defines which time periods to cut out from the videos of the subject shot at each angle and in what order to connect the cut out portions ;
The video creation device is characterized in that, when creating the new video, the device performs video analysis to change the time period for cutting out the video from the original editing pattern depending on the content of the video .
コンピュータを、
それぞれ異なるアングルで被写体であるユーザの動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記ユーザのユーザ端末に送信される前記新たな動画を作成し、
前記新たな動画を作成する際、動画解析を行うことで、動画の切り出しを行う時間帯を、動画の内容に応じて当初の前記編集パターンから変更する動画作成装置として機能させるためのプログラム。
Computer,
A video creation device that uses videos of a subject taken by a plurality of imaging devices, including a drone, each of which takes a video of a user as a subject from a different angle, to create a new video in which the video of the subject is played back at different angles for each time period,
creating the new video to be transmitted to the user terminal of the user by cutting out portions of the videos of the subject shot by each shooting device and connecting the portions based on an editing pattern that defines which time periods to cut out from the videos of the subject shot at each angle and in what order to connect the cut out portions ;
A program for functioning as a video creation device that, when creating the new video, performs video analysis to change the time period for cutting out the video from the original editing pattern depending on the content of the video .
JP2020052137A 2020-03-24 2020-03-24 Video creation system, video creation device, and program Active JP7505219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052137A JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052137A JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Publications (2)

Publication Number Publication Date
JP2021153218A JP2021153218A (en) 2021-09-30
JP7505219B2 true JP7505219B2 (en) 2024-06-25

Family

ID=77887396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052137A Active JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Country Status (1)

Country Link
JP (1) JP7505219B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293431A (en) 2004-04-02 2005-10-20 Fujitsu Ltd Device, method and program for integrating multimedia data
JP2016123069A (en) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server and terminal apparatus
JP2017022650A (en) 2015-07-14 2017-01-26 カシオ計算機株式会社 Imaging system, portable device, imaging apparatus, camera selection method, and program
JP6369538B2 (en) 2014-04-25 2018-08-08 ソニー株式会社 Information processing apparatus, information processing method, computer-readable medium, and imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293431A (en) 2004-04-02 2005-10-20 Fujitsu Ltd Device, method and program for integrating multimedia data
JP6369538B2 (en) 2014-04-25 2018-08-08 ソニー株式会社 Information processing apparatus, information processing method, computer-readable medium, and imaging system
JP2016123069A (en) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server and terminal apparatus
JP2017022650A (en) 2015-07-14 2017-01-26 カシオ計算機株式会社 Imaging system, portable device, imaging apparatus, camera selection method, and program

Also Published As

Publication number Publication date
JP2021153218A (en) 2021-09-30

Similar Documents

Publication Publication Date Title
KR102415637B1 (en) Electronic apparatus and method for controlling same
EP2059029B1 (en) Image composition determining apparatus, image composition determining method and program
US7483061B2 (en) Image and audio capture with mode selection
US9154727B2 (en) Imaging device and imaging device control method
US8199221B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US7995794B2 (en) Remote control of an image capturing unit in a portable electronic device
US20110090357A1 (en) Digital camera with automatic functions
JP2010062853A (en) Image processing apparatus, method and program
JP2006086933A (en) Imaging device and control method
JP4639965B2 (en) Imaging apparatus, image processing method, and program
JP2009199586A (en) Information processing apparatus and control method thereof
JP4894162B2 (en) camera
JP6056551B2 (en) Image processing program and digital camera
JP7505219B2 (en) Video creation system, video creation device, and program
WO2019127111A1 (en) Photographing system, carrier device, photographing device and control method therefor
CN108419052A (en) A kind of more unmanned plane method for panoramic imaging
JP2010087899A (en) Imaging apparatus, control method thereof, and program
WO2019227352A1 (en) Flight control method and aircraft
JP2010087598A (en) Photographic apparatus, photographic control method and program therefor, image display apparatus, image display method and program therefor, and photographic system, control method therefor and program therefor
JP2003069888A (en) Digital camera with multi-photographing function
WO2016154794A1 (en) Image processing method, apparatus and device, and image shooting system
Gatcum Complete Photography: Understand cameras to take, edit and share better photos
JP7287146B2 (en) photography system
JP5027069B2 (en) Imaging device
WO2021181965A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240527