JP2021153218A - Video creation system, video creation device, drone and program - Google Patents

Video creation system, video creation device, drone and program Download PDF

Info

Publication number
JP2021153218A
JP2021153218A JP2020052137A JP2020052137A JP2021153218A JP 2021153218 A JP2021153218 A JP 2021153218A JP 2020052137 A JP2020052137 A JP 2020052137A JP 2020052137 A JP2020052137 A JP 2020052137A JP 2021153218 A JP2021153218 A JP 2021153218A
Authority
JP
Japan
Prior art keywords
video
subject
moving image
drone
time zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020052137A
Other languages
Japanese (ja)
Other versions
JP7505219B2 (en
Inventor
雄幸 山田
Takeyuki Yamada
雄幸 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2020052137A priority Critical patent/JP7505219B2/en
Publication of JP2021153218A publication Critical patent/JP2021153218A/en
Application granted granted Critical
Publication of JP7505219B2 publication Critical patent/JP7505219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a video creation system that can easily provide interesting videos captured by using a drone or the like.SOLUTION: A video creation system 1 creates a new video in which an image of a subject in different angles for each time zone is reproduced, using the video of the subject taken by a plurality of drones 2. The video creation system 1 includes the drone 2, a video creation device 3, and a video transmission device 4, and the like. The drone 2 takes video of the subject from different angles. The video creation device 3 creates a new video by connecting the parts together by cutting out a part of the video of the subject that is taken with each drone 2 on the basis of an editing pattern that defines which time zone part of the video of the subject taken in each angle is cut out and in what order the cut-out parts are connected.SELECTED DRAWING: Figure 1

Description

本発明は、動画作成システム、動画作成装置、ドローンおよびプログラムに関する。 The present invention relates to a moving image creation system, a moving image producing device, a drone and a program.

観光地などでは、ユーザの写真を撮影し、その画像をユーザに提供するサービスが存在する。ユーザはその画像を見返して、観光地であった出来事などを思い出して楽しむことができる。 In tourist spots and the like, there is a service that takes a picture of a user and provides the image to the user. The user can look back at the image and enjoy remembering what happened at the tourist spot.

このようなサービスをより魅力的なものとするため、ユーザに動画を提供することが考えられる。ただし、観光中のユーザを撮影者によって撮影し続けることは難しい。 In order to make such a service more attractive, it is conceivable to provide a video to the user. However, it is difficult for the photographer to continue shooting the tourist user.

このような問題を解決するための一つの手段として、ドローンを用いてユーザを撮影し続けることが考えられる。特許文献1にはドローンを用いた撮影技術の一例が記載されており、ドローンが指定されたルートで飛行して撮影を行うことが開示されている。 As one means for solving such a problem, it is conceivable to continue shooting the user using a drone. Patent Document 1 describes an example of a shooting technique using a drone, and discloses that the drone flies on a designated route and shoots.

特許第6369538号Patent No. 6369538

ドローンの操作には専門的な技術が必要であり、だれでもできるといったわけではない。ドローンの自動追尾機能を利用した撮影を行うことで操作の負担は軽減できるものの、自動追尾機能は、最初に設定したアングルで被写体が撮影されつづけるようにドローンの機体制御を行うものであるため、動画が単調になりがちである。 Operating a drone requires specialized skills, and not everyone can do it. Although the burden of operation can be reduced by shooting using the drone's automatic tracking function, the automatic tracking function controls the drone's aircraft so that the subject continues to be shot at the initially set angle. Videos tend to be monotonous.

この点、ドローンで撮影した動画の編集により興趣のある動画を作成することも考えられるが、動画編集には時間や手間もかかり、専門的な技術も必要である。 In this regard, it is conceivable to create an interesting video by editing a video shot with a drone, but video editing takes time and effort, and requires specialized skills.

本発明は上記の問題に鑑みてなされたものであり、ドローン等を用いて撮影した興趣のある動画を簡単に提供できる動画作成システム等を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a moving image creation system or the like that can easily provide an interesting moving image taken by using a drone or the like.

前述した課題を解決するための第1の発明は、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成システムであって、それぞれ異なるアングルで被写体の動画を撮影する前記複数の撮影装置と、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置と、を有することを特徴とする動画作成システムである。 The first invention for solving the above-mentioned problems is to create a new moving image in which an image of a subject at a different angle is reproduced for each time zone by using a moving image of a subject taken by a plurality of photographing devices including a drone. It is a video creation system, and the plurality of shooting devices that shoot a video of a subject from different angles, which time zone part of the video in which the subject is shot at each angle is cut out, and which part is cut out. Based on an editing pattern that determines whether to connect in order, it has a video creation device that creates the new video by cutting out a part of the video of the subject shot by each shooting device and joining the parts together. It is a video creation system characterized by this.

本発明では、観光地を訪れたユーザ等の被写体をドローンを含む複数の撮影装置により異なるアングルで撮影した複数の動画から、上記の編集パターンに基づいて新たな動画を作成する。これにより、時間帯ごとに異なるアングルの被写体の映像が再生される興趣のある動画を得ることができる。また動画の切り貼りは編集パターンに基づき自動的に行われるので、編集に時間や手間がかかることもなく、専門的な技術も不要である。 In the present invention, a new moving image is created based on the above editing pattern from a plurality of moving images in which a subject such as a user who has visited a tourist spot is photographed at different angles by a plurality of photographing devices including a drone. As a result, it is possible to obtain an interesting moving image in which the image of the subject at a different angle is reproduced for each time zone. In addition, since the video is cut and pasted automatically based on the editing pattern, editing does not take time and effort, and no specialized technique is required.

前記ドローンは、例えば、一定のアングルで被写体が撮影されるように自動追尾を行う。また前記複数の撮影装置には、異なるアングルで被写体を撮影する複数の前記ドローンが含まれることも望ましい。
ドローンの自動追尾機能を利用することでドローンの操作負担が軽減され、また異なるアングルで被写体を撮影する複数のドローンを用いることで、ドローンの自動追尾機能を利用した場合であっても各ドローンで撮影した動画の切り貼りによって興趣のある動画を作成できる。
The drone automatically tracks, for example, so that the subject is photographed at a constant angle. It is also desirable that the plurality of photographing devices include a plurality of the drones that photograph a subject from different angles.
By using the automatic tracking function of the drone, the operation burden of the drone is reduced, and by using multiple drones that shoot the subject from different angles, even if the automatic tracking function of the drone is used, each drone You can create interesting videos by cutting and pasting the shot videos.

また、前記動画作成装置によって作成された動画をユーザ端末に送信する動画送信装置をさらに有することも望ましい。
作成された動画を動画送信装置によりユーザに提供することで、観光地等での動画提供サービスを実現できる。
It is also desirable to have a moving image transmitting device that transmits the moving image created by the moving image creating device to the user terminal.
By providing the created video to the user by the video transmitting device, it is possible to realize a video providing service at a tourist spot or the like.

第2の発明は、それぞれ異なるアングルで被写体の動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成することを特徴とする動画作成装置である。
第2の発明は、第1の発明の動画作成システムにおける動画作成装置である。
The second invention is a new moving image in which a moving image of a subject at a different angle is reproduced for each time zone by using a moving image of the subject taken by a plurality of shooting devices including a drone, which shoots a moving image of the subject at different angles. It is a video creation device that creates a video, and each shooting is based on an editing pattern that defines which time zone part of the video in which the subject was shot at each angle and in what order the cut out parts are connected. The moving image creating device is characterized in that a new moving image is created by cutting out a part of a moving image of a subject photographed by the device and joining the part.
The second invention is a moving image producing device in the moving image producing system of the first invention.

第3の発明は、時間帯ごとに異なるアングルで被写体の動画を撮影するドローンであって、それぞれのアングルで被写体を撮影する時間帯を定めた撮影パターンに基づき、被写体を自動追尾して被写体の動画を撮影することを特徴とするドローンである。
前記した編集パターンと同様の考え方で上記の撮影パターンを定めることで、一台のドローンによって前記した新たな動画(編集後の動画)と同等の動画を撮影することができ、また動画の編集作業も不要になる。
The third invention is a drone that shoots a moving image of a subject at different angles for each time zone, and automatically tracks the subject based on a shooting pattern that defines a time zone for shooting the subject at each angle. It is a drone characterized by shooting movies.
By defining the above shooting pattern in the same way as the above-mentioned editing pattern, it is possible to shoot a video equivalent to the above-mentioned new video (edited video) with one drone, and the video editing work. Is no longer needed.

第4の発明は、コンピュータを、それぞれ異なるアングルで被写体の動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置として機能させるためのプログラムである。
第4の発明は、第2の発明の動画作成装置のプログラムである。
The fourth invention uses a computer to shoot a moving image of a subject at different angles, and uses a moving image of the subject taken by a plurality of shooting devices including a drone, and reproduces a moving image of the subject at a different angle for each time zone. It is a video creation device that creates a new video, and is based on an editing pattern that defines which time zone part of the video in which the subject was shot at each angle and in what order the cut out parts are connected. , This is a program for functioning as a moving image creating device for creating the new moving image by cutting out a part of a moving image of a subject photographed by each photographing device and joining the part.
The fourth invention is a program of the moving image producing device of the second invention.

本発明により、ドローン等を用いて撮影した興趣のある動画を簡単に提供できる動画作成システム等を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a moving image creation system or the like that can easily provide an interesting moving image taken by using a drone or the like.

動画作成システム1を示す図。The figure which shows the moving image creation system 1. ドローン2のハードウェア構成を示す図。The figure which shows the hardware configuration of the drone 2. 動画作成装置3のハードウェア構成を示す図。The figure which shows the hardware configuration of the moving image creation apparatus 3. 動画送信装置4のハードウェア構成を示す図。The figure which shows the hardware configuration of the moving image transmission apparatus 4. 編集パターン100を示す図。The figure which shows the edit pattern 100. ドローン2によるユーザの撮影と編集後の新たな動画200について説明する図。The figure explaining the new moving image 200 after the user shooting and editing by the drone 2. 動画作成システム1において実行される処理を示すフローチャート。The flowchart which shows the process executed in the moving image creation system 1. 追尾対象の設定について説明する図。The figure explaining the setting of the tracking target. 一台のドローン2によりユーザを撮影する例。An example of shooting a user with one drone 2.

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(1.動画作成システム1)
図1は、本発明の実施形態に係る動画作成システム1を示す図である。本実施形態の動画作成システム1は、ドローン2、動画作成装置3、動画送信装置4等を有し、観光地等を訪れたユーザに対し、ユーザを撮影した動画を提供するために用いられる。
(1. Video creation system 1)
FIG. 1 is a diagram showing a moving image creation system 1 according to an embodiment of the present invention. The moving image creation system 1 of the present embodiment has a drone 2, a moving image creating device 3, a moving image transmitting device 4, and the like, and is used to provide a moving image taken by the user to a user who visits a tourist spot or the like.

ドローン2は、飛行しつつユーザ(被写体)の動画を撮影する撮影装置であり、特に本実施形態では画像認識を用いた既知の技術によりユーザを一定のアングルで自動追尾する自動追尾機能を有している。 The drone 2 is a photographing device that captures a moving image of a user (subject) while flying, and in particular, in the present embodiment, it has an automatic tracking function that automatically tracks the user at a fixed angle by a known technique using image recognition. ing.

本実施形態では複数台のドローン2が用意され、それぞれ異なるアングルでユーザを撮影する。本実施形態において、「アングル」とは、撮影装置(ドローン2)によってユーザが撮影されるときの撮影方向やユーザの大きさ(「寄り」「引き」等)をいい、ユーザと撮影装置との位置関係等によって定まる。 In this embodiment, a plurality of drones 2 are prepared, and the user is photographed from different angles. In the present embodiment, the “angle” refers to the shooting direction and the size of the user (“close”, “pull”, etc.) when the user is shot by the shooting device (drone 2), and the user and the shooting device. It is determined by the positional relationship.

図2はドローン2のハードウェア構成を示す図である。図2に示すように、ドローン2は、制御部21、記憶部22、撮像部23、機体駆動部24、無線通信部25等を有する。 FIG. 2 is a diagram showing a hardware configuration of the drone 2. As shown in FIG. 2, the drone 2 includes a control unit 21, a storage unit 22, an imaging unit 23, an airframe drive unit 24, a wireless communication unit 25, and the like.

制御部21は、例えばCPU等を有する演算処理装置であり、ドローン2の飛行および撮影を行うための各種の機体制御を行う。 The control unit 21 is an arithmetic processing unit having, for example, a CPU or the like, and controls various aircraft for flying and photographing the drone 2.

記憶部22は、例えばフラッシュメモリ等であり、撮像部23によって撮像された動画データを格納する。 The storage unit 22 is, for example, a flash memory or the like, and stores moving image data captured by the imaging unit 23.

撮像部23は、光学レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子、A/D(Analog/Digital)変換部等から構成される高解像度のエリアカメラである。撮像部23は、光学レンズを介して入力された被写体像を撮像素子により光電変換し、アナログ画像信号を生成する。そして、A/D変換部によりアナログ画像信号をデジタル画像データに変換する。 The image pickup unit 23 is a high-resolution area camera composed of an optical lens, an image pickup element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide Semiconductor), and an A / D (Analog / Digital) conversion unit. .. The image pickup unit 23 photoelectrically converts the subject image input via the optical lens by the image pickup element to generate an analog image signal. Then, the analog image signal is converted into digital image data by the A / D conversion unit.

機体駆動部24は、ドローン2の機体を動作させるための駆動機構である。機体駆動部24は、例えば、ドローン2の飛行用のプロペラを回転させたり、撮像部23の位置や向きを変化させたりすることができる。 The machine body drive unit 24 is a drive mechanism for operating the body of the drone 2. The airframe drive unit 24 can, for example, rotate the flight propeller of the drone 2 and change the position and orientation of the image pickup unit 23.

無線通信部25は、ドローン2の操作端末(不図示)や動画作成装置3との間で信号やデータの送受信を無線にて行うものである。 The wireless communication unit 25 wirelessly transmits and receives signals and data to and from the operation terminal (not shown) of the drone 2 and the moving image creating device 3.

図1の説明に戻る。動画作成装置3は、ドローン2で撮影した動画を編集することで、新たな動画を作成するものである。 Returning to the description of FIG. The moving image creation device 3 creates a new moving image by editing the moving image taken by the drone 2.

図3は動画作成装置3のハードウェア構成を示す図である。図3に示すように、動画作成装置3は、例えば制御部31、記憶部32、入力部33、表示部34、通信部35等をバスにより接続して構成したコンピュータにより実現できる。但しこれに限ることなく、適宜様々な構成をとることができる。 FIG. 3 is a diagram showing a hardware configuration of the moving image creation device 3. As shown in FIG. 3, the moving image creation device 3 can be realized by, for example, a computer configured by connecting a control unit 31, a storage unit 32, an input unit 33, a display unit 34, a communication unit 35, and the like by a bus. However, the present invention is not limited to this, and various configurations can be taken as appropriate.

制御部31はCPU、ROM、RAMなどから構成される。CPUは、記憶部32、ROMなどの記憶媒体に格納された動画作成装置3の処理に係るプログラムをRAM上のワークエリアに呼び出して実行する。ROMは不揮発性メモリであり、ブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは揮発性メモリであり、記憶部32、ROMなどからロードしたプログラムやデータを一時的に保持するとともに、制御部31が各種処理を行うために使用するワークエリアを備える。 The control unit 31 is composed of a CPU, ROM, RAM, and the like. The CPU calls and executes a program related to the processing of the moving image creation device 3 stored in the storage medium such as the storage unit 32 and the ROM in the work area on the RAM. ROM is a non-volatile memory that permanently holds programs such as boot programs and BIOS, and data. The RAM is a volatile memory, and includes a work area used by the control unit 31 to perform various processes while temporarily holding programs and data loaded from the storage unit 32, ROM, and the like.

記憶部32はハードディスクドライブやソリッドステートドライブ、フラッシュメモリ等であり、制御部31が実行するプログラム、プログラム実行に必要なデータ、OSなどが格納される。これらのプログラムやデータは、制御部31により必要に応じて読み出され実行される。 The storage unit 32 is a hard disk drive, a solid state drive, a flash memory, or the like, and stores a program executed by the control unit 31, data necessary for program execution, an OS, and the like. These programs and data are read out and executed by the control unit 31 as needed.

入力部33は動画作成装置3に各種の設定入力を行うものである。
表示部34は例えば液晶ディスプレイ等である。
通信部35はネットワーク等を介した通信を媒介する通信インタフェースであり、ドローン2や動画送信装置4等との間で通信を行う。
The input unit 33 inputs various settings to the moving image creation device 3.
The display unit 34 is, for example, a liquid crystal display or the like.
The communication unit 35 is a communication interface that mediates communication via a network or the like, and communicates with the drone 2 or the moving image transmitting device 4 or the like.

図1の説明に戻る。動画送信装置4は、動画作成装置3により作成された新たな動画をユーザの求めに応じてユーザ端末(不図示)に送信し、ダウンロードさせるものである。 Returning to the description of FIG. The moving image transmitting device 4 transmits a new moving image created by the moving image creating device 3 to a user terminal (not shown) at the request of the user and causes the user terminal (not shown) to download the new moving image.

図4は動画送信装置4のハードウェア構成を示す図である。動画送信装置4としては、動画作成装置3の制御部31、記憶部32、通信部35と同様の制御部41、記憶部42、通信部43を有するコンピュータを用いることができる。 FIG. 4 is a diagram showing a hardware configuration of the moving image transmitting device 4. As the moving image transmitting device 4, a computer having a control unit 31, a storage unit 32, and a control unit 41, a storage unit 42, and a communication unit 43 similar to the communication unit 35 of the moving image creating device 3 can be used.

(2.編集パターン100)
本実施形態では、動画作成装置3の記憶部32に、各ドローン2により撮影された動画を編集し、新たな動画を作成するための編集パターンが格納される。
(2. Editing pattern 100)
In the present embodiment, the storage unit 32 of the moving image creation device 3 stores an editing pattern for editing the moving image taken by each drone 2 and creating a new moving image.

図5はこの編集パターン100の内容を示す図である。編集パターン100では、各ドローン2でユーザを撮影した動画のどの時間帯の部分を切り出すか、および、当該切り出した部分をどの順でつなげるかが定められる。 FIG. 5 is a diagram showing the contents of the editing pattern 100. In the editing pattern 100, it is determined which time zone portion of the moving image shot by the user with each drone 2 is cut out, and in what order the cut out portions are connected.

例えば図5の例では、3台のドローンA、B、Cが、それぞれユーザを正面から寄りのアングルで撮影するもの、ユーザを背面から引きのアングルで撮影するもの、ユーザを正面から引きのアングルで撮影するものであり、ドローンAで撮影した動画の0〜10秒の部分a、ドローンBで撮影した動画の10〜20秒の部分b、ドローンCで撮影した動画の20〜30秒の部分c、ドローンAで撮影した動画の30〜40秒の部分dを切り出し、これらをa〜dの順につなげて新たな動画を作成することが示されている。 For example, in the example of FIG. 5, three drones A, B, and C each shoot the user at an angle closer to the front, the user at a pulling angle from the back, and the user at a pulling angle from the front. 0-10 seconds part a of the video shot with drone A, 10-20 seconds part b of the video shot with drone B, 20-30 seconds part of the video shot with drone C c, It is shown that a part d of 30 to 40 seconds of the moving image taken by the drone A is cut out and these are connected in the order of a to d to create a new moving image.

ドローンA〜Cは、例えば図6(a)に示すように、山間部でスタート地点10からゴール地点20まで掛け渡したワイヤを滑車により滑り降りるジップラインなどのアクティビティーにおいて、ユーザSがスタート地点10からゴール地点20に到達するまでの間、ユーザSの動画を撮影し続ける。 In the drones A to C, for example, as shown in FIG. 6A, in an activity such as a zip line in which a wire hung from a start point 10 to a goal point 20 is slid down by a pulley in a mountainous area, the user S starts from the start point 10. The video of the user S is continuously recorded until the goal point 20 is reached.

各ドローンA〜Cで撮影した動画を図5で説明した編集パターン100を用いて編集することで、図6(b)に示すように、スタート地点10にいて期待を述べるユーザSを正面・寄りで撮影した映像〜滑車でワイヤを滑り降りるユーザSを背面から引きで撮影した映像〜同ユーザSを正面から引きで撮影した映像〜ゴール地点20で感想を述べるユーザSを正面・寄りで撮影した映像、といったストーリーを有する動画200を新たに作成できる。 By editing the moving images shot by each of the drones A to C using the editing pattern 100 described in FIG. 5, as shown in FIG. Video taken in-Video of user S sliding down the wire with a pulley pulled from the back-Video shot of the same user S pulled from the front-Video taken of user S expressing his impressions at goal point 20 in front / closer A new video 200 having a story such as, can be created.

(4.動画作成方法)
次に、図7等を参照して本実施形態の動画作成システム1において実行される処理(動画作成方法)について説明する。図7はこの処理について示すフローチャートであり、S1〜S4の処理はドローン2の制御部21がドローン2の各部を制御して実行し、S5〜S8の処理は動画作成装置3の制御部31が動画作成装置3の各部を制御して実行する。
(4. Video creation method)
Next, the process (video creation method) executed in the moving image creation system 1 of the present embodiment will be described with reference to FIG. 7 and the like. FIG. 7 is a flowchart showing this process. The control unit 21 of the drone 2 controls each part of the drone 2 to execute the processes of S1 to S4, and the control unit 31 of the moving image creation device 3 executes the processes of S5 to S8. Each part of the moving image creation device 3 is controlled and executed.

本実施形態では、まず各ドローン2によって図8に示すようにユーザSの画像101を撮影し(S1)、当該画像101中のユーザSを各ドローン2によって追尾する追尾対象として設定する(S2)。 In the present embodiment, each drone 2 first captures an image 101 of the user S as shown in FIG. 8 (S1), and the user S in the image 101 is set as a tracking target to be tracked by each drone 2 (S2). ..

その後、ユーザSはジップラインを楽しみ、各ドローン2は、図6(a)に示したように、ユーザSがスタート地点10からゴール地点20に到達するまでの間、ユーザSを自動追尾しつつ動画撮影を行う(S3)。各ドローン2は、撮影している動画中のユーザSの大きさや姿勢(形状)がS2で設定した画像101中のユーザSと変わらないように、一定のアングルでユーザSを撮影するべく撮像部23を含む機体の制御を行う。 After that, the user S enjoys the zip line, and each drone 2 automatically tracks the user S from the start point 10 to the goal point 20 as shown in FIG. 6A. Take a moving image (S3). Each drone 2 has an imaging unit to shoot the user S at a constant angle so that the size and posture (shape) of the user S in the moving image being shot are the same as those of the user S in the image 101 set in S2. Controls the aircraft including 23.

撮影を終えると、各ドローン2はユーザを撮影した動画を動画作成装置3に送信し(S4)、動画作成装置3はこれらの動画を受信する(S5)。 When the shooting is finished, each drone 2 transmits the moving images taken by the user to the moving image creating device 3 (S4), and the moving image creating device 3 receives these moving images (S5).

そして、動画作成装置3は、前記した編集パターン100に基づき、各ドローン2で撮影した動画の一部を切り出して当該一部をつなぎ合わせる編集処理を行い、新たな動画200を作成する(S6)。 Then, the moving image creation device 3 cuts out a part of the moving image taken by each drone 2 based on the above-mentioned editing pattern 100, performs an editing process of joining the part, and creates a new moving image 200 (S6). ..

動画作成装置3は、作成した動画200を動画送信装置4に送信する(S7)とともに、当該動画200をダウンロードするためのダウンロードチケットを図示しないプリンタで印刷するなどしてユーザSに発行する(S8)。 The moving image creation device 3 transmits the created moving image 200 to the moving image transmitting device 4 (S7), and prints a download ticket for downloading the moving image 200 with a printer (not shown) to issue the created moving image 200 to the user S (S8). ).

ダウンロードチケットでは、例えば動画送信装置4が提供する動画ダウンロード用のウェブサイトのURLなどが二次元コードなどとして印刷される。ユーザは、当該二次元コードをユーザ端末(不図示)で読み取るなどして上記ウェブサイトにアクセスし、S6で作成された動画200を動画送信装置4からユーザ端末にダウンロードすることができる。 In the download ticket, for example, the URL of the video download website provided by the video transmission device 4 is printed as a two-dimensional code or the like. The user can access the website by reading the two-dimensional code with a user terminal (not shown) or the like, and download the moving image 200 created in S6 from the moving image transmitting device 4 to the user terminal.

以上説明したように、本実施形態によれば、ユーザSを複数台のドローン2により異なるアングルで撮影した複数の動画から、編集パターン100に基づいて新たな動画200を作成する。これにより、時間帯ごとに異なるアングルの被写体の映像が再生される興趣のある動画200を得ることができる。また動画の切り貼りは編集パターン100に基づき自動的に行われるので、編集に時間や手間がかかることもなく、専門的な技術も不要である。 As described above, according to the present embodiment, a new moving image 200 is created based on the editing pattern 100 from a plurality of moving images in which the user S is shot by a plurality of drones 2 at different angles. As a result, it is possible to obtain an interesting moving image 200 in which an image of a subject having a different angle is reproduced for each time zone. Further, since the cutting and pasting of the moving image is automatically performed based on the editing pattern 100, editing does not take time and effort, and no specialized technique is required.

また本実施形態ではドローン2の自動追尾機能を利用することでドローン2の操作負担が軽減され、また異なるアングルでユーザを撮影する複数台のドローン2を用いることで、ドローン2の自動追尾機能を利用した場合であっても各ドローン2で撮影した動画の切り貼りによって興趣のある動画200を作成できる。 Further, in the present embodiment, the operation load of the drone 2 is reduced by using the automatic tracking function of the drone 2, and the automatic tracking function of the drone 2 is provided by using a plurality of drones 2 that shoot the user from different angles. Even when it is used, it is possible to create an interesting moving image 200 by cutting and pasting the moving image taken by each drone 2.

また、作成した動画200は動画送信装置4によりユーザに提供することで、観光地等での動画提供サービスを実現できる。 Further, by providing the created moving image 200 to the user by the moving image transmitting device 4, it is possible to realize a moving image providing service at a sightseeing spot or the like.

しかしながら、本発明が以上の実施形態に限られることはない。例えば編集パターン100は前記に限らず何パターンか考えられ、ユーザSを正面・引きのアングルで撮影した映像〜ユーザSを正面・寄りのアングルで撮影した映像〜ユーザSを正面・引きのアングルで撮影した映像〜ユーザSを背面・引きのアングルで撮影した映像〜ユーザSを背面・寄りのアングルで撮影した映像をこの順に連続して再生するパターンとすることも可能である。 However, the present invention is not limited to the above embodiments. For example, the editing pattern 100 is not limited to the above, and several patterns can be considered. An image of the user S taken at a front / pulling angle-an image of the user S taken at a front / near angle-a user S at a front / pulling angle It is also possible to use a pattern in which the captured image-the image of the user S taken at the back / pulling angle-the image of the user S taken at the back / close angle are continuously reproduced in this order.

また動画の切り出しを行う範囲(時間帯)を、動画の内容に応じて当初の編集パターン100から変更することも可能である。例えば動画解析により、引きのアングルの動画でユーザSが喋っていると推定される場合は、ユーザSが喋っている時間帯の動画を編集後の動画200に盛り込むため、当該動画の切り出しを行う範囲をユーザSが喋っている間だけ当初の編集パターン100より延長してもよい。また、いずれかのドローン2で撮影された動画において、ユーザSの声が大きいと判定される時間帯がある場合は、その時間帯の動画を新たな動画200に盛り込むといったことも可能である。 It is also possible to change the range (time zone) for cutting out the moving image from the initial editing pattern 100 according to the content of the moving image. For example, if it is estimated by video analysis that user S is speaking in a video with a pulling angle, the video is cut out in order to include the video in the time zone in which user S is speaking in the edited video 200. The range may be extended from the original editing pattern 100 only while the user S is speaking. Further, if there is a time zone in which the voice of the user S is determined to be loud in the moving image shot by any of the drones 2, it is possible to include the moving image in that time zone in the new moving image 200.

また、ユーザの撮影を行う撮影装置は、そのうち少なくとも1つがドローン2であればよく、他の撮影装置は固定カメラやユーザが装着するヘルメットに取り付けたカメラであってもよい。この場合も、これらの撮影装置に対応して前記の編集パターン100を予め作成しておけば、前記と同様に編集パターン100を用いて動画編集を行うことで興趣のある動画が簡単に得られる。 Further, at least one of the photographing devices for photographing the user may be the drone 2, and the other photographing devices may be a fixed camera or a camera attached to a helmet worn by the user. In this case as well, if the above-mentioned editing pattern 100 is created in advance corresponding to these photographing devices, an interesting moving image can be easily obtained by editing the moving image using the editing pattern 100 in the same manner as described above. ..

また、ドローン2によってユーザを自動追尾しつつ動画を撮影する際のアングルを、前記の編集パターン100と同様の考え方により撮影パターンとして設定し、記憶部22に格納することで、前記した編集後の動画200と同等の動画を1台のドローン2により撮影することも可能である。 Further, the angle at which a moving image is shot while automatically tracking the user by the drone 2 is set as a shooting pattern based on the same concept as the editing pattern 100, and is stored in the storage unit 22. It is also possible to shoot a moving image equivalent to the moving image 200 with one drone 2.

図9(a)は上記の撮影パターン100aの一例であり、それぞれのアングルでユーザSを撮影する時間帯を定めたものである。各アングルは互いに異なり、図9(a)の例では、0〜10秒の間は正面・寄りのアングルで、10〜20秒の間は背面・引きのアングルで、20〜30秒の間は正面・引きのアングルで、30〜40秒の間は正面・寄りのアングルでユーザSを撮影することが示されている。 FIG. 9A is an example of the above-mentioned shooting pattern 100a, and defines the time zone for shooting the user S at each angle. Each angle is different from each other. In the example of FIG. 9A, the front / close angle is for 0 to 10 seconds, the back / pull angle is for 10 to 20 seconds, and the back / pull angle is for 20 to 30 seconds. It is shown that the user S is photographed at a front / pull angle and at a front / close angle for 30 to 40 seconds.

このような撮影パターン100aを、必要に応じて前記の特許文献1で示されるようなドローンの飛行ルート設定技術と組み合わせることで、図9(b)の矢印に示すようにドローン2が飛行しながらユーザSの撮影を行い、前記した編集後の動画200と同等の動画を得ることができる。なお各アングルで自動追尾を行う際の追尾対象は前記のS1〜S2と同様に予め設定しておき、ドローン2は飛行中、撮影パターン100aで指定された時間帯ごとに追尾対象を切り替える。 By combining such a shooting pattern 100a with a drone flight route setting technique as shown in Patent Document 1 as necessary, the drone 2 is flying as shown by the arrow in FIG. 9B. The user S can be photographed to obtain a moving image equivalent to the edited moving image 200 described above. The tracking target for automatic tracking at each angle is set in advance in the same manner as in S1 to S2 described above, and the drone 2 switches the tracking target every time zone specified by the shooting pattern 100a during flight.

また本実施形態では被写体を人物(ユーザS)としたが、被写体はこれに限ることはない。例えば動物であってもよいし、自転車や自動車などの乗り物であってもよい。 Further, in the present embodiment, the subject is a person (user S), but the subject is not limited to this. For example, it may be an animal or a vehicle such as a bicycle or a car.

また本発明の動画作成システム1を適用する場面は、前記のようなジップラインに限らず、ラフティングやスキー、巨大滑り台などの各種のアクティビティーであってよく、またその他の観光地に適用することも可能である。さらに、本発明の動画作成システム1は観光地以外で適用することも可能であり、例えば運動会などで適用することも可能である。 Further, the scene in which the moving image creation system 1 of the present invention is applied is not limited to the zip line as described above, but may be various activities such as rafting, skiing, and a huge slide, and may be applied to other tourist spots. It is possible. Further, the moving image creation system 1 of the present invention can be applied to a place other than a tourist spot, and can be applied to, for example, an athletic meet.

以上、添付図面を参照して、本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the present invention have been described above with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the technical idea disclosed in the present application, and these also naturally belong to the technical scope of the present invention. Understood.

1:動画作成システム
2:ドローン
3:動画作成装置
4:動画送信装置
100:編集パターン
100a:撮影パターン
200:動画
1: Video creation system 2: Drone 3: Video creation device 4: Video transmission device 100: Editing pattern 100a: Shooting pattern 200: Video

Claims (7)

ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成システムであって、
それぞれ異なるアングルで被写体の動画を撮影する前記複数の撮影装置と、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置と、
を有することを特徴とする動画作成システム。
It is a video creation system that creates a new video that reproduces the video of the subject from different angles for each time zone using the video of the subject shot by multiple shooting devices including drones.
The plurality of shooting devices that shoot moving images of the subject from different angles, and
A part of the video of the subject shot by each shooting device based on the editing pattern that defines which time zone part of the video of the subject shot at each angle and in what order the cut out parts are connected. A video creation device that creates the new video by cutting out and joining the parts together.
A video creation system characterized by having.
前記ドローンは、一定のアングルで被写体が撮影されるように自動追尾を行うことを特徴とする請求項1記載の動画作成システム。 The moving image creation system according to claim 1, wherein the drone automatically tracks so that a subject is photographed at a constant angle. 前記複数の撮影装置には、異なるアングルで被写体を撮影する複数の前記ドローンが含まれることを特徴とする請求項2記載の動画作成システム。 The moving image creation system according to claim 2, wherein the plurality of photographing devices include a plurality of the drones that photograph a subject from different angles. 前記動画作成装置によって作成された動画をユーザ端末に送信する動画送信装置をさらに有することを特徴とする請求項1から請求項3のいずれかに記載の動画作成システム。 The moving image creation system according to any one of claims 1 to 3, further comprising a moving image transmitting device for transmitting a moving image created by the moving image creating device to a user terminal. それぞれ異なるアングルで被写体の動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成することを特徴とする動画作成装置。
A video creation device that creates a new video that reproduces the video of the subject at different angles for each time zone, using the video of the subject shot with multiple shooting devices including drones, which shoots the video of the subject from different angles. And
A part of the video of the subject shot by each shooting device based on the editing pattern that defines which time zone part of the video of the subject shot at each angle and in what order the cut out parts are connected. A moving image creating device characterized in that a new moving image is created by cutting out and joining the parts thereof.
時間帯ごとに異なるアングルで被写体の動画を撮影するドローンであって、
それぞれのアングルで被写体を撮影する時間帯を定めた撮影パターンに基づき、被写体を自動追尾して被写体の動画を撮影することを特徴とするドローン。
It is a drone that shoots a movie of the subject from a different angle for each time zone.
A drone that automatically tracks the subject and shoots a movie of the subject based on a shooting pattern that defines the time zone for shooting the subject at each angle.
コンピュータを、
それぞれ異なるアングルで被写体の動画を撮影する、ドローンを含む複数の撮影装置で撮影した被写体の動画を用い、時間帯ごとに異なるアングルの被写体の映像が再生される新たな動画を作成する動画作成装置であって、
それぞれのアングルで被写体を撮影した動画のどの時間帯の部分を切り出すか、および切り出した前記部分をどの順でつなげるかを定めた編集パターンに基づき、各撮影装置で撮影した被写体の動画の一部を切り出して当該一部をつなぎ合わせることで、前記新たな動画を作成する動画作成装置として機能させるためのプログラム。
Computer,
A video creation device that creates a new video that reproduces the video of the subject at different angles for each time zone, using the video of the subject shot with multiple shooting devices including drones, which shoots the video of the subject from different angles. And
A part of the video of the subject shot by each shooting device based on the editing pattern that defines which time zone part of the video of the subject shot at each angle and in what order the cut out parts are connected. A program for functioning as a moving image creation device for creating the new moving image by cutting out and joining the parts thereof.
JP2020052137A 2020-03-24 2020-03-24 Video creation system, video creation device, and program Active JP7505219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052137A JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052137A JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Publications (2)

Publication Number Publication Date
JP2021153218A true JP2021153218A (en) 2021-09-30
JP7505219B2 JP7505219B2 (en) 2024-06-25

Family

ID=77887396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052137A Active JP7505219B2 (en) 2020-03-24 2020-03-24 Video creation system, video creation device, and program

Country Status (1)

Country Link
JP (1) JP7505219B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4549717B2 (en) 2004-04-02 2010-09-22 富士通株式会社 Multimedia data integration apparatus, multimedia data integration method, and multimedia data integration program
WO2015163012A1 (en) 2014-04-25 2015-10-29 ソニー株式会社 Information processing device, information processing method, program, and imaging system
JP6598109B2 (en) 2014-12-25 2019-10-30 パナソニックIpマネジメント株式会社 Video receiving method and terminal device
JP2017022650A (en) 2015-07-14 2017-01-26 カシオ計算機株式会社 Imaging system, portable device, imaging apparatus, camera selection method, and program

Also Published As

Publication number Publication date
JP7505219B2 (en) 2024-06-25

Similar Documents

Publication Publication Date Title
US7483061B2 (en) Image and audio capture with mode selection
US10469746B2 (en) Camera and camera control method
US8199221B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
EP3713217B1 (en) System and camera device for capturing images
US20110090357A1 (en) Digital camera with automatic functions
JP2022009355A (en) Shooting and sharing head-mounted display content
US20140146203A1 (en) Imaging device and imaging device control method
US20200154004A1 (en) Systems, methods and apparatuses for film virtual production
JP3630147B2 (en) Subject photographing method and camera apparatus
JP2004040724A (en) Camera apparatus and photographing method of object
US9117313B2 (en) Imaging apparatus and image processing method
JP7131388B2 (en) display and program
WO2017036273A1 (en) Imaging method and apparatus
JP2009199586A (en) Information processing apparatus and control method thereof
CN108471503A (en) Picture pick-up device and its control method
US20170332019A1 (en) Imaging apparatus, display method, and program
CN109429005A (en) Image capturing method and device, terminal
KR102155154B1 (en) Method for taking artistic photograph using drone and drone having function thereof
JP2021153218A (en) Video creation system, video creation device, drone and program
JP2010087899A (en) Imaging apparatus, control method thereof, and program
CN105765969B (en) Image treatment method, device and equipment and image shooting system
JP2010081562A (en) Imaging device, method, and program
JP4059241B2 (en) Subject photographing method and camera apparatus
TWI630451B (en) System and method of taking pictures
JP2022029582A (en) Image processing device, user terminal, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240527