JP6710863B2 - Aircraft, control method, and program - Google Patents

Aircraft, control method, and program Download PDF

Info

Publication number
JP6710863B2
JP6710863B2 JP2018137828A JP2018137828A JP6710863B2 JP 6710863 B2 JP6710863 B2 JP 6710863B2 JP 2018137828 A JP2018137828 A JP 2018137828A JP 2018137828 A JP2018137828 A JP 2018137828A JP 6710863 B2 JP6710863 B2 JP 6710863B2
Authority
JP
Japan
Prior art keywords
image
images
imaging device
uav
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018137828A
Other languages
Japanese (ja)
Other versions
JP2020017800A (en
Inventor
明 邵
明 邵
杰旻 周
杰旻 周
慧 徐
慧 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018137828A priority Critical patent/JP6710863B2/en
Publication of JP2020017800A publication Critical patent/JP2020017800A/en
Application granted granted Critical
Publication of JP6710863B2 publication Critical patent/JP6710863B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、移動体、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, a moving object, an image processing method, and a program.

特許文献1には、複数の撮像画像のそれぞれからの短冊画像の切り出し位置をずらしながら、複数のパノラマ画像を生成することで、複数のパノラマ画像からなるパノラマ動画像を得ることが記載されている。
特許文献1 特開2011−66635号公報
Patent Document 1 describes that a panoramic moving image including a plurality of panoramic images is obtained by generating a plurality of panoramic images while shifting the clipping positions of the strip images from the plurality of captured images. ..
Patent Document 1 JP 2011-66635 A

より自然なパノラマ動画像を提供することが望まれている。 It is desired to provide a more natural panoramic video image.

本発明の一態様に係る画像処理装置は、撮像装置が回転または移動している間に撮像装置により撮像された動画を取得する取得部を備えてよい。画像処理装置は、動画を構成する複数の画像のそれぞれについて、複数の画像のうちの一の画像と、複数の画像のうちの一の画像以外の他の画像内の一の画像と重複しない部分画像とを用いて、一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像をそれぞれ生成する第1生成部を備えてよい。画像処理装置は、複数の合成画像で構成される動画を生成する第2生成部を備えてよい。 The image processing device according to an aspect of the present invention may include an acquisition unit that acquires a moving image captured by the image capturing device while the image capturing device is rotating or moving. The image processing device, for each of the plurality of images forming the moving image, a portion that does not overlap with one image of the plurality of images and one of the images other than the one image of the plurality of images. A first generation unit may be included that generates a combined image including a subject in a wider range than the range of the subject included in one image by using the image and the image. The image processing device may include a second generation unit that generates a moving image composed of a plurality of composite images.

第1生成部は、複数の画像のそれぞれについて、一の画像と、複数の画像のうちの一の画像以外の複数の他の画像内の互いに重複せず、かつ一の画像とも重複しないそれぞれの部分画像とを用いて、合成画像のそれぞれを生成してよい。 For each of the plurality of images, the first generation unit does not overlap with each other in the one image and a plurality of other images other than the one image of the plurality of images, and does not overlap with the one image. The partial images may be used to generate each of the composite images.

本発明の一態様に係る移動体は、上記画像処理装置と、撮像装置とを備えて移動する移動体でよい。 The moving body according to one aspect of the present invention may be a moving body that includes the image processing device and the imaging device and moves.

移動体は、撮像装置が特定の対象物を含む動画を撮像できるように、対象物を追尾してよい。 The moving body may track the target object so that the imaging device can capture a moving image including the specific target object.

移動体は、飛行体でよい。被動体は、ホバリングしながら回転することで、対象物を追尾してよい。 The moving body may be a flying body. The driven object may track the object by rotating while hovering.

画像処理方法は、撮像装置が回転または移動している間に撮像装置により撮像された動画を取得する段階を備えてよい。画像処理方法は、動画を構成する複数の画像のそれぞれについて、複数の画像のうちの一の画像と、複数の画像のうちの少なくとも1つの他の画像とを用いて、一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像のそれぞれを生成する段階を備えてよい。画像処理方法は、複数の合成画像で構成される動画を生成する段階を備えてよい。 The image processing method may include a step of acquiring a moving image captured by the image capturing device while the image capturing device is rotating or moving. The image processing method includes, for each of a plurality of images forming a moving image, one image out of the plurality of images and at least one other image out of the plurality of images and is included in the one image. The method may include the step of generating each of the composite images including a subject in a range wider than the range of the subject. The image processing method may include a step of generating a moving image composed of a plurality of composite images.

本発明の一態様に係るプログラムは、上記画像処理装置としてコンピュータを機能させるためのプログラムでよい。 The program according to one aspect of the present invention may be a program for causing a computer to function as the image processing device.

本発明の一態様によれば、より自然なパノラマ動画像を提供することができる。 According to one aspect of the present invention, a more natural panoramic video image can be provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not enumerate all necessary features of the present invention. Further, a sub-combination of these feature groups can also be an invention.

無人航空機及び遠隔操作装置の外観の一例を示す図である。It is a figure showing an example of the appearance of an unmanned aerial vehicle and a remote control. 無人航空機の機能ブロックの一例を示す図である。It is a figure showing an example of a functional block of an unmanned aerial vehicle. 無人航空機の動作の様子の一例を示す図である。It is a figure which shows an example of the mode of operation of an unmanned aerial vehicle. 動画を構成する複数の画像から各合成画像を生成する手順について説明するための図である。It is a figure for demonstrating the procedure which produces|generates each synthetic image from the some image which comprises a moving image. 動画を構成する複数の画像から各合成画像を生成する手順について説明するための図である。It is a figure for demonstrating the procedure which produces|generates each synthetic image from the some image which comprises a moving image. 動画を構成する複数の画像から各合成画像を生成する手順について説明するための図である。It is a figure for demonstrating the procedure which produces|generates each synthetic image from the some image which comprises a moving image. 動画を構成する複数の画像から各合成画像を生成する手順について説明するための図である。It is a figure for demonstrating the procedure which produces|generates each synthetic image from the some image which comprises a moving image. 各合成画像の一例を示す図である。It is a figure which shows an example of each synthetic image. 無人航空機及び撮像装置の動作の手順の一例を示すフローチャートである。It is a flow chart which shows an example of the procedure of operation of an unmanned aerial vehicle and an imaging device. ハードウェア構成の一例を示す図である。It is a figure which shows an example of a hardware constitution.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all combinations of the features described in the embodiments are essential to the solving means of the invention. It is apparent to those skilled in the art that various modifications and improvements can be added to the following embodiments. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction by any person of these documents, as it appears in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。 Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, where a block is (1) a stage of a process in which an operation is performed or (2) a device responsible for performing an operation. "Part" of may be represented. Particular stages and "sections" may be implemented by programmable circuits and/or processors. Dedicated circuitry may include digital and/or analog hardware circuitry. It may include integrated circuits (ICs) and/or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Memory elements and the like.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions executed by a suitable device. As a result, a computer-readable medium having instructions stored therein will comprise a product that includes instructions that may be executed to create the means for performing the operations specified in the flowcharts or block diagrams. Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-Ray (RTM) Disc, Memory Stick, Integrated Circuit cards and the like may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes conventional procedural programming languages. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or Smalltalk, JAVA, C++, etc. It may be an object-oriented programming language, and the "C" programming language or similar programming languages. Computer readable instructions are local or to a wide area network (WAN), such as a local area network (LAN), the Internet, etc., to a processor or programmable circuit of a general purpose computer, a special purpose computer, or other programmable data processing device. ). The processor or programmable circuit may execute computer readable instructions to create a means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図1は、無人航空機(UAV)10及び遠隔操作装置300の外観の一例を示す。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備える。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、移動体の一例である。移動体とは、空中を移動する飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。空中を移動する飛行体とは、UAVの他、空中を移動する他の航空機、飛行船、ヘリコプター等を含む概念である。 FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 10 and a remote control device 300. The UAV 10 includes a UAV body 20, a gimbal 50, a plurality of imaging devices 60, and an imaging device 100. The gimbal 50 and the imaging device 100 are an example of an imaging system. The UAV 10 is an example of a mobile body. The moving body is a concept including a flying body moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like. The air vehicle moving in the air is a concept including UAV, other aircraft moving in the air, an airship, a helicopter, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。 The UAV body 20 includes a plurality of rotary blades. The plurality of rotary blades is an example of the propulsion unit. The UAV main body 20 causes the UAV 10 to fly by controlling the rotation of a plurality of rotor blades. The UAV body 20 flies the UAV 10 by using, for example, four rotary wings. The number of rotor blades is not limited to four. Further, the UAV 10 may be a fixed wing aircraft having no rotary wing.

撮像装置100は、所望の撮像範囲に含まれるオブジェクトを撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。 The imaging device 100 is an imaging camera that images an object included in a desired imaging range. The gimbal 50 rotatably supports the imaging device 100. The gimbal 50 is an example of a support mechanism. For example, the gimbal 50 supports the imaging device 100 using an actuator so as to be rotatable on the pitch axis. The gimbal 50 further supports the imaging device 100 by using an actuator so as to be rotatable about each of a roll axis and a yaw axis. The gimbal 50 may change the attitude of the imaging device 100 by rotating the imaging device 100 around at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。撮像装置60は、撮像装置60の撮像範囲に含まれるオブジェクトの存在、及びオブジェクトまでの距離を計測してよい。撮像装置60は、撮像装置100の撮像方向に存在するオブジェクトを計測する計測装置の一例である。計測装置は、撮像装置100の撮像方向に存在するオブジェクトを計測する赤外線センサ、超音波センサなどの他のセンサでもよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。 The plurality of imaging devices 60 are sensing cameras that capture images around the UAV 10 in order to control the flight of the UAV 10. Two imaging devices 60 may be provided on the front surface of the UAV 10, which is the nose. Still another two imaging devices 60 may be provided on the bottom surface of the UAV 10. The two imaging devices 60 on the front side may be paired and may function as a so-called stereo camera. The two imaging devices 60 on the bottom side may also be paired and function as a stereo camera. The imaging device 60 may measure the presence of an object included in the imaging range of the imaging device 60 and the distance to the object. The imaging device 60 is an example of a measuring device that measures an object existing in the imaging direction of the imaging device 100. The measuring device may be another sensor such as an infrared sensor or an ultrasonic sensor that measures an object existing in the imaging direction of the imaging device 100. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of imaging devices 60 included in the UAV 10 is not limited to four. The UAV 10 only needs to include at least one imaging device 60. The UAV 10 may include at least one imaging device 60 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the UAV 10. The angle of view that can be set by the imaging device 60 may be wider than the angle of view that can be set by the imaging device 100. The imaging device 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。 The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may communicate with the UAV 10 wirelessly. The remote control device 300 transmits instruction information indicating various commands regarding movement of the UAV 10, such as ascending, descending, accelerating, decelerating, moving forward, moving backward, and rotating, to the UAV 10. The instruction information includes, for example, instruction information for increasing the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at the altitude indicated by the instruction information received from the remote control device 300. The instruction information may include a lift command for lifting the UAV 10. The UAV 10 rises while receiving the rise command. Even if the UAV 10 receives the ascent command, the UAV 10 may limit the ascent if the altitude of the UAV 10 reaches the upper limit altitude.

図2は、UAV10の機能ブロックの一例を示す。UAV10は、UAV制御部30、メモリ32、通信インタフェース36、推進部40、GPS受信機41、慣性計測装置42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60及び撮像装置100を備える。 FIG. 2 shows an example of functional blocks of the UAV 10. The UAV 10 includes a UAV control unit 30, a memory 32, a communication interface 36, a propulsion unit 40, a GPS receiver 41, an inertial measurement device 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, and an imaging device. 60 and the imaging device 100.

通信インタフェース36は、遠隔操作装置300などの他の装置と通信する。通信インタフェース36は、遠隔操作装置300からUAV制御部30に対する各種の命令を含む指示情報を受信してよい。メモリ32は、UAV制御部30が、推進部40、GPS受信機41、慣性計測装置(IMU)42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60、及び撮像装置100を制御するのに必要なプログラム等を格納する。メモリ32は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ32は、UAV本体20の内部に設けられてよい。UAV本体20から取り外し可能に設けられてよい。 The communication interface 36 communicates with other devices such as the remote control device 300. The communication interface 36 may receive instruction information including various commands to the UAV control unit 30 from the remote control device 300. In the memory 32, the UAV control unit 30 allows the propulsion unit 40, the GPS receiver 41, the inertial measurement device (IMU) 42, the magnetic compass 43, the barometric altimeter 44, the temperature sensor 45, the humidity sensor 46, the gimbal 50, the imaging device 60, Also, a program and the like necessary for controlling the image pickup apparatus 100 are stored. The memory 32 may be a computer-readable recording medium and may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The memory 32 may be provided inside the UAV body 20. It may be detachably provided from the UAV body 20.

UAV制御部30は、メモリ32に格納されたプログラムに従ってUAV10の飛行及び撮像を制御する。UAV制御部30は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部30は、通信インタフェース36を介して遠隔操作装置300から受信した命令に従って、UAV10の飛行及び撮像を制御する。推進部40は、UAV10を推進させる。推進部40は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。推進部40は、UAV制御部30からの命令に従って複数の駆動モータを介して複数の回転翼を回転させて、UAV10を飛行させる。 The UAV control unit 30 controls the flight and imaging of the UAV 10 according to the program stored in the memory 32. The UAV control unit 30 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like. The UAV control unit 30 controls flight and imaging of the UAV 10 according to a command received from the remote control device 300 via the communication interface 36. The propulsion unit 40 propels the UAV 10. The propulsion unit 40 has a plurality of rotating blades and a plurality of drive motors that rotate the plurality of rotating blades. The propulsion unit 40 rotates a plurality of rotary wings via a plurality of drive motors in accordance with a command from the UAV control unit 30 to fly the UAV 10.

GPS受信機41は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機41は、受信された複数の信号に基づいてGPS受信機41の位置(緯度及び経度)、つまりUAV10の位置(緯度及び経度)を算出する。IMU42は、UAV10の姿勢を検出する。IMU42は、UAV10の姿勢として、UAV10の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス43は、UAV10の機首の方位を検出する。気圧高度計44は、UAV10が飛行する高度を検出する。気圧高度計44は、UAV10の周囲の気圧を検出し、検出された気圧を高度に換算して、高度を検出する。温度センサ45は、UAV10の周囲の温度を検出する。湿度センサ46は、UAV10の周囲の湿度を検出する。 The GPS receiver 41 receives a plurality of signals indicating the times transmitted from a plurality of GPS satellites. The GPS receiver 41 calculates the position (latitude and longitude) of the GPS receiver 41, that is, the position (latitude and longitude) of the UAV 10 based on the received signals. The IMU 42 detects the attitude of the UAV 10. The IMU 42 detects, as the attitude of the UAV 10, the accelerations in the front-rear, left-right, and up-down three-axis directions of the UAV10 and the angular velocities of the pitch, roll, and yaw in the three-axis directions. The magnetic compass 43 detects the heading of the UAV 10 nose. Barometric altimeter 44 detects the altitude at which UAV 10 flies. The barometric altimeter 44 detects the atmospheric pressure around the UAV 10, converts the detected atmospheric pressure into an altitude, and detects the altitude. The temperature sensor 45 detects the temperature around the UAV 10. The humidity sensor 46 detects the humidity around the UAV 10.

撮像装置100は、撮像部102及びレンズ部200を備える。レンズ部200は、レンズ装置の一例である。撮像部102は、イメージセンサ120、撮像制御部110、及びメモリ130を有する。イメージセンサ120は、CCDまたはCMOSにより構成されてよい。イメージセンサ120は、複数のレンズ210を介して結像された光学像を撮像し、撮像された画像データを撮像制御部110に出力する。撮像制御部110は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部110は、UAV制御部30からの撮像装置100の動作命令に応じて、撮像装置100を制御してよい。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ130は、撮像制御部110がイメージセンサ120などを制御するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。 The image pickup apparatus 100 includes an image pickup unit 102 and a lens unit 200. The lens unit 200 is an example of a lens device. The image capturing unit 102 includes an image sensor 120, an image capturing control unit 110, and a memory 130. The image sensor 120 may be composed of CCD or CMOS. The image sensor 120 captures the optical image formed via the plurality of lenses 210 and outputs the captured image data to the imaging control unit 110. The imaging control unit 110 may be configured by a microprocessor such as CPU or MPU, a microcontroller such as MCU, or the like. The imaging control unit 110 may control the imaging device 100 according to an operation command of the imaging device 100 from the UAV control unit 30. The memory 130 may be a computer-readable recording medium and may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory. The memory 130 stores programs and the like required by the imaging control unit 110 to control the image sensor 120 and the like. The memory 130 may be provided inside the housing of the imaging device 100. The memory 130 may be provided so as to be removable from the housing of the imaging device 100.

レンズ部200は、複数のレンズ210、複数のレンズ駆動部212、及びレンズ制御部220を有する。複数のレンズ210は、ズームレンズ、バリフォーカルレンズ、及びフォーカスレンズとして機能してよい。複数のレンズ210の少なくとも一部または全部は、光軸に沿って移動可能に配置される。レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズでよい。レンズ駆動部212は、カム環などの機構部材を介して、複数のレンズ210の少なくとも一部または全部を光軸に沿って移動させる。レンズ駆動部212は、アクチュエータを含んでよい。アクチュエータは、ステッピングモータを含んでよい。レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212を駆動して、機構部材を介して1または複数のレンズ210を光軸方向に沿って移動させる。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令である。 The lens unit 200 includes a plurality of lenses 210, a plurality of lens driving units 212, and a lens control unit 220. The plurality of lenses 210 may function as a zoom lens, a varifocal lens, and a focus lens. At least some or all of the plurality of lenses 210 are movably arranged along the optical axis. The lens unit 200 may be an interchangeable lens that is detachably attached to the imaging unit 102. The lens driving unit 212 moves at least a part or all of the plurality of lenses 210 along the optical axis via a mechanical member such as a cam ring. The lens driving unit 212 may include an actuator. The actuator may include a stepper motor. The lens control unit 220 drives the lens driving unit 212 in accordance with a lens control command from the imaging unit 102, and moves one or a plurality of lenses 210 along the optical axis direction via a mechanical member. The lens control command is, for example, a zoom control command and a focus control command.

レンズ部200は、メモリ222、位置センサ214をさらに有する。レンズ制御部220は、撮像部102からのレンズ動作命令に応じてレンズ駆動部212を介して、レンズ210の光軸方向への移動を制御する。レンズ制御部220は、撮像部102からのレンズ動作命令に応じてレンズ駆動部212を介して、レンズ210の光軸方向への移動を制御する。レンズ210の一部または全部は、光軸に沿って移動する。レンズ制御部220は、レンズ210の少なくとも1つを光軸に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。位置センサ214は、レンズ210の位置を検出する。位置センサ214は、現在のズーム位置またはフォーカス位置を検出してよい。 The lens unit 200 further includes a memory 222 and a position sensor 214. The lens control unit 220 controls the movement of the lens 210 in the optical axis direction via the lens driving unit 212 according to a lens operation command from the image pickup unit 102. The lens control unit 220 controls the movement of the lens 210 in the optical axis direction via the lens driving unit 212 according to a lens operation command from the image pickup unit 102. Part or all of the lens 210 moves along the optical axis. The lens control unit 220 executes at least one of the zoom operation and the focus operation by moving at least one of the lenses 210 along the optical axis. The position sensor 214 detects the position of the lens 210. The position sensor 214 may detect the current zoom position or focus position.

レンズ駆動部212は、振れ補正機構を含んでよい。レンズ制御部220は、振れ補正機構を介して、レンズ210を光軸に沿った方向、または光軸に垂直な方向に移動させることで、振れ補正を実行してよい。レンズ駆動部212は、ステッピングモータにより振れ補正機構を駆動して、振れ補正を実行してよい。なお、振れ補正機構は、ステッピングモータにより駆動されて、イメージセンサ120を光軸に方向に沿った方向、または光軸に垂直な方向に移動させることで、振れ補正を実行してよい。 The lens driving unit 212 may include a shake correction mechanism. The lens controller 220 may execute the shake correction by moving the lens 210 in the direction along the optical axis or in the direction perpendicular to the optical axis via the shake correction mechanism. The lens driving section 212 may drive the shake correction mechanism with a stepping motor to execute shake correction. The shake correction mechanism may be driven by a stepping motor to move the image sensor 120 in a direction along the optical axis or in a direction perpendicular to the optical axis to perform the shake correction.

メモリ222は、レンズ駆動部212を介して移動する複数のレンズ210の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。 The memory 222 stores control values of the plurality of lenses 210 that move via the lens driving unit 212. The memory 222 may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory.

以上のように構成されたUAV10に搭載された撮像装置100において、より自然なパノラマ画像の動画を提供する。 The imaging device 100 mounted on the UAV 10 configured as described above provides a more natural moving image of a panoramic image.

撮像制御部110は、取得部112、及び生成部114を有する。取得部112は、撮像装置100が回転または移動している間に撮像装置100により撮像された動画を取得する。生成部114は、動画を構成する複数の画像のそれぞれについて、一の画像と、複数の画像のうちの一の画像以外の他の画像内の一の画像と重複しない部分画像とを用いて、一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像をそれぞれ生成する。動画を構成する複数の画像のそれぞれは、動画の一フレームごとの画像である。 The imaging control unit 110 has an acquisition unit 112 and a generation unit 114. The acquisition unit 112 acquires a moving image captured by the image capturing apparatus 100 while the image capturing apparatus 100 is rotating or moving. The generation unit 114 uses, for each of the plurality of images that form the moving image, one image and a partial image that does not overlap with one of the images other than one of the plurality of images, A synthetic image including a subject in a range wider than the range of the subject included in one image is generated. Each of the plurality of images forming the moving image is an image for each frame of the moving image.

生成部114は、動画を構成する複数の画像のそれぞれについて、一の画像全体と、複数の画像のうちの一の画像以外の他の画像内の一の画像と重複しない部分画像とを用いて、一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像をそれぞれ生成してよい。生成部114は、複数の画像のそれぞれについて、一の画像と、複数の画像のうちの一の画像以外の複数の他の画像内の互いに重複せず、かつ一の画像とも重複しないそれぞれの部分画像とを用いて、合成画像のそれぞれを生成してよい。生成部114は、複数の画像のそれぞれについて、一の画像全体と、複数の画像のうちの一の画像以外の複数の他の画像内の互いに重複せず、かつ一の画像とも重複しないそれぞれの部分画像とを用いて、合成画像のそれぞれを生成してよい。 The generation unit 114 uses, for each of the plurality of images forming the moving image, the entire one image and a partial image that does not overlap with one of the images other than the one of the plurality of images. A composite image including a subject in a wider range than the range of the subject included in one image may be generated. For each of the plurality of images, the generation unit 114 does not overlap each other in the one image and the plurality of other images other than the one image of the plurality of images, and the respective portions that do not overlap with the one image. The images and may be used to generate each of the composite images. For each of the plurality of images, the generation unit 114 does not overlap each other in the entire one image and a plurality of other images other than the one image of the plurality of images, and does not overlap with the one image. The partial images may be used to generate each of the composite images.

生成部114は、複数の合成画像で構成される動画を生成する。生成部114は、フレームサイズをパノラマ画像に対応するフレームサイズに変更し、それぞれの合成画像をMPEGなどの予め定められた動画圧縮形式で圧縮することで、動画を生成してよい。 The generation unit 114 generates a moving image composed of a plurality of composite images. The generation unit 114 may generate a moving image by changing the frame size to a frame size corresponding to a panoramic image and compressing each composite image in a predetermined moving image compression format such as MPEG.

UAV10は、撮像装置100が特定の対象物を含む動画を撮像できるように、対象物を追尾してよい。UAV10は、ホバリングしながら回転することで、対象物を追尾してよい。UAV10は、例えば、図3に示すように、対象物500の移動に応じて、ホバリングしながらヨー軸を軸回りに回転することで、対象物500を追尾してよい。UAV10が対象物500を追尾している間、撮像装置100は動画を撮像してよい。 The UAV 10 may track the target object so that the imaging device 100 can capture a moving image including the specific target object. The UAV 10 may track an object by rotating while hovering. For example, as shown in FIG. 3, the UAV 10 may track the object 500 by rotating around the yaw axis while hovering in response to the movement of the object 500. The imaging device 100 may capture a moving image while the UAV 10 is tracking the object 500.

なお、取得部112、及び生成部114は、撮像制御部110ではなく、UAV制御部30または遠隔操作装置300などが有してもよい。パーソナルコンピュータ、またはクラウド上のサーバなどの他の装置が取得部112、及び生成部114を有してもよい。 The acquisition unit 112 and the generation unit 114 may be included in the UAV control unit 30, the remote control device 300, or the like, instead of the imaging control unit 110. Another device such as a personal computer or a server on the cloud may include the acquisition unit 112 and the generation unit 114.

例えば、撮像装置100は、UAV10が対象物500を追尾している間に、図4Aに示すように、動画を構成する画像F1〜画像F8を撮像する。取得部112は、撮像装置100により撮像された画像F1〜画像F8を取得する。 For example, the imaging device 100 captures images F1 to F8 that form a moving image as illustrated in FIG. 4A while the UAV 10 is tracking the target object 500. The acquisition unit 112 acquires images F1 to F8 captured by the image capturing apparatus 100.

生成部114は、画像F1〜画像F8のそれぞれについて合成画像を生成する。生成部114は、画像F1〜画像F8のそれぞれについて、一の画像と、複数の画像のうちの一の画像以外の複数の他の画像内の互いに重複せず、かつ一の画像とも重複しないそれぞれの部分画像とを用いて、合成画像のそれぞれを生成してよい。 The generation unit 114 generates a composite image for each of the images F1 to F8. For each of the images F1 to F8, the generation unit 114 does not overlap with each other in one image and a plurality of other images other than the one of the plurality of images, and does not overlap with the one image. The partial images of and may be used to generate each of the composite images.

生成部114は、図4Bに示すように、画像F1について合成画像S1を生成してよい。生成部114は、画像F2のうち画像F1と重複しない部分画像P2を切り出す。生成部114は、画像F3のうち画像F1及び画像F2と重複しない部分画像P3を切り出す。生成部114は、画像F4のうち画像F1〜画像F3と重複しない部分画像P4を切り出す。生成部114は、画像F5のうち画像F1〜画像F4と重複しない部分画像P5を切り出す。生成部114は、画像F6のうち画像F1〜画像F5と重複しない部分画像P6を切り出す。生成部114は、画像F7のうち画像F1〜画像F6と重複しない部分画像P7を切り出す。生成部114は、画像F8のうち画像F1〜画像F7と重複しない部分画像P8を切り出す。生成部114は、画像F1の全体と、部分画像P2〜P8とを用いて、合成画像S1を生成する。 The generation unit 114 may generate the composite image S1 for the image F1 as illustrated in FIG. 4B. The generation unit 114 cuts out a partial image P2 that does not overlap the image F1 from the image F2. The generation unit 114 cuts out a partial image P3 that does not overlap the images F1 and F2 from the image F3. The generation unit 114 cuts out a partial image P4 that does not overlap the images F1 to F3 in the image F4. The generation unit 114 cuts out a partial image P5 that does not overlap the images F1 to F4 in the image F5. The generation unit 114 cuts out a partial image P6 that does not overlap the images F1 to F5 from the image F6. The generation unit 114 cuts out a partial image P7 that does not overlap the images F1 to F6 in the image F7. The generation unit 114 cuts out a partial image P8 that does not overlap the images F1 to F7 in the image F8. The generation unit 114 generates the composite image S1 using the entire image F1 and the partial images P2 to P8.

生成部114は、図4Cに示すように、画像F4の全体と、他の画像F1〜F3及び画像F5〜F8のうち互いに重複せず、かつ画像F4とも重複しないそれぞれの部分画像P1〜P3及び部分画像P5〜P8とを用いて、合成画像S4を生成する。生成部114は、図4Dに示すように、画像F8の全体と、他の画像F1〜F7のうち互いに重複せず、かつ画像F8とも重複しないそれぞれの部分画像P1〜P7とを用いて、合成画像S8を生成する。 As illustrated in FIG. 4C, the generation unit 114 does not overlap the entire image F4 with the other images F1 to F3 and the images F5 to F8 and does not overlap with the image F4. A combined image S4 is generated using the partial images P5 to P8. As shown in FIG. 4D, the generation unit 114 uses the entire image F8 and the partial images P1 to P7 of the other images F1 to F7 that do not overlap with each other and do not overlap with the image F8. The image S8 is generated.

生成部114は、画像F1〜画像F8のそれぞれについて、図5に示すように、合成画像S1〜S8を生成する。生成部114は、合成画像S1〜S8を時系列に再生する動画を生成する。生成部114は、合成画像S1〜S8を予め定められた動画圧縮形式で圧縮することで、動画を生成してよい。 The generation unit 114 generates combined images S1 to S8 for each of the images F1 to F8, as shown in FIG. The generation unit 114 generates a moving image that reproduces the composite images S1 to S8 in time series. The generation unit 114 may generate a moving image by compressing the combined images S1 to S8 in a predetermined moving image compression format.

生成部114は、動画を構成する各フレームの全ての画像の部分画像を利用して合成画像を生成しなくてもよい。生成部114は、例えば、一フレームの画像全体と、その他のフレームのうち少なくとも1つのフレームの部分画像とを用いて合成画像を生成してよい。生成部114は、一フレームの画像全体と、予め定められたフレーム間隔ごとの部分画像とを用いて合成画像を生成してもよい。 The generation unit 114 does not have to generate the composite image by using the partial images of all the images of each frame forming the moving image. The generation unit 114 may generate a composite image using, for example, the entire image of one frame and the partial image of at least one frame of the other frames. The generation unit 114 may generate a composite image by using the entire image of one frame and the partial image for each predetermined frame interval.

合成画像からなる動画の各フレームは、合成前の動画の各フレームのそれぞれに他のフレームの一部を継ぎ足すことで構成される。合成前の動画の各フレームは切り取られずに残っているので、より自然なパノラマ動画像を提供できる。 Each frame of the moving image including the composite image is configured by adding a part of another frame to each of the frames of the moving image before the combination. Since each frame of the moving image before composition remains without being cut off, a more natural panoramic moving image can be provided.

なお、合成前の動画の各フレームの基準となるフレームの画像のサイズは、それぞれの基準のフレームで同じサイズの画像を利用するのであれば、画像全体のサイズでなくてもよい。ただし、この場合でも、基準となるフレームの画像のサイズは、継ぎ足される部分画像のサイズより大きい。 It should be noted that the size of the image of the frame serving as the reference of each frame of the moving image before composition may not be the size of the entire image as long as the images of the same size are used in the respective reference frames. However, even in this case, the size of the image of the reference frame is larger than the size of the partial image to be added.

図6は、パノラマ動画モードにおけるUAV10及び撮像装置100の動作手順の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of an operation procedure of the UAV 10 and the imaging device 100 in the panoramic video mode.

UAV10は、飛行を開始する(S100)。遠隔操作装置300などを介した指示に応じて、UAV10は、動作モードをパノラマ動画モードに設定する(S102)。遠隔操作装置300の画面を介してユーザが追尾対象の対象物を選択する。UAV10は、予め定められた追尾条件に従って自動的に追尾対象の対象物を選択してよい。 The UAV 10 starts flying (S100). The UAV 10 sets the operation mode to the panoramic video mode in response to an instruction via the remote control device 300 or the like (S102). The user selects a tracking target object via the screen of the remote control device 300. The UAV 10 may automatically select an object to be tracked according to a predetermined tracking condition.

UAV10は、ホバリングし、対象物を追尾しながら、撮像装置100がヨー軸回りに回転して動画を撮像する(S104)。生成部114は、動画を構成する画像ごとに各画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像をそれぞれ生成する(S106)。生成部114は、各合成画像を予め定められた動画圧縮形式で圧縮して、各合成画像を動画としてメモリ130またはメモリ32に保存する(S108)。 The UAV 10 hovers and tracks an object, and the imaging device 100 rotates around the yaw axis to capture a moving image (S104). The generation unit 114 generates, for each image forming the moving image, a composite image including a subject in a range wider than the range of the subject included in each image (S106). The generation unit 114 compresses each composite image in a predetermined moving image compression format and stores each composite image as a moving image in the memory 130 or the memory 32 (S108).

以上の通り、本実施形態によれば、動画を構成する各フレームの画像を残しつつ、各フレームのパノラマ画像が生成されるので、より自然なパノラマ動画像を提供することができる。 As described above, according to the present embodiment, a panoramic image of each frame is generated while leaving an image of each frame forming a moving image, and thus a more natural panoramic moving image can be provided.

なお、上記の実施形態では、UAV10に搭載された撮像装置100により対象物を追尾しながら動画を撮像する例について説明した。しかし、撮像装置100はUAV10に搭載されなくてもよい。例えば、ユーザが撮像装置100を手に持って、撮像装置100を回転、または移動させながら、撮像装置100に動画を撮像させてもよい。ユーザは、手持ちジンバル、支持棒などを介して撮像装置100を手に持って、撮像装置100を回転、または移動させながら、撮像装置100に動画を撮像させてもよい。 In the above embodiment, an example has been described in which a moving image is captured while an object is being tracked by the imaging device 100 mounted on the UAV 10. However, the imaging device 100 may not be mounted on the UAV 10. For example, the user may hold the image capturing apparatus 100 in his hand and rotate or move the image capturing apparatus 100 to cause the image capturing apparatus 100 to capture a moving image. The user may hold the image pickup apparatus 100 in his/her hand through a handheld gimbal, a support rod, or the like, and cause the image pickup apparatus 100 to take a moving image while rotating or moving the image pickup apparatus 100.

図7は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 7 illustrates an example computer 1200 in which aspects of the invention may be embodied in whole or in part. The program installed in the computer 1200 can cause the computer 1200 to function as an operation associated with an apparatus according to an embodiment of the present invention or one or more “units” of the apparatus. Alternatively, the program can cause the computer 1200 to execute the operation or the one or more “units”. The program can cause the computer 1200 to execute a process according to the embodiment of the present invention or a stage of the process. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。 The computer 1200 according to this embodiment includes a CPU 1212 and a RAM 1214, which are connected to each other by a host controller 1210. Computer 1200 also includes a communication interface 1222, input/output units, which are connected to host controller 1210 via input/output controller 1220. Computer 1200 also includes ROM 1230. The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。 The communication interface 1222 communicates with other electronic devices via a network. A hard disk drive may store programs and data used by CPU 1212 in computer 1200. The ROM 1230 stores therein a boot program or the like executed by the computer 1200 at the time of activation, and/or a program depending on the hardware of the computer 1200. The program is provided via a computer-readable recording medium such as a CR-ROM, a USB memory or an IC card, or a network. The program is installed in the RAM 1214 or the ROM 1230, which is also an example of a computer-readable recording medium, and is executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and brings about the cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes the communication program loaded in the RAM 1214, and performs the communication process on the communication interface 1222 based on the process described in the communication program. You may order. The communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the RAM 1214 or a recording medium such as a USB memory under the control of the CPU 1212, transmits the read transmission data to the network, or The reception data received from the network is written in the reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 causes the RAM 1214 to read all or necessary portions of a file or database stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 1214. Good. CPU 1212 may then write back the processed data to an external storage medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored on the recording medium and processed. The CPU 1212 may retrieve data read from the RAM 1214 for various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information described elsewhere in this disclosure and specified by the instruction sequence of the program. Various types of processing may be performed, including /replacement, etc., and the result is written back to RAM 1214. Further, the CPU 1212 may search for information in files, databases, etc. in the recording medium. For example, when a plurality of entries each having the attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. That is, the entry that matches the condition is searched from the plurality of entries, the attribute value of the second attribute stored in the entry is read, and thereby the first attribute satisfying the predetermined condition is associated. The attribute value of the acquired second attribute may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The programs or software modules described above may be stored on a computer-readable storage medium on or near computer 1200. Further, a recording medium such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be stored in the computer 1200 via the network. provide.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operations, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is "preceding" or "prior to prior". It should be noted that the output of the previous process can be realized in any order unless it is used in the subsequent process. The operation flow in the claims, the specification, and the drawings is described by using “first,” “next,” and the like for the sake of convenience, but it is essential that the operations are performed in this order. Not a thing.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10 UAV
20 UAV本体
30 UAV制御部
32 メモリ
36 通信インタフェース
40 推進部
41 GPS受信機
42 慣性計測装置
43 磁気コンパス
44 気圧高度計
45 温度センサ
46 湿度センサ
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
110 撮像制御部
112 取得部
114 生成部
120 イメージセンサ
130 メモリ
200 レンズ部
210 レンズ
212 レンズ駆動部
214 位置センサ
220 レンズ制御部
222 メモリ
300 遠隔操作装置
500 対象物
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20 UAV Main Body 30 UAV Control Unit 32 Memory 36 Communication Interface 40 Propulsion Unit 41 GPS Receiver 42 Inertial Measuring Device 43 Magnetic Compass 44 Barometric Altimeter 45 Temperature Sensor 46 Humidity Sensor 50 Gimbal 60 Imaging Device 100 Imaging Device 102 Imaging Unit 110 Imaging Control Unit 112 acquisition unit 114 generation unit 120 image sensor 130 memory 200 lens unit 210 lens 212 lens drive unit 214 position sensor 220 lens control unit 222 memory 300 remote control device 500 target 1200 computer 1210 host controller 1212 CPU
1214 RAM
1220 Input/output controller 1222 Communication interface 1230 ROM

Claims (3)

撮像装置を備えて飛行し、前記撮像装置が特定の対象物を含む動画を撮像できるように、ホバリングしながら回転することで、前記対象物を追尾する飛行体であって、
前記撮像装置により撮像された画像を介して前記対象物が選択されたことに応じて、前記撮像装置が前記対象物を含む動画の撮像を開始すると、前記撮像装置が回転または移動している間に前記撮像装置により撮像された前記動画を取得する取得部と、
前記動画を構成する複数の画像のそれぞれについて、前記複数の画像のうちの一の画像と、前記複数の画像のうちの前記一の画像以外の他の画像内の前記一の画像と重複しない部分画像とを用いて、前記一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像をそれぞれ生成する第1生成部と、
前記特定の対象物を含む複数の前記合成画像で構成される動画を生成する第2生成部と
を備え、
前記第1生成部は、前記複数の画像のそれぞれについて、前記一の画像と、前記複数の画像のうちの前記一の画像以外の複数の他の画像内の互いに重複せず、かつ前記一の画像とも重複しないそれぞれの部分画像とを用いて、前記特定の対象物を含む前記合成画像のそれぞれを生成する、飛行体。
A flying vehicle that is equipped with an imaging device and rotates while hovering so that the imaging device can capture a moving image including a specific object, and is a flying object that tracks the object.
While the imaging device starts capturing a moving image including the target object in response to selection of the target object through the image captured by the imaging device, while the imaging device rotates or moves. An acquisition unit that acquires the moving image captured by the imaging device,
A portion of each of the plurality of images forming the moving image that does not overlap with one of the plurality of images and the other one of the plurality of images other than the one image. A first generation unit that generates a composite image including a subject in a wider range than the range of the subject included in the one image using the image;
A second generation unit configured to generate a moving image composed of the plurality of composite images including the specific object,
For each of the plurality of images, the first generation unit does not overlap with each other in the one image and a plurality of other images other than the one image of the plurality of images, and An air vehicle that generates each of the composite images including the specific object using the respective partial images that do not overlap with the image.
撮像装置を備えて飛行し、前記撮像装置が特定の対象物を含む動画を撮像できるように、ホバリングしながら回転することで、前記対象物を追尾する飛行体の制御方法であって、
前記撮像装置により撮像された画像を介して前記対象物が選択されたことに応じて、前記撮像装置が前記対象物を含む動画の撮像を開始すると、前記撮像装置が回転または移動している間に前記撮像装置により撮像された前記動画を取得する段階と、
前記動画を構成する複数の画像のそれぞれについて、前記複数の画像のうちの一の画像と、前記複数の画像のうちの少なくとも1つの他の画像とを用いて、前記一の画像に含まれる被写体の範囲より広い範囲の被写体を含む合成画像のそれぞれを生成する段階と、
前記特定の対象物を含む複数の前記合成画像で構成される動画を生成する段階と
を備え、
前記合成画像のそれぞれを生成する段階は、前記複数の画像のそれぞれについて、前記一の画像と、前記複数の画像のうちの前記一の画像以外の複数の他の画像内の互いに重複せず、かつ前記一の画像とも重複しないそれぞれの部分画像とを用いて、前記特定の対象物を含む前記合成画像のそれぞれを生成する段階を含む、制御方法。
Fly an image pickup device such that said imaging device can capture a moving image including a specific object, that rotates while hovering, a control method of a flying object for tracking the object,
While the imaging device starts capturing a moving image including the target object in response to selection of the target object through the image captured by the imaging device, while the imaging device rotates or moves. A step of acquiring the moving image captured by the image capturing device,
For each of the plurality of images forming the moving image, a subject included in the one image using one image of the plurality of images and at least one other image of the plurality of images Generating each of the composite images including a wider range of subjects than
Generating a moving image composed of a plurality of the composite images including the specific object,
Generating each of the composite images, for each of the plurality of images, the one image, without overlapping each other in a plurality of other images other than the one image of the plurality of images, And a control method including the step of generating each of the composite images including the specific object using the partial images that do not overlap with the one image.
請求項に記載の飛行体としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the flying object according to claim 1 .
JP2018137828A 2018-07-23 2018-07-23 Aircraft, control method, and program Expired - Fee Related JP6710863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018137828A JP6710863B2 (en) 2018-07-23 2018-07-23 Aircraft, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137828A JP6710863B2 (en) 2018-07-23 2018-07-23 Aircraft, control method, and program

Publications (2)

Publication Number Publication Date
JP2020017800A JP2020017800A (en) 2020-01-30
JP6710863B2 true JP6710863B2 (en) 2020-06-17

Family

ID=69580643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137828A Expired - Fee Related JP6710863B2 (en) 2018-07-23 2018-07-23 Aircraft, control method, and program

Country Status (1)

Country Link
JP (1) JP6710863B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013223080A (en) * 2012-04-16 2013-10-28 Xacti Corp Image processing device
JP6281729B2 (en) * 2015-09-16 2018-02-21 エスゼット ディージェイアイ オスモ テクノロジー カンパニー リミテッドSZ DJI Osmo Technology Co., Ltd. Shooting system

Also Published As

Publication number Publication date
JP2020017800A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP6496955B1 (en) Control device, system, control method, and program
US20210014427A1 (en) Control device, imaging device, mobile object, control method and program
CN111567032A (en) Specifying device, moving object, specifying method, and program
JP6596741B2 (en) Generating apparatus, generating system, imaging system, moving object, generating method, and program
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
JP6587006B2 (en) Moving body detection device, control device, moving body, moving body detection method, and program
JP6481228B1 (en) Determination device, control device, imaging system, flying object, determination method, and program
JP6565072B2 (en) Control device, lens device, flying object, control method, and program
JP2020072289A (en) Image processing apparatus, imaging apparatus, mobile object, image processing method, and program
JP6710863B2 (en) Aircraft, control method, and program
JP6565071B2 (en) Control device, imaging device, flying object, control method, and program
JP6651693B2 (en) Control device, moving object, control method, and program
JP6714802B2 (en) Control device, flying body, control method, and program
JP6668570B2 (en) Control device, imaging device, moving object, control method, and program
JP6641574B1 (en) Determination device, moving object, determination method, and program
JP6572500B1 (en) Image processing apparatus, imaging apparatus, moving object, image processing method, and program
JP6543859B1 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM
JP6696092B2 (en) Control device, moving body, control method, and program
WO2018163300A1 (en) Control device, imaging device, imaging system, moving body, control method, and program
JP6459012B1 (en) Control device, imaging device, flying object, control method, and program
JP6569157B1 (en) Control device, imaging device, moving object, control method, and program
JP6896963B1 (en) Control devices, imaging devices, moving objects, control methods, and programs
JP7003357B2 (en) Control device, image pickup device, moving object, control method, and program
JP6818987B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
JP6707790B2 (en) Control device, imaging device, moving body, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R150 Certificate of patent or registration of utility model

Ref document number: 6710863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees